Vous êtes sur la page 1sur 893

Claude Deschamps | François Moulin | Yoann Gentric

Emmanuel Delsinne | François Lussier | Chloé Mullaert


Serge Nicolas | Jean Nougayrède | Claire Tête

MATHS
MP/MP* MPI/MPI*

TOUT-EN-UN

6e édition
Couverture : création Hokus Pokus, adaptation Studio Dunod

© Dunod, 2022
11 rue Paul Bert, 92240 Malakoff
www.dunod.com
ISBN 978-2-10-084737-2
Table des matières
Avant-propos ix

Mode d’emploi x

Chapitre 1. Groupes, anneaux, arithmétique, algèbres 1


I Anneaux, arithmétique . . . . . . . . . . . . . . . . . . . . . . . . . . 2
II Anneau des polynômes à une indéterminée . . . . . . . . . . . . . . . 12
III Algèbres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
IV Approfondissements sur les groupes . . . . . . . . . . . . . . . . . . . 20
Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
Chapitre 2. Compléments d’algèbre linéaire 43
I Somme finie de sous-espaces vectoriels . . . . . . . . . . . . . . . . . 44
II Écriture par blocs . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
III Sous-espaces stables et endomorphismes induits . . . . . . . . . . . . 57
IV Polynômes d’endomorphismes / de matrices carrées . . . . . . . . . . 60
Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
Chapitre 3. Réduction des endomorphismes 91
I Éléments propres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
II Polynôme caractéristique . . . . . . . . . . . . . . . . . . . . . . . . 100
III Diagonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
IV Trigonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
Chapitre 4. Endomorphismes d’un espace euclidien 157
I Adjoint d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . 158
II Matrices orthogonales . . . . . . . . . . . . . . . . . . . . . . . . . . 160
III Endomorphismes autoadjoints . . . . . . . . . . . . . . . . . . . . . . 163
IV Isométries vectorielles . . . . . . . . . . . . . . . . . . . . . . . . . . 168
Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183
Chapitre 5. Espaces vectoriels normés 199
I Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 200
II Suites d’éléments d’un espace vectoriel normé . . . . . . . . . . . . . 211
III Topologie d’un espace vectoriel normé . . . . . . . . . . . . . . . . . 215
IV Comparaison de normes . . . . . . . . . . . . . . . . . . . . . . . . . 225
Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 238
Table des matières

Chapitre 6. Étude locale d’une application, continuité 253


I Limite d’une application . . . . . . . . . . . . . . . . . . . . . . . . . 254
II Applications continues . . . . . . . . . . . . . . . . . . . . . . . . . . 259
III Continuité et applications linéaires / multilinéaires . . . . . . . . . . 264
Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 275
Chapitre 7. Compacité, connexité, dimension finie 287
I Compacité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 288
II Connexité par arcs . . . . . . . . . . . . . . . . . . . . . . . . . . . . 293
III Espaces vectoriels normés de dimension finie . . . . . . . . . . . . . . 296
Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 308
Chapitre 8. Fonctions vectorielles de la variable réelle 337
I Dérivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 338
II Intégration sur un segment . . . . . . . . . . . . . . . . . . . . . . . 346
III Primitives et intégrales . . . . . . . . . . . . . . . . . . . . . . . . . . 350
IV Formules de Taylor . . . . . . . . . . . . . . . . . . . . . . . . . . . . 351
Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 362
Chapitre 9. Intégration sur un intervalle quelconque 375
I Intégrale généralisée . . . . . . . . . . . . . . . . . . . . . . . . . . . 376
II Propriétés de l’intégrale . . . . . . . . . . . . . . . . . . . . . . . . . 385
III Calcul d’intégrales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 390
IV Intégration des relations de comparaison . . . . . . . . . . . . . . . . 396
Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 406
Chapitre 10. Séries numériques et vectorielles 423
I Séries à valeurs dans un espace de dimension finie . . . . . . . . . . . 424
II Compléments sur les séries numériques . . . . . . . . . . . . . . . . . 429
Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 440
Chapitre 11. Suites et séries de fonctions 453
I Modes de convergence des suites de fonctions . . . . . . . . . . . . . 454
II Convergence uniforme et limites . . . . . . . . . . . . . . . . . . . . . 460
III Intégration, dérivation d’une limite . . . . . . . . . . . . . . . . . . . 461
IV Séries de fonctions . . . . . . . . . . . . . . . . . . . . . . . . . . . . 463
V Approximation uniforme . . . . . . . . . . . . . . . . . . . . . . . . . 471
Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 479
Chapitre 12. Séries entières 505
I Séries entières . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 506
II Régularité de la somme d’une série entière . . . . . . . . . . . . . . . 512
III Développements en série entière . . . . . . . . . . . . . . . . . . . . . 516
Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 526
Chapitre 13. Intégrales à paramètres 549
I Suites et séries d’intégrales . . . . . . . . . . . . . . . . . . . . . . . 550
II Continuité et dérivabilité . . . . . . . . . . . . . . . . . . . . . . . . . 557
Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 567
vi
Table des matières

Chapitre 14. Dénombrabilité 585


I Ensembles dénombrables . . . . . . . . . . . . . . . . . . . . . . . . . 586
II Opérations sur les ensembles dénombrables . . . . . . . . . . . . . . 588
III Exemples d’ensembles infinis non dénombrables . . . . . . . . . . . . 590
Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 594

Chapitre 15. Espaces probabilisés 599


I Espaces probabilisés . . . . . . . . . . . . . . . . . . . . . . . . . . . 600
II Variables aléatoires discrètes . . . . . . . . . . . . . . . . . . . . . . . 608
III Couples de variables aléatoires . . . . . . . . . . . . . . . . . . . . . 613
Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 622

Chapitre 16. Conditionnement – Indépendance 635


I Probabilités conditionnelles . . . . . . . . . . . . . . . . . . . . . . . 636
II Indépendance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 639
Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 652

Chapitre 17. Espérance – Variance 677


I Espérance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 678
II Variance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 684
III Covariance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 686
IV Inégalités probabilistes et loi faible des grands nombres . . . . . . . . 688
V Fonctions génératrices . . . . . . . . . . . . . . . . . . . . . . . . . . 689
Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 703

Chapitre 18. Équations différentielles linéaires 729


I Équations différentielles linéaires d’ordre 1 . . . . . . . . . . . . . . 730
II Exponentielle d’un endomorphisme, d’une matrice . . . . . . . . . . 736
III Systèmes différentiels à coefficients constants . . . . . . . . . . . . . 742
IV Équations différentielles linéaires scalaires d’ordre n . . . . . . . . . 747
V Équations différentielles linéaires scalaires d’ordre 2 . . . . . . . . . 749
Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 767

Chapitre 19. Calcul différentiel 795


I Différentiabilité d’une fonction en un point . . . . . . . . . . . . . . 796
II Fonctions différentiables . . . . . . . . . . . . . . . . . . . . . . . . . 805
III Vecteurs tangents à une partie . . . . . . . . . . . . . . . . . . . . . 815
IV Fonctions de classe C k . . . . . . . . . . . . . . . . . . . . . . . . . . 821
V Optimisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 829
Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 849

vii
Pour Claude

Notre collègue et ami Claude Deschamps


est décédé le 11 mars 2022.
Difficile, Claude, de dissocier ton nom
de celui d’André Warusfel (« Warus »)
qui nous a quittés en 2016.
Vous avez tous les deux dirigé cette collection depuis 1997,
dans la lignée d’une longue série de livres,
dont le dernier avatar, qui porte ton nom,
« Ramis – Deschamps – Odoux », est encore utilisé de nos jours.
Sous votre houlette,
nous avons contribué à ces « Tout-en-un »
dont l’objectif est d’être des ouvrages de référence
pour tous les étudiants et dont le contenu,
accessible à tous, suit à la lettre le programme officiel.
Toute l’équipe de cet ouvrage,
dont certains membres ont été tes élèves,
tient à te rendre hommage en souvenir de tous ces moments
passés à chercher la rédaction idéale
pour transmettre aux étudiants
des notions mathématiques souvent délicates.
Avant-propos
Ce nouveau Tout-en-un de mathématiques vient répondre aux attentes des nou-
veaux programmes de classes préparatoires, entrés en vigueur en septembre 2021 pour
la première année et en septembre 2022 pour la deuxième année. Il reprend l’ambi-
tion des précédentes éditions : faire tenir en un seul volume cours complet et exercices
corrigés.
Ce volume MP - MPI se veut dans la continuité du volume MPSI - MP2I : lors de
son élaboration, l’équipe d’auteurs ne s’est pas contentée d’adapter l’ancien livre au
nouveau programme, mais a repensé chaque chapitre en profondeur, dans un souci
permanent de clarté et de concision.
Il nous tient à cœur de préciser quelques éléments clés de la structure du livre.
• Plutôt que de faire figurer systématiquement, à la suite de l’énoncé d’une pro-
position ou d’un théorème, sa démonstration entièrement rédigée, nous préférons
parfois donner un principe de démonstration (la démonstration complète étant
alors reléguée en fin de chapitre). L’objectif est double :
∗ rendre l’exposé du cours plus concis et plus facile à lire lorsque l’étudiant ne
souhaite pas s’attarder sur les démonstrations ;
∗ l’étudiant, ayant à sa disposition un principe de démonstration, peut soit (en
cas de première lecture) tenter de réfléchir par lui-même à la manière d’élaborer
la preuve complète, soit (en cas lecture ultérieure) se souvenir rapidement de
cette preuve.
• Chaque chapitre se conclut par une série d’exercices permettant à l’étudiant de
s’exercer. Chacun de ces exercices est entièrement corrigé.
∗ Certains de ces exercices ont pour mission de faire appliquer de manière ciblée
un théorème ou une méthode ; sous le numéro de l’exercice est alors indiqué le
numéro de la page du cours associée. Inversement, ces exercices sont signalés
dans la marge, à l’endroit concerné du cours.
S’il n’est pas totalement indispensable de traiter ces exercices lors d’une pre-
mière lecture du cours, leur lien étroit avec celui-ci les rend particulièrement
intéressants pour assimiler les nouvelles notions et méthodes.
∗ L’étudiant trouvera également des exercices d’entraînement un peu plus ambi-
tieux, demandant plus de réflexion. Certains, plus difficiles, sont étoilés.
Bien entendu nous sommes à l’écoute de toute remarque dont les étudiants, nos
collègues, tout lecteur. . . pourraient nous faire part (à l’adresse électronique sui-
vante : touten1maths@gmail.com). Cela nous permettra, le cas échéant, de corriger
certaines erreurs nous ayant échappé et surtout ce contact nous guidera pour une
meilleure exploitation des choix pédagogiques que nous avons faits aujourd’hui dans
cet ouvrage.

François Moulin et Yoann Gentric


« Mode d’emploi » d’un chapitre

Une introduction présente le sujet traité.

Les encadrés correspondent soit à des théorèmes, propositions ou corollaires,


qui partagent le même système de numérotation, soit à des définitions, qui ont leur propre
numérotation.

La démonstration de chaque résultat encadré, lorsqu’elle ne suit pas directement celui-ci, est
indiquée par un renvoi.

Les points de méthode apparaissent sur fond grisé.


Les points auxquels il faut faire particulièrement attention
sont signalés par un filet vertical sur la gauche.

Des renvois vers des exercices peuvent apparaître en marge au sein du cours.

Les exemples sont repérés par deux coins.

Des exercices sont proposés en fin de chapitre, avec éventuellement un rappel du numéro
de la page de cours où se trouve la notion dont l’exercice est une application.

Certains exercices bénéficient d'indications,


et les plus difficiles sont étoilés.

Tous les exercices sont entièrement corrigés.


Chapitre 1 : Groupes, anneaux, arithmétique, algèbres

I Anneaux, arithmétique . . . . . . . . . . . . . . . . . . . 2
1 Rappels et notations . . . . . . . . . . . . . . . . . . . . . 2
2 Anneau produit . . . . . . . . . . . . . . . . . . . . . . . . 3
3 Idéaux d’un anneau commutatif . . . . . . . . . . . . . . 3
4 Divisibilité dans un anneau intègre . . . . . . . . . . . . . 4
5 Retour sur le PGCD dans ZZ . . . . . . . . . . . . . . . . 6
6 L’anneau ZZ/nZZ . . . . . . . . . . . . . . . . . . . . . . . 7
7 Théorème chinois . . . . . . . . . . . . . . . . . . . . . . . 10
8 Indicatrice d’Euler . . . . . . . . . . . . . . . . . . . . . . 11
II Anneau des polynômes à une indéterminée . . . . . . . 12
1 Propriétés arithmétiques élémentaires . . . . . . . . . . . 13
2 Utilisation des idéaux de IK[X] . . . . . . . . . . . . . . . 15
3 Théorème de Gauss et décomposition en produit d’irré-
ductibles . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
III Algèbres . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1 Structure d’algèbre . . . . . . . . . . . . . . . . . . . . . . 17
2 Sous-algèbres . . . . . . . . . . . . . . . . . . . . . . . . . 18
3 Morphismes d’algèbres . . . . . . . . . . . . . . . . . . . . 19
IV Approfondissements sur les groupes . . . . . . . . . . . 20
1 Sous-groupe engendré par une partie . . . . . . . . . . . . 20
2 Groupes monogènes, groupes cycliques . . . . . . . . . . . 21
3 Ordre d’un élément dans un groupe . . . . . . . . . . . . 23
Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
Groupes, anneaux,
arithmétique, algèbres 1

Nous revenons dans ce chapitre sur les structures algébriques usuelles introduites en
première année : groupes, anneaux et corps, notamment en vue de leur utilisation en
arithmétique (dans ZZ et dans IK[X]) et nous les complétons par la notion d’algèbre
dont deux exemples importants en algèbre linéaire (algèbres des endomorphismes et
des matrices carrées) seront étudiés dans le chapitre de réduction des endomorphismes.
Enfin, nous conclurons par des approfondissements sur les groupes.
Dans ce chapitre, nous supposons acquises les notions suivantes vues en première
année :
• groupe, sous-groupe et morphisme de groupes,
• anneau et corps, sous-anneau et morphisme d’anneaux.

I Anneaux, arithmétique
1 Rappels et notations
• Dans un anneau A, le neutre pour l’addition est noté 0 (ou 0A ), le neutre pour
la multiplication 1 (ou 1A ).
• L’anneau est commutatif si la multiplication est commutative (l’addition est com-
mutative par définition).
• Un anneau A est trivial si 1A = 0A ; dans ce cas, A est réduit à cet unique
élément (on dit aussi qu’il est nul).
• Un anneau A est intègre s’il est commutatif, non trivial, et s’il vérifie :
Exo
1.1 ∀(a, b) ∈ A2 ab = 0 =⇒ (a = 0 ou b = 0) .

• Rappelons qu’un corps est un anneau commutatif non trivial dans lequel tout
élément non nul est inversible.
I Anneaux, arithmétique

2 Anneau produit
Soit n ∈ IN∗ .
Proposition 1
Étant donné des anneaux A1 , . . . , An , les opérations terme à terme :
(a1 , . . . , an ) + (b1 , . . . , bn ) = (a1 + b1 , . . . , an + bn )
(a1 , . . . , an ) × (b1 , . . . , bn ) = (a1 b1 , . . . , an bn )
munissent le produit cartésien A1 × · · · × An d’une structure d’anneau.

Démonstration. On sait déjà que (A1 × · · · × An , +) est un groupe (groupe produit) de


neutre (0A1 , . . . , 0An ) . On vérifie facilement que (1A1 , . . . , 1An ) est neutre pour la multipli-
cation. Enfin, les propriétés d’associativité et de distributivité se déduisent immédiatement des
propriétés correspondantes des anneaux (Ai , +, ×) .

Ex. 1. Si A est un anneau, alors An est un anneau, comme produit de n exemplaires de A .


En particulier, IRn et Cn sont des anneaux.
Ex. 2. Dans un anneau produit A1 × · · · × An , les éléments inversibles sont les (a1 , . . . , an ) ,
Exo où ai est inversible dans Ai pour tout i , avec alors (a1 , . . . , an )−1 = (a−1 −1
1 , . . . , an ) .
1.2

3 Idéaux d’un anneau commutatif


Soit A un anneau commutatif.
Définition 1 (Idéal d’un anneau commutatif)
On dit qu’une partie I de A est un idéal de A si :
• I est un sous-groupe de (A, +) ;
• I est stable par multiplication par tout élément de A, c’est-à-dire :
∀x ∈ I ∀a ∈ A xa ∈ I.

Remarque Par commutativité de A, un idéal I de A vérifie aussi :


∀x ∈ I ∀a ∈ A ax ∈ I.

Ex. 3. A et {0} sont évidemment des idéaux de A , appelés idéaux triviaux de A .


Ex. 4. Soit X une partie de IR . L’ensemble des fonctions nulles en tout point de X est un
Exo idéal de F(IR, IR) .
1.3

Exo Remarque
1.4 Si I est un idéal de A contenant 1 , alors ∀a ∈ A a = a.1 ∈ I , donc I = A.

3
Chapitre 1. Groupes, anneaux, arithmétique, algèbres

Attention Soit B un anneau. Le noyau d’un morphisme d’anneaux de A dans B ,


c’est-à-dire son noyau en tant que morphisme de groupes de (A, +) dans (B, +) n’est
pas un sous-anneau de (A, +, ×) si B est non trivial puisqu’alors ϕ(1A ) = 1B �= 0B
et donc que 1A ∈ / Ker ϕ.
En revanche :
Proposition 2
Le noyau de tout morphisme d’anneaux ϕ de A dans un anneau B est un idéal
de A.
Démonstration. C’est un sous-groupe de (A, +) en tant que noyau d’un morphisme de
groupes. Soit x ∈ Ker ϕ et a ∈ A . On a ϕ(ax) = ϕ(a)ϕ(x) = ϕ(a) × 0 = 0 . Donc Ker ϕ est
un idéal de A .
Idéal engendré par un élément
Proposition 3
Une intersection d’idéaux de A est un idéal de A.
Démonstration page 26

Proposition 4
Étant donné une partie X de A, il existe un plus petit idéal de A contenant X .
Démonstration page 26
Principe de démonstration. C’est l’intersection de tous les idéaux de A contenant X .

Terminologie
• On l’appelle idéal de A engendré par X .
• Si x est un élément de A, l’idéal engendré par x est, par définition, l’idéal
engendré par {x} , c’est-à-dire le plus petit idéal de A contenant x.

Proposition 5 (Idéal engendré par un élément)


  
Exo Soit x ∈ A. L’idéal engendré par x est xA = xa  a ∈ A .
1.5 Démonstration page 26

Proposition 6
L’idéal de A engendré par une partie finie {x1 , . . . , xk } est :
  
x1 A + · · · + xk A = x1 a1 + · · · + xk ak  (a1 , . . . , ak ) ∈ Ak .
C’est aussi le plus petit idéal de A contenant tous les idéaux x1 A, . . . , xk A.
Démonstration page 26

4 Divisibilité dans un anneau intègre


On suppose à partir de maintenant que A est un anneau intègre.
Définition 2
Soit (x, y) ∈ A2 . On dit que x divise y , ou que y est un multiple de x, s’il
existe z ∈ A tel que y = xz . On note alors x | y .

4
I Anneaux, arithmétique

Terminologie
• Lorsque x divise y , on dit aussi que x est un diviseur de y ou que y est un
multiple de x.
• Lorsque x non nul divise y , il y a, par intégrité de A, unicité de z ∈ A tel
que y = xz . Cet élément est alors appelé quotient de y par x.

Remarque Pour tout (x, y) ∈ A2 , on a x | y ⇐⇒ y ∈ xA.


La relation de divisibilité est une relation réflexive et transitive, mais n’est en général
ni symétrique ni antisymétrique (ce n’est donc ni une relation d’ordre, ni une relation
d’équivalence).

Ex. 5. Les diviseurs de 1 sont les éléments inversibles.


Ex. 6. Tout élément de A divise 0 , mais 0 ne divise que lui-même.
Ex. 7. Grâce à l’intégrité, on a, pour tout a �= 0 :

ax | ay ⇐⇒ (∃z ∈ A ay = axz) ⇐⇒ (∃z ∈ A y = xz) ⇐⇒ x | y.

Lien avec les idéaux


La proposition suivante permet de ramener la notion de divisibilité à une relation
d’ordre (inclusion sur les idéaux).
Proposition 7
On a, pour tout (x, y) ∈ A2 :
x | y ⇐⇒ yA ⊂ xA.

Démonstration. Soit (x, y) ∈ A2 . Comme yA est le plus petit idéal de A contenant y et


que xA est un idéal, l’inclusion yA ⊂ xA est équivalente à y ∈ xA , c’est-à-dire à x | y .

Remarque Deux éléments engendrent le même idéal si, et seulement s’ils se divisent
mutuellement. On dit alors qu’ils sont associés.

Terminologie Les idéaux engendrés par un élément sont appelés idéaux principaux.
L’exemple qui suit montre qu’il existe des idéaux non principaux.

Ex. 8. Considérons l’anneau ZZ[X] des polynômes à coefficients entiers et I = 2ZZ[X] + XZZ[X]
l’idéal engendré par 2 et X . Supposons que I soit principal, c’est-à-dire qu’il existe un poly-
nôme P ∈ ZZ[X] tel que I = P ZZ[X] . Les inclusions 2ZZ[X] ⊂ P ZZ[X] et XZZ[X] ⊂ P ZZ[X]
montrent alors, d’après la proposition 7, que P divise 2 , donc qu’il est constant, et qu’il divise X ,
donc que son coefficient dominant est ±1 . Finalement, P = ±1 et il existe donc deux poly-
nômes (U, V ) ∈ ZZ[X]2 tels que ±1 = 2U + XV . En évaluant en 0 , cela donne 2U (0) = ±1 ,
ce qui est absurde puisque U (0) ∈ ZZ .
Donc I n’est pas principal.

5
Chapitre 1. Groupes, anneaux, arithmétique, algèbres

Idéaux de ZZ
Commençons par un résultat sur les sous-groupes de ZZ.

Proposition 8
Les sous-groupes de (ZZ, +) sont les nZZ, pour n ∈ IN.
Démonstration page 26
Principe de démonstration. Si H est un sous-groupe non nul de ZZ , on considère le plus
petit élément n strictement positif de H et l’on utilise la division euclidienne par n pour montrer
que tout élément de H est un multiple de n .

On en déduit que tous les idéaux de ZZ sont principaux :

Théorème 9
Les idéaux de ZZ sont les nZZ, pour n ∈ IN.

Démonstration.
 
• Pour tout n ∈ IN , l’ensemble nZZ = nk | k ∈ ZZ des multiples de n est un idéal de ZZ :
c’est l’idéal de ZZ engendré par n (cf. proposition 5 de la page 4).
• Réciproquement, un idéal étant en particulier un sous-groupe, il n’y en a pas d’autres d’après la
proposition 8.

Remarque Soit I un idéal de ZZ. Il existe donc n ∈ IN tel que I = nZZ.


• Si m est un entier relatif tel que I = mZZ, alors n ∈ mZZ et m ∈ nZZ, donc m | n
et n | m, ce qui donne m = ±n.
• Réciproquement, il est clair que (−n)ZZ = nZZ.
On a ainsi montré l’unicité de n ∈ IN tel que I = nZZ : on l’appelle le générateur
de l’idéal I .

5 Retour sur le PGCD dans ZZ


Soit n ∈ IN∗ et a1 , . . . , an des entiers relatifs. Nous avons vu à la proposition 6 de la
page 4 que l’idéal de ZZ engendré par les éléments a1 , . . . , an était I = a1 ZZ+· · ·+an ZZ.
Cela permet de donner une nouvelle définition du PGCD.

Proposition 10
Étant donné des entiers a1 , . . . , an , il existe un unique entier naturel d tel
que dZZ = a1 ZZ + · · · + an ZZ. Pour tout k ∈ ZZ, on a la relation :
 
k | d ⇐⇒ ∀i ∈ [[1, n]] k | ai .
On l’appelle PGCD de a1 , . . . , an et l’on dispose de la relation de Bézout :
∃(u1 , . . . , un ) ∈ ZZn d = a 1 u 1 + · · · + an u n .

Démonstration.
• Considérons le générateur de l’idéal a1 ZZ + · · · + an ZZ , c’est-à-dire l’unique d ∈ IN tel
que dZZ = a1 ZZ + · · · + an ZZ (cf. remarque de la présente page).

6
I Anneaux, arithmétique

Ainsi, dZZ est le plus petit idéal de ZZ contenant {a1 , . . . , an } (proposition 6 de la page 4),
donc pour tout k ∈ ZZ , puisque kZZ est un idéal de ZZ :
k | d ⇐⇒ dZZ ⊂ kZZ
⇐⇒ ∀i ∈ [[1, n]] ai ∈ kZZ
⇐⇒ ∀i ∈ [[1, n]] k | ai .

• Enfin, puisque d ∈ dZZ = a1 ZZ + · · · + an ZZ , on a par définition :


∃(u1 , . . . , un ) ∈ ZZn d = a1 u1 + · · · + an un .

Remarques
• Les diviseurs communs à a1 , . . . , an sont donc exactement les diviseurs de d.
• Lorsque d est non nul, c’est-à-dire lorsqu’au moins l’un des ai est non nul, c’est
donc le plus grand parmi tous les diviseurs positifs communs à a1 , . . . , an (et même
parmi tous les diviseurs communs à a1 , . . . , an ).
• De la même façon, on pourrait définir le PPCM de a1 , . . . , an comme le généra-
teur m de l’idéal a1 ZZ∩· · ·∩an ZZ, de façon à avoir, pour tout k ∈ ZZ, l’équivalence :
 
k ∈ mZZ ⇐⇒ ∀i ∈ [[1, n]] k ∈ ai ZZ .
C’est le plus petit des multiples positifs communs à a1 , . . . , an .

6 L’anneau ZZ/nZZ
Congruences dans ZZ
Soit n un entier naturel.
Rappels Nous avons vu en première année la relation de congruence modulo n
définie par :
x ≡ y [n] ⇐⇒ y − x ∈ nZZ.

Il s’agit une relation d’équivalence sur ZZ qui est compatible avec les opérations de ZZ,
c’est-à-dire qui vérifie :
 
′ ′ 4 x ≡ x′ [n] x + y ≡ x′ + y ′ [n]
∀(x, y, x , y ) ∈ ZZ =⇒
y ≡ y [n]

x × y ≡ x′ × y ′ [n].

Notation On note ZZ/nZZ l’ensemble des classes d’équivalence pour cette relation.
La classe d’un élément k de ZZ est souvent notée k .

 
Ex. 9. La congruence modulo 0 est la relation d’égalité, donc ZZ/0ZZ = {k} | k ∈ ZZ .

Ex. 10. Deux entiers quelconques sont évidemment congrus modulo 1 , donc ZZ/1ZZ = {0} .
Ex. 11. Modulo 2 , il y a deux classes : celle des entiers pairs et celle des entiers impairs.
Donc ZZ/2ZZ = {0, 1} .

7
Chapitre 1. Groupes, anneaux, arithmétique, algèbres
Proposition 11
Pour n ∈ IN∗ , l’ensemble ZZ/nZZ a n éléments, et l’on a :
 
ZZ/nZZ = 0, 1, . . . , n − 1 .
Démonstration page 27
Principe de démonstration. Utiliser la division euclidienne par n .

Ex. 12. Soit n et p deux entiers naturels non nuls. Pour k ∈ ZZ , nous noterons [k]n et [k]p
les classes de k respectivement modulo n et p .
Voyons à quelle condition on peut définir une application :

ZZ/nZZ −→ ZZ/pZZ
[k]n �−→ [k]p .

• Si une telle application existe, comme [n]n = [0]n , on doit avoir [n]p = [0]p , soit p | n .
• Supposons réciproquement que p divise n . Alors si k et ℓ sont deux entiers tels
que [k]n = [ℓ]n , on a n | k − ℓ , donc p | k − ℓ , soit [k]p = [ℓ]p . On peut donc bien
définir l’application :
ZZ/nZZ −→ ZZ/pZZ
α �−→ [k]p où k ∈ α

puisque la définition de l’image de α ne dépend que de α et non d’un de ses représentants.

Point méthode Pour définir par k �→ ϕ(k) une application sur ZZ/nZZ, on vérifiera
bien que ϕ(k) ne dépend que de la classe de congruence de k modulo n.

Anneau ZZ/nZZ

Proposition 12
Il existe sur ZZ/nZZ des lois, notées + et × et appelées lois quotient, telles que :
1. ∀(x, y) ∈ (ZZ/nZZ)2 x+y = x+y et x × y = x × y,
2. (ZZ/nZZ, +, ×) soit un anneau commutatif d’éléments neutres 0 et 1 ,
3. la projection canonique ZZ −→ ZZ/nZZ soit un morphisme d’anneaux
x �−→ x
surjectif de noyau nZZ.
Démonstration page 27
Principe de démonstration. Pour α et β dans ZZ/nZZ , on définit :

α+β =x+y et α×β = x×y où x∈α et y ∈ β.


Il faut commencer par vérifier que x + y et x × y ne dépendent que de α et β , et non des
représentants x et y choisis, grâce à la compatibilité de la relation de congruence avec les lois
de ZZ .

Notation Le produit de deux éléments α et β de ZZ/nZZ est souvent noté αβ plutôt


que α × β .

8
I Anneaux, arithmétique

Ex. 13. Écrivons les tables d’addition et de multiplication de ZZ/5ZZ et ZZ/6ZZ . Pour alléger les
notations, nous écrirons 0, 1, 2, . . . à la place de 0, 1, 2, . . .
+ 0 1 2 3 4 × 0 1 2 3 4
0 0 1 2 3 4 0 0 0 0 0 0
1 1 2 3 4 0 1 0 1 2 3 4
ZZ/5ZZ :
2 2 3 4 0 1 2 0 2 4 1 3
3 3 4 0 1 2 3 0 3 1 4 2
4 4 0 1 2 3 4 0 4 3 2 1
+ 0 1 2 3 4 5 × 0 1 2 3 4 5
0 0 1 2 3 4 5 0 0 0 0 0 0 0
1 1 2 3 4 5 0 1 0 1 2 3 4 5
ZZ/6ZZ : 2 2 3 4 5 0 1 2 0 2 4 0 2 4
3 3 4 5 0 1 2 3 0 3 0 3 0 3
4 4 5 0 1 2 3 4 0 4 2 0 4 2
5 5 0 1 2 3 4 5 0 5 4 3 2 1

On remarque que ZZ/5ZZ est intègre puisque pour avoir αβ = 0 il est nécessaire d’avoir α = 0
ou β = 0 (absence de 0 dans la portion entourée de pointillés).
En revanche, ZZ/6ZZ est non intègre puisque, par exemple 2 × 3 = 0 .

Remarque On peut aussi prendre pour représentants des classes modulo n ∈ IN∗ ,
n’importe quel n-uplet d’entiers consécutifs. Par exemple, pour étudier la multiplica-
 
tion sur ZZ/5ZZ, il pourra être intéressant d’écrire ZZ/5ZZ = −2, −1, 0, 1, 2 .

Ex. 14. Pour résoudre l’équation x2 −1 = 0 dans ZZ/12ZZ , il suffit de lister les carrés des éléments
de ZZ/12ZZ pour voir lesquels sont égaux à 1 :

x 0 ±1 ±2 ±3 ±4 ±5 6
x2 0 1 4 −3 4 1 0

On en déduit que x2 − 1 = 0 ⇐⇒ x ∈ {−1, 1, −5, 5} .

Proposition 13 (Éléments inversibles de ZZ/nZZ)


La classe de k ∈ ZZ est inversible dans ZZ/nZZ si, et seulement si, k est premier
avec n.
Démonstration page 27
Principe de démonstration. L’élément k de ZZ/nZZ est inversible si, et seulement s’il
existe (u, v) ∈ ZZ2 tel que ku + nv = 1 et son inverse est alors u .

Remarque Trouver l’inverse de k dans ZZ/nZZ revient à trouver l’inverse de k mo-


dulo n (voir le cours de première année). Rappelons (c’est d’ailleurs aussi ce qui a été
fait dans la démonstration précédente) qu’il suffit pour cela de trouver un couple (u, v)
tel que ku + nv = 1 (coefficients de Bézout). L’inverse de k est alors u .
Ex. 15. Déterminons l’inverse de 13 dans ZZ/34ZZ .
On trouve, par exemple à l’aide de l’algorithme d’Euclide (voir le cours de première année),
l’égalité de Bézout 5 × 34 − 13 × 13 = 1 , donc l’inverse de 13 est −13 = 21 dans ZZ/34ZZ .

9
Chapitre 1. Groupes, anneaux, arithmétique, algèbres
Théorème 14
Soit n ∈ IN∗ . Alors ZZ/nZZ est un corps si, et seulement si, n est premier.
Démonstration page 27
Principe de démonstration.
• Si n est premier, tous les éléments de [[1, n − 1]] sont premiers avec n , donc leur classe est
inversible.
• Si n = ab , alors a × b = ab = 0 , ce qui permet de montrer que ZZ/nZZ est non intègre si n
n’est pas premier.

Notation Lorsque p est un nombre premier, le corps ZZ/pZZ est aussi noté FI p .

7 Théorème chinois
On note ici [k]n la classe de l’entier k modulo un entier naturel non nul n.
Proposition 15
Soit n et m des entiers naturels premiers entre eux. Les anneaux ZZ/(nm)ZZ
et (ZZ/nZZ) × (ZZ/mZZ) sont isomorphes par le morphisme d’anneaux ϕ :
ZZ/(nm)ZZ −→ (ZZ/nZZ) ×(ZZ/mZZ)
[k]nm �−→ [k]n , [k]m .
Démonstration
 page
 28
Principe de démonstration. Pour la définition de ϕ , vérifier que le couple [k]n , [k]m ne
dépend que de la classe de k modulo nm .
On démontre l’injectivité de ϕ et l’on conclut par cardinalité.
Le corollaire suivant n’est que la traduction en termes de congruence de la proposi-
tion 15.
Corollaire 16 (Théorème chinois)
Si n et m sont des entiers premiers entre eux, alors pour tout (a, b) ∈ ZZ2 , il existe
un entier k vérifiant le système :

k ≡ a [n]
(S)
k ≡ b [m]
et les solutions de ce système sont exactement les entiers congrus à k modulo nm.

Le théorème chinois permet de ramener l’étude d’une équation sur ZZ/nZZ lorsque n
n’est pas premier, à celle d’équations sur des anneaux plus simples.

Point méthode (pour obtenir une solution de (S)) À partir d’une relation
de Bézout mu + nv = 1 , on trouve deux entiers k1 = mu et k2 = nv vérifiant
respectivement les systèmes de congruences :
 
k1 ≡ 1 [n] k2 ≡ 0 [n]
et
k1 ≡ 0 [m] k2 ≡ 1 [m]
et une solution du système (S) est alors k = k1 a + k2 b (vérification immédiate en
prenant les congruences modulo n et m).

10
I Anneaux, arithmétique

Ex. 16. Trouvons les entiers k tels que k2 + k + 11 ≡ 0 [143] , c’est-à-dire tels que l’on ait
simultanément k2 + k + 11 ≡ 0 [11] et k2 + k + 11 ≡ 0 [13] .
Cela revient à résoudre l’équation x2 + x + 11 = 0 dans ZZ/11ZZ et dans ZZ/13ZZ . Pour chaque
 
couple de solutions [a]11 , [b]13 , le point méthode précédent donne la classe modulo 143 cor-
respondante.
• Dans ZZ/11ZZ , l’équation devient x2 + x = 0 , c’est-à-dire x(x + 1) = 0 .
Comme ZZ/11ZZ est un corps, cela équivaut à x = 0 ou x = −1 .
• De même, dans ZZ/13ZZ , on obtient l’équation x2 +x−2 = 0 , c’est-à-dire (x−1)(x+2) = 0 ,
ce qui donne, puisque ZZ/13ZZ est un corps, les deux solutions x = 1 ou x = −2 .
• On a donc 4 solutions modulo 143 à l’équation initiale données, en reprenant les notations du
corollaire 16 de la page précédente, par a ∈ {0, −1} et b = {1, −2} .
• Une relation de Bézout entre 11 et 13 est 6 × 11 − 5 × 13 = 1 . Ainsi k1 = −65 véri-
fie k1 ≡ 1 [11] et k1 ≡ 0 [13] . De même, k2 = 66 vérifie k2 ≡ 0 [11] et k2 ≡ 1 [13] .
• Pour chaque couple (a, b) , la solution correspondante est ak1 + bk2 . Les résultats sont
récapitulés dans le tableau ci-dessous :
❍❍ b
1 −2
a ❍❍

0 66 11
−1 131 76

Remarque L’obtention d’une telle solution est non triviale, mais il est très facile de vérifier
qu’elle est effectivement solution, ce qui permet de repérer une erreur de calcul éventuelle.
Par exemple il est immédiat que 76 est bien congru à −1 modulo 11 et à −2 modulo 13 .

Corollaire 17
Étant donné des entiers naturels n1 , . . . , nr premiers entre eux deux à deux, les
anneaux ZZ/(n1 · · · nr )ZZ et (ZZ/n1 ZZ) × · · · × (ZZ/nr ZZ) sont isomorphes.

Démonstration. Par récurrence sur r , en remarquant que si n1 , . . . , nr+1 sont premiers entre
eux deux à deux, alors n1 · · · nr et nr+1 sont premiers entre eux et (ZZ/n1 ZZ)×· · ·× (ZZ/nr+1 ZZ)
 
est isomorphe à (ZZ/n1 ZZ) × · · · × (ZZ/nr ZZ) × (ZZ/nr+1 ZZ) .

8 Indicatrice d’Euler
Définition 3
On appelle indicatrice d’Euler de n ∈ IN∗ , et l’on note ϕ(n), le cardinal de
l’ensemble :  
k ∈ [[1, n]] : k ∧ n = 1 .

Remarques
• On a évidemment ϕ(1) = 1 .
• Pour n  2 , ϕ(n) est aussi le nombre d’éléments de [[1, n − 1]] premiers avec n.
• Dans tous les cas, c’est aussi le nombre d’éléments de [[0, n − 1]] premiers avec n,
donc également le nombre d’éléments inversibles dans l’anneau ZZ/nZZ.

11
Chapitre 1. Groupes, anneaux, arithmétique, algèbres

Ex. 17. Pour tout n  2 , on a ϕ(n)  n − 1 avec égalité si, et seulement si, n est premier. En
effet, d’après les remarques précédentes, ϕ(n) est le nombre d’éléments de [[1, n − 1]] premiers
avec n (d’où l’inégalité) et n est premier si, et seulement si, tous les éléments de [[1, n − 1]]
Exo
sont premiers avec n .
1.7

Lemme 18
Soit p un nombre premier. Pour tout k ∈ IN∗ , on a ϕ(pk ) = pk − pk−1 .

Démonstration. Les éléments qui sont non premiers avec pk sont les multiples de p , c’est-
k−1
à-dire p, 2p, . . . , (p )p pour ceux qui sont dans [[1, pk ]] . Il y en a donc pk−1 .

Proposition 19
Étant donné des entiers naturels n1 , . . . , nr premiers entre eux deux à deux, on
a ϕ(n1 · · · nr ) = ϕ(n1 ) · · · ϕ(nr ).
Démonstration page 28
Principe de démonstration. L’isomorphisme d’anneaux du corollaire 17 de la page pré-
cédente entre ZZ/(n1 · · · nr )ZZ et (ZZ/n1 ZZ) × · · · × (ZZ/nr ZZ) induit une bijection entre leurs
groupes des unités.

Corollaire 20
Si n = pα 1 · · · pr , avec p1 , . . . , pr des nombres premiers distincts deux à deux
1 αr

et α1 , . . . , αr des entiers naturels non nuls, alors on a :


   
1 1
ϕ(n) = n 1 − ··· 1 − ·
p1 pr

Démonstration. À l’aide du résultat précédent et du lemme 18, il vient :


   
ϕ(n) = ϕ(pα αr α1 α1 −1
1 ) · · · ϕ(pr ) = p1 − p1
1
· · · pαr αr −1
r − pr ,
ce qui donne le résultat après factorisation par n = pα αr
1 · · · pr .
1

II Anneau des polynômes à une indéterminée


On considère ici un sous-corps IK de C . La structure d’anneau de IK[X], étudiée en
première année lorsque IK = IR ou IK = C, se définit de la même manière dans le cas
général 1 .
On conserve en particulier la notion de degré ainsi que ses propriétés qui permettent
de montrer le résultat suivant.
Proposition 21
L’anneau IK[X] est intègre.
Démonstration page 28

On conserve aussi le théorème de division euclidienne, dont la démonstration est


exactement la même que celle qui a été faite en première année dans le cas de IR ou
de C.
1. En fait, tout ce qui est fait ici est valable pour un corps quelconque, en particulier pour un
corps fini FI p , avec p premier.

12
II Anneau des polynômes à une indéterminée
Théorème 22
Soit A et B deux polynômes de IK[X], avec B �= 0 .
Il existe un unique couple (Q, R) de polynômes de IK[X] vérifiant :
A = BQ + R et deg R < deg B.

1 Propriétés arithmétiques élémentaires


Nous allons maintenant généraliser les propriétés arithmétiques de IK[X] vues en
première année lorsque IK = IR ou IK = C.

Ex. 18. Un polynôme B non nul divise A ∈ IK[X] si, et seulement si, le reste de la division
euclidienne de A par B est nul.
Ex. 19. Soit IK′ un sous-corps de IK ainsi que A et B deux polynômes à coefficients dans IK′ ,
avec B non nul. Montrons que le polynôme B divise A dans IK′ [X] si, et seulement s’il divise A
dans IK[X] .
Il est évident que si B divise A dans IK′ [X] , alors il divise A dans IK[X] . Réciproquement,
supposons qu’il existe C ∈ IK[X] tel que A = BC . La division euclidienne de A par B
dans IK′ [X] s’écrit A = BQ + R , avec (Q, R) ∈ IK′ [X]2 et deg R < deg B . On dispose alors
des deux égalités dans IK[X] :

A = BQ + R avec deg R < deg B et A = BC + 0 avec deg 0 < deg B

et l’unicité de la division euclidienne dans IK[X] donne R = 0 . Donc B divise A dans IK′ [X] .

Inversibles
Proposition 23
Les éléments inversibles de IK[X] sont les polynômes constants non nuls.
Démonstration page 28

Polynômes associés
Proposition 24
Soit A et B deux éléments de IK[X]. Les propriétés suivantes sont équivalentes :
(i) A | B et B | A ;
(ii) il existe λ ∈ IK∗ tel que B = λA.
On dit alors que A et B sont associés.
Démonstration page 28

Ex. 20. 0 n’est associé qu’à lui-même.


Ex. 21. Les éléments inversibles de IK[X] sont les associés de 1 .
Ex. 22. Tout élément A non nul de IK[X] est associé à un unique polynôme unitaire, obtenu
en divisant A par son coefficient dominant.

13
Chapitre 1. Groupes, anneaux, arithmétique, algèbres

Polynômes irréductibles
Définition 4
Un polynôme irréductible est un polynôme non constant dont les seuls diviseurs
sont ses associés et les constantes non nulles.

Ex. 23. Tout polynôme de degré 1 est irréductible.

Proposition 25
Un élément A ∈ IK[X] est irréductible si, et seulement si :
• A est non constant ;
• si A = BC , avec (B, C) ∈ IK[X]2 , alors B ou C est constant.
Démonstration page 29

Rappelons la caractérisation des irréductibles de IR[X] et C[X].


Proposition 26 (Irréductibles de IR[X] et C[X])
• Les polynômes irréductibles de C[X] sont les polynômes de degré 1 .
• Les polynômes irréductibles de IR[X] sont les polynômes de degré 1 et les po-
lynômes de degré 2 dont le discriminant est strictement négatif.

Ex. 24. Un polynôme P ∈ IK[X] de degré 2 ou 3 n’ayant aucune racine dans IK est irréductible
dans IK[X] .
En effet, s’il s’écrivait P = AB , avec A et B non constants, on aurait deg A  1 , deg B  1
et deg A + deg B = deg P  3 . L’un des deux polynômes A ou B serait donc de degré 1 , donc
aurait une racine dans IK , ce qui est impossible puisqu’il divise P qui n’a pas de racine dans IK .
Ex. 25. Montrons que P = X 3 + X + 1 est irréductible dans Q[X] . Comme il est de degré 3 ,
l’exemple précédent montre qu’il suffit de prouver qu’il n’a pas de racine dans Q .
Supposons donc, par l’absurde, P (p/q) = 0 avec p et q deux entiers premiers entre eux et q �= 0 .
Alors p3 +pq 2 +q 3 = 0 , donc q | p3 et p | q 3 . On en déduit p = ±1 et q = ±1 puisque p∧q = 1 .
Exo
Ainsi, p/q = ±1 , ce qui est contradictoire puisque P (1) = 3 �= 0 et P (−1) = −1 �= 0 .
1.10

Polynômes premiers entre eux

Définition 5
Deux éléments de IK[X] sont premiers entre eux si leurs seuls diviseurs communs
sont les polynômes constants non nuls de IK[X].

Ex. 26. Deux polynômes irréductibles non associés sont premiers entre eux. Considérons, en effet,
deux polynômes irréductibles P et Q non premiers entre eux. Ils admettent alors un diviseur
commun D non constant. Comme P et Q sont irréductibles, on en déduit que D est associé
à P et à Q , donc que P et Q sont associés.

14
II Anneau des polynômes à une indéterminée

Plus généralement :

Proposition 27
Soit P un polynôme irréductible et A un polynôme quelconque. Alors P et A sont
premiers entre eux si, et seulement si, P ne divise pas A.
Démonstration page 29

2 Utilisation des idéaux de IK[X]


Idéaux de IK[X]
Si B est un élément de IK[X], la proposition 5 de la page 4 montre que :
 
BIK[X] = BQ | Q ∈ IK[X]

est un idéal de IK[X] : c’est l’idéal engendré par B .


Comme dans le cas de ZZ, on obtient ainsi tous les idéaux de IK[X].

Théorème 28
Les idéaux de IK[X] sont les BIK[X], pour B ∈ IK[X].
Démonstration page 29

Principe de démonstration. Si I est un idéal non nul de IK[X] , on considère un élément B


non nul de I de degré minimal et l’on utilise la division euclidienne par B pour montrer que
tout élément de I est un multiple de B .

Ainsi, tout comme ZZ, l’anneau IK[X] a tous ses idéaux principaux (voir page 5). On
dit que ce sont des anneaux principaux.
Grâce à cette propriété importante de IK[X], nous allons pouvoir retrouver (et généra-
liser au cas d’un corps IK quelconque) les propriétés arithmétiques de l’anneau IK[X].

Lien avec la divisibilité


Rappelons (proposition 7 de la page 5) que la divisibilité se ramène à une inclusion
d’idéaux :
∀(A, B) ∈ IK[X]2 B | A ⇐⇒ AIK[X] ⊂ BIK[X].
On en déduit, grâce à la proposition 24 de la page 13, que deux polynômes sont
associés si, et seulement s’ils sont générateurs du même idéal.

Corollaire 29
Tout idéal I de IK[X] est de la forme AIK[X] pour un unique polynôme A nul ou
unitaire. Ce polynôme A est appelé le générateur de I .

PGCD de polynômes
Soit n ∈ IN∗ et A1 , . . . , An des polynômes à coefficients dans IK. Nous avons vu à la
proposition 6 de la page 4 que l’idéal de IK[X] engendré par les éléments A1 , . . . , An
était I = A1 IK[X] + · · · + An IK[X]. Cela conduit à la définition :

15
Chapitre 1. Groupes, anneaux, arithmétique, algèbres
Proposition 30 (Définition du PGCD)
Étant donné A1 , . . . , An dans IK[X], il existe un polynôme D ∈ IK[X] tel
que DIK[X] = A1 IK[X] + · · · + An IK[X]. On a, pour tout P ∈ IK[X] :
 
P | D ⇐⇒ ∀i ∈ [[1, n]] P | Ai .
On dit que D est un PGCD de A1 , . . . , An et l’on dispose de la relation de
Bézout :
∃(U1 , . . . , Un ) ∈ IK[X]n D = A1 U1 + · · · + An Un .
Démonstration page 29

Remarques
• Les diviseurs communs à A1 , . . . , An sont donc exactement les diviseurs de D .
• Ainsi, deux PGCD de A1 , . . . , An se divisent mutuellement, donc sont associés.
• Lorsque D est non nul, c’est-à-dire lorsqu’au moins l’un des Ai est non nul, son
degré est le plus grand parmi tous les degrés des diviseurs communs à A1 , . . . , An .
• Il y a unicité de D si on lui impose la condition supplémentaire d’être nul ou
unitaire. On l’appelle le PGCD de A1 , . . . , An et on le note A1 ∧ · · · ∧ An .
• De la même façon, on pourrait définir un PPCM de A1 , . . . , An comme un géné-
rateur M de l’idéal A1 IK[X]∩· · ·∩An IK[X], de façon à avoir, pour tout P ∈ IK[X],
l’équivalence :
 
P ∈ M IK[X] ⇐⇒ ∀i ∈ [[1, n]] P ∈ Ai IK[X] .
L’unique polynôme nul ou unitaire associé à M est appelé le PPCM de A1 , . . . , An .

Ex. 27. Deux polynômes A et B sont premiers entre eux si, et seulement si, A ∧ B = 1 .

3 Théorème de Gauss et décomposition en produit d’irréductibles


Théorème 31 (Lemme de Gauss)
Soit A, B et C trois éléments de IK[X].
Si A divise BC et si A est premier avec B , alors A divise C .
Démonstration page 29
Principe de démonstration. Multiplier par C une relation de Bézout AU + BV = 1 .

Corollaire 32
Un polynôme est premier avec un produit si, et seulement s’il est premier avec
chacun des facteurs.
Démonstration page 30

Théorème 33
Tout polynôme non constant de IK[X] est produit d’irréductibles.
Démonstration page 30
Principe de démonstration. Récurrence forte sur le degré de P .
Notons P l’ensemble des polynômes irréductibles unitaires. Les éléments de P sont
donc deux à deux non associés et tout polynôme irréductible est associé à un unique
élément de P .

16
III Algèbres
Théorème 34
Tout polynôme A non nul de IK[X] s’écrit de façon unique sous la forme :

A=λ P αP
P ∈P
où λ ∈ IK∗ et (αP )P ∈P est une famille presque nulle d’entiers naturels.
Démonstration page 30

Point méthode Dans la pratique, on écrit la décomposition en produit d’irréduc-


tibles d’un polynôme A non nul sous l’une des formes :
• A = λP1α1 · · · Pkαk où k ∈ IN, λ ∈ IK∗ , P1 , . . . , Pk sont des éléments de P
distincts deux à deux et α1 , . . . , αk des entiers naturels non nuls ;
• A = λP1α1 · · · Pkαk où k ∈ IN, λ ∈ IK∗ , P1 , . . . , Pk sont des éléments de P
distincts deux à deux et α1 , . . . , αk des entiers naturels éventuellement nuls.
Avec la deuxième forme, on peut utiliser les mêmes irréductibles pour plusieurs
éléments de IK[X].

Ex. 28. Soit A et B deux éléments non nuls de IK[X] décomposés sous la deuxième forme :
α β
A = λP1α1 · · · Pk k et B = µP1β1 · · · Pk k .
• B | A si, et seulement si, ∀i ∈ [[1, k]] βi  αi ;
min(α1 ,β1 ) min(αk ,βk )
• le PGCD de A et B est D = P1 · · · Pk ;
max(α1 ,β1 ) max(αk ,βk )
• le PPCM de A et B est M = P1 · · · Pk .
On a ainsi AB = λµDM .

III Algèbres
Dans toute cette section, on suppose que IK est un sous-corps de C.
1 Structure d’algèbre
Définition 6
Une algèbre est un espace vectoriel A muni d’une structure d’anneau dont les deux
multiplications (interne et externe) vérifient la propriété de compatibilité :
∀(λ, x, y) ∈ IK × A × A λ(x × y) = (λx) × y = x × (λy). (∗)
Lorsque le produit est commutatif, on dit que l’algèbre est commutative.

Remarques
• De même que pour les espaces vectoriels, on peut préciser « IK -algèbre » pour
spécifier le corps de base.
• Comme dans un anneau, la multiplication interne sera souvent notée implicite-
ment xy au lieu de x × y .

Ex. 29. IK , IKIN , F(X, IK) (pour X un ensemble quelconque) constituent des IK -algèbres.
Ex. 30. IK[X] , IK(X) , et Mn (IK) sont des IK -algèbres pour les lois usuelles, ainsi que L(E)
( E étant un IK -espace vectoriel quelconque).

17
Chapitre 1. Groupes, anneaux, arithmétique, algèbres
Proposition 35
Soit A un IK -espace vectoriel muni d’une multiplication interne (x, y) �→ x × y .
Exo Alors A est une IK -algèbre si, et seulement si, ce produit est bilinéaire, associatif
1.13 et si A possède un élément neutre multiplicatif.

Démonstration. Il suffit de montrer que la bilinéarité du produit, c’est-à-dire les relations :


x × (λy + µz) = λ(x × y) + µ(x × z) et (λx + µy) × z = λ(x × z) + µ(y × z) (∗∗)
est équivalente à la distributivité et à la propriété ( ∗ ) de compatibilité.
• En supposant ( ∗∗ ), on obtient la distributivité en prenant λ = µ = 1 et la relation ( ∗ ) en
prenant µ = 0 .
• Supposons la distributivité et ( ∗ ). Alors, pour tout (x, y, z) ∈ A3 et (λ, µ) ∈ IK2 :
x × (λy + µz) = x × (λy) + x × (µz) par distributivité
= λ(x × y) + µ(x × z) par la relation (∗)

et de même pour la deuxième relation de ( ∗∗ ).

Attention Comme c’est déjà le cas pour un anneau, une algèbre est unitaire,
c’est-à-dire possède un élément neutre multiplicatif.

2 Sous-algèbres
Définition 7
Une sous-algèbre d’une algèbre A est un sous-espace vectoriel de A stable par
multiplication et contenant 1A .

Remarques
• Autrement dit, une sous-algèbre est une partie de A stable par combinaison li-
néaire, par multiplication et contenant l’élément neutre multiplicatif 1A .
• Une sous-algèbre est naturellement munie d’une structure d’algèbre pour les lois
induites.
• Dans la plupart des cas, on démontre qu’un ensemble est muni d’une structure
d’algèbre en montrant que c’est une sous-algèbre d’une algèbre connue.

Ex. 31. Si A est une algèbre, alors Vect(1A ) est une sous-algèbre de A .

Ex. 32. L’ensemble des suites convergentes à termes dans IK est une sous-algèbre de IKIN .
Ex. 33. Si I est un intervalle de IR , C(I, IR) est une sous-algèbre de F(I, IR) .
Ex. 34. Dans Mn (IK) , l’ensemble des matrices triangulaires supérieures est une sous-algèbre.
De même pour les matrices triangulaires inférieures ou les matrices diagonales, mais pas pour les
matrices symétriques lorsque n  2 (un produit de deux matrices symétriques est symétrique si,
et seulement si, elles commutent).

18
III Algèbres

3 Morphismes d’algèbres
Définition 8
Soit A et B deux IK -algèbres. Un morphisme d’algèbres de A dans B est une
application linéaire de A dans B qui est également un morphisme d’anneaux.

Autrement dit, un morphisme d’algèbres de A dans B est une application de A


dans B qui vérifie :
• ∀(x, y) ∈ A2 ∀(λ, µ) ∈ IK2 f (λx + µy) = λf (x) + µf (y),
• ∀(x, y) ∈ A2 f (xy) = f (x)f (y),
• f (1A ) = 1B .
Terminologie On dit que f est un isomorphisme lorsqu’il est bijectif, un endo-
morphisme lorsque A = B et un automorphisme lorsque c’est un endomorphisme
bijectif.

Ex. 35. Pour toute algèbre A non triviale, la sous-algèbre Vect(1A ) est isomorphe à IK par
l’isomorphisme λ �→ λ1A .
Ex. 36. Si B est une base d’un IK -espace vectoriel E de dimension finie n , l’applica-
tion u �→ MatB (u) est un isomorphisme d’algèbres de L(E) sur Mn (IK) .
Ex. 37. Soit P ∈ GLn (IK) .
L’application Mn (IK) −→ Mn (IK) est un automorphisme d’algèbre.
M �−→ P M P −1

Résultats
• Une composée de morphismes d’algèbres est un morphisme d’algèbres.
• La réciproque d’un isomorphisme d’algèbres est un isomorphisme d’algèbres.
• L’image (respectivement l’image réciproque) d’une sous-algèbre par un morphisme
d’algèbres est une sous-algèbre.

Attention Un morphisme d’algèbres f : A → B étant en particulier une application


linéaire, son noyau est un sous-espace vectoriel, mais ce n’est en général pas une sous-
algèbre puisqu’il ne contient pas 1A si B est non trivial. Voir page 3 la notion d’idéal
d’un anneau commutatif.
Ex. 38. Substitution polynomiale

+∞
Soit A une IK -algèbre. Pour u ∈ A et P = ak X k ∈ IK [X] , on note P (u) l’élément de A
k=0
défini par :
+∞

P (u) = ak uk .
k=0

Par exemple, lorsque A = IK , l’application IK −→ IK est l’application polynomiale


x �−→ P (x)
associée au polynôme P .

19
Chapitre 1. Groupes, anneaux, arithmétique, algèbres

Montrons que l’application P �→ P (u) est un morphisme d’algèbres de IK[X] dans A .


• La relation 1(u) = 1A et la linéarité de P �→ P (u) sont immédiates.

n 
m
• Soit P = ap X p et Q = bq X q . Par bilinéarité du produit polynomial, on a :
p=0 q=0

PQ = ap bq X p+q
0pn
0qm

et donc (P Q)(u) = ap bq up+q , par linéarité de l’application P �→ P (u) .
0pn
0qm

De même, par bilinéarité du produit de A :


 n
 m

 p
 q

P (u)Q(u) = ap u bq u = ap bq up+q
p=0 q=0 0pn
0qm
d’où l’égalité (P Q)(u) = P (u)Q(u) .

IV Approfondissements sur les groupes


Dans toute cette section, on considère un groupe (G, ·) dont l’élément neutre est
noté e.
1 Sous-groupe engendré par une partie
Proposition 36
Une intersection de sous-groupes de G est un sous-groupe de G.
Démonstration page 30

Proposition 37
Soit A une partie de G. Il existe un plus petit sous-groupe de G contenant A. On
l’appelle sous-groupe de G engendré par A.

Démonstration. C’est l’intersection de tous les sous-groupes de G contenant A .

Ex. 39. Il est immédiat que le sous-groupe de G engendré par l’ensemble vide est {e} .
Ex. 40. Le sous-groupe engendré par une partie A est l’ensemble H des produits d’éléments
de A et d’inverses d’éléments de A :
  
H = x1 · · · xn  n ∈ IN et ∀i ∈ [[1, n]] xi ∈ A ou x−1
i ∈A .

Montrons, en effet, que H est le plus petit sous-groupe de G contenant A .


• H contient A : pour tout a ∈ A , prendre n = 1 et x1 = a .
• Tout sous-groupe de G contenant A contient H :
∗ par stabilité par produit et passage à l’inverse, il contient tous les produits x1 · · · xn
pour n ∈ IN∗ , lorsque ∀i ∈ [[1, n]] xi ∈ A ou x−1 i ∈A;
∗ comme il contient e , le résultat est également vrai pour n = 0 .
• H est un sous-groupe de G :
∗ H contient l’élément neutre e de G (prendre n = 0 comme ci-dessus),
−1
∗ il est stable par produit et par passage à l’inverse (l’inverse de x1 · · · xn est x−1
n · · · x1 ).

20
IV Approfondissements sur les groupes
Définition 9
Une partie de G est génératrice de G si le sous-groupe qu’elle engendre est égal
à G. On dit aussi que A engendre G.

Ex. 41. Nous avons vu en première année que tout élément de Sn pouvait s’écrire comme
produit de cycles (à supports disjoints). Cela montre que l’ensemble des cycles constitue une
partie génératrice de Sn .
Ex. 42. De même, la décomposition d’une permutation comme produit de transpositions signifie
donc que l’ensemble des transpositions constitue une partie génératrice de Sn .

Point méthode Pour montrer qu’une partie de G est génératrice de G, il suffit


de montrer que l’on peut obtenir, par produit et passage à l’inverse à partir de ses
éléments, tous les éléments d’une partie que l’on sait génératrice.

Ex. 43. Le groupe alterné An (ensemble des permutations de [[1, n]] de signature 1 ) est engendré
par les 3 -cycles. En effet, les 3 -cycles sont bien dans An et tout élément de An étant produit
d’un nombre pair de transpositions (les transpositions sont de signature −1 ), il suffit de montrer
qu’un produit de deux transpositions est aussi un produit de 3 -cycles. Vérifions-le.
Soit τ1 et τ2 deux transpositions.
• Si τ1 = τ2 , alors τ1 τ2 est produit de 3 -cycles (aucun !).
• Si τ1 = (a b) et τ2 = (b c) , avec a, b, c distincts, alors τ1 τ2 = (a b c) est un 3 -cycle.
• Si τ1 = (a b) et τ2 = (c d) , avec a, b, c distincts, alors :
  
τ1 τ2 = τ1 (b c)(b c)τ2 = (a b)(b c) (b c)(c d) = (a b c)(b c d)
Exo
1.15 est un produit de 3 -cycles.

2 Groupes monogènes, groupes cycliques


Sous-groupe engendré par un élément
Proposition 38
 
Le sous-groupe engendré par un élément a de G est an | n ∈ ZZ .
 
Démonstration. Posons H = an | n ∈ ZZ .
• On a e = a0 ∈ H et ∀(p, q) ∈ ZZ2 ap (aq )−1 = ap−q ∈ H , donc H est un sous-groupe
de G .
• Il contient a = a1 .
• Enfin, tout sous-groupe de G contenant a contient tous les itérés de a , donc H .
Ainsi, H est bien le plus petit sous-groupe de G contenant a .

Remarque Pour un groupe noté additivement, le sous-groupe engendré par a est :


 
n.a | n ∈ ZZ .
En particulier, pour tout a ∈ ZZ, le sous-groupe engendré par a est aZZ.
Rappelons (cf. proposition 8 de la page 6) que les sous-groupes de ZZ sont tous de
cette forme.

21
Chapitre 1. Groupes, anneaux, arithmétique, algèbres

Groupes monogènes
Définition 10
Un groupe G est monogène s’il est engendré par l’un de ses éléments, c’est-à-dire
 
s’il existe x ∈ G tel que G = xn | n ∈ ZZ .
Un tel élément x est alors appelé générateur de G .
Un groupe est cyclique s’il est monogène et fini.

Exo
1.16
Ex. 44. ZZ est monogène, engendré par 1 (ou par −1 ).
Ex. 45. Pour n ∈ IN∗ , les groupes ZZ/nZZ et Un sont cycliques, engendrés respectivement
par 1 et e2iπ/n .
Ex. 46. Lorsque n = 2p − 1 est impair, ZZ/nZZ est aussi engendré par 2 puisque 1 = p.2 .
Plus généralement, on verra à la proposition 41 de la page suivante quels sont les générateurs
de ZZ/nZZ .
Ex. 47. Si G est un groupe monogène, il est clair que tout groupe isomorphe à G est également
monogène. En particulier, si p et q sont deux entiers naturels premiers entre eux, le théorème
chinois (proposition 15 de la page 10) montre que ZZ/pqZZ et (ZZ/pZZ)×(ZZ/qZZ) sont isomorphes
en tant qu’anneaux et donc, a fortiori, en tant que groupes. On en déduit que (ZZ/pZZ) × (ZZ/qZZ)
est cyclique.

Structure des groupes monogènes


Soit G un groupe monogène et a un générateur de G.
L’application :
ϕa : ZZ −→ G
n �−→ an
est donc surjective. Les règles de calcul sur les itérés :
∀(p, q) ∈ ZZ2 ap+q = ap aq
montrent que ϕa est un morphisme de groupes de ZZ dans G. Son noyau :
 
Ker ϕa = k ∈ ZZ : ak = e
est un sous-groupe de ZZ, donc de la forme nZZ, pour n ∈ IN (cf. proposition 8 de la
page 6). On obtient la description suivante de G.
Proposition 39
Avec les notations précédentes :
• ou bien ϕa est injective et G est infini, isomorphe à ZZ,
• ou bien Ker ϕa = nZZ avec n ∈ IN∗ et :
 
G = e, a, a2 , . . . , an−1
est isomorphe à ZZ/nZZ.
L’entier n est alors le plus petit entier naturel k non nul tel que ak = e.
Démonstration page 31

22
IV Approfondissements sur les groupes

Principe de démonstration. Lorsque Ker ϕa = nZZ , avec n ∈ IN∗ , on vérifie que l’on peut
définir l’application :
ZZ/nZZ −→ G
x �−→ ak si x = k
et que cette dernière est un isomorphisme.

Corollaire 40
1. Tout groupe monogène infini est isomorphe à ZZ.
Exo
1.17 2. Tout groupe cyclique de cardinal n ∈ IN∗ est isomorphe à ZZ/nZZ.

Ex. 48. Pour n ∈ IN∗ , le groupe Un des racines n -ièmes de l’unité est isomorphe à ZZ/nZZ .

Proposition 41
Soit n ∈ IN∗ . Les générateurs de ZZ/nZZ sont les classes des entiers premiers avec n.
Il y en a donc ϕ(n), où ϕ est l’indicatrice d’Euler.
Démonstration page 31
Principe de démonstration. Remarquer que k engendre ZZ/nZZ si, et seulement si, 1 est
dans le sous-groupe engendré par k .

3 Ordre d’un élément dans un groupe


Définition 11
Un élément a de G est d’ordre fini s’il existe un entier naturel n non nul tel
que an = e. L’ordre de a est alors le plus entier naturel n non nul tel que an = e.

Terminologie Lorsqu’un élément n’est pas d’ordre fini, on dit aussi qu’il est
d’ordre infini.

Ex. 49. L’élément neutre est d’ordre 1 . C’est d’ailleurs le seul élément de G d’ordre 1 .
Ex. 50. Les transpositions de Sn sont d’ordre 2 .
En effet, si τ est une transposition, alors τ �= Id[[1,n]] et τ 2 = Id[[1,n]] .

Attention La relation an = e ne signifie pas que a est d’ordre n, mais seulement


que son ordre divise n d’après la proposition suivante.

Proposition 42
Un élément a d’un groupe G est d’ordre fini si, et seulement si, le sous-groupe
engendré par a est fini et l’ordre p de a est alors le cardinal de ce sous-groupe. Il
est caractérisé par la relation :
∀n ∈ ZZ an = e ⇐⇒ p | n.

Démonstration. C’est une conséquence de la proposition 39 de la page ci-contre. En par-


ticulier, le fait que a soit d’ordre fini est une traduction, par le noyau, de la non injectivité du
morphisme ϕa .

23
Chapitre 1. Groupes, anneaux, arithmétique, algèbres

Exo Remarque L’ordre de a est donc le plus petit entier naturel non nul p tel
1.18
que ap = e, aussi bien pour l’ordre naturel de IN que pour la relation de divisibilité.

Ex. 51. Soit n  5 . La permutation σ = (1 2)(3 4 5) de Sn est d’ordre 6 .


En effet, pour tout k ∈ IN∗ , σ k = (1 2)k (3 4 5)k , puisque deux cycles à supports disjoints
commutent. Donc :

σ 6 = Id[[1,n]] , σ 2 = (5 4 3) �= Id[[1,n]] et σ 3 = (1 2) �= Id[[1,n]] .

Donc σ est d’ordre un diviseur de 6 mais pas un diviseur de 2 ni de 3 . Ainsi, l’ordre de σ est
égal à 6 .

Exo Corollaire 43
1.19 Dans un groupe fini, tout élément est d’ordre fini.

Remarque
• Dans un groupe infini, il y a toujours au moins un élément d’ordre fini : l’élément
neutre qui est d’ordre 1 . Les autres peuvent être d’ordre infini (comme dans ZZ
dont tous les éléments sauf 0 sont d’ordre infini) ou d’ordre fini.
• Il se peut même que tous les éléments soient d’ordre fini, comme le montre
l’exemple suivant.

Ex. 52. Soit U∞ l’ensemble des racines de l’unité, c’est-à-dire l’ensemble des z ∈ C∗ pour
lesquels il existe n ∈ IN∗ tel que z n = 1 .
• C’est un sous-groupe de C∗ , puisqu’il contient 1 , qu’il est évidemment stable par passage à
l’inverse, et que si z1n = 1 et z2p = 1 , alors (z1 z2 )np = 1 .
• Par définition, tout élément de U∞ est d’ordre fini.
• Il ne peut pas être fini de cardinal N , puisqu’il contient UN+1 .

Proposition 44
Un groupe G de cardinal fini n est cyclique si, et seulement s’il admet un élément
d’ordre n.

Démonstration. Un élément de G est d’ordre n si, et seulement si, le sous-groupe qu’il


engendre est de cardinal n c’est-à-dire est égal à G puisque G est de cardinal n .
Donc, G est cyclique si, et seulement s’il admet un élément d’ordre n .

Ex. 53. Soit p et q deux entiers naturels non nuls. On a vu à l’exemple 47 de la page 22 que si p
et q sont premiers entre eux, alors (ZZ/pZZ) × (ZZ/qZZ) est isomorphe à ZZ/pqZZ , donc cyclique.
Montrons la réciproque par contraposition. Posons m le PPCM de p et q . On a :

∀x ∈ ZZ/pZZ p.x = 0 donc ∀x ∈ ZZ/pZZ m.x = 0 puisque p | m .

Par symétrie entre p et q , on a le même résultat dans ZZ/qZZ et par conséquent :

∀(x, y) ∈ (ZZ/pZZ) × (ZZ/qZZ) m.(x, y) = 0.

Ainsi, l’ordre de tout élément de (ZZ/pZZ) × (ZZ/qZZ) divise m et donc, si p et q ne sont


pas premiers entre eux, il n’y a aucun élément d’ordre pq dans (ZZ/pZZ) × (ZZ/qZZ) puis-
 
qu’alors m < pq = card (ZZ/pZZ) × (ZZ/qZZ) .

24
IV Approfondissements sur les groupes

Remarque Comme tout groupe cyclique est isomorphe à ZZ/nZZ , où n est son cardinal, on
a ainsi montré qu’un produit de deux groupes cycliques est cyclique si, et seulement si, leurs
cardinaux sont premiers entre eux.
En particulier, un produit de groupes cycliques n’est pas en général cyclique.

Théorème 45
L’ordre de tout élément d’un groupe fini G divise le cardinal de G.
Exo
1.20 Démonstration page 31
Principe de démonstration dans le cas où G est commutatif
 
Pour tout a ∈ G , on a (ag) = g.
g∈G g∈G

La démonstration dans le cas général est non exigible. Elle est proposée dans l’exercice 1.21.
Corollaire 46
Dans un groupe G fini de cardinal n, on a ∀x ∈ G xn = e .

Ex. 54. Tout groupe fini de cardinal premier est cyclique. Il est engendré par tout élément
différent du neutre.
En effet, soit G un groupe de cardinal p premier. Alors G �= {e} . Considérons donc un élément a
de G différent de e . L’ordre de a est alors un diviseur de p , différent de 1 puisque a �= e , donc
est égal à p . Ainsi, G est cyclique (proposition 44 de la page ci-contre) et engendré par a .
Ex. 55. Montrons qu’un groupe cyclique G de cardinal n admet, pour tout diviseur d de n ,
un unique sous-groupe de cardinal d et que celui-ci est cyclique.
Comme deux groupes cycliques de cardinal n sont isomorphes, il suffit de montrer le résultat
dans le cas où G = Un .
Soit d un diviseur de n .
• Le groupe Ud est cyclique, de cardinal d et est un sous-groupe de Un puisque d | n et
donc :
∀z ∈ C z d = 1 =⇒ z n = 1.
• Soit H un sous-groupe de Un de cardinal d . Le corollaire 46 donne :

∀z ∈ H zd = 1 c’est-à-dire H ⊂ Ud .
Cette inclusion et l’égalité des cardinaux (finis) donne alors H = Ud .
Cela montre que Ud est le seul sous-groupe de cardinal d de Un .

Théorème 47 (Théorème d’Euler)


Soit n ∈ IN∗ . Pour tout a ∈ ZZ premier avec n, on a aϕ(n) ≡ 1 [n].

Démonstration. Soit a ∈ ZZ premier avec n . Alors sa classe appartient au groupe des


éléments inversibles de l’anneau ZZ/nZZ . Ce groupe étant de cardinal ϕ(n) par définition de
l’indicatrice d’Euler, on en déduit que l’ordre de a divise ϕ(n) , soit (a)ϕ(n) = 1 .
En termes de congruences, cela se réécrit aϕ(n) ≡ 1 [n] .
Remarque Lorsque p est un nombre premier, on retrouve le petit théorème de
Fermat :
∀k ∈ ZZ k ∧ p = 1 =⇒ k p−1 ≡ 1 [p] puis ∀k ∈ ZZ k p ≡ k [p].

25
Chapitre 1. Groupes, anneaux, arithmétique, algèbres

Démonstrations

Proposition 3 Soit (Iλ )λ∈Λ une famille d’idéaux de A . Posons I = Iλ .
λ∈Λ

• Comme tous les Iλ sont des sous-groupes de (A, +) , ils contiennent 0 et sont stables par
somme et passage à l’opposé. Donc leur intersection également, ce qui prouve que I est un
sous-groupe de (A, +) .
• Soit x ∈ I et a ∈ A . Pour tout λ ∈ Λ , on a ax ∈ Iλ puisque Iλ est un idéal de A .
Donc ax ∈ I .

Proposition 4 Considérons l’intersection I de tous les idéaux de A contenant X (il en existe,


puisque A est lui-même un idéal de A contenant X ). D’après la proposition précédente, il s’agit
d’un idéal de A , il contient évidemment X et, par définition, tout idéal de A contenant X
contient I .

Proposition 5 Montrons que xA est le plus petit idéal de A contenant x .


• Par distributivité, l’application a �→ xa est un endomorphisme de groupe de (A, +) , donc
son image xA est un sous-groupe de (A, +) .
• Pour tout x ∈ A et b ∈ A , on a xa × b = x × (ab) ∈ xA . Donc xA est un idéal de A .
• Comme x = x × 1A , on a bien x ∈ xA .
• Enfin, par définition, pour tout idéal I contenant x et pour tout a ∈ A , on a ax ∈ I ,
donc I contient xA .

Proposition 6 Notons I = x1 A + · · · + xk A et montrons que c’est le plus petit idéal de A


contenant tous les xi .
• C’est un sous groupe de A , comme image du morphisme de groupes Ak −→ A

k
(ai )1ik �−→ xi ai .
i=1

• Il est clair que I est stable par multiplication par tout élément de A et qu’il contient tous
les xi .
• Enfin, par définition, tout idéal de A contenant x1 , . . . , xk , contient a1 x1 , . . . , ak xk , pour
tout (a1 , . . . , ak ) ∈ Ak , donc leur somme.

Proposition 8 Soit H un sous-groupe de ZZ . Si H = {0} , on a bien H = 0ZZ . Sinon, H contient


un élément p non nul et il contient aussi −p . Ainsi, l’ensemble des éléments strictement positifs
de H est une partie non vide de IN . Considérons son plus petit élément n .
• Par stabilité par addition de H , on a :
∀k ∈ IN∗ kn = n + n + · · · + n ∈ H.
  
k fois

Comme 0 ∈ H , on a 0 × n ∈ H puis, par stabilité par passage à l’opposé :


∀k ∈ ZZ kn ∈ H soit nZZ ⊂ H.

• Soit a ∈ H . La division euclidienne de a par n (qui est bien non nul par définition) s’écrit :
a = nq + r avec q ∈ ZZ et r ∈ [[0, n − 1]].
Alors r = a − nq appartient à H puisque a ∈ H et na ∈ nZZ ⊂ H . Comme n est le plus
petit élément strictement positif de H , on en déduit r = 0 , ce qui donne a = nq ∈ nZZ .
Ainsi H ⊂ nZZ .
Conclusion : H = nZZ .

26
Démonstrations

Proposition 11 Grâce à la division euclidienne par n , tout entier est congru modulo n à un élément
 
de [[0, n − 1]] , donc ZZ/nZZ = 0, 1, . . . , n − 1 .
Pour conclure, vérifions que les éléments 0, 1, . . . , n − 1 sont distincts deux à deux. Soit
donc (k, ℓ) ∈ [[0, n−1]]2 tel que k = ℓ . Alors n divise k −ℓ et puisque −(n−1)  k −ℓ  n−1 ,
on en déduit k − ℓ = 0 , soit k = ℓ .
Proposition 12
1. Soit α et β dans ZZ/nZZ . Soit x et x′ deux représentants de α ainsi que y et y ′ deux
représentants de β . On a :
  
x ≡ x′ [n] donc x + y ≡ x′ + y ′ [n] x + y = x′ + y ′
soit
y ≡ y ′ [n] par compatibilité, x × y ≡ x′ × y ′ [n] x × y = x′ × y ′ .
On peut donc poser α + β = x + y et α × β = x × y pour n’importe quels représentants x
de α et y de β et l’on a ainsi :
∀(x, y) ∈ (ZZ/nZZ)2 x+y =x+y et x × y = x × y.
2. Pour l’associativité de l’addition, on écrit, pour tout (x, y, z) ∈ ZZ3 :
x + (y + z) = x + (y + z) = x + (y + z)
par définition de l’addition.
En utilisant l’associativité de l’addition de ZZ , on a x + (y + z) = (x + y) + z et de la même
façon que ci-dessus, on a (x + y) + z = (x + y) + z .
On démontre de même l’associativité de la multiplication, la commutativité de l’addition et
de la multiplication, ainsi que la distributivité.
Ensuite, pour tout x ∈ ZZ :
0+x=0+x=x et 1 × x = 1 × x = x.
Enfin, pour tout x ∈ ZZ :
x + (−x) = x − x = 0
donc tout élément est symétrisable pour l’addition.
3. Le fait que la projection canonique soit un morphisme d’anneaux est une conséquence des
relations suivantes déjà montrées :
x+y = x+y x×y =x×y x × 1 = x.
Elle est surjective par définition de ZZ/nZZ . Son noyau est l’ensemble des entiers congrus à 0
modulo n , c’est-à-dire des multiples de n .
Proposition 13 Soit k ∈ ZZ .
k inversible dans ZZ/nZZ ⇐⇒ ∃u ∈ ZZ k×u=1

⇐⇒ ∃u ∈ ZZ ku = 1
⇐⇒ ∃u ∈ ZZ ∃v ∈ ZZ ku + nv = 1
⇐⇒ k ∧ n = 1 (théorème de Bézout).

Théorème 14
• Supposons n premier. Alors n  2 , donc ZZ/nZZ est un anneau commutatif non trivial.
Soit α ∈ ZZ/nZZ différent de 0 .
Alors il existe k ∈ [[1, n − 1]] tel que α = k et ainsi k est premier avec n donc sa classe est
inversible dans ZZ/nZZ d’après la proposition 13. On en déduit que α est inversible.
Donc ZZ/nZZ est un corps.

27
Chapitre 1. Groupes, anneaux, arithmétique, algèbres

• Supposons n non premier.


Si n = 1 , alors card (ZZ/nZZ) = 1 donc ZZ/nZZ est non intègre puisque trivial. Sinon, il existe
deux entiers a et b tels que n = ab avec 1 < a < n et 1 < b < n . Par suite :

a �= 0 et b �= 0 tandis que a × b = 0.
Donc ZZ/nZZ est non intègre et, a fortiori, n’est pas un corps.

Proposition 15
• Soit k et ℓ deux entiers tels que k ≡ ℓ [nm] . Alors évidemment k et ℓ ont même classe
modulo n et même classe modulo m . L’application ϕ est donc bien définie.
• Le fait que ϕ soit un morphisme découle immédiatement de la même propriété pour les trois
projections canoniques de ZZ sur ZZ/nZZ , ZZ/mZZ et ZZ/(nm)ZZ . Par exemple :
           
ϕ [k]mn [ℓ]mn = ϕ [kℓ]mn = [kℓ]n , [kℓ]m = [k]n [ℓ]n , [k]m [ℓ]m = ϕ [k]mn ϕ [ℓ]mn .
   
• Soit k ∈ ZZ tel que ϕ [k]nm = [0]n , [0]m . Alors k est un multiple de n et m , donc
un multiple de nm puisque n et m sont premiers entre eux. On en déduit [k]nm = [0]nm .
Donc ϕ est injective (son noyau est trivial).
   
Comme card ZZ/(nm)ZZ = nm = card (ZZ/nZZ) × (ZZ/mZZ) , on en déduit que ϕ est
bijective.

Ainsi, ϕ est un isomorphisme d’anneaux.

Proposition 19 Les anneaux ZZ/(n1 · · · nr )ZZ et (ZZ/n1 ZZ) × · · · × (ZZ/nr ZZ) étant isomorphes par
le théorème chinois (corollaire 17 de la page 11), ils ont autant d’éléments inversibles.
Or, les inversibles de l’anneau produit (ZZ/n1 ZZ) × · · · × (ZZ/nr ZZ) sont les (u1 , . . . , ur ) ,
où u1 , . . . , ur sont inversibles respectivement dans ZZ/n1 ZZ, . . . , ZZ/nr ZZ .
Il y en a donc ϕ(n1 ) · · · ϕ(nr ) .

Proposition 21 Il est clair que IK[X] est un anneau commutatif non réduit à {0} .
Soit A et B deux polynômes non nuls. Écrivons :
p q
 
A= ai X i et B= bj X j avec p = deg A et q = deg B.
i=0 j=0

Par définition du produit, le coefficient du terme de degré n = p + q de AB est ap bq , donc non


nul comme produit d’éléments non nuls du corps IK . Ainsi AB �= 0 .

Proposition 23 Supposons A inversible. Il existe alors B ∈ IK[X] tel que AB = 1 et l’on a


donc deg A + deg B = deg 1 = 0 . Ainsi, deg A ∈ IN et deg B ∈ IN , puis deg A = deg B = 0 ,
c’est-à-dire A ∈ IK∗ et B ∈ IK∗ .
Réciproquement, si λ ∈ IK∗ , on a λλ−1 = 1 , donc λ est inversible.

Proposition 24 Supposons A | B et B | A . Il existe alors deux polynômes Q1 et Q2 tels


que B = AQ1 et A = BQ2 .
• Si A = 0 , alors B = AQ1 = 0 et donc B = 1 × A , avec 1 ∈ IK∗ .
• Sinon, on a A = AQ1 Q2 et comme A �= 0 , l’intégrité de IK[X] donne Q1 Q2 = 1 , donc Q1
et Q2 sont inversibles. On a alors A = λB , avec λ = Q1 ∈ IK∗ d’après la proposition 23.
Réciproquement, si A = λB avec λ ∈ IK∗ , alors B = λ−1 A donc B | A et A | B .

28
Démonstrations

Proposition 25
• Supposons A irréductible. Alors A est non constant par définition.
Si A = BC , alors B | A , donc B est constant ou associé à A . Dans ce deuxième
cas, A = λB , avec λ ∈ IK∗ , et comme A = BC , on en déduit que C est égal à la
constante λ par intégrité de IK[X] .
• Réciproquement, supposons A non constant (en particulier non nul) et :

∀(B, C) ∈ IK[X]2 A = BC =⇒ B ∈ IK ou C ∈ IK).

Soit B un diviseur de A . Il existe C ∈ IK[X] tel que A = BC . Par hypothèse, B est


constant (non nul, puisque A �= 0 ) ou C est constant (non nul pour la même raison) et dans
ce cas A est associé à B .
Comme A est non constant, on en déduit qu’il est irréductible.

Proposition 27 Il est évident que si P divise A , alors P et A ne sont pas premiers entre eux
puisqu’ils admettent P comme diviseur commun non constant.
Supposons que P et A soient non premiers entre eux. Ils admettent alors un diviseur commun D
non constant. Par suite D divise P irréductible, donc est associé à P . Comme D divise A , on
en déduit que P divise A .

Théorème 28 Soit I un idéal de IK[X] .


• Si I = {0} , alors I = 0IK[X] .
• Sinon, parmi les éléments non nuls de I , il en existe un de degré minimal. Notons B un tel
polynôme.
Comme B appartient à I , on a BIK[X] ⊂ I puisque BIK[X] est le plus petit idéal de IK[X]
contenant B .
Réciproquement, soit A ∈ I . Effectuons la division euclidienne de A par B : A = BQ + R ,
avec deg R < deg B . Or, R = A−BQ appartient à I puisque A ∈ I et BQ ∈ BIK[X] ⊂ I .
Par minimalité du degré de B parmi les polynômes non nuls de I , on en déduit R = 0 ,
c’est-à-dire A = BQ ∈ BIK[X] . Donc I ⊂ BIK[X] .
Finalement I = BIK[X] .

Proposition 30
• Considérons le générateur de l’idéal A1 IK[X]+· · ·+An IK[X] , c’est-à-dire l’unique D ∈ IK[X] ,
nul ou unitaire, tel que DIK[X] = A1 IK[X] + · · · + An IK[X] .
Ainsi, DIK[X] est le plus petit idéal de IK[X] contenant {A1 , . . . , An } (proposition 6 de la
page 4), donc pour tout P ∈ IK[X] , puisque P IK[X] est un idéal de IK[X] :
P | D ⇐⇒ DIK[X] ⊂ P IK[X]
⇐⇒ ∀i ∈ [[1, n]] Ai ∈ P IK[X]
⇐⇒ ∀i ∈ [[1, n]] P | Ai .

• Enfin, puisque D ∈ DIK[X] = A1 IK[X] + · · · + An IK[X] , on a par définition :


∃(U1 , . . . , Un ) ∈ IK[X]n D = A1 U1 + · · · + An Un .

Théorème 31 Supposons A ∧ B = 1 et A | BC . D’après l’identité de Bézout, il existe des


polynômes U et V tels que AU + BV = 1 , ce qui implique ACU + BCV = C .
Comme A divise ACU et BCV , on a A | ACU + BCV et donc A | C .

29
Chapitre 1. Groupes, anneaux, arithmétique, algèbres

Corollaire 32 Par récurrence, il suffit de le montrer dans le cas de deux facteurs. Soit donc A , B
et C trois polynômes.
• Si A est premier avec BC , il est évidemment premier avec B et avec C .
• Réciproquement, supposons A ∧ B = A ∧ C = 1 . Soit D un diviseur commun à A et BC .
Alors D est premier avec B (puisqu’il divise A qui est premier avec B ) et comme il di-
vise BC , le théorème de Gauss nous dit que D divise C . Ainsi, D est un diviseur commun
à A et C qui sont premiers entre eux, ce qui prouve que D est constant non nul. On a donc
montré que A et BC étaient premiers entre eux.
Théorème 33 Montrons par récurrence forte sur n ∈ IN∗ :
Hn : « tout polynôme P de degré n est produit d’irréductibles. »
• H1 est immédiat car tout polynôme de degré 1 est irréductible.
• Soit n ∈ IN tel que n  2 . Supposons H1 , . . . , Hn−1 . Soit P de degré n .
∗ Si P est irréductible, alors il est évidemment produit d’irréductibles (un seul).
∗ Sinon, on peut écrire P = AB , avec 1  deg A, deg B < n . Par hypothèse de récurrence,
les polynômes A et B sont des produits d’irréductibles et par suite P = AB aussi.
D’où Hn .
Théorème 34
Existence. Si A est constant non nul, on prend λ = A et αP = 0 pour tout P ∈ P .
Sinon, on utilise le théorème 33 pour écrire A = P1 · · · Pr , avec P1 , . . . , Pr irréductibles.
En factorisant chaque Pi par son coefficient dominant, cela donne A = λQ1 · · · Qr , où λ
est dans IK∗ et Q1 , . . . , Qr dans P . Pour tout P ∈ P , on prend alors pour αP le nombre
de Qi égaux à P .

Unicité. Soit A = λ P αP une telle décomposition. Comme les éléments de P sont
P ∈P
unitaires, le scalaire λ est égal au coefficient dominant de A .

Considérons une autre décomposition A = λ P βP . Soit P0 ∈ P . Supposons par
P ∈P
αP
exemple αP0  βP0 . En simplifiant par P0 0
�= 0 ( IK[X] est intègre), on obtient :
 β −αP 
P αP = P0 P0 0
P βP .
P ∈P\{P0 } P ∈P\{P0 }

Le membre de gauche de cette égalité est un polynôme premier avec P0 (produit de polynômes
β −αP
premiers avec P0 , cf. corollaire 32 de la page 16). Donc P0 P0 0
est premier avec P0 , ce
qui prouve que βP0 − αP0 = 0 .
Les familles (αP )P ∈P et (βP )P ∈P sont donc égales, ce qui montre l’unicité de la décompo-
sition.

Proposition 36 Soit (Hλ )λ∈Λ une famille de sous-groupes de G . Posons H = Hλ .
λ∈Λ

• Comme tous les Hλ sont des sous-groupes de G , ils contiennent son élément neutre e ,
donc e ∈ H .
• Soit x ∈ H . Pour tout λ ∈ Λ , on a x−1 ∈ Hλ puisque Hλ est un sous-groupe de G .
Donc x−1 ∈ H .
• Soit (x, y) ∈ H 2 . Pour tout λ ∈ Λ , on a xy ∈ Hλ puisque Hλ est un sous-groupe de G .
Donc xy ∈ H .
Donc H est un sous-groupe de G .

30
Démonstrations

Proposition 39
• Le premier cas est évident.
• Supposons Ker ϕa = nZZ , avec n ∈ IN∗ . On peut définir l’application :
a : ZZ/nZZ
ϕ −→ G
x �−→ ak si x = k
car si k = ℓ , alors il existe q ∈ ZZ tel que ℓ = k + nq et alors :
aℓ = ak anq = ak (an )q = ak eq = ak ,
donc ak ne dépend que de la classe de k modulo n .
L’application ϕ
a ainsi définie de ZZ/nZZ dans G vérifie :
∀k ∈ ZZ a (k) = ϕa (k) = ak .
ϕ
∗ C’est un morphisme de groupes de ZZ/nZZ dans G puisque :
∀(k, ℓ) ∈ ZZ2 ϕ a (k + ℓ) = ak+ℓ = ak aℓ = ϕ
a (k + ℓ) = ϕ a (k)ϕ
a (ℓ).
∗ Elle est surjective puisque a engendre G .
∗ Soit k ∈ ZZ . On a :
a (k) = e ⇐⇒ ϕa (k) = e ⇐⇒ k ∈ Ker ϕa ⇐⇒ k ∈ nZZ ⇐⇒ k = 0.
ϕ
Donc Ker ϕ a = {0} ce qui prouve que ϕa est injective.
a est un isomorphisme de ZZ/nZZ sur G .
Finalement, ϕ
 
Comme ZZ/nZZ = 0, 1, 2, . . . , n − 1 , on en déduit que :
   
G= ϕ a (2), . . . , ϕa (n − 1) = e, a, a2 , . . . , an−1 .
a (0), ϕa (1), ϕ
a , on a pour tout k ∈ ZZ les équivalences :
Par l’isomorphisme ϕ
ak = e ⇐⇒ k = 0 ⇐⇒ n | k
donc n est le plus petit entier naturel k non nul tel que ak = e .
Proposition 41 Soit k ∈ ZZ .
Le groupe ZZ/nZZ est engendré par 1 ce qui signifie que tout sous-groupe de ZZ/nZZ contenant 1
est égal à ZZ/nZZ .
Donc le sous-groupe engendré par k est égal à ZZ/nZZ si, et seulement s’il contient 1 , ce qui
équivaut successivement :
• à l’existence d’un entier ℓ tel que ℓk = 1 ,
• à l’existence de (ℓ, a) ∈ ZZ2 tel que ℓk = 1 + an ,
• à k ∧ n = 1 d’après le théorème de Bézout.
Théorème 45 Démonstration dans le cas où G est commutatif. Notons n = card G . Soit a ∈ G .
L’application g �→ ag est une permutation de G (de réciproque g �→ a−1 g ). Comme le

groupe G est commutatif, le produit P = h a bien un sens et, par le changement
h∈G
d’indice [h = ag] , on a :
 
P = h= (ag).
h∈G g∈G

Toujours par commutativité de G , on en déduit :



P = acard G g = an P.
g∈G

Par régularité de P , cela donne an = e . D’après la proposition 42 de la page 23, cela implique
que l’ordre de a divise n .

31
Chapitre 1. Groupes, anneaux, arithmétique, algèbres

S’entraîner et approfondir
Anneaux, arithmétique de ZZ
1.1 Montrer que tout anneau fini intègre est un corps.
→2

1.2 Soit A et B deux anneaux. À quelle condition l’anneau produit A × B est-il intègre ? est-il
→3
un corps ?

1.3 Montrer que les suites réelles convergeant vers 0 constituent un idéal de l’anneau des suites
→3
réelles bornées.
S’agit-il d’un idéal de l’anneau de toutes les suites réelles ?

1.4 1. Montrer qu’un idéal contenant un élément inversible de A est égal à A .


2. Quels sont les idéaux d’un corps ?
→3

3. Montrer que tout morphisme d’anneaux entre deux corps est injectif.

1.5 Montrer qu’un anneau commutatif A non trivial ayant pour seuls idéaux A et {0} est un
→4
corps (réciproque de la deuxième question de l’exercice 1.4).

1.6 Montrer que IR × {0} muni des lois induites par celles de l’anneau produit IR2 est un anneau
mais n’est pas un sous-anneau de IR2 .

Congruences, ZZ/nZZ
1.7 Soit n ∈ IN∗ . Montrer : 
→12
ϕ(d) = n.
d|n

Indication. On pourra considérer l’ensemble des rationnels de la forme p/n , avec p ∈ IN .

1.8 Déterminer les entiers n ∈ IN∗ tels que ϕ(n) divise n .

1.9 Montrer que si n est produit de nombres premiers distincts, alors :


∀k ∈ IN ∀a ∈ ZZ a1+kϕ(n) ≡ a [n].

Arithmétique des polynômes


1.10 Le polynôme P = X 4 + X 2 + 1
1. a-t-il des racines dans C ? dans IR ? dans Q ?
→14

2. est-il irréductible dans C[X] ? dans IR[X] ? dans Q[X] ?

1.11 Montrer que le polynôme P = X 4 + 1 est irréductible dans Q[X] .

⋆ 1.12 Montrer que si A et B sont deux polynômes premiers entre eux et non tous les deux
constants, il existe un unique couple (U, V ) ∈ IK[X]2 tel que :
AU + BV = 1 avec deg U < deg B et deg V < deg A.

32
Exercices

Algèbres
1.13 Montrer que toute algèbre intègre de dimension finie A est un corps.
→18

⋆ 1.14 Soit A une IR -algèbre intègre de dimension finie n  2 .


1. Soit a ∈ A tel que (1A , a) soit une famille libre.
  
n
(a) Montrer qu’il existe (λ0 , . . . , λn ) ∈ IRn+1 \ (0, . . . , 0) tel que λk a k = 0 .
k=0

n
(b) En introduisant le polynôme P = λk X k ∈ IR[X] , montrer qu’il existe (α, β) ∈ IR2 ,
k=0
avec β �= 0 , tel que (a − α1A )2 + β 1A = 0 .
2

2. Montrer qu’il existe u ∈ A tel que u2 = −1A puis que (1A , u) est une base de A .
3. Montrer que C est, à isomorphisme près, la seule IR -algèbre intègre de dimension fi-
nie n  2 .

Groupes
1.15 1. Soit σ ∈ Sn et (a, b) ∈ [[1, n]]2 tel que a �= b .
→21  
Montrer que σ ◦ (a b) ◦ σ −1 est la transposition σ(a) σ(b) .
2. Montrer que l’ensemble des transpositions du type (i i+1) est une partie génératrice
de Sn .
3. Montrer que le groupe Sn est engendré par la transposition τ = (1 2) et le n -
cycle γ = (1 2 . . . n) .

1.16 Montrer que ZZ2 n’est pas monogène.


→22
  
2n n2n−1
1.17 Montrer que G = n ∈ ZZ est un sous-groupe de GL2 (IR) isomorphe
→23 0 2n
à ZZ .

1.18 Soit a un élément d’ordre n d’un groupe G .


→24
1. Montrer que pour tout diviseur d de n , l’ordre de ad est n/d .
2. Quel est l’ordre de ak , pour k ∈ IN ?

1.19 Montrer que si G est fini, le sous-groupe engendré par une partie A est l’ensemble des
→24
produits d’éléments de A .

1.20 Soit n ∈ IN∗ . Montrer que n | ϕ(2n − 1) .


→25

1.21 Théorème de Lagrange


Soit G un groupe fini et H un sous-groupe de G . On définit sur G la relation :
x R y ⇐⇒ x−1 y ∈ H.
1. Montrer qu’il s’agit d’une relation d’équivalence et que la classe d’équivalence d’un élé-
ment x ∈ G est :   
xH = xh  h ∈ H .
2. Montrer que les classes d’équivalence pour cette relation ont toutes même cardinal égal
à celui de H .
3. En déduire que le cardinal de H divise celui de G .
4. En déduire une démonstration du théorème 45 de la page 25 : l’ordre de tout élément
de G divise le cardinal de G .

33
Chapitre 1. Groupes, anneaux, arithmétique, algèbres

1.22 Déterminer l’ordre d’une permutation σ ∈ Sn en fonction des longueurs des cycles interve-
nant dans sa décomposition en cycles à supports disjoints.

1.23 Soit G un groupe commutatif fini, ainsi que a et b deux éléments de G d’ordres respectifs m
et n .
1. (a) Montrer que si m et n sont premiers entre eux, alors ab est d’ordre mn .
(b) Que peut-on dire de l’ordre de ab dans le cas général ?
2. (a) En déduire que si r est le PPCM des ordres des éléments de G , il existe un élément
de G d’ordre r .
(b) Qu’en est-il si G n’est plus supposé commutatif ?
3. Soit IK un corps quelconque. Montrer, en utilisant la question 2(a), que tout sous-groupe
(multiplicatif) fini de IK∗ est cyclique.
Indication. On pourra admettre que tout polynôme de degré n à coefficients dans IK
admet au maximum n racines.

34
Solutions des exercices

Solutions des exercices


1.1 Soit A un anneau fini intègre et a ∈ A non nul. L’application x �→ ax de A dans A est
injective par intégrité de A . Comme A est fini, elle est bijective, donc 1 admet un antécédent
ce qui signifie qu’il existe b ∈ A tel que ab = 1 . Comme A est commutatif (puisqu’intègre),
on a aussi ba = 1 et donc a est inversible.
Ainsi, A est un corps.

1.2 Supposons A × B intègre (ce qui est le cas en particulier si c’est un corps). Alors l’éga-
lité (1A , 0B ) × (0A , 1B ) = (0A , 0B ) prouve que (1A , 0B ) = (0A , 0B ) ou (0A , 1B ) = (0A , 0B ) .
L’un des deux anneaux A ou B est donc trivial et ils ne peuvent pas l’être tous les deux,
sinon leur produit le serait également.
Supposons maintenant B trivial. L’application f : A −→ A×B est alors une bijec-
x �−→ (x, 0B )
tion et c’est un morphisme d’anneaux. En effet :
f (1A ) = (1A , 0B ) = (1A , 1B ) puisque B est trivial,
les deux autres propriétés étant évidentes.
Par l’isomorphisme f , il est alors immédiat que A × B est intègre si, et seulement si, A est
intègre et que A × B est un corps si, et seulement si, A est un corps.
En conclusion, un produit de deux anneaux est :
• intègre si, et seulement si, l’un des deux anneaux est intègre et l’autre trivial ;
• un corps si, et seulement si, l’un des deux est un corps et l’autre trivial.

1.3 • Notons B(IN, IR) l’ensemble des suites bornées. Il s’agit d’un sous-anneau de F(IN, IR) :
cela traduit le fait qu’une somme, une différence et un produit de suites bornées sont des
suites bornées et que la suite constante (1)n∈IN est bornée.
L’ensemble C0 des suites tendant vers 0 est une partie de B(IN, IR) puisqu’une suite
convergente est bornée. C’est un sous-espace vectoriel de B(IN, IR) donc en particulier
un sous-groupe additif. La deuxième propriété de la définition 1 de la page 3 vient du
fait que le produit d’une suite bornée par une suite tendant vers 0 est une suite tendant
vers 0 .
• En revanche, C0 n’est pas un idéal de F(IN, IR) puisque, par exemple, le produit de la
suite (2−n )n∈IN ∈ C0 par (2n )n∈IN ne tend pas vers 0 .

1.4 1. Si l’idéal I de A contient un élément inversible u , il contient aussi tout élément a ∈ A ,


puisque a = u × (u−1 a) .
2. Un idéal non réduit à {0} d’un corps IK contient un élément inversible, donc est égal
à IK d’après la question précédente.
Réciproquement, IK et {0} sont évidemment des idéaux de IK .
3. Un corps étant un anneau non trivial, tout morphisme d’anneaux ϕ entre deux corps IK
et IK′ est non nul puisque ϕ(1IK ) = 1IK′ �= 0IK′ , donc son noyau est un idéal de IK différent
de IK . Il est donc réduit à {0} d’après la question précédente, ce qui prouve que ϕ est
injectif (caractérisation de l’injectivité d’un morphisme de groupes).

35
Chapitre 1. Groupes, anneaux, arithmétique, algèbres

1.5 Soit A un anneau commutatif non trivial dans lequel les seuls idéaux sont A et {0} . Mon-
trons que tout élément non nul de A est inversible.
Soit x ∈ A non nul. L’idéal xA engendré par x contient x donc est différent de {0} . On
en déduit que xA = A et, en particulier, qu’il existe a ∈ A tel que xa = 1 , ce qui prouve
que x est inversible.

1.6 • IR × {0} est un groupe commutatif comme produit des deux groupes commutatifs (IR, +)
 
et {0}, + .
• Il est évidemment stable par produit puisque (x, 0) × (y, 0) = (xy, 0) pour
tout (x, y) ∈ IR2 .
• La multiplication est associative et distributive par rapport à l’addition comme dans
l’anneau IR2 .
• Il est immédiat que (1, 0) est neutre pour la multiplication de IR × {0} .
Donc IR × {0} est un anneau. Ce n’est pas un sous-anneau de IR2 puisqu’il ne contient pas
l’élément neutre multiplicatif (1, 1) de ce dernier.
p 
1.7 Considérons A = n
| p ∈ ZZ .
k
Ses éléments admettent une forme irréductible d
, avec k ∧ d = 1 et d | n . On a donc :
 k  
A= Ad où Ad =  k ∈ ZZ et k ∧ d = 1 ,
d
d|n

cette réunion étant disjointe par unicité du représentant irréductible d’un rationnel. De plus :
   
p k
A ∩ ]0, 1] = p ∈ [[1, n]] et Ad ∩ ]0, 1] = k ∈ [[1, d]] et k∧d=1 .
n d
Donc :  
   
n = card A ∩ ]0, 1] = card Ad ∩ ]0, 1] = ϕ(d).
d|n d|n

1.8 Soit n ∈ IN∗ tel que ϕ(n) | n .



Notons Pn l’ensemble des diviseurs premiers de n et écrivons n = pαp .
p∈Pn
   
Alors ϕ(n) = (pαp − pαp −1 ) = pαp −1 (p − 1) . Donc (p − 1) | p.
p∈Pn p∈Pn p∈Pn p∈Pn

• Si n a un diviseur premier impair, on en déduit donc que 2 ∈ Pn , et il ne peut alors



avoir qu’un seul diviseur premier impair puisque p n’est pas divisible par 4 .
p∈Pn
α α β
Donc, soit n = 2 , avec α ∈ IN , soit n = 2 p , où p est un nombre premier impair
et (α, β) ∈ (IN∗ )2 . Dans le deuxième cas, p − 1 divise 2p et comme il est premier avec p ,
il divise 2 d’après le théorème de Gauss, ce qui donne p = 3 .
• Réciproquement :
∗ n = 1 est solution puisque ϕ(1) = 1 ,
∗ si n = 2α , avec α ∈ IN∗ , alors ϕ(n) = 2α−1 | n ,
∗ si n = 2α 3β , avec (α, β) ∈ (IN∗ )2 , alors :
ϕ(n) = 2α−1 × 2 × 3β−1 = 2α 3β−1 | n.
En conclusion, les solutions sont les entiers de la forme :
2α avec α ∈ IN et n = 2α 3β avec (α, β) ∈ (IN∗ )2 .

36
Solutions des exercices

1.9 Écrivons n = p1 · · · pr , où p1 , . . . , pr sont des nombres premiers distincts.


On a donc ϕ(n) = (p1 − 1) · · · (pr − 1) .
Soit a ∈ ZZ et k ∈ IN . Pour montrer a1+kϕ(n) ≡ a [n] il suffit, par le théorème chinois, de
montrer :
∀i ∈ [[1, r]] a1+kϕ(n) ≡ a [pi ].
Soit i ∈ [[1, r]] .
• Si pi | a , alors a1+kϕ(n) ≡ 0 ≡ a [pi ] .
• Sinon, on a api −1 ≡ 1 [pi ] d’après le petit théorème de Fermat (cf. théorème 47 de la
page 25) et donc akϕ(n) ≡ 1 [pi ] puisque kϕ(n) est un multiple de pi − 1 .
On en déduit a1+kϕ(n) ≡ a [pi ] .
D’où le résultat.

1.10 1. Le polynôme P a (au moins) une racine dans C comme tout polynôme non constant
de C[X] .
Il n’a pas de racine dans IR et, a fortiori, pas dans Q , puisque ∀x ∈ IR P (x) > 0 .
2. Comme il est de degré 4 , il n’est irréductible ni dans C[X] ni dans IR[X] .
Il n’est pas non plus irréductible dans Q[X] comme le montrent les égalités suivantes :
X 4 + X 2 + 1 = (X 2 + 1)2 − X 2 = (X 2 + X + 1)(X 2 − X + 1).

1.11 Supposons qu’il soit réductible dans Q[X] . Comme il n’a pas de racine rationnelle (il n’a
même pas de racine réelle), il ne peut pas admettre de diviseur de degré 1 . Il s’écrit donc
comme un produit de deux polynômes de degré 2 . Comme X 4 + 1 est unitaire, on peut
même les supposer tous les deux unitaires. On a donc :
P = (X 2 + aX + b)(X 2 + αX + β) avec (a, b, α, β) ∈ Q4 .
Par unicité des coefficients, on a les relations :
a+α = 0 aα + b + β = 0 aβ + αb = 0 et bβ = 1.
On en déduit que b et β sont non nuls et de même signe, donc b + β �= 0 .
Par conséquent, α = −a �= 0 et la troisième égalité, qui s’écrit a(β − b) = 0 , donne b = β .
Finalement, b = β = ±1 et donc a2 = ±2 , ce qui est impossible avec a ∈ Q .
Donc P est irréductible dans Q[X] .

1.12 Unicité. Supposons l’existence de deux tels couples (U1 , V1 ) et (U2 , V2 ) . On a alors :
A(U1 − U2 ) = B(V2 − V1 ).
Donc A | B(V2 − V1 ) et comme A et B sont premiers entre eux, on a A | (V2 − V1 ) .
Or, deg(V2 − V1 ) < deg A , donc V2 − V1 = 0 , ce qui donne V1 = V2 . Par symétrie, on a
donc aussi U1 = U2 , d’où l’unicité.
Existence. Supposons, par exemple, deg A > 0 . Alors B �= 0 , sinon A serait un diviseur
non constant commun à A et B . On en déduit que A et B sont tous les deux non nuls,
et il en est de même, par symétrie, si deg B > 0 .
Comme A et B sont premiers entre eux, le théorème de Bézout nous donne deux po-
lynômes U0 et V0 tels que AU0 + BV0 = 1 . Notons Q et U respectivement les quo-
tient et reste de la division euclidienne de U0 par B . On a donc U0 = BQ + U ; po-
sons V = V0 + AQ de sorte que l’on ait :
AU + BV = A(U0 − BQ) + B(V0 + AQ) = AU0 + BV0 = 1.
• D’une part, par définition de U , on a deg U < deg B .

37
Chapitre 1. Groupes, anneaux, arithmétique, algèbres

• Pour prouver que le couple (U, V ) convient, il reste à montrer deg V < deg A .
On a deg(AU ) = deg A + deg U < deg A + deg B puisque deg U < deg B
et deg A �= −∞ . De plus, deg 1 = 0 < deg A + deg B , donc :
deg V deg B = deg(BV ) = deg(1 − AU ) < deg A + deg B.
On en déduit deg V < deg A puisque deg B �= −∞ .
Finalement, le couple (U, V ) répond à la question.
deg V deg B = deg(BV ) = deg(1 − AU ) < deg A + deg B.
1.13 Soit a �= 0 dans A . Par bilinéarité du produit, l’application x �→ ax est un endomorphisme
d’espace vectoriel de A . L’intégrité de A donne son injectivité, donc sa bijectivité puisque A
est un espace vectoriel de dimension finie.
Par suite, il existe un élément b ∈ A tel que ab = 1 , donc a est inversible (on rappelle que A
est commutative puisqu’intègre).
1.14 1. (a) La famille (1A , a, . . . , an ) est liée puisque l’espace vectoriel A est de dimension n .

n
On en déduit l’existence de (λ0 , . . . , λn ) ∈ IRn+1 non nul tel que λi a i = 0 .
i=0

n
(b) Le polynôme non nul P = λk X k ∈ IR[X] est donc tel que P (a) = 0 . Parmi
k=0
les polynômes P non nuls tels que P (a) = 0 , choisissons-en un de degré minimal.
Quitte à le diviser par son coefficient dominant, on peut supposer un tel polynôme Π
unitaire. Il est différent de 1 puisque Π(a) = 0A �= 1A = 1(a) . Donc deg Π  1 .
Supposons Π non irréductible. Il existe alors deux polynômes Q et R non constants
tels que Π = QR . Comme l’application P �→ P (a) est un morphisme d’algèbres
de IR[X] dans A (exemple 38 de la page 19), on a alors 0 = Π(a) = Q(a)R(a) et
comme A est intègre, on en déduit Q(a) = 0 ou R(a) = 0 . C’est absurde puisque Q
et R sont de degrés strictement inférieurs à deg Π .
Donc Π est irréductible dans IR[X] .
• Il ne peut pas être de degré 1 , sinon il serait de la forme Π = X − α , avec α ∈ IR ,
et alors la relation Π(a) = 0 donnerait a = α1A qui est contradictoire avec
l’hypothèse d’indépendance de (1A , a) .
• Il est donc de degré 2 à discriminant strictement négatif, donc de la forme :
Π = (X − α)2 + β 2 avec (α, β) ∈ IR2 et β �= 0.
La relation Π(a) = 0 donne alors (a − α1A )2 + β 2 1A = 0 .
2. Puisque n  2 , il existe un élément a de A qui n’est pas dans la droite Vect(1A ) . En
utilisant les résultats et notations de la question précédente, l’élément u = (a − α1A )/β
vérifie donc u2 = −1A et a ∈ Vect(1A , u) .
Montrons que (1A , u) est une base de A .
• Elle est libre, sinon il existerait λ ∈ IR tel que u = λ1A et alors on aurait u2 = λ2 1A
et donc u2 �= −1A .
• Soit x ∈ A .
∗ Si x ∈ Vect(1A ) , alors x ∈ Vect(1A , u) .
∗ Sinon, par ce qui précède, il existe un élément v ∈ A tel que x ∈ Vect(1A , v) ,
avec v 2 = −1A . On a alors :
0 = v 2 − u2 = (v − u)(v + u) (commutativité de A )
et par intégrité de A , on en déduit v = ±u , puis x ∈ Vect(1A , u) .
Donc (1A , u) est génératrice de A .

38
Solutions des exercices

3. Considérons l’application IR -linéaire ϕ : C → A vérifiant ϕ(1) = 1A et ϕ(i) = u . C’est


un isomorphisme de IR -espaces vectoriels puisque l’image de la base (1, i) est une base.
D’autre part, un calcul élémentaire utilisant les relations i2 = −1 et u2 = −1A montre
que pour tout (z, z ′ ) ∈ C2 , on a ϕ(zz ′ ) = ϕ(z)ϕ(z ′ ) . Avec la propriété ϕ(1) = 1A , cela
prouve que ϕ est un isomorphisme de IR -algèbres de C sur A .
Finalement, C est, à isomorphisme près, la seule IR -algèbre intègre de dimension fi-
nie n  2 .

1.15 1. Étudions les images des éléments de [[1, n]] par σ ◦(a b)◦σ −1 . Comme σ est une bijection,
on peut écrire ces éléments sous la forme σ(x) , avec x ∈ [[1, n]] . Discutons suivant les
valeurs de x :
σ −1 (a b) σ
[[1, n]] −→ [[1, n]] −→ [[1, n]] −→ [[1, n]]
σ(a) �−→ a �−→ b �−→ σ(b)
σ(b) �−→ b �−→ a �−→ σ(a)
σ(x) �−→ x �−→ x �−→ σ(x) si x ∈
/ {a, b}.
 
Donc σ ◦ (a b) ◦ σ −1 = σ(a) σ(b) .
2. Soit (i j) une transposition, avec j > i + 1 . Alors, d’après la question précédente :
(j−1 j) ◦ (i j−1) ◦ (j−1 j) = (i j).
Il est alors facile de montrer par récurrence sur j − i que toute transposition (i j) ,
avec i < j , est un produit de transpositions du type (k−1 k) .
3. Soit i ∈ [[1, n − 1]] . Les relations γ i−1 (1) = i et γ i−1 (2) = i + 1 permettent de vérifier,
grâce à la première question, que :
γ i−1 ◦ (1 2) ◦ γ −(i−1) = (i i+1).
Toute transposition de la forme (i i+1) s’écrit donc comme un produit des permuta-
tions τ et γ .
Or, d’après la question précédente, les transpositions de la forme (i i+1) engendrent Sn ,
donc {τ, σ} est également une partie génératrice de Sn .

1.16 Soit (a, b) ∈ ZZ2 .


  
Le sous-groupe de ZZ2 engendré par (a, b) est l’ensemble A = (na, nb)  n ∈ ZZ . Il est
donc contenu dans le sous-espace vectoriel de IR2 engendré par (a, b) qui est différent de IR2 ,
puisque de dimension inférieure ou égal à 1 . Donc A ne peut pas être égal à ZZ2 puisque ce
dernier contient la base canonique de IR2 .

 
2 1   
1.17 On remarque qu’en posant A = , on a G = An  n ∈ ZZ . Donc G est monogène.
0 2
Comme il est de plus évidemment infini, il est isomorphe à ZZ .

1.18 1. Posons n = dp . On a :
(ad )k = e ⇐⇒ adk = e ⇐⇒ n | dk ⇐⇒ dp | dk ⇐⇒ p | k.
Donc l’ordre de ad est p = n/d .

39
Chapitre 1. Groupes, anneaux, arithmétique, algèbres

2. Soit d = k ∧ n . Montrons que ad et ak engendrent le même sous-groupe.


Pour x ∈ G , on note ici �x� le sous-groupe de G engendré par x .
′        
En écrivant k = dk′ , on a ak = (ad )k ∈ ad ce qui donne ak ⊂ ad puisque ak
est le plus petit sous-groupe contenant ak .
D’autre part, le théorème de Bézout donne des entiers u et v tels que d = uk + vn .
Alors :  
ad = auk avn = (ak )u (an )v = (ak )u ∈ ak
   
et l’on conclut comme précédemment que ad ⊂ ak .
   
On en déduit que ad et ak ont le même ordre : le cardinal du sous-groupe ad = ak
qui, d’après la question précédente, est égal à n/d .

1.19 D’après la caractérisation du sous-groupe engendré par A (cf. exemple 40 de la page 20), il
suffit de montrer que l’inverse de tout élément de A peut s’écrire comme produit d’éléments
de A .
Soit a ∈ A . Comme G est fini, a est d’ordre fini, donc il existe n ∈ IN∗ tel que an = e . On
en déduit que a−1 = an × a−1 = an−1 est bien un produit d’éléments de A .

1.20 Posons N = 2n − 1 . Comme ϕ(N ) est le cardinal du groupe G des inversibles de ZZ/N ZZ ,
il suffit de trouver un élément de G d’ordre n et d’utiliser le théorème 45 de la page 25.
On a 2n ≡ 1 [2n − 1] , donc (2)n = 1 dans ZZ/N ZZ . Cela montre que 2 ∈ G et que son ordre
divise n . Or, si d est un diviseur strict de n , on a 1 < 2d < 2n , donc 2d �≡ 1 [2n − 1] , ce
qui prouve que (2)d �= 1 .
Finalement, 2 est bien d’ordre n ce qui conclut.

1.21 1. • Réflexivité : pour tout x ∈ G , on a : x−1 x = e ∈ H , donc x R x .


Symétrie : pour tout (x, y) ∈ G2 , on a :
x R y =⇒ x−1 y ∈ H =⇒ y −1 x = (x−1 y)−1 ∈ H =⇒ y R x.

Transitivité : pour tout (x, y, z) ∈ G3 , on a :


 
(x R y et y R z) =⇒ x−1 y ∈ H et y −1 z ∈ H

=⇒ x−1 z = (x−1 y)(y −1 z) ∈ H =⇒ x R z.


• Soit x ∈ G . Pour tout y ∈ G , on a :
y R x ⇐⇒ ∃h ∈ H x−1 y = h ⇐⇒ ∃h ∈ H y = xh
donc la classe d’équivalence de x est xH .
2. La classe de x ∈ G est en bijection avec H par l’application gx : G −→ G de
h �−→ xh
réciproque gx−1 , qui vérifie gx (H) = xH . Donc xH et H ont même cardinal.
3. Comme G est fini, il y a un nombre fini de classes d’équivalence ; notons p ce nombre. Les
classes formant une partition de G et ayant toutes le même nombre d’éléments card H ,
on en déduit card G = p card H , ce qui donne card H | card G .
4. Soit a ∈ G . L’ordre de a est égal au cardinal du sous-groupe de G engendré par a et
divise donc le cardinal de G .

40
Solutions des exercices

1.22 Supposons σ = γ1 ◦ · · · ◦ γr , avec γ1 , . . . , γr des cycles à supports disjoints de longueurs


respectives k1 , . . . , kr .
Montrons que l’ordre de σ est le PPCM m de k1 , . . . , kr .
• Pour tout i ∈ [[1, r]] , on a γiki = Id , donc γim = Id . Puisque les γi sont à supports
disjoints, ils commutent deux à deux, ce qui donne σ m = γ1m ◦ · · · ◦ γrm = Id.
• Soit p ∈ IN tel que σ p = Id . Pour tout i ∈ [[1, r]] et x dans le support de γi ,
on a σ p (x) = γip (x) puisque x est invariant par tous les autres γj . On en déduit
que γip (x) = x , et donc ki | p puisque γi est un cycle de longueur ki .
Par suite, m divise p .
Donc l’ordre de σ est bien m .
1.23 1. (a) Comme G est commutatif, on a ∀k ∈ IN (ab)k = ak bk .
Donc (ab)m∨n = e et l’ordre de ab divise m ∨ n .
Supposons m∧n = 1 et montrons que l’ordre de ab est égal à m∨n = mn . Soit k ∈ IN
tel que (ab)k = e . Alors ak = b−k . Comme ak appartient au sous-groupe engendré
par a , son ordre divise le cardinal de ce sous-groupe, c’est-à-dire m . De même, l’ordre
de b−k divise n . Finalement, l’ordre de ak = b−k divise m et n donc divise m∧n = 1
et l’on en déduit que ak = bk = e .
Donc m | k et n | k , ce qui prouve, puisque m et n sont premiers entre eux, que mn
divise k . Ainsi, l’ordre de ab est égal à mn .
(b) Dans le cas général, l’ordre de ab divise m ∨ n , mais ne lui est pas égal en général.
Par exemple, dans Un , avec n  2 , les éléments a = e2iπ/n et b = e−2iπ/n sont
d’ordre n , alors que leur produit est d’ordre 1 .
2. (a) Pour x ∈ G , notons o(x) son ordre. Soit r le PPCM des ordres de tous les éléments

k
de G . Décomposons r en facteurs premiers : r = pα
i , avec p1 , . . . , pk premiers
i

i=1
distincts et α1 , . . . , αk dans IN∗ .
Soit i ∈ [[1, k]] . Notons vi l’application « valuation pi -adique ».
  
Comme r = o(y) , on a αi = vi (r) = max vi o(y) , donc il existe un élé-
y∈G y∈G
 
ment yi ∈ G tel que vi o(yi ) = αi , donc tel que o(yi ) = pα ∗
i qi , avec qi ∈ IN .
i

α α
p i qi pi i
Alors xi = yiqi est d’ordre pα
i . En effet xi
i i
= yi = e , donc o(xi ) divise pα
i . Il ne
i

α −1 α −1
p i qi p i
divise pas piαi −1 puisque 1  qi piαi −1 < qi pα
i = o(yi ) et donc xi
i i
= yi i �= e .
Comme les xi sont des éléments d’ordres premiers entre eux deux à deux, on déduit
de la première question, par une récurrence immédiate :
α
o(x1 · · · xk ) = o(x1 ) · · · o(xk ) = pα
1 · · · pk = r.
1 k

(b) Le résultat ne subsiste pas sans l’hypothèse de commutativité. Par exemple, les élé-
ments de G = S3 sont l’identité (d’ordre 1 ), les transpositions (d’ordre 2) et les
3 -cycles (d’ordre 3 ). On a donc r = 6 , mais il n’existe aucun élément d’ordre 6 .
3. Soit G un sous-groupe fini de IK∗ et n son cardinal. L’ordre de tout élément de G
divise n , donc le PPCM r de tous ces ordres divise n .
Le polynôme X r − 1 est de degré r et admet pour racines dans IK les n éléments de G
donc n  r . On en déduit r = n et puisque G est commutatif ( IK est commutatif par
définition), la question 2(a) montre il existe un élément x de G d’ordre r . Donc le sous-
groupe engendré par x est de cardinal n = card G , ce qui prouve que G est engendré
par x , donc cyclique.

41
Chapitre 2 : Compléments d’algèbre linéaire

I Somme finie de sous-espaces vectoriels . . . . . . . . . 44


1 Somme de p sous-espaces vectoriels . . . . . . . . . . . . 44
2 Somme directe de sous-espaces vectoriels . . . . . . . . . . 46
3 Décomposition d’un espace en somme directe . . . . . . . 48
4 Cas de la dimension finie . . . . . . . . . . . . . . . . . . 49
II Écriture par blocs . . . . . . . . . . . . . . . . . . . . . . 50
1 Matrices par blocs . . . . . . . . . . . . . . . . . . . . . . 50
2 Opérations sur les matrices par blocs . . . . . . . . . . . . 51
3 Déterminant et écriture par blocs . . . . . . . . . . . . . . 56
III Sous-espaces stables et endomorphismes induits . . . . 57
1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . 57
2 Stabilité et écriture par blocs . . . . . . . . . . . . . . . . 58
IV Polynômes d’endomorphismes / de matrices carrées . 60
1 Endomorphismes / matrices nilpotent(e)s . . . . . . . . . 60
2 Substitution polynomiale . . . . . . . . . . . . . . . . . . 63
3 Polynômes annulateurs . . . . . . . . . . . . . . . . . . . 64
4 Lemme de décomposition des noyaux . . . . . . . . . . . . 68
Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
Compléments
d’algèbre linéaire 2
Dans ce chapitre, E est un espace vectoriel sur un sous-corps IK de C (on se limite
en pratique au cas où IK est égal à IR ou C ).

I Somme finie de sous-espaces vectoriels


Nous généralisons ici les notions vues en première année de somme et de somme
directe de deux sous-espaces vectoriels.
1 Somme de p sous-espaces vectoriels
Définition 1
Soit (Ei )i∈I une famille finie de sous-espaces vectoriels de E . On appelle somme

de ces sous-espaces vectoriels, et l’on note Ei , l’ensemble :
i∈I
  

xi  (xi )i∈I ∈ Ei .
i∈I i∈I

Remarques
• Commutativité. Par commutativité de l’addition dans E , une somme de sous-
espaces vectoriels ne dépend pas de l’ordre de sommation.
    
• Associativité. On vérifie sans difficulté que Ei + Ei = Ei et,
i∈I i∈J i∈I∪J
p  
  
plus généralement, Ei = Ei .
k=1 i∈Ik i∈I1 ∪···∪Ip

• Une somme
 vide d’éléments de E valant par définition le vecteur nul, on a tou-
jours Ei = {0} .
i∈∅

• Si la famille de sous-espaces considérée est sous la forme (E1 , . . . , Ep ), ce qui


revient à prendre I = [[1, p]] dans la définition précédente, alors la somme se
p
note Ek ou E1 + · · · + Ep , et l’on a :
k=1
p
  
Ek = x1 + · · · + xp | (x1 , . . . , xp ) ∈ E1 × · · · × Ep .
k=1
Dans le cas p = 2 , on retrouve la notion de somme de deux sous-espaces vectoriels
vue en première année.
I Somme finie de sous-espaces vectoriels

Ex. 1. Dans le IR -espace vectoriel C , les trois droites vectorielles :


E1 = IR , E2 = iIR et E3 = Vect(1 + i)
sont telles que E1 + E2 + E3 = C puisque C = E1 + E2 ⊂ E1 + E2 + E3 .
Ex. 2. Dans Mn,p (IK) , notons Ej le sous-espace vectoriel constitué des matrices dont les

p
colonnes sont toutes nulles, sauf éventuellement la j -ème. Prouvons que Ej = Mn,p (IK) .
j=1
Soit A ∈ Mn,p (IK) . Notons (C1 , . . . , Cp ) la famille des colonnes de A , et pour j ∈ [[1, p]] ,
notons Aj la matrice dont la famille des colonnes est (0, . . . , 0, Cj , 0, . . . , 0) . Alors on a :

j-ème place

p

A= Aj et ∀j ∈ [[1, p]] Aj ∈ Ej .
j=1


p
D’où Ej = Mn,p (IK) .
j=1

Proposition 1
Soit (Ei )i∈I une famille finie de sous-espaces vectoriels de E . Leur somme est le
plus petit sous-espace vectoriel de E contenant tous les Ei .

Démonstration. 
• Pour justifier que Ei est un sous-espace vectoriel, remarquons qu’il s’agit de l’image de
i∈I

l’application suivante, dont la linéarité est immédiate : Φ : Ei −→ E
i∈I 
(xi )i∈I �−→ xi .
i∈I

• Le sous-espace vectoriel Ei contient chacun des Ei puisque si l’on fixe i0 ∈ I , alors tout
i∈I

vecteur x ∈ Ei0 s’écrit x = xi avec xi0 = x et ∀i ∈ I \ {i0 } xi = 0 .
i∈I

• De plus, si H est sous-espace vectoriel de E contenant chacun des Ei , alors pour toute

famille (xi )i∈I ∈ Ei , on a :
i∈I

∀i ∈ I xi ∈ H donc xi ∈ H.
i∈I

Par conséquent, H contient Ei .
i∈I

Ex. 3. Soit a1 , . . . , ap des vecteurs de E . Alors on a l’égalité suivante :


Vect(a1 , . . . , ap ) = Vect(a1 ) + · · · + Vect(ap ).
En effet, étant donné un vecteur x ∈ E , un sous-espace vectoriel contient x si, et seulement s’il
contient Vect(x) . Par conséquent, le plus petit sous-espace vectoriel contenant tous les ai , c’est-
à-dire Vect(a1 , . . . , ap ) , est aussi le plus petit sous-espace vectoriel contenant tous les Vect(ai ) ,
c’est-à-dire Vect(a1 ) + · · · + Vect(ap ) .

45
Chapitre 2. Compléments d’algèbre linéaire

2 Somme directe de sous-espaces vectoriels

Définition 2
Soit (Ei )i∈I une famille finie de sous-espaces vectoriels de E .

On dit que les Ei sont en somme directe si pour tout x ∈ Ei , la décomposi-
i∈I
 
tion x = xi , avec (xi )i∈I ∈ Ei , est unique.
i∈I i∈I


Terminologie On dit aussi que la somme Ei est directe.
i∈I

 
Notation Lorsque la somme Ei est directe, on la note Ei . Dans le cas d’une
i∈I i∈I

p
famille de la forme (E1 , . . . , Ep ), on note Ei ou E1 ⊕ · · · ⊕ Ep .
i=1

Remarques
• Dans le cas d’une famille de deux sous-espaces vectoriels, on retrouve la définition
vue en première année.
 
• Si J ⊂ I et si la somme Ei est directe, alors la somme Ei l’est aussi. En
i∈I i∈J
d’autres termes, une « sous-somme » d’une somme directe est directe.

• La somme Ei est directe si, et seulement si, l’application :
i∈I
 
Φ: Ei −→ Ei
i∈I i∈I

(xi )i∈I �−→ xi
i∈I

est injective. Comme elle est linéaire et surjective, cela revient à dire que c’est un
isomorphisme.

En pratique, on utilise la caractérisation suivante pour prouver qu’une somme est


directe.

Proposition 2

Une somme Ei est directe si, et seulement si :
i∈I
 
Exo ∀(xi )i∈I ∈ Ei xi = 0 =⇒ ∀i ∈ I xi = 0.
2.1 i∈I i∈I

Démonstration.
 Reprenons l’application linéaire Φ de la remarque précédente. La
somme Ei est directe si, et seulement si, Φ est injective, ce qui revient à dire que son
i∈I
noyau est réduit à {0} .

46
I Somme finie de sous-espaces vectoriels


n
Ex. 4. Si E est de dimension finie, et si (e1 , . . . , en ) en est une base, alors Vect(ek ) = E .
k=1

n
• En effet, on a Vect(ek ) = E car pour x ∈ E , il existe (λk )1kn ∈ IKn tel que :
k=1
n

x= λk e k .
  
k=1 ∈Vect(e )
k


n 
n
• De plus, si (xk )1kn ∈ Vect(ek ) est tel que xk = 0 , alors en écrivant chaque xk
k=1 k=1
sous la forme λk ek avec λk ∈ IK , la relation précédente donne, par liberté de la fa-
mille (e1 , . . . , en ) , la nullité de tous les λk , puis de tous les xk . Donc la somme est directe.

Ex. 5. Si une somme Ei est directe et si, pour tout i ∈ I , on se donne un vecteur non
i∈I
nul xi ∈ Ei , alors la famille (xi )i∈I est libre. En effet, si (λi )i∈I est une famille de scalaires
vérifiant : 
λi xi = 0,
i∈I

alors en remarquant que ∀i ∈ I λi xi ∈ Ei , le caractère direct de la somme assure que pour


tout i ∈ I , on a λi xi = 0 , puis, le vecteur xi étant non nul, λi = 0 .

Attention Comme le montre l’exemple suivant, des sous-espaces vectoriels peuvent


être en somme directe deux à deux sans que leur somme soit directe.
Ex. 6. Dans IR2 , notons e1 = (1, 0) , e2 = (0, 1) et u = (1, 1) . Alors les trois droites vectorielles :
D1 = Vect(e1 ) ; D2 = Vect(e2 ) et D3 = Vect(u)
vérifient D1 ∩ D2 = D1 ∩ D3 = D2 ∩ D3 = {0} , mais ne sont pas en somme directe car, par
exemple, on a e1 + e2 + (−u) = 0 .
↑ ↑ ↑
∈ D1 ∈ D2 ∈ D3

Proposition 3 (Associativité de la somme directe)



Supposons que I s’écrive comme une union disjointe I = I1 ∪ I2 . La somme Ei
i∈I
est directe si, et seulement si :
 
• les sommes Ei et Ei sont directes ;
i∈I1 i∈I2
 
• les sous-espaces vectoriels Ei et Ei sont en somme directe ;
i∈I1 i∈I2

et l’on a alors :     
Ei ⊕ Ei = Ei .
i∈I1 i∈I2 i∈I
Démonstration page 69

Remarque Par récurrence, le résultat précédent s’étend au cas où I s’écrit comme


une union disjointe I = I1 ∪ · · · ∪ Ip .

47
Chapitre 2. Compléments d’algèbre linéaire

3 Décomposition d’un espace en somme directe


Lorsque l’on dispose d’une famille (Ei )i∈I de sous-espaces vectoriels telle

que E = Ei , on parle de décomposition de E en somme directe ou plus
i∈I
simplement décomposition de E .
Projecteurs associés à une décomposition

D’après la proposition 3 de la page précédente, si E = Ei , alors, pour tout i ∈ I ,
i∈I

les sous-espaces vectoriels Ei et Ej sont supplémentaires.
j∈I\{i}

Définition 3

Supposons que E se décompose E = Ei . On appelle famille des projec-
i∈I

teurs associés à la décomposition E = Ei la famille (pi )i∈I où, pour
i∈I

tout i ∈ I , pi est la projection sur Ei parallèlement à Ej .
j∈I\{i}

Proposition 4

La famille des projecteurs associés à une décomposition E = Ei vérifie :
i∈I

pi = IdE et ∀(i, j) ∈ I 2 i �= j =⇒ pi ◦ pj = 0.
i∈I

 
Démonstration. Soit x ∈ E . Il existe (xi )i∈I ∈ Ei tel que x = xi .
i∈I i∈I

• Par définition, pour tout i ∈ I , on a pi (x) = xi . On a donc x = pi (x) , ce qui prouve
i∈I

que pi = IdE .
i∈I

• Soit (i, j) ∈ I 2 tel que i �= j . Par définition de pi et pj , on a Im pj = Ej



et Ker pi = Ek , donc Im pj ⊂ Ker pi , autrement dit pi ◦ pj = 0 .
k∈I\{i}

Caractérisation d’une application linéaire par ses restrictions


Dans l’énoncé suivant, F désigne un IK-espace vectoriel.
Proposition 5

Supposons que E se décompose en E = Ei et que, pour tout i ∈ I , on dispose
i∈I
d’une application linéaire ui ∈ L(Ei , F ).
Alors il existe une unique application linéaire u ∈ L(E, F ) telle que :
∀i ∈ I u | Ei = u i .
 Démonstration page 69
Démonstration. Par analyse-synthèse, on obtient u = ui ◦pi , où les pi sont les projecteurs
i∈I

associés à la décomposition E = Ei .
i∈I

48
I Somme finie de sous-espaces vectoriels

4 Cas de la dimension finie


Proposition 6
Soit B = (ei )i∈I une base de E et (I1 , . . . , Ip ) un recouvrement disjoint de I .
p
Si, pour tout k ∈ [[1, p]], on pose Ek = Vect(ei )i∈Ik , alors on a E = Ek .
k=1
Démonstration page 70

Proposition 7 (Base adaptée à une décomposition)


Supposons E de dimension finie. Supposons de plus que l’on a :
p

E= Ei .
i=1

Si, pour tout i ∈ [[1, p]], on considère une base Bi de Ei , alors la famille constituée,
dans l’ordre, des vecteurs de B1 , . . . , Bp , est une base de E .
p

Une telle base est dite adaptée à la décomposition E = Ei .
i=1
Démonstration page 70

Terminologie On dit aussi qu’une base de E adaptée à la décomposi-



p
tion E = Ei est obtenue « par concaténation » des bases B1 , . . . , Bp .
i=1

Proposition 8
Si les sous-espaces vectoriels Ei sont de dimension finie, alors on a :
  
dim Ei  dim Ei
i∈I i∈I

avec égalité si, et seulement si, la somme Ei est directe.
i∈I

 
Démonstration. Considérons l’application linéaire surjective Φ : Ei −→ Ei
i∈I 
i∈I
(xi )i∈I �−→ xi .
i∈I

Le théorème du rang donne dim Ei = dim Im Φ + dim Ker Φ , i.e., par surjectivité de Φ :
i∈I
  
dim Ei = dim Ei + dim Ker Φ.
i∈I i∈I

Cela prouve l’inégalité souhaitée, avec égalité si, et seulement si, Φ est injective, c’est-à-dire si,

et seulement si, la somme Ei est directe.
i∈I

Exo Remarque En particulier, si E est de dimension finie et si l’on dispose d’une dé-
2.2  
composition E = Ei , alors on a dim E = dim Ei .
i∈I i∈I

49
Chapitre 2. Compléments d’algèbre linéaire

II Écriture par blocs


1 Matrices par blocs
Il est parfois utile d’écrire une matrice en mettant en évidence certaines de ses sous-
matrices.
� � � �
1 2 3 4
A B
Ex. 7. La matrice M = 0 6 8 9 peut s’écrire par blocs M = avec :
C D
12 7 0 0

� � � �
1 2 3 4 � � � �
A= ; B= ; C= 12 7 et D= 0 0
0 6 8 9

� � � �
E 1 2 3 4 � �
mais aussi M = avec E = et F = 12 7 0 0 .
F 0 6 8 9

 
A1,1 ... A1,p
On appelle écriture par blocs toute écriture de la forme  ... ..  .

. 
An,1 . . . An,p
Remarque Bien évidemment, pour qu’une telle écriture ait un sens, deux blocs Ai,j1
et Ai,j2 ont le même nombre de lignes, et deux blocs Ai1 ,j et Ai2 ,j le même nombre
de colonnes.

� �
Ir 0r,p−r
Ex. 8. La matrice Jr ∈ Mn,p (IK) s’écrit naturellement Jr = .
0n−r,r 0n−r,p−r
� �
Ir 0
Dans la pratique, on notera souvent plus simplement Jr = , en laissant implicite les
0 0
tailles des trois blocs nuls.
Ex. 9. Soit F et G deux sous-espaces vectoriels supplémentaires de E . Dans une base B
adaptée à la décomposition E = F ⊕ G , les matrices de la projection p sur F parallèlement
à G et de la symétrie s par rapport à F parallèlement à G s’écrivent par blocs :
� � � �
Ir 0 Ir 0
MatB (p) = et MatB (s) =
0 0 0 −In−r

en notant n la dimension de E et r celle de F .


Ex. 10. On peut toujours écrire M ∈ Mn,p (IK) par blocs en utilisant la famille de ses lignes
ou ses colonnes :
 
L1
 ..  � �
M = .  et M= C1 · · · Cp .
Ln

50
II Écriture par blocs

2 Opérations sur les matrices par blocs


Transposition par blocs
   
A1,1 . . . A1,p A1,1 T ... An,1 T
 .. ..   .. .. 
Si A =  . .  , alors A = 
T
. . .
An,1 . . . An,p A1,p T . . . An,p T

Combinaison linéaire par blocs


Soit A et B deux matrices de même taille, écrites avec des blocs de tailles compatibles
pour l’addition, alors toute combinaison linéaire de A et B s’écrit par blocs :
 
λA1,1 + µB1,1 . . . λA1,p + µB1,p
λA + µB = 
 .. .. 
. . .
λAn,1 + µBn,1 . . . λAn,p + µBn,p

Produit par blocs

Proposition 9 (Produit par blocs)


Si A et B sont écrites par blocs sous la forme :
   
A1,1 · · · A1,p B1,1 · · · B1,q
 .. . B =  ... .. 
..  
A= . et . 
An,1 · · · An,p Bp,1 · · · Bp,q
avec des blocs de tailles compatibles pour le produit matriciel, alors :
Exo  
2.3
C1,1 · · · C1,q p
AB =  ...
 ..  avec ∀(i, j) ∈ [[1, n]] × [[1, q]] C = � A B .
.  i,j i,k k,j
Exo k=1
2.4 Cn,1 · · · Cn,q
Démonstration (non exigible) page 71

Attention Le produit par blocs précédent s’effectue comme un produit usuel mais,
le produit matriciel n’étant pas commutatif, il est impératif de faire attention à l’ordre
dans lequel on écrit chaque produit Ai,k Bk,j .

Ex. 11. Soit (A, B, C, D) ∈ Mn (IK)4 . On a le produit par blocs suivant :

� �� � � �
A B 0 In B A
= .
C D In 0 D C

� �
0 In
• La matrice étant inversible (d’inverse elle-même), on en déduit que les ma-
In 0
� � � �
A B B A
trices et ont même rang.
C D D C

51
Chapitre 2. Compléments d’algèbre linéaire
� �
0 In
• On a de plus det = (−1)n (on la change en la matrice I2n en effectuant les n
In 0
échanges de colonnes Cj ↔ Cj+n pour j ∈ [[1, n]] ). On en déduit que :
� � � �
B A A B
det = (−1)n det .
D C C D

� �
λ B
Ex. 12. Soit A ∈ Mn (IK) , B ∈ M1,n (IK) et λ ∈ IK . La matrice M = est
0 A
inversible si, et seulement si, λ �= 0 et A inversible ; en effet, en développant par rapport à la
première colonne, on obtient det M = λ det A . Si tel est le cas, alors en écrivant M −1 par
� �
µ L
blocs , on a, par produit par blocs :
C D

� �� � � �
λ B µ L λµ + BC λL + BD
M M −1 = = .
0 A C D AC AD


� �  λµ + BC = 1

−1 1 0 λL + BD = 0
Comme M M = In+1 = , on obtient
0 In 
 AC = 0
AD = In .
La matrice A étant inversible, on obtient C = 0 , µ = 1
λ
, D = A−1 et enfin L = − λ1 BA−1 .
On a donc obtenu :
� �
1/λ L 1
M −1 = avec L = − BA−1 .
0 A−1 λ

� �
1 0
Ex. 13. En particulier, si P ∈ GLn (IK) , alors la matrice est inversible et :
0 P

� �−1 � �
1 0 1 0
= .
0 P 0 P −1

Terminologie On appelle matrice triangulaire supérieure par blocs, de blocs


diagonaux A1,1 , . . . , An,n , une matrice carrée s’écrivant sous la forme :
 
A1,1 · · · · · · A1,n
 .. .. 
 0
 . . 
 . .. . ..  .
 .. . .. . 
0 · · · 0 An,n
où les blocs diagonaux Ai,i sont carrés.
Sur le même principe, on parle de matrice triangulaire inférieure par blocs et de
matrice diagonale par blocs.

52
II Écriture par blocs

Remarques
• Couramment, dans l’écriture d’une matrice triangulaire par blocs, seuls les blocs
 
A1 (⋆)
 . .. 
diagonaux nous importent. On notera   une telle matrice tri-
(0) An
angulaire supérieure par blocs de blocs diagonaux A1 , . . . , An .
• Un produit de deux matrices triangulaires supérieures par blocs, avec des blocs
diagonaux de tailles compatibles, l’est encore. Plus précisément :
    
A1 (⋆) B1 (⋆) A1 B1 (⋆)
 ..  ..   .. 
 .  . = . 
(0) An (0) Bn (0) An Bn
On a le même résultat pour des matrices triangulaires inférieures par blocs et,
évidement, pour des matrices diagonales par blocs.

Notation Une matrice diagonale par blocs de blocs diagonaux A1 , . . . , An est no-
tée Diag(A1 , . . . , An ). Ainsi, sous condition que les tailles des blocs soient compatibles,
on a :
Diag(A1 , . . . , An ) Diag(B1 , . . . , Bn ) = Diag(A1 B1 , . . . , An Bn ).

� �
A 0
Ex. 14. Soit (A, B) ∈ Mn (IK) × Mp (IK) . Montrons que rg = rg A + rg B .
0 B
Soit (X, Y ) ∈ IKn × IKp . On a :
� �� � � �
A 0 X AX
= ,
0 B Y BY

donc :
� � � �
X A 0
∈ Ker ⇐⇒ (X, Y ) ∈ Ker A × Ker B.
Y 0 B
� �
A 0 � �
Ainsi, on a Ker = ϕ Ker A×Ker B où ϕ : IKn ×IKp → IKn+p est l’isomorphisme
0 B
� �
X
défini par ϕ(X, Y ) = . Par conséquent :
Y
� �
A 0
dim Ker = dim Ker A × Ker B = dim Ker A + dim Ker B.
0 B

Le théorème du rang donne alors :


� �
A 0
rg = n + p − (dim Ker A + dim Ker B)
0 B
= (n − dim Ker A) + (p − dim Ker B) = rg A + rg B.

53
Chapitre 2. Compléments d’algèbre linéaire

Ex. 15. À l’aide du résultat précédent, on prouve par récurrence que le rang d’une matrice
diagonale par blocs est égal à la somme des rangs des blocs diagonaux.
Une matrice A diagonale par blocs est donc inversible si, et seulement si, ses blocs diagonaux le
sont. Dans ce cas, en notant A1 , . . . , Ar les blocs diagonaux de A , alors la matrice inverse A−1
a pour blocs diagonaux A−1 −1
1 , . . . , Ar .

Attention Le résultat obtenu précédemment, concernant le rang d’une matrice dia-


gonale par blocs, ne s’étend pas à des matrices triangulaires par blocs (cf. exemple 16).

 
0 In
Ex. 16. La matrice triangulaire par blocs n’est pas de rang nul, même si ses blocs
0 0
diagonaux le sont.

Transvections par blocs Dans ce qui suit, les tailles des matrices ne sont pas
Exo
2.5
précisées (en particulier, on notera I la matrice identité, sans préciser sa taille). Il est
implicite qu’elles sont telles que les produits par blocs envisagés aient un sens.
 
A1 B1
• Soit M = une matrice écrite par blocs. Lorsqu’il peut s’effectuer,
A2 B2
on a le produit par blocs suivant :
    
A1 B1 I 0 A1 + B1 T B1
= .
A2 B2 T I A2 + B2 T B2
On dit alors qu’on a effectué une transvection par blocs.
Notation On notera C1 ← C1 + C2 T la transvection par blocs ci-dessus.
On peut, si l’on veut, « coder » la transvection par blocs précédente avec
des transvections « classiques » : si l’on a T = (ti,j )1in , alors la ma-
1jp
 
A1 + B1 T B1
trice est obtenue, à partir de M , en appliquant les trans-
A2 + B2 T B2
vections suivantes (dont on voit aisément qu’elles commutent) :
Ci ← Ci + tj,i Cj+n avec (i, j) ∈ [[1, n]] × [[1, p]].
La lourdeur de cette chaîne de transvections met en exergue l’efficacité et la conci-
sion apportées par l’utilisation des blocs.
• Avec les mêmes notations, on peut bien sûr modifier les blocs de droite à l’aide
des blocs de gauche, en effectuant la transvection par blocs C2 ← C2 + C1 T :
    
A1 B1 I T A1 B1 + A1 T
= .
A2 B2 0 I A2 B2 + A2 T
• On peut également réaliser des transvections par blocs en raisonnant sur
les lignes (les deux transvections par blocs suivantes sont respectivement co-
dées L1 ← L1 + T L2 et L2 ← L2 + T L1 ) :
    
I T A1 A2 A1 + T B1 A2 + T B2
=
0 I B1 B2 B1 B2

54
II Écriture par blocs

et
    
I 0 A1 A2 A1 A2
= .
T I B1 B2 B1 + T A1 B2 + T A2

   
I T I 0
Remarque Les matrices et sont triangulaires à diagonale
0 I T I
composée uniquement de 1 , donc sont inversibles et de déterminant 1. Par conséquent,
effectuer une transvection par blocs ne modifie ni le rang, ni le déterminant.

 
A B
Ex. 17. Soit (A, C) ∈ GLn (IK) × Mp (IK) . Montrons que rg = rg A + rg C .
0 C
La matrice A étant inversible, on peut effectuer la transvection par blocs C2 ← C2 − C1 A−1 B ,
ce qui permet d’obtenir une matrice diagonale par blocs :

    
A B In −A−1 B A 0
= .
0 C 0 Ip 0 C

Par invariance du rang par transvection par blocs, on obtient :

   
A B A 0
rg = rg = rg A + rg C,
0 C 0 C

la dernière égalité étant assurée par l’exemple 14 de la page 53.

Remarque Le résultat obtenu subsiste, et la preuve est similaire, si c’est le bloc C qui est
supposé inversible, ou si la matrice est triangulaire inférieure par blocs.

 
In A
Ex. 18. Soit M = avec A ∈ Mn (IK) . Montrons que rg M = n + rg A2 .
A 0
Effectuons la transvection par blocs L2 ← L2 − AL1 :

    
In 0 In A In A
= .
−A In A 0 0 −A2

 
In A
Par invariance du rang par transvection par blocs, on obtient rg M = rg . On
0 −A2
est alors ramené à l’exemple 17, d’où :

rg M = n + rg(−A2 ) = n + rg A2 .

55
Chapitre 2. Compléments d’algèbre linéaire

3 Déterminant et écriture par blocs


Convention Si une matrice est de taille nulle, son déterminant vaut 1 .

Proposition 10
Le déterminant d’une matrice triangulaire par blocs est le produit des déterminants
de ses blocs diagonaux, c’est-à-dire :
   
A1 (⋆) A1 (0) n
 ..   ..  �
det  .  = det  . = det Ak .
Exo
2.6 (0) An (⋆) An k=1

Démonstration page 72
Principe de démonstration. Quitte à faire une récurrence sur le nombre de blocs, il suffit
� �
A C
de prouver le résultat pour une matrice M ∈ Mn (IK) de la forme M = .
0 B
� � � �
Ir C A 0
Pour cela, on remarque que M = .
0 B 0 In−r

Remarque Une matrice triangulaire par blocs est donc inversible si, et seulement
si, tous ses blocs diagonaux le sont.

Ex. 19. On a, en reconnaissant un déterminant triangulaire par blocs :


� �
� 1 2 31 45 � � � � �
� � �
� 3 4 10 23 � � 1 2 �� �� 1 3 ��
� 0 0 1 3
�=� 3 ×
4 � � 1 1 �
= (−2) × (−2) = 4.
� �
� 0 0 1 1 �

� �
A B
Ex. 20. Soient (A, B) ∈ Mn (IK)2 . Montrons que det = det(A + B) det(A − B).
B A
Effectuant les deux transvections par blocs :

L1 ← L1 + In L2 puis C2 ← C2 − C 1 I n ,
� �
A B
on transforme successivement la matrice en :
B A
� � � �
A+B B+A A+B 0
puis en .
B A B A−B

Puisqu’une transvection par blocs laisse inchangé le déterminant, on en déduit :


� � � �
A B A+B 0
det = det = det(A + B) det(A − B),
B A B A−B

la dernière égalité étant vraie car la matrice est triangulaire par blocs.

56
III Sous-espaces stables et endomorphismes induits

III Sous-espaces stables et endomorphismes induits


Dans toute la suite du chapitre, sauf mention plus précise, u désigne un endomor-
phisme de E .
1 Définitions

Exo
Définition 4
2.12 Un sous-espace vectoriel F de E est dit stable par u si u(F ) ⊂ F .

Notation Lorsque F est stable par u , on dit aussi que u stabilise F .


Remarques
• Les sous-espaces vectoriels {0} et E sont stables par tout endomorphisme.
• L’intersection et la somme de sous-espaces vectoriels stables par u sont stables
par u .
• Le noyau et l’image de u sont stables par u . Plus généralement, tout sous-espace
vectoriel inclus dans le noyau de u ou contenant l’image de u est stable par u .

Ex. 21. Une homothétie de E stabilise tous les sous-espaces vectoriels de E . Ce sont d’ailleurs
les seuls endomorphismes possédant cette propriété (cf. question 2(a) de l’exercice 2.15).
Ex. 22. Il existe des endomorphismes de E ne stabilisant que {0} et E . C’est par exemple le
/ πZZ du plan euclidien IR2 , c’est-à-dire :
cas d’une rotation vectorielle r d’angle θ ∈

r:  IR2 −→ IR2    
x x cos θ − sin θ
�−→ Rθ avec Rθ = .
y y sin θ cos θ

En effet, supposons que r stabilise un sous-espace vectoriel de IR2 différent de {0} et IR2 , alors
il s’agit d’une droite. En notant u un vecteur directeur de cette droite, on a r(u) ∈ Vect(u) ,
d’où l’existence d’un réel λ tel que r(u) = λu . Le vecteur u est alors dans le noyau de la
matrice Rθ − λI2 , qui est par conséquent non inversible. Or, on a :
 
cos θ − λ − sin θ
Rθ − λI2 = puis det(Rθ − λI2 ) = (cos θ − λ)2 + sin 2
  θ > 0,
sin θ cos θ − λ   
0 >0

ce qui est contradictoire.

Proposition 11
Si deux endomorphismes u et v commutent, c’est-à-dire si u ◦ v = v ◦ u , alors les
sous-espaces vectoriels Ker v et Im v sont stables par u .

Démonstration. Supposons que u et v commutent.


 
• Soit x ∈ Ker v ; on a v u(x) = (v ◦ u)(x) = (u ◦ v)(x) = u(0) = 0 par linéarité de u ,
donc u(x) ∈ Ker v . Ainsi, Ker v est stable par u .
• En utilisant le fait que u et v commutent, on a u(Im v) = Im(u ◦ v) = Im(v ◦ u) ⊂ Im v ,
d’où le caractère stable de Im v par u .

57
Chapitre 2. Compléments d’algèbre linéaire
Proposition 12
Soit (ei )i∈I une famille génératrice de F . Alors F est stable par u si, et seulement si :
∀i ∈ I u(ei ) ∈ F.
 
Démonstration. Puisque F = Vect{ei | i ∈ I} , on a u(F ) = Vect u(ei ) | i ∈ I . Par
conséquent, on a u(F ) ⊂ F si, et seulement si, ∀i ∈ I u(ei ) ∈ F .

Ex. 23. Soit x un vecteur non nul de E . La droite IKx est stable par u si, et seulement
si, u(x) ∈ IKx , i.e. s’il existe λ ∈ IK tel que u(x) = λx .
Dans ce cas, si λ �= 0 , c’est-à-dire si x �∈ Ker u , alors u(IKx) = IKx .
Ex. 24. Pour u ∈ L(E) et x ∈ E , le sous-espace vectoriel :
 
Ex = Vect uk (x) | k ∈ IN

est stable par u . C’est le plus petit sous-espace vectoriel de E stable par u contenant x ; on
l’appelle sous-espace cyclique engendré par x .

Définition 5
Soit F un sous-espace vectoriel stable par u . On appelle endomorphisme induit
par u sur F l’endomorphisme uF ∈ L(F ) défini par :
∀x ∈ F uF (x) = u(x).

Attention Ne pas confondre endomorphisme induit et restriction. On ne peut parler


d’endomorphisme induit par u sur F que si F est stable par u . Dans le cas où F
est stable par u , on distinguera soigneusement :
• l’endomorphisme induit uF , qui est un endomorphisme de F ;
• la restriction u|F qui est une application linéaire de F vers E .
Remarque L’image de uF est égale à u(F ) et son noyau à F ∩ Ker u.

2 Stabilité et écriture par blocs


Dans cette partie, E est supposé de dimension finie.

Proposition 13 (Traduction matricielle de la stabilité)


Soit B = (e1 , . . . , en ) une base de E et u ∈ L(E). Si l’on écrit :
 
A C
MatB (u) = avec A ∈ Mr (IK),
B D
alors :
• Vect(e1 , . . . , er ) est stable par u si, et seulement si, B = 0 ;
• Vect(er+1 , . . . , en ) est stable par u si, et seulement si, C = 0 .

58
III Sous-espaces stables et endomorphismes induits

Démonstration. Notons F = Vect(e1 , . . . , er ) .


� �
X
Pour x ∈ E , si l’on écrit MatB (x) = avec (X, Y ) ∈ IKr × IKn−r , l’appartenance de x
Y
à F se traduit par Y = 0 . Pour x ∈ F , on a :
� �� � � �
� � A C X AX
MatB u(x) = = donc u(x) ∈ F ⇐⇒ BX = 0.
B D 0 BX
Le sous-espace vectoriel F est donc stable par u si, et seulement si, BX = 0 pour tout X ∈ IKr ,
autrement dit B = 0 .
Démonstration analogue pour la stabilité de Vect(er+1 , . . . , en ) .

Remarques Reprenons les notations de la proposition et notons :


F = Vect(e1 , . . . , er ) et G = Vect(er+1 , . . . , en ).
• Dans le cas où B = 0 ,
∗ A est la matrice dans la base (e1 , . . . , er ) de F de l’endomorphisme induit uF ;
∗ l’interprétation de D est plus délicate : en notant p ∈ L(E) la projection sur G
parallèlement à F , alors D est la matrice dans la base (er+1 , . . . , en ) de G de
l’endomorphisme induit par p ◦ u sur G.
• De même, dans le cas où C = 0 , D est la matrice dans la base (er+1 , . . . , en ) de
l’endomorphisme induit par u sur G.

Ex. 25. Soit B = (e1 , . . . , en ) une base de E , et u ∈ L(E) .


• La matrice de u dans la base B est triangulaire supérieure si, et seulement si :

∀i ∈ [[1, n]] u(ei ) ∈ Vect(e1 , . . . , ei ),

c’est-à-dire si, et seulement si, u laisse stable chacun des Fi = Vect(e1 , . . . , ei ) .


• On retrouve le fait que, si MatB (u) est triangulaire supérieure et si u est bijectif,
alors MatB (u−1 ) est également triangulaire supérieure. En effet, si c’est le cas, alors pour
tout i ∈ [[1, n]] , on a u(Fi ) ⊂ Fi puis, comme u est bijectif, dim u(Fi ) = dim Fi
� �
donc u(Fi ) = Fi et enfin Fi = u−1 u(Fi ) = u−1 (Fi ) .

Proposition 14
p

Soit E de dimension finie tel que E = Ei . Si B est une base adaptée à cette
i=1
décomposition, alors l’endomorphisme u stabilise chaque Ei si, et seulement si, sa
matrice dans la base B est diagonale par blocs :
 
A1 (0)
 .. 
 . ,
(0) Ap
où, pour tout i ∈ [[1, p]], la matrice Ai est carrée de taille dim Ei .
Dans ce cas, chacun des blocs diagonaux Ai est la matrice de l’endomorphisme
induit par u sur Ei dans la base de Ei extraite de B .

59
Chapitre 2. Compléments d’algèbre linéaire

Démonstration. Pour i ∈ [[1, p]] , notons Bi la base de Ei extraite de B ; le sous-espace Ei


est alors stable par u si, et seulement si, les vecteurs de Bi ont pour image par u un vecteur
de Ei , c’est-à-dire une combinaison linéaire de vecteurs de Bi . D’où l’équivalence annoncée et
l’interprétation des blocs diagonaux Ai .

Ex. 26. Soit B = (e1 , . . . , en ) une base de E , et u ∈ L(E) . La matrice de u dans la base B
est diagonale si, et seulement si, u stabilise chaque droite Vect(ei ) pour i ∈ [[1, n]] .

IV Polynômes d’endomorphismes / de matrices


carrées
1 Endomorphismes / matrices nilpotent(e)s
Rappel : itérés d’un endomorphisme, puissances d’une matrice carrée Étant
donné u ∈ L(E) et k ∈ IN, on définit l’itéré k -ième de u , noté uk , par récurrence :
u0 = IdE et ∀k ∈ IN uk+1 = u ◦ uk .
On dispose des règles de compatibilité suivantes :
∀(k, ℓ) ∈ IN2 uk ◦ uℓ = uℓ ◦ uk = uk+ℓ .
Tout cela s’adapte à une matrice A ∈ Mn (IK) en remplaçant la composition par le
produit matriciel (avec, bien sûr, A0 = In ).

Définition 6
Un endomorphisme u ∈ L(E) est dit nilpotent s’il existe k ∈ IN tel que uk = 0 .
Le plus petit de ces entiers est alors appelé indice de nilpotence de u .
Exo
2.18 On a la même définition pour une matrice carrée A ∈ Mn (IK).

Remarques
• Si u est injectif, alors, comme composée d’injections, chaque itéré de u l’est aussi.
De même, si u est surjectif, chaque itéré de u l’est aussi. Par conséquent, si E
n’est pas l’espace nul, un endomorphisme nilpotent n’est ni injectif ni surjectif.
• Rappelons que u0 = IdE . Par conséquent, sauf si E est l’espace nul, un indice de
nilpotence vaut au moins 1 .
• Si u est nilpotent d’indice p, alors par linéarité de u , on a ∀k  p uk = 0 .
• Étudier la nilpotence d’une matrice A ∈ Mn (IK) revient à étudier la nilpotence
de son endomorphisme canoniquement associé.

Ex. 27. L’endomorphisme nul est nilpotent. Si E n’est pas l’espace nul, son indice de nilpotence
vaut 1 .
Ex. 28. Pour tout (i, j) ∈ [[1, n]]2 tel que i �= j , la matrice élémentaire Ei,j est non nulle et
2
vérifie Ei,j = 0 , elle est donc nilpotente d’indice 2 .

60
IV Polynômes d’endomorphismes / de matrices carrées
� � � �
0 1 0 2 −1 2
Ex. 29. Les matrices A = 0 0 1 et B = −1 1 −1 vérifient :
0 0 0 −3 2 −3
� � � �
0 0 1 −1 1 −1
2 2
A = 0 0 0 et B = 0 0 0 puis A3 = B 3 = 0.
0 0 0 1 −1 1

Elles sont donc nilpotentes d’indice 3 .


 
0 0 1 0
 0 0 0 1 
Ex. 30. La matrice A =  est non nulle et vérifie A2 = 0 . Elle est donc
0 0 0 0 
0 0 0 0
nilpotente d’indice 2 .

Attention Les matrices A des exemples 29 et 30 sont toutes les deux de rang 2 , mais n’ont
pas le même indice de nilpotence. Cela montre qu’il n’y a pas de lien immédiat entre le rang et
l’indice de nilpotence.

Ex. 31. Dans IKn [X] , considérons la dérivation D : P �→ P ′ . Alors on a :

∀P ∈ IKn [X] Dn+1 (P ) = P (n+1) = 0 et Dn (X n ) = n! �= 0.

Par conséquent, on a Dn+1 = 0 et Dn �= 0 , donc D est nilpotent d’indice n + 1 .

Attention En revanche, la dérivation, en tant qu’endomorphisme de IK[X], vérifie :


∀P ∈ IK[X] ∃n ∈ IN Dn (P ) = 0,
mais n’est pas nilpotente, car pour tout n ∈ IN, on a Dn �= 0 (car, par
exemple, Dn (X n ) �= 0 ).

p−1
Remarque Pour u ∈ L(E) et p ∈ IN, on a la relation (IdE −u) ◦ uk = IdE −up .
k=0
En particulier, si u est nilpotent, et si p est tel que up = 0 , alors on a :
p−1

(IdE −u) ◦ uk = IdE .
k=0

p−1

Comme les endomorphismes IdE −u et uk commutent 1 , il en résulte que l’endo-
k=0
morphisme IdE −u est bijectif et son inverse est :
p−1

(IdE −u)−1 = uk .
k=0


p−1
1. Le fait que IdE −u et uk commutent se vérifie à la main, mais nous verrons, plus généra-
k=0
lement, que deux polynômes en u commutent (cf. page 63).

61
Chapitre 2. Compléments d’algèbre linéaire

Ex. 32. Majoration de l’indice de nilpotente par la dimension de l’espace


Supposons E de dimension finie n ∈ IN∗ . Montrons que si u ∈ L(E) est un endomorphisme
nilpotent d’indice p , alors on a p  n . Par définition de p , on a up−1 �= 0 ; on peut donc
� �
considérer un vecteur a ∈ E \ Ker up−1 . Montrons qu’alors la famille a, u(a), . . . , up−1 (a) est
libre ; comme elle est de cardinal p , cela prouvera que p  n .
Soit (λ0 , . . . , λp−1 ) ∈ IKp tel que :
p−1

λk uk (a) = 0. (⋆)
k=0

Montrons que ∀k ∈ [[0, p − 1]] λk = 0 . Par l’absurde : supposons que l’ensemble :


� �
k ∈ [[0, p − 1]] : λk �= 0


p−1
soit non vide ; notons k0 son plus petit élément. La relation (⋆) s’écrit alors λk uk (a) = 0 ,
k=k0

et en lui appliquant up−k0 −1 , on obtient :


p−1

λk0 up−1 (a) + λk uk−k0 +p−1 (a) = 0. (⋄)
k=k0 +1

Or, pour tout k ∈ [[k0 + 1, p − 1]] , on a :

k − k0 + p − 1  p donc uk−k0 +p−1 = 0 puis uk−k0 +p−1 (a) = 0.

La relation (⋄) donne donc λk0 up−1 (a) = 0 . Comme up−1 (a) �= 0 , on en déduit λk0 = 0 , ce
qui contredit la définition de k0 .
Conséquence D’un point de vue matriciel, si A ∈ Mn (IK) est nilpotente, alors son indice
de nilpotence vaut au plus n , et donc An = 0 .

Endomorphisme nilpotent d’indice maximal


Terminologie Supposons E de dimension n. Un endomorphisme nilpotent est dit
d’indice maximal si son indice de nilpotence vaut n.
Si u ∈ L(E) est un tel endomorphisme, alors on  
0 ··· ··· 0
a un−1 �= 0 , donc on peut considérer un vec-
.. 
 1 ...

teur x ∈ E \ Ker un−1 . D’après l’exemple 32, la fa-  . 

� �
mille x, u(x), . . . , u n−1
(x) est libre ; comme son car-  .. . . 
 . . . .. 
dinal est la dimension de E , c’en est une base. La (0) 1 0
matrice de u dans cette base est la matrice ci-contre.
Terminologie La matrice ci-dessus est triangulaire, et tous ses coefficients diago-
naux sont nuls. Une telle matrice est dite triangulaire inférieure stricte.
De même, une matrice est triangulaire supérieure stricte si elle est triangulaire
supérieure à coefficients diagonaux tous nul.
Remarque Il sera vu dans le chapitre de réduction (cf. page 119) que toute ma-
trice triangulaire supérieure stricte ou inférieure stricte est nilpotente. L’exercice 2.10
propose également une preuve de ce résultat.

62
IV Polynômes d’endomorphismes / de matrices carrées

2 Substitution polynomiale
Le principe de substitution polynomiale a déjà été présenté dans le contexte général
d’une IK -algèbre (cf. exemple 38 de la page 19). Nous le présentons ici dans le cadre
plus restreint des IK -algèbres L(E) et Mn (IK).

Définition 7
p
Soit P = ak X k ∈ IK[X]. Étant donné u ∈ L(E) et A ∈ Mn (IK) :
k=0
p

• on note P (u) l’endomorphisme P (u) = ak uk ∈ L(E) ;
k=0
p

• on note P (A) la matrice P (A) = ak Ak ∈ Mn (IK).
k=0

Reformulation Avec les notations précédentes, on a :


P (u) = a0 IdE +a1 u + · · · + ap up et P (A) = a0 In + a1 A + · · · + ap Ap .

Terminologie On appelle :
• polynôme en u tout endomorphisme de la forme P (u) avec P ∈ IK[X] ;
• polynôme en A toute matrice de la forme P (A) avec P ∈ IK[X].

Notation L’ensemble des polynômes en u (respectivement en A) est noté IK[u]


(respectivement IK[A]).

Proposition 15
Soit u ∈ L(E) et A ∈ Mn (IK). Les deux applications :
IK[X] −→ L(E) et IK[X] −→ Mn (IK)
P �−→ P (u) A �−→ P (A)
sont des morphismes d’algèbres.
Démonstration page 72
Principe de démonstration. Pour la première application, les propriétés 1(u) = IdE et la
linéarité de u �→ P (u) sont immédiates. Il s’agit donc essentiellement de vérifier que :

∀(P, Q) ∈ IK[X]2 P (u) ◦ Q(u) = (P Q)(u).

Conséquence En particulier, la propriété P (u) ◦ Q(u) = (P Q)(u) implique,


puisque P Q = QP , que les endomorphismes P (u) et Q(u) commutent.
De même, la propriété P (A)Q(A) = (P Q)(A) implique que les matrices P (A)
et Q(A) commutent.

63
Chapitre 2. Compléments d’algèbre linéaire

Ex. 33. Sous-espace cyclique


Supposons E de dimension finie. Soit u ∈ L(E) et x ∈ E \ {0} . Considérons le sous-espace
cyclique engendré par x (cf. exemple 24 de la page 58) :
� �
Ex = Vect{uk (x) | k ∈ IN} ou encore Ex = P (u)(x) | P ∈ IK[X] .
� �
Notons d le plus grand entier tel que la famille x, u(x), . . . , ud−1 (x) soit libre (on a d  1
� �
car x �= 0 , et d  dim E ). Montrons qu’alors la famille B = x, u(x), . . . , ud−1 (x) est une base
de Ex . Cette famille étant libre par définition de d , il suffit de montrer qu’elle est génératrice.
• Par définition de d , on a ud (x) ∈ Vect B , donc il existe (ak )0kd−1 ∈ IKd tel que :

d−1

ud (x) = ak uk (x).
k=0


d−1
En notant P = X d − ak X k , on a donc P (u)(x) = 0 .
k=0

• Pour tout ℓ ∈ IN , en écrivant la division euclidienne de X ℓ par P : X ℓ = P Q + R


avec deg R < d , on a :
� �
uℓ = Q(u) ◦ P (u) + R(u) puis uℓ (x) = Q(u) P (u)(x) + R(u)(x) = R(u)(x),
� �� �
=0

ce qui prouve, puisque deg R < d , que uℓ (x) ∈ Vect(B) .


D’où le caractère générateur de B .
Remarques
� �
• Avec les notations ci-dessus, on a Ex = A(u)(x) | A ∈ IKd−1 [X] .
• Dans la base B de Ex , l’endomorphisme induit par u sur Ex a pour matrice :
 
0 (0) a0
 .. .. 
 1 . . 
 .. .. .
 . 
0 .
(0) 1 ad−1


d−1
Une telle matrice s’appelle matrice compagnon du polynôme X d − ak X k .
k=0

3 Polynômes annulateurs
Ce qui suit est énoncé dans le cadre d’un endomorphisme u ∈ L(E), mais s’adapte
sans difficulté à une matrice A ∈ Mn (IK).

Définition 8
Soit u ∈ L(E). Un polynôme P ∈ IK[X] est dit annulateur de u si P (u) = 0 .

64
IV Polynômes d’endomorphismes / de matrices carrées
Proposition 16
Soit u ∈ L(E). L’ensemble des polynômes annulateurs de u est un idéal de IK[X].
On l’appelle l’idéal annulateur de u .

Démonstration. C’est le noyau du morphisme d’anneaux IK[X] −→ L(E)


P �−→ P (u).

Remarques
• Si E n’est pas l’espace nul, alors pour tout u ∈ L(E), on a 1(u) = IdE �= 0 ; par
conséquent l’idéal annulateur de u n’est pas égal à IK[X].
• Si E est de dimension finie n, alors dim L(E) = n2 . Par conséquent, la fa-
2
mille (IdE , u, . . . , un ), de cardinal n2 + 1 , est liée. Cela garantit 2 l’existence
d’un polynôme annulateur non nul de u (de degré au plus n2 ), autrement dit que
l’idéal annulateur de u est non nul (c’est-à-dire non réduit à {0} ).

Attention En revanche, dans un espace de dimension infinie, rien ne garantit a


priori l’existence d’un polynôme annulateur non nul.

Ex. 34. Dans IK[X] , considérons l’endomorphisme u : P �→ XP . Alors, pour tout n ∈ IN ,


 
la famille IdE (1), u(1), . . . , un (1) , qui n’est rien d’autre que (1, X, . . . , X n ) , est libre. Par
conséquent, la famille (IdE , u, . . . , un ) est libre également, ce qui entraîne que u ne possède
pas de polynôme annulateur de degré au plus n . Puisque n a été pris quelconque dans IN , cela
prouve que u ne possède aucun polynôme annulateur non nul.

Point méthode Si u admet un polynôme annulateur P ∈ IK[X] dont 0 n’est


pas racine (i.e. ayant un terme constant non nul), alors en écrivant P = α + XQ
avec α ∈ IK∗ , puis en évaluant en u , on obtient :
−Q(u)
P (u) = α IdE +u ◦ Q(u) puis u◦ = IdE .
   α
=0

Puisque les endomorphismes u et − Q(u)


α commutent (car ce sont deux polynômes
en u ), il en résulte que u est bijectif et l’on a u−1 = − Q(u)
α ·

Ex. 35. Supposons que u ∈ L(E) vérifie u3 − 2u2 + 4u − 5 IdE = 0 . On a alors :

 
u2 − 2u + 4 IdE
u ◦ (u2 − 2u + 4 IdE ) = 5 IdE i.e. u◦ = IdE .
5

Puisque u et 1
5
(u2 − 2u + 4 IdE ) commutent, u est bijectif et l’on a u−1 = 51 (u2 − 2u + 4 IdE ) .

2. Nous verrons dans le chapitre suivant, comme conséquence du théorème de Cayley-Hamilton,


que u admet un polynôme annulateur non nul de degré au plus n .

65
Chapitre 2. Compléments d’algèbre linéaire

Rappelons que dans IK[X], tout idéal est de la forme BIK[X] avec B ∈ IK[X]. Cela
justifie la définition ainsi que la proposition qui suivent.

Définition 9
Soit u ∈ L(E). Si l’idéal annulateur de u est non trivial (c’est-à-dire si u possède
un polynôme annulateur non nul), on appelle polynôme minimal de u , et l’on
note πu , le générateur unitaire de l’idéal annulateur de u .

Proposition 17
Si u admet un polynôme minimal, alors tout polynôme annulateur de u en est un
multiple.

Remarque Si E est dimension finie, et si A ∈ Mn (IK) représente u ∈ L(E) dans


une base, alors on a πA = πu .

Ex. 36. Si E �= {0} , alors pour λ ∈ IK l’homothétie λ IdE admet X − λ comme polynôme
minimal.

Ex. 37. Un projecteur p ∈ L(E) vérifiant p2 = p , ou encore p2 − p = 0 , il possède X 2 − X


comme polynôme annulateur. Par conséquent, le polynôme minimal de p , étant un diviseur
unitaire de X 2 − X = X(X − 1) , vaut X , X − 1 ou X 2 − X .
Dans le cas où p �= 0 et p �= IdE , on a πp = X 2 − X .

Ex. 38. Sur le même principe, une symétrie s ∈ L(E) vérifie s2 −IdE = 0 , donc possède X 2 −1
comme polynôme annulateur. Si de plus s �= ± IdE , alors πs = X 2 − 1 .

Ex. 39. Un endomorphisme u ∈ L(E) est nilpotent s’il admet un polynôme annulateur de la
forme X k avec k ∈ IN∗ . Alors, le polynôme minimal en étant un diviseur unitaire, il est de la
forme πu = X p avec p ∈ IN . Il est alors immédiat que p est l’indice de nilpotence de u .

Ex. 40. Polynôme minimal d’une matrice compagnon. Soit (a0 , . . . , ad−1 ) ∈ IKd . Considé-

d−1
rons la matrice compagnon du polynôme P = X d − ak X k (cf. exemple 33 de la page 64) :
k=0

 
0 (0) a0
 .. .. 
 1 . . 
A= .
 .. .. 
. 0 .
(0) 1 ad−1

Montrons que le polynôme minimal de A est πA = P . On sait que πA = πu où u est


l’endomorphisme de IKd canoniquement associé à A .
� �
• En notant B = (e1 , . . . , ed ) la base canonique de IKd , on a B = e1 , u(e1 ), . . . , ud−1 (e1 ) .
Par liberté de cette famille, on déduit que la famille (IdIKd , u, . . . , ud−1 ) est libre. Par consé-
quent, πu est de degré au moins d .

66
IV Polynômes d’endomorphismes / de matrices carrées

• Le polynôme P étant unitaire et de degré d , pour conclure que πu = P , il suffit de prouver


que P est annulateur de u , ce qui peut se faire en prouvant que l’endomorphisme P (u) est
nul sur la base B . C’est le cas car, par définition de P :
   
P (u)(e1 ) = 0 puis ∀k ∈ [[1, d]] P (u)(ek ) = P uk−1 (e1 ) = uk−1 P (u)(e1 ) = 0.
  
=0

Proposition 18
Soit u ∈ L(E). Si u admet un polynôme minimal, alors en notant d son degré, la
famille (IdE , u, . . . , ud−1 ) est une base de IK[u].

Démonstration. Considérons l’application ϕ : IK[X] −→ L(E)


P �−→ P (u).
Le noyau de ϕ est, par définition, l’idéal annulateur de u : c’est donc l’ensemble des multiples
du polynôme minimal πu . Pour tout P ∈ IK[X] , le théorème de la division euclidienne montre
l’existence et l’unicité de l’écriture suivante :
P = Qπu + R,
 
∈Ker ϕ ∈IKd−1 [X]

ce qui prouve que Ker ϕ et IKd−1 [X] sont supplémentaires dans IK[X] . Par conséquent, u induit
un isomorphisme de IKd−1 [X] vers Im ϕ = IK[u] . L’image de la base canonique de IKd−1 [X]
par ϕ , qui n’est rien d’autre que la famille (IdE , u, . . . , ud−1 ) , est donc une base de IK[u] .

Point méthode Supposons que u admette un polynôme minimal de degré d.


Pour P ∈ IK[X], la division euclidienne de P par πu :
P = πu Q + R avec deg R < d
donne, en évaluant en u , P (u) = R(u). Connaître le reste R offre alors la décom-
Exo
2.19 position de P (u) dans la base (IdE , u, . . . , ud−1 ) de IK[u].

Ex. 41. Supposons que u ∈ L(E) admette comme polynôme minimal πu = X 2 − 3X + 2 . Alors
la famille (IdE , u) est une base de IK[u] . Pour n ∈ IN , déterminons l’expression de un dans
cette base. Écrivons la division euclidienne de X n par πu :
X n = πu Q + R avec deg R < 2. (⋆)
En évaluant cette relation en u , cela donne un = R(u) . Pour déterminer R , remarquons
que πu (1) = πu (2) = 0 . La relation (⋆) donne alors R(1) = 1 et R(2) = 2n , ce qui permet de
déterminer R puisque deg R  1 . On obtient R = (2n − 1)X + (2 − 2n ) , puis :
un = (2 − 2n ) IdE +(2n − 1)u.

Remarque Si l’on dispose d’un polynôme annulateur de u de degré d, même s’il


ne s’agit pas du polynôme minimal, la technique précédente s’applique : R(u) est
alors une expression de P (u) comme combinaison linéaire de IdE , u, . . . , ud−1 (sans
propriété d’unicité de l’écriture, car a priori (IdE , u, . . . , ud−1 ) n’est pas une base
de IK[u]).

67
Chapitre 2. Compléments d’algèbre linéaire

4 Lemme de décomposition des noyaux


Théorème 19 (Lemme de décomposition des noyaux)
Soit u ∈ L(E) et P1 , . . . , Pr des polynômes deux à deux premiers entre eux.
r
Alors, en notant P = Pk , on a :
k=1
r

Ker P (u) = Ker Pk (u).
k=1
Démonstration page 72
Principe de démonstration. Le cas r = 2 se traite grâce à la relation de Bézout. Ensuite,
effectuer une récurrence sur r .

Conséquence Si P est un polynôme annulateur non nul de u , et si l’on



r
écrit P = Pk avec P1 , . . . , Pr deux à deux premiers entre eux, alors :
k=1
r

E= Ker Pk (u).
k=1

Ex. 42. Soit (a, b) ∈ IK2 . Si l’on note S l’ensemble des suites u telles que :

∀n ∈ IN un+2 = aun+1 + bun ,

alors on a S = Ker P (T ) avec :

P = X 2 − aX − b et T : IKIN −→ IKIN
u �−→ (un+1 )n∈IN .

Si le polynôme P a deux racines distinctes r1 et r2 , alors on a P = (X − r1 )(X − r2 ) ; les


polynômes X − r1 et X − r2 étant premiers entre eux, le lemme des noyaux donne :
 
S = Ker(T − r1 Id) ⊕ Ker(T − r2 Id) = (λr1n + µr2n )n∈IN | (λ, µ) ∈ IK2 .

On retrouve ainsi le résultat obtenu en première année.


Ex. 43. Soit (a, b) ∈ IK2 . Considérons l’ensemble S des fonctions f deux fois dérivables sur IR
telles que f ′′ + af ′ + bf = 0 . Il est aisé de montrer que tout élément de S est de classe C ∞
sur IR . Ainsi, S est le noyau de l’endomorphisme Q(D) , avec :

Q = X 2 + aX + b et D : C ∞ (IR, IK) −→ C ∞ (IR, IK)


f �−→ f ′.

Si le polynôme Q a deux racines distinctes r1 et r2 , alors le lemme des noyaux donne :

S = Ker(D − r1 Id) ⊕ Ker(D − r2 Id)


 
= x �→ λer1 x + µer2 x | (λ, µ) ∈ IK2 .

On retrouve donc le résultat obtenu en première année.

68
Démonstrations

Démonstrations
 
Proposition 3 Notons F = Ei et G = Ei .
i∈I1 i∈I2

• Supposons la somme Ei directe.
i∈I

∗ Comme il a déjà été remarqué, une « sous-somme » d’une somme directe est directe. Ici,
 
les deux sommes Ei et Ei sont donc directes.
i∈I1 i∈I2
∗ Prouvons maintenant que F et G sont en somme directe. Soit x ∈ F ∩ G . Montrons

que x = 0 . Par définition de x , il existe (xi )i∈I ∈ Ei tel que :
i∈I

   
x= xi et x= xi ce qui donne 0 =x−x = xi + (−xi ).
i∈I1 i∈I2 i∈I1 i∈I2


La somme Ei est directe, et I étant la réunion disjointe de I1 et I2 , on en déduit :
i∈I

∀i ∈ I1 xi = 0 et ∀i ∈ I2 − xi = 0.
Ainsi on a ∀i ∈ I xi = 0 , donc x = 0 , ce qui prouve le résultat.
 
• Réciproquement, supposons que les sommes Ei , Ei et F + G soient directes.
i∈I1 i∈I2
 
Soit (xi )i∈I ∈ Ei tel que xi = 0 . On a alors :
i∈I i∈I

 
xi + xi = 0.
i∈I1 i∈I2
     
∈F ∈G
 
Comme F et G sont en somme directe, on en déduit que xi = xi = 0 . Puis, les
i∈I1 i∈I2
 
sommes Ei et Ei étant directes, on obtient ∀i ∈ I xi = 0 , d’où le résultat.
i∈I1 i∈I2

Proposition 5 Procédons par analyse-synthèse. Soit (pi )i∈I la famille des projecteurs associés à
 
la décomposition E = Ei . Rappelons qu’on a pi = IdE et i �= j ⇒ pi ◦ pj = 0 .
i∈I i∈I

Analyse. Si une telle application linéaire existe, alors, pour tout x ∈ E , on a :


    
  
u(x) = u pi (x) = u pi (x) = ui pi (x) .
  
i∈I i∈I i∈I
∈Ei


On a donc u = ui ◦ pi , ce qui fournit l’unicité.
i∈I

Remarque L’écriture ui ◦pi est abusive car pi a pour espace d’arrivée E alors que l’espace
de départ de ui est Ei . En toute rigueur (ce que nous ne ferons pas), il faudrait écrire ui ◦ p̃i
avec p̃i : E −→ Ei
x �−→ pi (x).

69
Chapitre 2. Compléments d’algèbre linéaire


p
Synthèse. Réciproquement, vérifions que l’application u = ui ◦ pi convient.
i=1
• L’application u est linéaire, comme somme de composées d’applications linéaires.
• Fixons i ∈ I et considérons x ∈ Ei . Alors on a x = pi (x) , puis :

u(x) = (u ◦ pi )(x) = (uk ◦ pk ◦ pi )(x)
k∈I

= (ui ◦ p2i )(x) (k �= i ⇒ pk ◦ pi = 0)


= ui (x), (pi (x) = x car x ∈ Ei )
ce qui prouve que u|Ei = ui .

Proposition 6
• Soit x ∈ E . Le vecteur x est combinaison linéaire des éléments de la base B . On peut

donc trouver des scalaires (αi )i∈I tels que x = αi ei . Puisque (I1 , . . . , Ip ) forme un
i∈I
recouvrement disjoint de I , on peut écrire :
p
 
x= αi ei ,
k=1 i∈Ik
  
∈Ek

 p 
p
ce qui prouve que x appartient à Ek . On a donc Ek = E .
k=1 k=1

p
• Montrons que la somme est directe. Soit (x1 , . . . , xp ) ∈ E1 × · · · × Ep tel que xk = 0 .
k=1

Pour tout k ∈ [[1, p]] , on a xk ∈ Ek , donc par définition de Ek , il existe des scalaires (αi )i∈Ik
 
p
tels que xk = αi ei . La relation xk = 0 s’écrit alors :
i∈Ik k=1

p
 
 
αi ei =0
k=1 i∈Ik

c’est-à-dire, puisque (I1 , . . . , Ip ) forme un recouvrement disjoint de I : αi ei = 0 .
i∈I

Par liberté de la famille (ei )i∈I , on en déduit que tous les coefficients αi sont nuls, et ainsi
que tous les xk sont nuls. D’où le caractère direct de la somme E1 + · · · + Ep .

Proposition 7 Considérons, pour tout i ∈ [[1, p]] , une base Bi = (ei1 , . . . , eidi ) de Ei et montrons
 
que la famille B = e11 , . . . , e1d1 , . . . . . . , ep1 , . . . , epdp est une base de E .
Caractère générateur. Pour tout i ∈ [[1, p]] , la famille Bi étant une sous-famille de B , on
a Vect(Bi ) ⊂ Vect(B) , autrement dit Ei ⊂ Vect(B) . Par conséquent, on a :
p

Ei ⊂ Vect(B) i.e. E ⊂ Vect(B).
i=1
 (1) (1) (p) (p)

Liberté. Soit α1 , . . . , αd1 , . . . . . . , α1 , . . . , αdp ∈ IKd1 +···+dp une famille de scalaires

p 
di
(i) 
di
(i)
telle que αj eij = 0 . Pour tout i ∈ [[1, p]] , posons xi = αj eij . On a
i=1 j=1 j=1

70
Démonstrations


p �
p
alors xi = 0 . La somme Ei étant directe, on en déduit que pour tout i ∈ [[1, p]] ,
i=1
���� i=1
∈Ei


di
(i)
on a xi = 0 , autrement dit αj eij = 0 . Par liberté des familles B1 , . . . , Bp , on en déduit
j=1
� (i)

la nullité de tous les scalaires de la famille αj 1ip . D’où la liberté de la famille B .
1jdi

Proposition 9 Rappel : si M est une matrice, nous notons [M ]i,j son coefficient d’indice (i, j) .
Pour (i, k, j) ∈ [[1, n]] × [[1, p]] × [[1, q]] , notons :
• ri le nombre de lignes des blocs de type Ai,∗ ;
• sk le nombre de colonnes des blocs de type A∗,k (qui est aussi le nombre de lignes des blocs
de type Bk,∗ , car les blocs sont de tailles compatibles pour le produit) ;
• tj le nombre de colonnes des blocs de type B∗,j .
Écrivons la matrice AB par blocs :
 
C1,1 ··· C1,q
 .. .. 
AB =  . .  avec ∀(i, j) ∈ [[1, n]] × [[1, q]] Ci,j ∈ Mri ,tj (IK).
Cn,1 ··· Cn,q

p
Fixons alors (i, j) ∈ [[1, n]] × [[1, q]] et vérifions que Ci,j = Ai,k Bk,j .
k=1
Pour cela, fixons (a, b) ∈ [[1, ri ]] × [[1, tj ]] et montrons que :
� p

� � �
Ci,j a,b
= Ai,k Bk,j .
k=1 a,b


i−1 �
j−1 �
k−1
Notons α = rh , γ = th et, pour k ∈ [[1, p + 1]] , βk = sh . Remarquons que βp+1
h=1 h=1 h=1
désigne le nombre commun de colonnes de A et de lignes de B . On a d’une part :
βp+1
� � � � �� � � �
Ci,j a,b
= AB α+a,γ+b
= A α+a,m
B m,γ+b
m=1

et d’autre part :
� p
� p p sk
� � � � � � � � � �
Ai,k Bk,j = Ai,k Bk,j a,b
= Ai,k a,m
Bk,j m,b
k=1 a,b k=1 k=1 m=1

p sk
� �
= [A]α+a,βk +m [B]βk +m,γ+b .
k=1 m=1
� �
Puisque les ensembles [[βk +1, βk +sk ]] k∈[[1,p]]
forment un recouvrement disjoints de [[1, βp+1 ]] ,
on obtient finalement :
� p
� βp+1
� �� � � � � �
Ai,k Bk,j = A α+a,m
B m,γ+b
= Ci,j a,b
,
k=1 a,b m=1

ce qui donne le résultat souhaité.

71
Chapitre 2. Compléments d’algèbre linéaire

Proposition 10 Quitte à faire une récurrence sur le nombre de blocs, prouvons le résultat pour une
 
A C
matrice M ∈ Mn (IK) de la forme M = avec A ∈ Mr (IK) .
0 B
Par produit par blocs, on a :
   
Ir C A 0
M= .
0 B 0 In−r
Le déterminant de M est alors le produit des déterminants de ces deux matrices.
• En développant r fois de suite par rapport à la première colonne, on obtient :
 
Ir C
det = det B.
0 B

• De même, en développant n − r fois de suite par rapport à la dernière colonne, on obtient :


 
A 0
det = det A.
0 In−r

On a ainsi prouvé que :


det(M ) = det(A) det(B),
ce qui est le résultat attendu.
Proposition 15 La relation 1(u) = IdE et la linéarité de P �→ P (u) sont immédiates.

n 
m
Soit P = ap X p et Q = bq X q . Par bilinéarité du produit polynomial, on a :
p=0 q=0

PQ = ap bq X p+q
0pn
0qm

et donc, par linéarité de P �→ P (u) , on a (P Q)(u) = ap bq up+q .
0pn
0qm

De même, par bilinéarité de la composition dans L(E) :



n  
m  
P (u) ◦ Q(u) = ap up ◦ bq uq = ap bq up+q
p=0 q=0 0pn
0qm

d’où l’égalité (P Q)(u) = P (u) ◦ Q(u) .


La preuve est similaire pour l’application P �→ P (A) de IK[X] dans Mn (IK) .
Théorème 19
Cas r = 2 . Soit P1 et P2 deux polynômes premiers entre eux. Notons P = P1 P2 .
• Comme P (u) = P1 (u) ◦ P2 (u) = P2 (u) ◦ P1 (u) , on a :
Ker P2 (u) ⊂ Ker P (u) et Ker P1 (u) ⊂ Ker P (u).
Par suite, Ker P1 (u) + Ker P2 (u) ⊂ Ker P (u) .
• Les polynômes P1 et P2 étant premiers entre eux, le théorème de Bézout assure l’existence
de (U1 , U2 ) ∈ IK[X]2 tel que P1 U1 + P2 U2 = 1 ; on a alors :
(P1 U1 )(u) + (P2 U2 )(u) = IdE .
Soit x ∈ Ker P (u) ; posons :
x1 = (P2 U2 )(u)(x) et x2 = (P1 U1 )(u)(x).

72
Démonstrations

On a alors x = x1 + x2 et :
 
P1 (u)(x1 ) = P1 (u) ◦ (P2 U2 )(u) (x)
= (P1 P2 U2 )(u)(x)
= (P U2 )(u)(x) = 0 (P annule u, donc P U2 aussi)

donc x1 ∈ Ker P1 (u) . De même, on a x2 ∈ Ker P2 (u) . On a ainsi établi l’inclusion :


Ker P (u) ⊂ Ker P1 (u) + Ker P2 (u)
et, avec le point précédent, l’égalité Ker P (u) = Ker P1 (u) + Ker P2 (u) .
• Enfin, si x ∈ Ker P1 (u) ∩ Ker P2 (u) , l’égalité :
x = U1 (u) ◦ P1 (u)(x) + U2 (u) ◦ P2 (u)(x)
montre que x = 0 . Par suite, Ker P1 (u) ∩ Ker P2 (u) = {0} .
On a donc prouvé que Ker P (u) = Ker P1 (u) ⊕ Ker P2 (u) .
Cas général. Procédons par récurrence sur r  1 . Le cas r = 1 est trivial. Soit donc r  2
tel que le résultat soit vrai au rang r − 1 ; montrons-le au rang r . Considérons (P1 , . . . , Pr )

r
une famille de r polynômes deux à deux premiers entre eux ; notons P = Pk .
k=1


r−1
Posons Q = Pk ; les polynômes Q et Pr sont alors premiers entre eux.
k=1

Ainsi, d’après le cas r = 2 , on a Ker P (u) = Ker Q(u) ⊕ Ker Pr (u) . Or, d’après l’hypothèse

r−1
de récurrence, on a Ker Q(u) = Ker Pk (u) .
k=1

r
Par associativité de la somme directe, on a alors Ker P (u) = Ker Pk (u) , d’où le résultat.
k=1

73
Chapitre 2. Compléments d’algèbre linéaire

S’entraîner et approfondir
Sommes de sous-espaces vectoriels
2.1 Soit a1 , . . . , ap des vecteurs non nuls d’un IK -espace vectoriel E .
→46
Montrer que la somme F = Vect(a1 ) + · · · + Vect(ap ) est directe si, et seulement si, la
famille (a1 , . . . , ap ) est libre.

2.2 Soit E un IK -espace vectoriel de dimension finie. Montrer que E est la somme directe de
→49
plans vectoriels si, et seulement si, sa dimension est paire.

Écriture par blocs


 
0 A
2.3 Soit A ∈ Mn (IK) et M = ∈ M2n (IK) .
→51 In 0
1. Expliciter les puissances de M .
2. (a) Montrer que rg M = n + rg A .
(b) Montrer que M est inversible si, et seulement si, A l’est.
(c) Déterminer alors l’inverse de M .

2.4 1. (a) Déterminer l’ensemble des matrices de Mn (IK) commutant avec la ma-
→51
trice Jr ∈ Mn (IK) .
(b) Justifier qu’il s’agit d’un sous-espace vectoriel de Mn (IK) et donner sa dimension.
2. Soit p un projecteur de rang r d’un IK -espace vectoriel E de dimension n . Déterminer
la dimension du sous-espace des endomorphismes de E commutant avec p .

2.5 Soit A ∈ Mp,n (IK) et B ∈ Mn,p (IK) . Montrer que :


→54  
In B
rg = rg(Ip − AB) + n = rg(In − BA) + p.
A Ip
Indication. On pourra utiliser le résultat de l’exemple 17 de la page 55.

2.6 Soit A ∈ Mp,n (IK) et B ∈ Mn,p (IK) . En effectuant dans les deux sens le produit par blocs
→56    
In B λIn 0
entre les matrices et , montrer que :
A λIp −A Ip
∀λ ∈ IK λn det(λIp − AB) = λp det(λIn − BA).

2.7 Soit A ∈ Mn,p (IK) . Considérons l’application linéaire uA : Mp,q (IK) −→ Mn,q (IK)
M �−→ AM.
1. Déterminer le rang de uA lorsque A = Jr .
2. Dans le cas général, déterminer le rang de uA en fonction de celui de A .
 
A B
2.8 Soit A ∈ GLr (IK) et M = ∈ Mn (IK) . On suppose M de rang r .
C D
1. Montrer que pour tout Y ∈ IKn−r , il existe X ∈ IKr tel que :
   
X 0
M =M .
0 Y

2. En déduire que D = CA−1 B .

74
Exercices

2.9 Soit (A, B, C, D) ∈ Mn (IK)4 . On suppose que D est inversible et que CD = DC .


 
A B
Montrer que det = det(AD − BC) .
C D
Indication. Obtenir, par une transvection par blocs, une matrice triangulaire par blocs.

2.10 Montrer, par récurrence sur n ∈ IN∗ , que si A ∈ Mn (IK) est triangulaire supérieure stricte,
alors on a An = 0 .
Indication. Dans l’hérédité, écrire la matrice par blocs et effectuer un produit par blocs.

2.11 Montrer qu’une matrice triangulaire réelle commute avec sa transposée si, et seulement si,
elle est diagonale.

Sous-espaces stables
2.12 Soit D la dérivation de IK[X] .
→57
1. Soit F un sous-espace vectoriel de IK[X] stable par D et contenant un polynôme P non
nul de degré d . Montrer que IKd [X] ⊂ F .
2. Déterminer tous les sous-espaces vectoriels de IK[X] stables par D .
Indication. Si F est stable par D , on pourra distinguer deux cas, selon que l’ensemble
des degrés des polynômes de F est majoré ou non.

2.13 Soit E un IK -espace vectoriel de dimension finie et u ∈ L(E) .


Prouver que si Ker u possède un supplémentaire F stable par u , alors F = Im u .

⋆ 2.14 Déterminer les sous-espaces de IKn stables par tous les endomorphismes du type :
 
uσ : (x1 , . . . , xn ) �→ xσ(1) , . . . , xσ(n) avec σ ∈ Sn .

2.15 Autour des homothéties vectorielles


Soit E un IK -espace vectoriel.
 
1. Soit u ∈ L(E) tel que pour tout x ∈ E , la famille x, u(x) soit liée. Montrer que u est
une homothétie vectorielle.
Les deux questions suivantes utilisent la première question, et sont indépendantes entre elles.
2. (a) Déterminer les endomorphismes stabilisant tous les sous-espaces vectoriels de E.
(b) Supposons E de dimension finie. Déterminer les endomorphismes stabilisant tous les
hyperplans de E.
3. (a) Supposons E de dimension finie n ∈ IN∗ . Soit u ∈ L(E) .
On suppose que u n’est pas une homothétie. Montrer qu’il existe une base B de E
telle que MatB (u) = (ai,j )1i,jn vérifie a11 = 0 .
(b) En déduire que toute matrice de trace nulle est semblable à une matrice à diagonale
nulle.

75
Chapitre 2. Compléments d’algèbre linéaire

2.16 Soit E un IK -espace vectoriel, et F un sous-espace vectoriel de E . On note LF (E) l’en-


semble des endomorphismes stabilisant F .
1. Montrer que LF (E) est une sous-algèbre de L(E) et que l’application ϕ : u �→ uF est
un morphisme d’algèbres de LF (E) vers L(F ).
2. On suppose F de dimension finie. Soit u ∈ LF (E) un automorphisme.
Montrer que u−1 stabilise aussi F et que l’on a :

(u−1 )F = (uF )−1 ,

où uF et (u−1 )F désignent les endomorphismes induits sur F .


3. En considérant l’endomorphisme de IK(X) (l’espace vectoriel des fractions rationnelles
à coefficients dans IK ) qui à P associe XP , prouver que le résultat de la question
précédente est faux si F n’est pas de dimension finie.
4. On suppose que F possède un supplémentaire.
Montrer que le morphisme ϕ : u �→ uF de LF (E) vers L(F ) est surjectif.

2.17 On appelle groupe de Mn (IK) toute partie de Mn (IK) stable par produit matriciel et
qui, munie de la loi induite, est un groupe.
1. Montrer que tout groupe de Mn (IK) inclus dans GLn (IK) est un sous-groupe de GLn (IK) .
On cherche dans la suite de l’exercice à décrire les groupes de Mn (IK) .
2. Soit r ∈ [[0, n]] . On pose :
  
A 0 
Gn,r =  A ∈ GLr (IK) .
0 0

Montrer que Gn,r est un groupe de Mn (IK) .


3. Soit G un groupe de Mn (IK) . Montrer qu’il existe r ∈ [[0, n]] et P ∈ GLn (IK) tels que G
soit un sous-groupe du groupe :
 
P M P −1 | M ∈ Gn,r .

Indication. On pourra remarquer que l’élément neutre de G est une matrice de projec-
tion.

Polynômes d’endomorphismes
2.18 Soit E un IK -espace vectoriel, et (u, v) ∈ L(E)2 . Supposons que u et v soient nilpotents et
→60
qu’ils commutent. Montrer que u ◦ v et u + v sont nilpotents

 
8 −3 −6
2.19 Soit A = −2 3 2 .
→67
6 −3 −4
1. Calculer A2 et en déduire un polynôme de degré 2 annulant A .
S’agit-il de son polynôme minimal ?
2. En déduire que A est inversible.
3. Déterminer An pour n ∈ IN puis pour n ∈ ZZ .

76
Exercices

2.20 Soit u ∈ L(IRn ) . Supposons que le polynôme P = X 2 + X + 1 soit annulateur de u .


 
1. Montrer que pour tout x ∈ IRn \ {0} , Vect x, u(x) est un plan vectoriel.
 
2. Soit F un sous-espace stable par u et x ∈ / F . Montrer que le plan vectoriel Vect x, u(x)
est stable par u et en somme directe avec F.
3. Montrer qu’il existe une base de IRn dans laquelle la matrice de u est diagonale par blocs
 
0 −1
de blocs diagonaux et, qu’en particulier, n est pair.
1 −1

2.21 Dans cet exercice, E désigne IKn−1 [X] .


1. Considérons l’endomorphisme u : E −→ E
P �−→ P (X + 1).
Montrer que u − IdE est un endomorphisme nilpotent.
2. En déduire qu’il existe (a0 , . . . , an−1 ) ∈ IKn tel que :
n−1

∀P ∈ E P (X + n) = ak P (X + k)
k=0

et déterminer une telle famille.

2.22 Soit (P1 , . . . , Pr ) ∈ IK[X]r une famille de polynômes deux à deux premiers entre eux. On

r
pose P = Pk . Soit E un IK -espace vectoriel et u ∈ L(E) annulé par P .
k=1

r
Montrer que les projecteurs associés à la décomposition E = Ker Pk (u) sont des poly-
k=1
nômes en u .

77
Chapitre 2. Compléments d’algèbre linéaire

Solutions des exercices


2.1 • Supposons la somme Vect(a1 ) + · · · + Vect(ap ) directe.

p
Soit (λ1 , . . . , λp ) ∈ IKp tel que λi ai = 0 . Montrons que ∀i ∈ [[1, p]] λi = 0 . Puisque :
i=1

∀i ∈ [[1, p]] λi ai ∈ Vect(ai ),


le caractère direct de la somme Vect(a1 ) + · · · + Vect(ap ) offre :
∀i ∈ [[1, p]] λi ai = 0.
Comme les ai sont tous non nuls, ce sont chacun des λi qui le sont.
• Supposons (a1 , . . . , ap ) libre, et montrons que Vect(a1 ) + · · · + Vect(ap ) est directe.

p
Soit (x1 , . . . , xp ) ∈ Vect(a1 ) × · · · × Vect(ap ) tel que xi = 0 .
i=1
Pour tout i ∈ [[1, p]] , on a xi ∈ Vect(ai ) , donc il existe λi ∈ IK tel que xi = λi ai . On a

p
donc λi ai = 0 . Par liberté de la famille (a1 , . . . , ap ) , tous les scalaires λi sont nuls
i=1
donc tous les xi aussi. D’où le caractère direct de la somme Vect(a1 ) + · · · + Vect(ap ) .

2.2 • Supposons que E soit somme directe de plans vectoriels. Il existe alors p ∈ IN tel que :
p

E= Fi avec ∀i ∈ [[1, p]] dim Fi = 2.
i=1

La dimension de E est alors paire, car :


p

dim E = dim Fi = 2p.
i=1

• Réciproquement, supposons E de dimension paire : dim E = 2p avec p ∈ IN . Considérons


une base (e1 , . . . , e2p ) de E . En posant alors :
∀i ∈ [[1, p]] Fi = Vect(e2i−1 , e2i ),

p
les sous-espaces vectoriels Fi sont des plans vectoriels et l’on a E = Fi .
i=1

2.3 1. On obtient, par récurrence immédiate :


   
2k Ak 0 2k+1 0 Ak+1
∀k ∈ IN M = et M = .
0 Ak Ak 0
   
X AY
2. (a) Pour (X, Y ) ∈ (IKn )2 , on a M = , donc :
Y X
 
X    
∈ Ker M ⇐⇒ X=0 et AY = 0 ⇐⇒ X=0 et Y ∈ Ker A .
Y
Ainsi, le noyau de M est l’image de {0} × Ker A par l’isomorphisme :
ϕ: (IKn )2 −→ IK

2n

X
(X, Y ) �−→ .
Y
Par conséquent, l’égalité dim Ker M = dim Ker A et le théorème du rang donnent :
rg M = 2n − dim Ker M = 2n − dim Ker A = n + rg A.

78
Solutions des exercices

(b) D’après la question précédente, on a :

M ∈ GL2n (IK) ⇐⇒ rg M = 2n ⇐⇒ rg A = n ⇐⇒ A ∈ GLn (IK).


 
−1 B C
(c) Raisonnons par blocs en écrivant M = , les blocs étant carrés de
D E
 
AD AE
taille n . On a alors M M −1 = , donc l’égalité M M −1 = I2n donne :
B C

AD = In ; AE = 0 ; B=0 et C = In
autrement dit, puisque A est inversible :

D = A−1 ; E=0; B=0 et C = In .


 
0 In
On a donc M −1 = .
A−1 0

 
A B
2.4 1. (a) Soit M = ∈ Mn (IK) avec A ∈ Mr (IK) . On a :
C D
   
A 0 A B
M Jr = et Jr M = .
C 0 0 0

Ainsi, on a M Jr = Jr M ⇐⇒ (B = 0 et C = 0) . Par conséquent, les matrices


commutant avec Jr sont les matrices de la forme :
 
A 0
avec (A, D) ∈ Mr (IK) × Mn−r (IK).
0 D

(b) Notons CJr l’ensemble des matrices de Mn (IK) commutant avec Jr . En no-
tant (Ei,j )1i,jn la base canonique de Mn (IK) , nous avons obtenu à la question
précédente que :
 
CJr = Vect Ei,j | (i, j) ∈ [[1, r]]2 ∪ [[r + 1, n]]2 .

Il en résulte que CJr est un sous-espace vectoriel de Mn (IK) , de dimen-


sion r 2 + (n − r)2 .
2. Notons r = rg p . Puisque p est un projecteur, on a E = Im p ⊕ Ker p . Si B est une base
de E adaptée à cette décomposition, alors on a MatB (p) = Jr .
Étant donné u un endomorphisme de E , on a alors :

MatB (u ◦ p) = MatB (u)Jr et MatB (p ◦ u) = Jr MatB (u).

Par conséquent, u commute avec p si, et seulement si, MatB (u) commute avec Jr .
L’ensemble de ces endomorphismes est donc Φ−1 (CJr ) , où Φ : L(E) → Mn (IK) est
l’isomorphisme qui à un endomorphisme associe sa matrice dans la base B . Il s’agit donc
d’un sous-espace vectoriel, de même dimension que CJr , c’est-à-dire r 2 + (n − r)2 .

79
Chapitre 2. Compléments d’algèbre linéaire

2.5 • Effectuons la transvection par blocs L2 ← L2 − AL1 :


    
In 0 In B In B
= .
−A Ip A Ip 0 Ip − AB
Par invariance du rang par transvection par blocs, on a :
   
In B In B
rg = rg .
A Ip 0 Ip − AB
La dernière matrice écrite étant triangulaire par blocs, avec un bloc diagonal inversible,
l’exemple 17 de la page 55 nous donne :
 
In B
rg = rg(In ) + rg(Ip − AB) = n + rg(Ip − AB).
A Ip

• De même, la transvection par blocs L1 ← L1 − BL2 donne :


   
In B In − BA 0
rg = rg ,
A Ip A Ip
 
In B
puis, grâce au résultat de l’exemple 17, on obtient rg = rg(In − BA) + p .
A Ip

2.6 Fixons λ ∈ IK . On dispose des produits par blocs suivants :


    
λIn 0 In B λIn λB
=
−A Ip A λIp 0 λIp − AB
et :     
In B λIn 0 λIn − BA B
= .
A λIp −A Ip 0 λIp
Par propriété du déterminant, on sait que ∀(M, N ) ∈ Mn+p (IK)2 det(M N ) = det(N M ) .
On en déduit que :
   
λIn λB λIn − BA B
det = det .
0 λIp − AB 0 λIp

Or, ce sont deux déterminants triangulaires par blocs. Cela donne :


det(λIn ) det(λIp − AB) = det(λIn − BA) det(λIp ),
d’où le résultat puisque det(λIn ) = λn et det(λIp ) = λp .

 
M1
2.7 1. Soit M ∈ Mp,q (IK) . En l’écrivant par blocs M = avec M1 ∈ Mr,q (IK) , on a :
M2
    
Ir 0 M1 M1
Jr M = = .
0 0 M2 0
 
0
Ainsi, le noyau de uJr est constitué des matrices avec M2 ∈ Mp−r,q (IK) ; il
M2
est donc de dimension (p − r)q . D’après le théorème du rang, on a alors :
rg uJr = dim Mp,q (IK) − dim Ker uJr = pq − (p − r)q = rq.

80
Solutions des exercices

2. Notons r le rang de A . Alors il existe P ∈ GLp (IK) et Q ∈ GLq (IK) telles


que P AQ−1 = Jr . Soit M ∈ Mp,q (IK) . On a :

M ∈ Ker uA = 0 ⇐⇒ AM = 0 ⇐⇒ P −1 Jr QM = 0 ⇐⇒ Jr QM = 0
⇐⇒ QM ∈ Ker uJr .

Le noyau de uA est donc l’image de celui de uJr par l’isomorphisme R �→ Q−1 R . Par
conséquent, on a dim Ker uA = dim Ker uJr , puis, d’après la première question :
rg uA = rq.

2.8 1. Soit Y ∈ IKn−r . Considérons l’application ϕ : IKr −→ IKn   


X AX
X �−→ M = .
0 CX
L’application ϕ est linéaire et, grâce à l’inversibilité de A , injective. Donc d’après le
théorème du rang, rg ϕ = r = rg M .
Comme Im ϕ ⊂ Im M , on en déduit par égalité des dimensions que Im ϕ = Im M .
 
0
En particulier, M , étant dans Im M , donc dans Im ϕ , possède au moins un
Y
   
X 0
antécédent par ϕ : d’où l’existence de X ∈ IKr tel que M =M .
0 Y
2. Fixons Y ∈ IKn−r . La question précédente nous permet de considérer X ∈ IKr tel que :
       
X 0 AX BY
M =M autrement dit = .
0 Y CX DY

On a alors AX = BY et CX = DY . Par inversibilité de A , la première relation


donne X = A−1 BY . La seconde donne alors CA−1 BY = DY . Cette égalité étant vraie
pour tout Y ∈ IKn−r , on en déduit que CA−1 B = D .

2.9 Effectuons la transvection par blocs C1 ← C1 − C2 D−1 C :


      
A B In 0 A − BD−1 C B A − BD−1 C B
= = .
C D −D−1 C In C − DD−1 C D 0 D

Une transvection par blocs laissant inchangé le déterminant, on a :


   
A B A − BD−1 C B
det = det .
C D 0 D

La dernière matrice écrite étant triangulaire par blocs, on obtient finalement :


 
A B
det = det(A − BD−1 C) det(D) = det(AD − BD−1 CD).
C D

Puisque C et D commutent, on a BD−1 CD = BD−1 DC = BC , d’où le résultat.


Remarque En utilisant un raisonnement semblable à celui de l’exemple 14 de la page 102,
on peut montrer que la formule obtenue dans cet exercice est valable même sans l’hypothèse
d’inversibilité de D .

81
Chapitre 2. Compléments d’algèbre linéaire

2.10 Le cas n = 1 est trivial, car dans M1 (IK) la seule matrice triangulaire supérieure stricte est
la matrice nulle.
Soit n  1 . Supposons le résultat vrai au rang n . Soit A ∈ Mn+1 (IK) triangulaire supérieure
stricte. Écrivons A par blocs :
 
0 L
A= avec B ∈ Mn (IK).
0 B

Un produit par blocs donne :


 
n 0 L  ∈ M1,n (IK).
A = avec L
0 Bn

Or, la matrice A étant triangulaire supérieure stricte, la matrice B l’est aussi.


Comme B ∈ Mn (IK) , l’hypothèse de récurrence donne B n = 0 . Par conséquent, on a :
 
n 0 
L
A =
0 0

et un nouveau produit par blocs donne An+1 = AAn = 0 . Cela prouve le résultat souhaité.

2.11 Il est clair qu’une matrice diagonale commute avec sa transposée. Montrons la réciproque
par récurrence. Le résultat est évident pour une matrice de taille 1 . Soit n ∈ IN∗ .
Supposons le résultat vrai pour les matrices de taille n . Considérons M ∈ Mn+1 (IR) tri-
angulaire de taille n + 1 commutant avec sa transposée. Quitte à échanger M et M T ,
supposons M triangulaire supérieure. Écrivons M par blocs :
 
λ L
M= avec λ ∈ IR.
0 B

La matrice B appartient alors à Mn (IR) , et puisque M est triangulaire supérieure, B l’est


 
λ 0
aussi. On a M T = puis par produits par blocs :
LT BT
   
λ2 + LLT LB T λ2 λL
MMT = et MT M = .
BLT BB T λLT LT L + B T B
 
Puisque M et M T commutent, on obtient LT L = 0 ; en notant L = ℓ1 ··· ℓn ,

n
cela s’écrit ℓ2i = 0 . Comme les ℓi sont réels, ils sont tous nuls, donc L = 0 . La rela-
i=1
tion M M T = M T M donne alors BB T = B T B . Par hypothèse de récurrence, on en déduit
 
λ 0
que B est diagonale. Ainsi, M = est également diagonale.
0 B

Remarque Le résultat est faux dans Mn (C) , comme on le voit en considérant la matrice :
 
0 1 i
0 −i 1 .
0 0 0

82
Solutions des exercices

2.12 1. Comme P ∈ F , on a, par stabilité de F par D :

∀k ∈ [[0, d]] P (k) = Dk (P ) ∈ F.


 
Pour tout k ∈ [[0, d]] , deg P (k) = d − k , donc la famille P (k) 0kd
est échelonnée en
degré. Elle est donc libre. Comme c’est une famille de polynômes de IKd [X] de cardi-
nal d + 1 , il s’agit d’une base de IKd [X] . On a donc IKd [X] ⊂ F .
2. Remarquons déjà que {0} et IK[X] sont stables par D , ainsi que chacun des IKd [X]
avec d ∈ IN . Montrons que ce sont les seuls.
Soit F �= {0} un sous-espace vectoriel de IK[X] stable par D ; notons A l’ensemble des
degrés des polynômes non nuls de F ; il s’agit d’une partie de IN non vide.
• Si A est majoré, alors A admet un plus grand élément, que l’on note d ; dans ce cas :
∗ d’une part, F ⊂ IKd [X] , par définition de d ;
∗ d’autre part, il existe P ∈ F de degré d donc, d’après la première question, on
a IKd [X] ⊂ F .
Par conséquent, F = IKd [X] .
• Sinon, pour tout n ∈ IN , il existe P ∈ F tel que deg P  n ; d’après la première ques-
tion, on a alors IKn [X] ⊂ IKdeg P [X] ⊂ F . Cette inclusion étant vraie pour tout n ∈ IN ,
on en déduit F = IK[X] .
En conclusion, les sous-espaces vectoriels de IK[X] stables par D sont {0} , IK[X] et
les IKd [X] avec d ∈ IN .

2.13 Supposons que F soit un supplémentaire de Ker u stable par u . Par le théorème du rang,
on sait que u induit un isomorphisme de F sur Im u . Par conséquent, on a Im(u) = u(F ) ,
donc, par stabilité de F par u , on a Im u ⊂ F .
Toujours par le théorème du rang, on a dim F = dim Im u . D’où l’égalité Im u = F .

2.14 • Soit F un sous-espace vectoriel de IKn stable par les uσ et x ∈ F . Notons (ei )1in la
base canonique de IKn et x = (xi )1in .
Si l’on considère la transposition τ = (1 2) , la stabilité de F implique que x−uτ (x) ∈ F ,
c’est-à-dire :
(x1 e1 + x2 e2 ) − (x2 e1 + x1 e2 ) ∈ F ou encore (x1 − x2 )(e1 − e2 ) ∈ F.
Donc on a soit x1 = x2 soit e1 − e2 ∈ F .

∗ Supposons que e1 − e2 ∈ F . Pour tout i ∈ [[3, n]] , la stabilité de F par uσ


avec σ = (2 i) , implique que e1 − ei ∈ F . Le sous-espace vectoriel contient donc
l’hyperplan engendré par ces n − 1 vecteurs indépendants (qui est aussi l’hyperplan
d’équation x1 + · · · + xn = 0 ). Ainsi, soit F est égal à cet hyperplan, soit F = IKn .
∗ Supposons que e1 − e2 �∈ F . Pour les mêmes raisons que précédemment, pour
tout i ∈ [[3, n]] , la stabilité de F par permutation, implique que e1 − ei �∈ F . Ainsi,
pour tout i ∈ [[2, n]] , x1 = xi . On en déduit que F est inclus dans la droite vecto-
rielle IK(1, . . . , 1) .

• Réciproquement, il est évident que {0} , IKn , la droite IK(1, . . . , 1) ainsi que l’hyperplan
d’équation x1 + · · · + xn = 0 , sont stables par tous les uσ .

83
Chapitre 2. Compléments d’algèbre linéaire

2.15 1. Par hypothèse, pour tout x ∈ E , il existe un scalaire λx tel que u(x) = λx x .
Si le vecteur x est non nul, alors le scalaire λx est unique.
Soit x et y deux vecteurs non nuls de E . Montrons que λx = λy .
• Si la famille (x, y) est liée, alors il existe un scalaire µ tel que x = µy . Ainsi :
λx µy = λx x = u(x) = u(µy) = µλy y.
Comme le vecteur y est non nul, on en déduit que λx µ = λy µ . Le scalaire µ étant
non nul (car x �= 0 ), on en déduit λx = λy .
• Si la famille (x, y) est libre, alors l’égalité :
λx+y (x + y) = u(x + y) = u(x) + u(y) = λx x + λy y
implique, par liberté, que λx = λx+y = λy .
Ainsi, il existe λ ∈ IK tel que :
∀x ∈ E \ {0} u(x) = λx.
Cette égalité étant vraie aussi pour x = 0 , cela prouve que u est une homothétie.
2. (a) Il est clair qu’une homothétie stabilise tous les sous-espaces vectoriels de E .
Réciproquement, soit u un endomorphisme stabilisant tout sous-espace vectoriel
de E . Alors, pour tout vecteur x non nul, IKx est stable par u , donc u(x) ∈ IKx , au-
trement dit la famille (x, u(x)) est liée. On en déduit, grâce à la question précédente,
que u est une homothétie.
(b) Il est clair que les homothéties stabilisent les hyperplans.
Réciproquement, soit u un endomorphisme stabilisant tout hyperplan. Prouvons que
pour tout vecteur x ∈ E , la famille (x, u(x)) est liée ; cela conclura grâce à la première
question.
Supposons par l’absurde, qu’il existe un vecteur x non nul tel que u(x) n’ap-
 
partienne pas à IKx. La famille x, u(x) est alors libre ; complétons-là en une
base (x, u(x), e3 , . . . , en ) de E (avec n = dim E ). L’endomorphisme u ne stabi-
lise donc pas l’hyperplan Vect(x, e3 , . . . , en ) , ce qui contredit l’hypothèse et offre le
résultat.
 
3. (a) La première question assure l’existence d’un vecteur x tel que x, u(x) soit libre.
Complétons cette famille en une base B . Le coefficient d’indice (1, 1) de cette matrice
 T
est alors nul, car sa première colonne est 0 1 0 ··· 0 .
(b) Procédons par récurrence sur la taille n de la matrice. Le résultat est vrai
dans M1 (IK) . Soit n ∈ IN∗ . Supposons le résultat vrai dans Mn (IK) .
Soit A ∈ Mn+1 (IK) de trace nulle.
• Si A est de la forme λIn+1 , alors 0 = tr M = (n + 1)λ , donc λ = 0 , puis A = 0 .
• Sinon, considérons l’endomorphisme u de IKn+1 canoniquement associé à A .
Comme A n’est pas une matrice scalaire, u n’est pas une homothétie, donc il
existe une base B telle que MatB (u) soit de la forme :
 
0 L
avec M ∈ Mn (IK).
C M

On a alors tr M = tr A = 0 . L’hypothèse de récurrence assure donc l’existence


de P ∈ GLn (IK) tel que P −1 M P ait tous ses coefficients diagonaux nuls. La
   
1 0 1 0
matrice est inversible, d’inverse , et l’on a, par produits
0 P 0 P −1

84
Solutions des exercices

par blocs :
      
1 0 0 L 1 0 1 0 0 LP
=
0 P −1 C M 0 P 0 P −1 C MP
 
0 LP
= .
P −1 C P −1 M P
   
0 L 0 LP
Ainsi, la matrice est semblable à la matrice
C M P −1 C P −1 M P
 
0 L
qui a tous ses coefficients diagonaux nuls. Comme les matrices A et
C M
représentent toutes deux l’endomorphisme u , elles sont semblables. On conclut
donc, par transitivité.

2.16 1. • On a immédiatement IdE ∈ LF (E) et ϕ(IdE ) = IdF .


• Soit (u, v) ∈ LF (E)2 et (α, β) ∈ IK2 .
Pour tout x ∈ F , on a u(x) ∈ F et v(x) ∈ F ; par suite (αu + βv)(x) ∈ F .
L’application αu + βv appartient donc à LF (E) et (αu + βv)F = αuF + βvF .
Ainsi, LF (E) est un sous-espace vectoriel de L(E) et ϕ est linéaire.
 
• Soit (u, v) ∈ LF (E)2 . Pour tout x ∈ F , on a v(x) ∈ F puis u v(x) ∈ F . Ainsi u ◦ v
appartient à LF (E) et (u ◦ v)(x) = uF (vF (x)) , i.e. (u ◦ v)F = uF ◦ vF .
On a donc obtenu que LF (E) est une sous-algèbre de L(E) , et ϕ est un morphisme
d’algèbres de LF (E) vers L(F ).
2. Puisque u est bijectif, u est injectif, donc son endomorphisme induit uF l’est aussi (rap-
pelons que Ker uF = F ∩ Ker u) . Comme F est de dimension finie, l’endomorphisme uF
est bijectif.
Pour tout x de F , la surjectivité de uF assure alors que l’unique antécédent u−1 (x)
de x par u appartient à F . Ainsi, F est stable par u−1 , autrement dit u−1 ∈ LF (E).
La relation u ◦ u−1 = u−1 ◦ u = IdE entraîne ensuite :

uF ◦ (u−1 )F = (u−1 )F ◦ uF = IdF donc (u−1 )F = (uF )−1 .

Q
3. L’endomorphisme u : Q �→ XQ de IK(X) est inversible (d’inverse Q �→ X ) et sta-
bilise F = IK[X] , mais l’endomorphisme induit uF n’est pas surjectif car la fraction
rationnelle 1 n’appartient pas à l’image de IK[X] par u .
4. Fixons v ∈ L(F ) et construisons un antécédent u de v par ϕ , autrement dit construi-
sons u ∈ L(E) , stabilisant F , et dont l’endomorphisme induit sur F est v .
Par hypothèse, on peut considérer G un supplémentaire de F dans E . On constate alors
que l’endomorphisme u suivant, défini par ses restrictions à F et G , convient :

∀x ∈ F u(x) = v(x) et ∀x ∈ G u(x) = 0.

85
Chapitre 2. Compléments d’algèbre linéaire

2.17 1. Soit G un groupe de Mn (IK) inclus dans GLn (IK) .


• Son élément neutre J vérifie J 2 = J , donc par inversibilité, J = In . Ainsi In ∈ G .
• Tout élément M ∈ G admet un symétrique M ′ qui vérifie par défini-
tion, M M ′ = J = In . On a donc M ∈ GLn (IK) et M −1 = M ′ ; donc M −1 ∈ G .
Donc G est un sous-groupe de GLn (IK) .
2. Les opérations matricielles par blocs donnent :
• que Gn,r est stable par produit ;
 
Ir 0
• que Gn,r admet pour élément neutre Jr = ;
0 0
   
A 0 A−1 0
• que tout élément de Gn,r admet pour symétrique .
0 0 0 0
Enfin, l’associativité est une conséquence de celle du produit matriciel.
Donc Gn,r est un groupe de Mn (IK) .
3. • Soit P ∈ GLn (IK) . L’application M �→ P M P −1 est un automorphisme d’algèbre
de Mn (IK) ; on peut alors montrer qu’elle envoie tout groupe de Mn (IK) sur un
 
groupe de Mn (IK) . En particulier, P Gn,r P −1 = P M P −1 | M ∈ Gn,r est un
groupe de Mn (IK) .
• Réciproquement, soit G un groupe de Mn (IK) .
∗ Son élément neutre J vérifie J 2 = J , donc c’est la matrice d’un projecteur et il
existe P ∈ GLn (IK) telle que J = P Jr P −1 , où r = rg(J) .
∗ Considérons alors G0 = P −1 GP = {P −1 M P | M ∈ G} ; par l’automorphisme
d’algèbre M �→ P −1 M P , G0 est un groupe de Mn (IK) , d’élément neutre Jr .
Soit M une matrice de G0 écrite par blocs sous la forme :
 
A B
M= avec A ∈ Mr (IK).
C D

⋆ On a alors :
   
A B A 0
M = Jr M = et M = M Jr = .
0 0 C 0

Puisque M = Jr M = M Jr , on en déduit :
 
A 0
B = 0, C=0 et D=0 donc M= .
0 0
 
′ A′ 0
⋆ D’autre part, M admet un symétrique M = ∈ G0 ; en écri-
0 0
vant M M ′ = Jr , il vient AA′ = Ir , donc A ∈ GLr (IK) .
On en déduit que G0 ⊂ Gn,r .
∗ Comme dans la première question, on montre alors que G0 est un sous-groupe
de Gn,r . Il s’ensuit, en écrivant G = P G0 P −1 , que G est un sous-groupe
de P Gn,r P −1 .

86
Solutions des exercices

2.18 Notons a l’indice de nilpotence de u , et b celui de v .


• Puisque u et v commutent, on a (u ◦ v)a = ua ◦ v a = 0 car ua = 0 . Donc u ◦ v est
nilpotent, d’indice de nilpotence au plus a .

Remarque Puisque u et v jouent des rôles symétriques, l’indice de nilpotence de u ◦ v


vaut au plus b , donc au plus min(a, b) .

• Puisque u et v commutent, la formule du binôme donne, pour tout p ∈ IN :


p  
 p
(u + v)p = uk ◦ v p−k .
k
k=0

Prenons p = a + b . Alors, pour tout k ∈ [[0, p]] , on a k  a ou p − k  b , donc uk = 0


ou v p−k = 0 . Ainsi, on a :

∀k ∈ [[0, p]] uk ◦ v p−k = 0 donc (u + v)p = 0.


L’endomorphisme u + v est donc nilpotent, d’indice de nilpotence au plus a + b .

Remarque On pourrait montrer que l’indice de nilpotence de u+v vaut au plus a+b−1 .

 
34 −15 −30
2
2.19 1. On trouve A = −10 9 10 puis A2 − 5A + 6I3 = 0 .
30 −15 −26
Le polynôme X 2 − 5X + 6 est donc annulateur de A . Si ce n’était pas le polynôme
minimal, ce dernier serait de degré 1 , donc A serait une matrice scalaire, ce qui n’est
pas le cas.
Le polynôme minimal de A est donc πA = X 2 − 5X + 6 .
2. On en déduit que A (A − 5I3 ) = −6I3 , ce qui prouve que A est inversible et :
5I3 − A
A−1 = ·
6

3. • Soit n ∈ IN . La division euclidienne de X n par πA s’écrit :

X n = Q n πA + a n X + b n avec Qn ∈ IK[X] et (an , bn ) ∈ IK2 .

En évaluant cette égalité en 2 et 3 (les deux racines de πA ), on obtient le système :



2an + bn = 2n
soit an = 3n − 2n et bn = 3 × 2n − 2 × 3n .
3an + bn = 3n

Finalement :
An = (3n − 2n )A + (3 × 2n − 2 × 3n )I3
= 2n B + 3n C
   
−5 3 6 6 −3 −6
avec B = 3I3 − A = 2 0 −2 et C = A − 2I3 = −2 1 2 .
−6 3 7 6 −3 −6

87
Chapitre 2. Compléments d’algèbre linéaire

5I3 −A
• Remarquons que, pour n = −1 , la formule précédente donne 6
qui est la valeur
−1
de A trouvée à la question précédente.
Prouvons plus généralement que la formule obtenue précédemment est valable pour
tout n ∈ ZZ . Soit n ∈ IN∗ . Montrons que A−n = 2−n B + 3−n C . Par définition, A−n
est la matrice inverse de An . Il s’agit donc de vérifier que le produit de 2n B + 3n C
par 2−n B + 3−n C vaut I3 . On a :
(2n B + 3n C)(2−n B + 3−n C) = B + C + 2n 3−n BC + 3n 2−n CB.
On trouve de plus B 2 = B , C 2 = C et BC = CB = 0 . On en déduit le résultat
souhaité, car B + C = I3 .
Remarque Les matrices B et C sont des matrices de projecteurs. Plus précisément, ce
sont les matrices des projecteurs associés à la décomposition :
IR3 = Ker(A − 2I3 ) ⊕ Ker(A − 3I3 ).
Ce sont les projecteurs spectraux de l’endomorphisme canoniquement associé à A . On
pourra comparer avec l’exercice 3.20 de la page 128.

2.20 1. Le polynôme P = X 2 + X + 1 étant annulateur de u , on a :


u2 + u + IdIRn = 0.
 
Par l’absurde : supposons que Vect x, u(x) ne soit pas un plan. Cela signifie que la
 
famille x, u(x) est liée. Le vecteur x étant non nul, il existe un réel λ tel que u(x) = λx .
On a alors :
0 = u2 (x) + u(x) + x = (λ2 + λ + 1)x.
Comme x est non nul, le réel λ est alors une racine du polynôme X 2 + X + 1 , ce qui
 
est absurde car ce polynôme n’a pas de racine réelle. Par conséquent, Vect x, u(x) est
un plan.
 
2. • On a de manière évidente, u(x) ∈ Vect x, u(x) , et de plus :
  
u u(x) = u2 (x) = −u(x) − x ∈ Vect(x, u(x) ,
 
d’où la stabilité de Vect x, u(x) par u .
 
• Par l’absurde : supposons qu’il existe y non nul dans F ∩Vect x, u(x) . Comme cette
 
intersection est stable par u , elle contient Vect y, u(y) , qui, d’après la question 1,
est un plan. Pour des raisons de dimensions, on a donc :
   
F ∩ Vect x, u(x) = Vect x, u(x) ,
 
puis Vect x, u(x) ⊂ F , ce qui n’est pas possible car x �∈ F .
 
Ainsi, F et Vect x, u(x) sont en somme directe.
3. Obtenir la matrice souhaitée pour u revient à prouver l’existence d’une base de IRn de la
 
forme e1 , u(e1 ), . . . , ep , u(ep ) . En effet, si une telle base existe, alors pour tout k ∈ [[1, p]]
le plan vectoriel :
 
Fk = Vect ek , u(ek )
est stable par u , et l’endomorphisme induit a pour matrice :
 
  0 −1
Mat  uF = .
ek ,u(ek ) k
1 −1

88
Solutions des exercices

Considérons l’ensemble A des entiers k pour lesquels il existe des vecteurs x1 , . . . , xk


 
de IRn tels que la famille x1 , u(x1 ), . . . , xk , u(xk ) soit libre.
En utilisant la question 1, on montre que A est non vide. La partie A est également
bornée puisque dans IRn une famille libre est de cardinal inférieur ou égal à n . La partie A
admet donc un maximum : notons-le p . Il existe alors des vecteurs x1 , . . . , xp de IRn tels
 
que la famille x1 , u(x1 ), . . . , xp , u(xp ) soit libre. Le sous-espace :
p
    
F = Vect x1 , u(x1 ), . . . , xp , u(xp ) = Vect xk , u(xk )
k=1

est alors stable par u . Montrons par l’absurde que F = IRn . Supposons
que F �⊆ IRn . Alors il existe xp+1 ∈ IRn \ F et, d’après la question précé-
 
dente, le plan vectoriel Vect xp+1 , u(xp+1 ) est en somme directe avec F . La fa-
 
mille x1 , u(x1 ), . . . , xp+1 , u(xp+1 ) est alors libre, ce qui contredit la définition de p .
n
 
Conclusion : on a F = IR , et par conséquent x1 , u(x1 ), . . . , xp , u(xp ) est une base
de IRn . Dans cette base, la matrice de u a forme désirée. Au passage, on a n = 2p ,
donc n est pair.

2.21 1. Constatons que pour tout j ∈ [[0, n − 1]] :


j   j−1  
j j
 j i j
 j
u(X ) = (X + 1) = X puis (u − IdE )(X ) = Xi,
i i
i=0 i=0
 j
 j
donc en particulier deg (u − IdE )(X )  deg(X ) − 1 .
Un polynôme P ∈ E étant combinaison linéaire des X j pour j ∈ [[0, n − 1]] , on ob-
 
tient deg (u − IdE )(P )  deg(P ) − 1 , puis par récurrence immédiate :
 
∀k ∈ IN deg (u − IdE )k (P )  deg(P ) − k ;
 
en particulier on a deg (u − IdE )n (P ) < 0 , autrement dit (u − IdE )n (P ) = 0 .
On a ainsi prouvé que (u − IdE )n est l’endomorphisme nul. L’endomorphisme u − IdE
est donc nilpotent.
2. D’après la première question, l’endomorphisme u − IdE est nilpotent et véri-
fie (u − IdE )n = 0 . On a, par application de la formule du binôme (les endomorphismes u
et IdE commutant) :

n  
n n−k n k
0 = (u − IdE ) = (−1) u .
k
k=0
k
Pour P ∈ E , on remarque que ∀k ∈ IN u (P ) = P (X + k) , donc l’évaluation en P de
la relation précédente donne :
n
  
n
(−1)k P (X + k) = 0.
k
k=0
n
Par conséquent, en posant ak = (−1)k+1−n k
, on a :
n−1

∀P ∈ E P (X + n) = ak P (X + k).
k=0

89
Chapitre 2. Compléments d’algèbre linéaire


r
2.22 Fixons k0 ∈ [[1, r]] . Montrons que la projection sur Ker Pk0 (u) parallèlement à Ker Pk (u)
k=1
k=k0

r
est un polynôme en u . En posant Q = Pk , on a, par le lemme des noyaux :
k=1
k=k0


r

Ker Pk (u) = Ker Q(u).


k=1
k=k0

De plus, les polynômes Pk0 et Q sont premiers entre eux puisque Pk0 est premier avec
chacun des Pk pour k �= k0 (cf. corollaire 32 de la page 16).
D’après le théorème de Bézout, il existe (U1 , U2 ) ∈ IK[X]2 tel que Pk0 U1 + QU2 = 1 .
On a alors (Pk0 U1 )(u) + (QU2 )(u) = IdE c’est-à-dire, pour tout x ∈ E :
x = (QU2 )(u)(x) + (Pk0 U1 )(u)(x). (⋆)
Or, on a :
 
Pk0 (QU2 )(u) (x) = (Pk0 QU2 )(u)(x) = (P U2 )(u)(x) = 0
car P est annulateur de u , donc P U2 aussi ; on a ainsi obtenu (QU2 )(u)(x) ∈ Ker Pk0 (u) .
De la même manière, on a (Pk0 U1 )(u)(x) ∈ Ker Q(u) .
De la relation (⋆) il résulte alors que la projection sur Ker Pk0 (u) parallèlement à Ker Q(u)
est (QU2 )(u) , qui est bien un polynôme en u .

90
Chapitre 3 : Réduction des endomorphismes

I Éléments propres . . . . . . . . . . . . . . . . . . . . . . 92
1 Éléments propres d’un endomorphisme . . . . . . . . . . . 92
2 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
3 Cas de la dimension finie . . . . . . . . . . . . . . . . . . 95
4 Éléments propres d’une matrice carrée . . . . . . . . . . . 96
5 Utilisation d’un polynôme annulateur . . . . . . . . . . . 99
II Polynôme caractéristique . . . . . . . . . . . . . . . . . . 100
1 Polynôme caractéristique d’une matrice . . . . . . . . . . 100
2 Exemples de calculs de polynômes caractéristiques . . . . 102
3 Polynôme caractéristique et spectre . . . . . . . . . . . . 103
4 Polynôme caractéristique d’un endomorphisme . . . . . . 105
5 Ordre de multiplicité d’une valeur propre . . . . . . . . . 106
III Diagonalisation . . . . . . . . . . . . . . . . . . . . . . . . 109
1 Définitions et premières propriétés . . . . . . . . . . . . . 109
2 Utilisation du polynôme caractéristique . . . . . . . . . . 112
3 Utilisation d’un polynôme annulateur . . . . . . . . . . . 113
IV Trigonalisation . . . . . . . . . . . . . . . . . . . . . . . . 115
1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . 115
2 Utilisation du polynôme caractéristique . . . . . . . . . . 116
3 Théorème de Cayley-Hamilton . . . . . . . . . . . . . . . 119
4 Utilisation d’un polynôme annulateur . . . . . . . . . . . 119
5 Sous-espaces caractéristiques . . . . . . . . . . . . . . . . 120
Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
Réduction des
endomorphismes 3
Dans ce chapitre, E est un espace vectoriel de dimension quelconque sur un sous-
corps IK de C. On se limite dans la pratique au cas où IK est IR ou C .
On étudie, dans ce chapitre, des endomorphismes de E et, en particulier lorsque E
est de dimension finie, on cherche, si c’est possible, une base de E dans laquelle un
tel endomorphisme possède une matrice simple : diagonale, voire triangulaire.
Cela revient, pour une matrice carrée donnée, à chercher une matrice diagonale ou
triangulaire qui lui est semblable.

I Éléments propres
1 Éléments propres d’un endomorphisme
Soit u ∈ L(E).
Définition 1
• On dit que λ ∈ IK est valeur propre de u s’il existe un vecteur non nul x ∈ E
tel que u(x) = λx.
• On dit que x ∈ E est un vecteur propre de u associé à la valeur propre λ ∈ IK
s’il est non nul et vérifie u(x) = λx.
• Si λ ∈ IK est valeur propre de u , le sous-espace propre de u associé à la
valeur propre λ est :
Exo
3.1 Eλ (u) = Ker(u − λ IdE ) = {x ∈ E : u(x) = λx} .

Remarques
• Un vecteur propre n’est associé qu’à une seule valeur propre.
• Une droite vectorielle est stable par u si, et seulement si, elle est engendrée par
un vecteur propre de u .
• Si λ ∈ IK est valeur propre de u , les vecteurs propres associés à la valeur propre λ
sont les vecteurs non nuls de Eλ (u). En particulier, si E = {0} , il n’y a aucun
vecteur propre et donc aucune valeur propre.
• Plus généralement, on notera Eλ (u) = Ker(u − λ IdE ) pour tout λ ∈ IK . Il est
non réduit à {0} si, et seulement si, λ est valeur propre de u .
I Éléments propres

• Lien avec le noyau. On a E0 (u) = Ker u , donc l’endomorphisme u admet 0


pour valeur propre si, et seulement s’il n’est pas injectif. Plus généralement, λ est
valeur propre de u si, et seulement si, u − λ IdE n’est pas injectif.
• Lien avec l’image. Tout sous-espace propre associé à une valeur propre non nulle
est inclus dans Im u .
 
En effet, si λ �= 0 et si x ∈ Ker(u − λ IdE ), alors x = u λx ∈ Im u .

• Pour tout (λ, µ) ∈ IK2 , on a :


  
Eλ (u + µ IdE ) = Ker (u + µ IdE ) − λ IdE = Ker u − (λ − µ) IdE ) = Eλ−µ (u),
donc λ est valeur propre de u + µ IdE si, et seulement si, λ − µ est valeur propre
de u .

Point méthode Pour rechercher les éléments propres d’un endomorphisme u


(valeurs propres et sous-espaces propres associés) on peut résoudre l’équa-
tion u(x) = λx appelée équation aux éléments propres.

Ex. 1. Endomorphismes remarquables


Homothétie. Tout vecteur non nul est vecteur propre de l’homothétie λ IdE pour la valeur
propre λ . Par suite, si E �= {0} , cette homothétie admet λ pour unique valeur propre et
le sous-espace propre associé est E . Rappelons la réciproque classique suivante (cf. exer-
cice 2.15 de la page 75) qui donne la réciproque : si u est un endomorphisme de E tel
que ∀x ∈ E ∃λ ∈ IK u(x) = λx , alors u est une homothétie.
Rotation. On a vu dans le chapitre précédent (cf. exemple 22 de la page 57) qu’une rotation
du plan euclidien IR2 d’angle non multiple de π ne stabilisait aucune droite. Elle n’a donc ni
valeur propre, ni vecteur propre.
Projection. Soit p ∈ L(E) un projecteur.
Si λ est une valeur propre non nulle, alors Eλ (p) ⊂ Im p (voir « lien avec l’image » ci-dessus)
donc λ = 1 puisque p coïncide avec l’identité sur son image. Il ne peut donc y avoir que
deux valeurs propres, 0 et 1 , avec :

E0 (p) = Ker p et E1 (p) = Ker(p − IdE ) = Im p.

Réciproquement, si p �= IdE et p �= 0 , on a Ker p �= {0} et Im p �= {0} , donc 0 et 1 sont


les valeurs propres de p .
Symétries. Soit F et G supplémentaires dans E et s la symétrie par rapport à F parallèle-
ment à G .
Rappelons que, si p est le projecteur d’image F et de noyau G , on a s = 2p − IdE . Ainsi
λ+1
la relation s(x) = λx équivaut à p(x) = x.
2
On déduit de ce qui a été prouvé sur les projections que, si s �= ± IdE , alors s admet
pour valeurs propres 1 et −1 et que les sous-espaces propres associés sont respectivement F
et G .

93
Chapitre 3. Réduction des endomorphismes

Endomorphismes nilpotents. Un endomorphisme nilpotent u n’admet que 0 pour valeur


propre. En effet, si λ est une valeur propre de u et x un vecteur propre associé, on
a u(x) = λx , et par une récurrence immédiate : ∀k ∈ IN uk (x) = λk x .
En prenant k tel que uk = 0 , cela donne λk = 0 puisque x �= 0 , donc λ = 0 .
Réciproquement, si E �= {0} , 0 est valeur propre de u puisqu’un endomorphisme nilpotent
est alors non injectif.
Ex. 2. Soit E = C ∞ (IR, IK) , avec IK = IR ou IK = C . Déterminons les valeurs propres et les
sous-espaces propres de la dérivation D ∈ L(E) .
Un scalaire λ est valeur propre de D si, et seulement si, l’équation f ′ = λf a une solution non
nulle dans E . Or les solutions de l’équation différentielle y ′ = λy sont les éléments de la droite
vectorielle engendrée par la fonction non nulle eλ : t �→ exp(λt) .
En conclusion, tout λ ∈ IK est valeur propre de D et Eλ (D) = Vect (eλ ) .

Ex. 3. Soit E = IKIN . Déterminons les éléments propres de T ∈ L(E) défini par :
 
T (un )n∈IN = (vn )n∈IN avec ∀n ∈ IN vn = un+1 .

Un scalaire λ est valeur propre de T si, et seulement si, l’équation T (u) = λu a une solution
non nulle dans E . Or T (u) = λu équivaut à :

∀n ∈ IN un+1 = λun ,

donc Eλ (T ) est l’ensemble des suites géométriques de raison λ .


En conclusion, tout λ ∈ IK est valeur propre de T , le sous-espace propre associé étant la droite
vectorielle engendrée par la suite géométrique (λn )n∈IN .
Rappelons que pour λ = 0 , on a (λn )n∈IN = (δ0,n )n∈IN = (1, 0, 0, . . .) .

Ex. 4. Soit E = IK[X] et u ∈ L(E) défini par u(P ) = XP .


Un scalaire λ est valeur propre de u si, et seulement si, l’équation XP = λP a une solution
non nulle dans E .
Or, pour P �= 0 , on a :

deg(P ) si λ �= 0
deg(XP ) = 1 + deg(P ) ∈ IN et deg(λP ) =
−∞ si λ = 0,

ce qui rend l’égalité XP = λP impossible puisque deg(λP ) < deg(XP ) .


En conclusion, u n’a pas de valeur propre.

2 Propriétés
Proposition 1
Si deux endomorphismes commutent, les sous-espaces propres de l’un sont stables
par l’autre.
Démonstration page 122

Le résultat suivant est immédiat par définition d’un sous-espace propre.

94
I Éléments propres
Proposition 2
Si F est un sous-espace vectoriel de E stable par u, les valeurs propres de l’en-
domorphisme uF induit par u sur F sont les valeurs propres λ de u telles
que Eλ (u) ∩ F �= {0}. On a alors :
Eλ (uF ) = Eλ (u) ∩ F.

Proposition 3
Si λ1 , . . . , λp sont des valeurs propres de u deux à deux distinctes, alors les sous-
espaces propres associés Eλ1 (u), . . . , Eλp (u) sont en somme directe.
Démonstration page 122
Principe de démonstration.
Appliquer le lemme de décomposition des noyaux à P = (X − λ1 ) · · · (X − λp ) .

Corollaire 4
Exo Toute famille de vecteurs propres associés à des valeurs propres deux à deux dis-
3.2 tinctes est libre.
Exo
3.3 Démonstration. Ce sont des vecteurs non nuls appartenant à des sous-espaces vectoriels en
somme directe (cf. exemple 5 de la page 47).

Ex. 5. En reprenant l’exemple 2 de la page précédente, on voit que, si λ1 , . . . , λn sont des


scalaires deux à deux distincts, la famille de fonctions (eλ1 , . . . , eλn ) est une famille libre
de C ∞ (IR, IK) (on a noté eλ la fonction définie par eλ : t �→ eλt ).
Ainsi, la famille (eλ )λ∈IK est libre.
Ex. 6. En reprenant l’exemple 3 de la page ci-contre, on voit que, si λ1 , . . . , λp sont des sca-
  n 
laires deux à deux distincts, la famille de suites géométriques (λn
1 )n∈IN , . . . , λp n∈IN est libre
 
dans IKIN . Ainsi, la famille (λn )n∈IN λ∈IK
est libre.

3 Cas de la dimension finie


Corollaire 5
Si E est de dimension finie et si λ1 , . . . , λp sont des valeurs propres de u deux à
deux distinctes, alors :
 p
dim Eλi (u)  dim E.
i=1

Démonstration. En effet, les Eλi (u) étant en somme directe, on a (voir page 49) :
p p
 
dim Eλi (u) = dim Eλi (u)  dim E.
i=1 i=1

Définition 2
Si u est un endomorphisme d’un espace vectoriel de dimension finie, l’ensemble des
valeurs propres de u est le spectre de u que l’on note sp(u).

95
Chapitre 3. Réduction des endomorphismes

Attention Il arrive parfois que l’on parle du spectre d’un endomorphisme u en


dimension infinie : il s’agit alors de l’ensemble des scalaires λ tels que u − λ IdE soit
non bijectif, alors que les valeurs propres de u sont les scalaires λ tels que u − λ IdE
soit non injectif. Les éléments du spectre sont appelés les valeurs spectrales de u .
Ex. 7. On a vu à l’exemple 4 de la page 94 que l’endomorphisme u : P �→ XP de IK[X]
n’admettait pas de valeur propre. En particulier, 0 n’est pas valeur propre de u et pourtant u
est non bijectif puisque son image est contenue dans l’hyperplan d’équation P (0) = 0 ( 0 est
donc valeur spectrale de u ).

Corollaire 6
Le spectre d’un endomorphisme d’un espace vectoriel de dimension n a au plus n
éléments.
Démonstration. D’après le corollaire 4 de la page précédente, à toute famille de p valeurs
propres deux à deux distinctes on peut associer une famille libre de p vecteurs propres.

4 Éléments propres d’une matrice carrée


Soit A ∈ Mn (IK).
Définition 3
Les éléments propres de A sont les éléments propres de son endomorphisme
canoniquement associé. Plus précisément :
• on dit que λ ∈ IK est valeur propre de A s’il existe X ∈ IKn non nul tel
que AX = λX ;
• on dit que X ∈ IKn est un vecteur propre de A associé à la valeur
propre λ ∈ IK si X est non nul et vérifie AX = λX ;
• si λ ∈ IK est valeur propre de A, le sous-espace propre de A associé à la
valeur propre λ est :
Eλ (A) = Ker (A − λIn ) = {X ∈ IKn : AX = λX} ;
• l’ensemble des valeurs propres de A est appelé le spectre de A et noté sp(A).

Remarque Le scalaire λ est valeur propre de A si, et seulement si, A − λIn est
Exo non inversible, c’est-à-dire si, et seulement si, rg(A − λIn ) < n.
3.4
De plus, d’après le théorème du rang, dim Eλ (A) = n − rg(A − λIn ).

Corollaire 7
Une matrice A ∈ Mn (IK) admet au plus n valeurs propres.

Démonstration. Le corollaire 6 nous donne le résultat pour l’endomorphisme canoniquement


associé à A .

Point méthode Pour rechercher les éléments propres d’une matrice A, on peut
résoudre l’équation AX = λX appelée équation aux éléments propres.

Remarque On verra comment, à l’aide du polynôme caractéristique ou d’un poly-


nôme annulateur, obtenir les valeurs propres d’une matrice sans résolution de système.

96
I Éléments propres

Ex. 8. Les valeurs propres d’une matrice triangulaire (supérieure ou inférieure) sont les éléments
de sa diagonale. En effet, si A triangulaire a pour diagonale (a1 , . . . , an ) , pour tout λ ∈ IK , la
matrice A − λIn est triangulaire et a pour diagonale (a1 − λ, . . . , an − λ) et l’on sait qu’une
matrice triangulaire est inversible si, et seulement si, ses coefficients diagonaux sont tous non nuls.
Ex. 9. Soit (a1 , . . . , an ) ∈ IKn .
Déterminons les valeurs propres et les vecteurs propres de la transposée de la matrice compagnon
du polynôme P = X n − a1 X n−1 − a2 X n−2 − · · · − an (cf. exemple 40 de la page 66) :
 
0 1 0 ··· 0
 .. .. .. .. .. 
 . . . . . 
 .. 
A= .. .. ..  ∈ Mn (IK).
 . . . . 0 
 0 ··· ··· 0 1

an ··· ··· a2 a1

 
x0
 .. 
Soit λ ∈ IK . En posant X =  .  , le système AX = λX se traduit par :
xn−1

∀i ∈ [[0, n − 2]] xi+1 = λxi et an x0 + · · · + a1 xn−1 = λxn−1 .

On a donc AX = λX si, et seulement si :

∀i ∈ [[0, n − 1]] x i = λi x 0 et x0 (an + an−1 λ + · · · + a1 λn−1 − λn ) = 0.


� �� �
=−P (λ)

Il y a donc une solution X non nulle si, et seulement si, P (λ) = 0 et dans ce cas le sous-espace
 
1
 λ 
propre associé est la droite engendrée par le vecteur 
 ...  .

λn−1

Remarque On peut facilement voir sans calcul que les sous-espaces propres de A sont de
dimension 1 . En effet, pour tout λ ∈ IK , la matrice A − λIn est de la forme :
 
∗ 1 0 ··· 0
 .. .. .. .. 
 . ∗ . . . 
 
 .. .. .. .. 
A= . . . . 0 
 
 .. 
 . ∗ ··· ∗ 1 
∗ ··· ··· ··· ∗

et donc de rang au moins n − 1 puisque la matrice extraite indiquée ci-dessus est de rang n − 1
car triangulaire inférieure avec coefficients diagonaux tous non nuls.

97
Chapitre 3. Réduction des endomorphismes
Proposition 8
Soit A une matrice représentant u dans une base B = (e1 , . . . , en ).
On a alors sp(A) = sp(u) et, pour tout λ ∈ sp(u) :
 
n x1

xi ei ∈ Eλ (u) ⇐⇒ X =  ...  ∈ Eλ (A).
 
x=
i=1 xn

Démonstration. Si X est la matrice représentant un vecteur x ∈ E dans la base B , on a


l’équivalence u(x) = λx ⇐⇒ AX = λX .

Corollaire 9
Deux matrices semblables ont le même spectre et les sous-espaces propres associés
sont de même dimension.

Remarque Plus précisément, si A = P BP −1 , alors pour tout λ ∈ sp(B) :


� � �
Eλ (A) = P X � X ∈ Eλ (B) .

Cas des matrices réelles considérées comme matrices complexes


Soit A une matrice à coefficients réels. On peut considérer que A appartient à Mn (IR)
ou à Mn (C).
• On obtient dans le premier cas, les éléments propres réels, dans le second, les
éléments propres complexes de A.
• On distinguera donc le spectre réel de A, noté spIR (A), de son spectre com-
plexe spC (A).

Proposition 10
Soit A une matrice réelle et λ ∈ C . On a :
λ ∈ spC (A) ⇐⇒ λ ∈ spC (A) et ∀X ∈ Cn X ∈ Eλ (A) ⇐⇒ X ∈ Eλ (A).
   
x1 x1
 ..   .. 
Démonstration. Si X =  .  ∈ Cn , on note bien entendu X =  . .
xn xn
En notant ai,j les coefficients de la matrice A , l’égalité AX = λX se traduit par :
n

∀i ∈ [[1, n]] ai,j xj = λxi .
j=1

Par conjugaison de ces relations, en tenant compte du fait que les ai,j sont réels, on obtient :
AX = λX ⇐⇒ AX = λ X,
ce qui donne les deux résultats.

Remarque On peut démontrer de la même façon que si A est une matrice complexe,
alors sp(A) = sp A et que, pour tout λ ∈ sp(A), les éléments de Eλ (A) et de Eλ (A)
sont conjugués.

98
I Éléments propres

Remarques Soit A ∈ Mn (IR).


• On a l’égalité spIR (A) = spC (A) ∩ IR.
En effet, λ est valeur propre de A si, et seulement si, A − λIn est non inversible,
c’est-à-dire si, et seulement si, det(A − λIn ) = 0 . Or, pour λ ∈ IR, le déterminant
de A−λIn est le même que l’on considère cette matrice comme réelle ou complexe.
• En distinguant les deux sous-espaces propres réel et complexe de A :
(IR)   (C)  
Eλ (A) = X ∈ IRn : AX = λX et Eλ (A) = X ∈ Cn : AX = λX ,
(IR) (C)
on a dimIR Eλ (A) = dimC Eλ (A) puisque chacune de ces deux dimensions est
égale à n − rg(A − λIn ) d’après le théorème du rang.
 
0 −1
Ex. 10. Soit A = ∈ M2 (IR) .
1 0
Pour λ ∈ C , on a det(A − λI2 ) = λ2 + 1 , donc la matrice A − λI2 est non inversible si, et
seulement si, λ = ±i .
On a donc spC (A) = {i, −i} et spIR (A) = ∅ .

Remarque
Plus généralement, si IK′ est un sous-corps du corps IK et A ∈ Mn (IK′ ), alors :
spIK′ (A) ⊂ spIK (A) et, plus précisément, spIK′ (A) = spIK (A) ∩ IK′ .

5 Utilisation d’un polynôme annulateur


Soit u ∈ L(E) et A ∈ Mn (IK).
Proposition 11
Soit P un polynôme à coefficients dans IK et λ ∈ IK .
• Si x ∈ Eλ (u), on a P (u)(x) = P (λ)x.
• Si X ∈ Eλ (A), on a P (A)X = P (λ)X .

Démonstration. Si u(x) = λx , on établit, par une récurrence immédiate :


∀k ∈ IN uk (x) = λk x. (⋆)
Les deux applications P �→ P (u)(x) et P �→ P (λ)x sont évidemment linéaires de IK[X] dans E .
La relation (⋆) montre qu’elles coïncident sur la base canonique de IK[X] et donc sont égales.
La démonstration est similaire pour les matrices.

Proposition 12
Si P est un polynôme annulateur de u , alors toute valeur propre de u est racine
de P .
On a le même résultat pour une matrice A ∈ Mn (IK).

Démonstration. Si λ est valeur propre de u , alors il existe x non nul dans Eλ (u) .
D’après la proposition 11, P (λ)x = P (u)(x) = 0 et donc P (λ) = 0 puisque x �= 0 .

99
Chapitre 3. Réduction des endomorphismes

Ex. 11. On retrouve ainsi que le spectre d’un projecteur p est inclus dans {0, 1} puisque p est
annulé par le polynôme X 2 − X . De même celui d’une symétrie est inclus dans {−1, 1} à l’aide
du polynôme X 2 − 1 .
 
0 0 1
Ex. 12. La matrice A = 1 0 0 vérifie A3 = I3 . En effet, son endomorphisme cano-
0 1 0
niquement associé permute circulairement les trois vecteurs de la base canonique de IK3 . Ainsi,
ses valeurs propres sont racines du polynôme X 3 − 1 . Donc :

spIR (A) ⊂ {1} et spC (A) ⊂ {1, j, j 2 }.

Remarque On peut facilement montrer que ce sont en fait des égalités en exhibant des vecteurs
propres associés. On trouve, dans le cas complexe :
     
1 1 1
X0 = 1 ∈ E1 (A) X1 = j2 ∈ Ej (A) et X2 = j ∈ Ej 2 (A),
1 j j2

et, X0 étant réel, il convient pour le cas réel.

Attention Lorsque l’on dispose d’un polynôme annulateur P de u ∈ L(E), toutes


les valeurs propres de u sont racines de P , mais certaines racines de P peuvent ne
pas être valeurs propres de u .
Ainsi, le polynôme X 2 − X = X (X − 1) est un polynôme annulateur de IdE , alors
que 0 n’en est pas valeur propre.
Proposition 13
Si un endomorphisme u admet un polynôme minimal πu , ses valeurs propres sont
les racines de πu .
Démonstration page 122
Principe de démonstration. Écrire πu = (X − µ) P , et prendre x tel que P (u)(x) �= 0 .

II Polynôme caractéristique
1 Polynôme caractéristique d’une matrice
Soit A ∈ Mn (IK).
Par définition, λ ∈ IK est valeur propre de A ∈ Mn (IK) si, et seulement si, la
matrice A − λIn est non inversible donc si, et seulement si, det (λIn − A) = 0 .
Comme le déterminant d’une matrice est une fonction polynomiale en ses coeffi-
cients et que les coefficients de λIn − A sont polynomiaux en λ, on en déduit
que det (λIn − A) est polynomiale en λ. Cela permet de poser la définition suivante.
Définition 4
On appelle polynôme caractéristique de A, et l’on note χA , l’unique polynôme
tel que :
∀λ ∈ IK χA (λ) = det (λIn − A) .

100
II Polynôme caractéristique

Remarques
• Il y a bien unicité d’un tel polynôme. En effet, IK étant un sous-corps de C , il
contient Q , qui est infini, et donc deux polynômes ayant même fonction polyno-
miale associée sont égaux.
• Par abus, on note parfois χA (X) = det (XIn − A) que l’on peut considérer comme
déterminant d’une matrice à coefficients dans le corps IK(X) des fractions ration-
nelles. Il s’agit d’un léger abus dans le cadre du programme. En effet, on a défini
uniquement le déterminant d’une matrice à coefficients dans un sous-corps de C .
• Si A ∈ Mn (IR), son polynôme caractéristique χA est identique que l’on consi-
dère A comme une matrice réelle ou comme une matrice complexe.

Ex. 13. On a χA = χAT . En effet, pour tout λ ∈ IK , on a :


   
χAT (λ) = det λIn − AT = det (λIn − A)T = det (λIn − A) = χA (λ).

Proposition 14
Le polynôme caractéristique χA est un polynôme unitaire de degré n et l’on a :
Exo
n
3.8 χA = X n − (tr A) X n−1 + · · · + (−1) det A.
Démonstration page 122
Principe de démonstration. Rappelons que, si A = (ai,j )1i,jn ∈ Mn (IK) , on a :

det A = ε(σ)aσ(1),1 · · · aσ(n),n ( ε(σ) représente la signature de σ ).
σ∈Sn


n
On remarque que λ �→ det(λ In − A) − (λ − ai,i ) est une fonction polynomiale de degré
i=1
strictement inférieur à n − 1 .

Point méthode
Le polynôme caractéristique de A ∈ M2 (IK) est X 2 − (tr A)X + det A.

Remarques
• Lorsque n  3 , les autres coefficients du polynôme caractéristique n’ont pas été
explicités, car il n’ont pas d’expression aussi simple.
• Rappelons que, par convention, un déterminant de taille nulle est égal à 1 .
Pour n = 0 , on a donc χA = 1 et il s’agit bien d’un polynôme unitaire de degré 0 .

Proposition 15
Deux matrices semblables ont même polynôme caractéristique.

Démonstration. Soit A ∈ Mn (IK) et P ∈ GLn (IK) . On a, pour tout λ ∈ IK :


   
χP −1 AP (λ) = det λIn − P −1 AP = det P −1 (λIn − A) P = det (λIn − A) = χA (λ).

101
Chapitre 3. Réduction des endomorphismes

Ex. 14. Soit (A, B) ∈ Mn (IK)2 . Montrons que χAB = χBA .


• Dans le cas où A est inversible, les matrices AB et BA sont semblables
puisque AB = A(BA)A−1 , donc ont même polynôme caractéristique.
• Dans le cas général, pour t ∈ IK , posons At = A − tIn .
Le polynôme χA étant non nul, il admet un nombre fini de racines, donc il y a une infinité
de scalaires t pour lesquels At est inversible. Pour de tels t , on a donc χAt B = χBAt .
Fixons λ ∈ IK , on a donc det(At B −λIn ) = det(BAt −λIn ) pour une infinité de scalaires t .
Comme les deux fonctions :

t �→ det(At B − λIn ) et t �→ det(BAt − λIn )

sont polynomiales (les coefficients des matrices At B − λIn et BAt − λIn sont polynomiaux
en t ) et qu’elles coïncident sur un ensemble infini, les polynômes associés sont égaux et donc
en particulier ont la même valeur en 0 , ce qui donne det(AB − λIn ) = det(BA − λIn ) .

2 Exemples de calculs de polynômes caractéristiques


� �
A C
Ex. 15. Si M est une matrice triangulaire supérieure par blocs de la forme , alors
0 D
son polynôme caractéristique est χM = χA χD puisque, pour tout λ ∈ IK :
� �
λIp − A −C
χM (λ) = det = χA (λ)χD (λ).
0 λIq − D

Exo
3.9
Ce résultat se généralise à toute matrice triangulaire (supérieure ou inférieure) par blocs : le
polynôme caractéristique est le produit des polynômes caractéristiques des blocs diagonaux.
Exo En particulier, pour des blocs de taille 1 , on obtient le résultat suivant.
3.10

Proposition 16
Si A ∈ Mn (IK) est triangulaire de diagonale (α1 , . . . , αn ) , alors son polynôme

n
caractéristique est égal à (X − αk ).
k=1

Ex. 16. Polynôme caractéristique d’une matrice compagnon


Soit (a1 , . . . , an ) ∈ IKn et :

 
0 ··· ··· 0 an
 .. .. .. .. 
 1 . . . . 
 .. .. .. .. 
A=
 0 . . . .
 ∈ Mn (IK).

 .. .. ..

 . .

. 0 a2
0 ··· 0 1 a1

102
II Polynôme caractéristique

Soit λ ∈ IK . Calculons, pour commencer, le déterminant de :

 
−λ 0 ··· 0 an
 .. .. .. .. 
 1 . . . . 
 .. .. .. 
A − λIn = 
 0 . . 0 .
.

 .. .. ..

 . .

. −λ a2
0 ··· 0 1 a1 − λ

Par l’opération L1 ← L1 + λL2 + · · · + λn−1 Ln (qui conserve le déterminant comme suite de


transvections), la matrice A − λIn se transforme en :

 
0 0 ··· 0 α
 .. .. 
 1 −λ . . an−1 
 .. .. .. 
 . .

 0 0 . 
 .. .. ..

 . . 
. −λ a2
0 ··· 0 1 a1 − λ

où α = an + an−1 λ + · · · + a2 λn−2 + a1 λn−1 − λn .


Un développement suivant la première ligne donne alors (−1)n χA (λ) = (−1)n+1 α .
Le polynôme caractéristique de A est donc χA (X) = X n − a1 X n−1 − · · · − an .

Point méthode Comme on l’a fait dans l’exemple précédent, il est parfois plus in-
téressant de calculer det(A− λIn ) = (−1)n χA (λ) plutôt que det(λIn − A) = χA (λ).

3 Polynôme caractéristique et spectre


Proposition 17
Un scalaire λ ∈ IK est une valeur propre de A si, et seulement s’il est racine du
polynôme caractéristique de A.

Démonstration. Un scalaire λ est valeur propre de A si, et seulement si, A−λIn �∈ GLn (IK)
c’est-à-dire si, et seulement si, det (A − λIn ) = 0 .
Comme det (A − λIn ) = (−1)n χA (λ) , on en déduit le résultat.

Remarque Comme on sait que le polynôme caractéristique d’une matrice de taille n


est de degré n (proposition 14 de la page 101), cela permet donc de retrouver qu’une
matrice carrée de taille n a au plus n valeurs propres.

Ex. 17. Les valeurs propres d’une matrices triangulaire sont ses coefficients diagonaux.

103
Chapitre 3. Réduction des endomorphismes

Point méthode La proposition 17 de la page précédente montre l’importance pra-


tique d’obtenir, dans la mesure du possible, le polynôme caractéristique sous forme
factorisée. On réalise dans les cas concrets cet objectif en calculant le déterminant
de A − λIn par opérations élémentaires afin (suivant les cas) :
• de faire apparaître des facteurs communs dans les lignes ou les colonnes,
• de se ramener à une matrice triangulaire (au moins en partie).

 
3 5 −6
Ex. 18. Déterminons le spectre de A = 4 7 −9 .
3 6 −7
   
1 1
Commençons par remarquer que A 1 =2 1 , ce qui montre que 2 est valeur propre
1 1
et que la somme des colonnes de A − 2I3 est nulle.
Soit λ ∈ C . Ajoutons donc à la dernière colonne de A − λI3 la somme des deux autres :
 
 3−λ 5 2−λ 
 
det(A − λI3 ) =  4 7−λ 2−λ 
 3 6 2−λ 
 
 3−λ 5 1 
 
= (2 − λ)  4 7−λ 1  (factorisation dans C3 )
 3 6 1 

 −λ −1 0 L1 ← L1 − L3

= (2 − λ)  1 1−λ 0 L2 ← L2 − L3
 3 6 1
 
 −λ −1 
= (2 − λ)  = (2 − λ)(λ2 − λ + 1).
1 1−λ 

On a donc spC (A) = {2, −j, −j 2 } et spIR (A) = {2} .

Remarque Soit A ∈ Mn (IK), avec n ∈ IN∗ .


• Si IK = C, alors A a au moins une valeur propre.
• Si IK = IR et si n est impair, alors A a au moins une valeur propre réelle.
En effet, on utilise la proposition 17 de la page précédente et :
• dans le premier cas, le théorème de d’Alembert-Gauss,
• dans le deuxième cas, le théorème des valeurs intermédiaires.

104
II Polynôme caractéristique

4 Polynôme caractéristique d’un endomorphisme


Dans toute cette section, on suppose E de dimension finie n et l’on considère un
endomorphisme u de E .
Définition 5
On appelle polynôme caractéristique de u , et l’on note χu , l’unique polynôme
vérifiant :
∀λ ∈ IK χu (λ) = det (λ IdE −u) ,
c’est-à-dire le polynôme caractéristique de sa matrice dans n’importe quelle base.

En particulier, si u est l’endomorphisme canoniquement associé à la matrice A,


alors χu = χA .

Attention La notion de polynôme caractéristique d’un endomorphisme n’a aucun


sens si E n’est pas de dimension finie.
Ex. 19. Soit u ∈ L(E) de rang 1 .
Pour calculer son polynôme caractéristique, écrivons sa matrice dans une base bien choisie.
Complétons une base de Im u en une base de E . Dans une telle base, la matrice de u a la forme
triangulaire :
 
α1,1 . . . . . . α1,n
 0 ... ... 0 
 . .. 
 .. .
.
0 ... ... 0

Son polynôme caractéristique est donc X n−1 (X − α1,1 ) et comme α1,1 est la trace de u , on
obtient :
χu (X) = X n−1 (X − tr u) .

Proposition 18
Un scalaire λ ∈ IK est une valeur propre de u si, et seulement si, c’est une racine
du polynôme caractéristique de u.

Démonstration. Un scalaire λ ∈ IK est une valeur propre de u si, et seulement si, u − λ IdE
n’est pas inversible c’est-à-dire :
χu (λ) = det(λ IdE −u) = 0.

Remarques
• On retrouve le fait qu’un endomorphisme d’un espace vectoriel de dimension n a
au plus n valeurs propres distinctes.
• Soit E un IK-espace vectoriel de dimension finie non nulle.
∗ Si IK = C , alors u a au moins une valeur propre.
∗ Si IK = IR et si dim E est impair, alors u a au moins une valeur propre.

Attention Comme le montre l’exemple 4 de la page 94, en dimension infinie, un


endomorphisme d’un C-espace vectoriel n’admet pas nécessairement de valeur propre.

105
Chapitre 3. Réduction des endomorphismes
Proposition 19
Si F est un sous-espace vectoriel de E stable par u , alors le polynôme caractéris-
tique de l’endomorphisme induit par u sur F divise χu .
Démonstration page 122

Remarques
• On retrouve l’inclusion sp (uF ) ⊂ sp u .
• Le polynôme caractéristique d’un endomorphisme u stabilisant les sous-espaces
vectoriels d’une décomposition E = E1 ⊕ · · · ⊕ Ep est :
p

χu = χui ,
i=1

où, pour tout i ∈ [[1, p]], ui est l’endomorphisme induit par u sur Ei .
En effet, si (B1 , . . . , Bp ) est une base de E adaptée à la décomposition considé-
rée, la matrice de u dans cette base est A = Diag(A1 , . . . , Ap ) où Ai est, pour
tout i ∈ [[1, p]], la matrice de ui dans la base Bi de Ei .
Alors, pour tout λ ∈ IK :
λIn − A = Diag(λIn1 − A1 , . . . , λInp − Ap ),
en notant n1 , . . . , np les dimensions de E1 , . . . , Ep . Le résultat s’ensuit par calcul
du déterminant d’une matrice diagonale par blocs.

5 Ordre de multiplicité d’une valeur propre


Soit u ∈ L(E), où E est toujours supposé de dimension finie.
Définition 6
On appelle ordre de multiplicité d’une valeur propre λ de u , son ordre de mul-
tiplicité en tant que racine du polynôme caractéristique de u .
On définit de même l’ordre de multiplicité des valeurs propres d’une matrice.

Remarque En particulier, une valeur propre de u est dite simple, double, triple. . .
si c’est une racine simple, double, triple. . . du polynôme caractéristique de u .
Notation Dans la suite, l’ordre de multiplicité de λ sera noté m(λ).

Attention La notion d’ordre de multiplicité n’a pas de sens en dimension infinie.


Proposition 20
Pour tout λ ∈ sp(u), on a :
1  dim Eλ (u)  m(λ).
Démonstration page 122
Principe de démonstration. On utilise la proposition 19.

Ex. 20. Si u est de rang inférieur ou égal à r , le polynôme χu est divisible par X n−r , puisque
le noyau Ker u = E0 (u) est de dimension supérieure ou égale à n − r .

106
II Polynôme caractéristique

Ex. 21. Ainsi, le polynôme caractéristique de la matrice :


 
α1
 0 .. 
A= . 
 αn−1

α1 · · · αn−1 0

de rang inférieur ou égal à 2 est de la forme :


� �
χA = X n−2 X 2 + aX + b .

Comme la trace de A est nulle, on en déduit a = 0 , mais la valeur de b n’est pas facile à trouver
de cette façon. Nous allons donc procéder autrement.
Supposons les αi non tous nuls (sinon, A = 0 et χA = X n ). En notant (e1 , . . . , en ) la base
canonique de IKn , une base de l’image de l’endomorphisme u canoniquement associé à A est

n−1
donnée par les vecteurs en et e0 = u(en ) = αi ei . Complétons (en , e0 ) en une base B
i=1

n−1 �
n−1 �
n−1
de E . On a u(e0 ) = αi u(ei ) = α2i en , donc en posant β = α2i , la matrice de u
i=1 i=1 i=1
dans B est de la forme :
 
0 β
1 0

M= .
0 0
n−2 2
On a donc χA = χu = χM = X (X − β) .

Corollaire 21
Si λ est valeur propre simple de u , alors dim Eλ (u) = 1 .

Remarque Le spectre de u est, par définition, l’ensemble des racines de χu dans IK .


Comme dans le cas des polynômes, on distinguera soigneusement les notions d’en-
semble et de liste des valeurs propres de u .
• L’ensemble des valeurs propres est le spectre de u . S’il est égal à {λ1 , . . . , λp } ,
avec λ1 , . . . , λp distincts deux à deux, alors on a :
p

χu = Q (X − λi )m(λi )
i=1

où Q ∈ IK [X] n’a pas de racine dans IK et les m(λi ) sont les ordres de multiplicité.
• Une liste des valeurs propres comptées avec ordre de multiplicité est une famille
de scalaires répétant les valeurs propres avec leurs multiplicités. Une telle liste est
unique à l’ordre près et si (µ1 , . . . , µs ) en est une, alors on a :
s

χu = Q (X − µi )
i=1

où Q ∈ IK [X] n’a pas de racine dans IK .

107
Chapitre 3. Réduction des endomorphismes

Ex. 22. La diagonale d’une matrice triangulaire constitue une liste de ses valeurs propres, comp-
tées avec leur ordre de multiplicité.

• Bien sûr, la liste (µ1 , . . . , µs ) est formée des λ1 , . . . , λp répétés autant de fois que
leur multiplicité, c’est-à-dire, à l’ordre près :
(µ1 , . . . , µs ) = (λ1 , . . . , λ1 , . . . . . . , λp , . . . , λp ).
     
m(λ1 ) fois m(λp ) fois

On a donc :
s = m(λ1 ) + · · · + m(λp ).
• Si χu est scindé, alors on a s = n et :
p
 n

m(λk )
χu = (X − λk ) = (X − µi ) .
k=1 i=1

Proposition 22

n
Si χu = (X − µi ) est scindé, alors :
i=1
n
 n

tr u = µi et det u = µi .
i=1 i=1

Démonstration. Il s’agit des relations entre les coefficients et les racines d’un polynôme,
puisque :
χu = X n − (tr u) X n−1 + · · · + (−1)n det u.

Autre formulation Si sp(u) = {λ1 , . . . , λp } , avec λ1 , . . . , λp distincts deux à deux :


p
 p
 m(λi )
tr u = m(λi )λi et det u = λi .
i=1 i=1

Remarques
• Tout endomorphisme d’un espace vectoriel complexe de dimension finie a un po-
lynôme caractéristique scindé puisque tout polynôme non nul de C [X] est scindé.
• Il existe des endomorphismes d’espace vectoriel réel de dimension finie dont le
polynôme caractéristique n’est pas scindé.
Par exemple, la rotation d’angle θ �≡ 0 [π] du plan euclidien IR2 , de matrice, dans
la base canonique :
 
cos θ − sin θ
R(θ) =
sin θ cos θ
a pour polynôme caractéristique :
X 2 − 2X cos θ + 1.
Il n’est donc pas scindé sur IR, puisque ses racines eiθ et e−iθ sont non réelles.

108
III Diagonalisation

III Diagonalisation
Dans cette section, u ∈ L(E) où E est supposé de dimension finie n, et A ∈ Mn (IK).
1 Définitions et premières propriétés
Définition 7
• L’endomorphisme u est dit diagonalisable s’il existe une base de E dans la-
quelle la matrice de u est diagonale.
Une telle base s’appelle une base de diagonalisation de u .
• La matrice A est dite diagonalisable si elle est semblable à une matrice diago-
nale, c’est-à-dire s’il existe D diagonale et P inversible telles que A = P DP −1 .

Reformulation Autrement dit, u est diagonalisable si, et seulement s’il existe une
base de E constituée de vecteurs propres de u .

Proposition 23
Si A représente u , elle est diagonalisable si, et seulement si, u est diagonalisable.

Démonstration. Supposons que A soit la matrice de u dans une certaine base B de E .


• Si u est diagonalisable, il existe une base B′ de E dans laquelle la matrice D de u est
diagonale et donc les matrices A et D sont semblables comme matrices d’un même endo-
morphisme.
• Supposons A diagonalisable et prenons une matrice D diagonale et une matrice P inversible
telles que A = P DP −1 . Considérons alors la base B′ de E telle que MatB (B′ ) = P . Les
formules de changement de base nous disent que la matrice de u dans B′ est P −1 AP ,
c’est-à-dire D . Donc u est diagonalisable.

Corollaire 24
La matrice A est diagonalisable si, et seulement si, son endomorphisme canonique-
ment associé est diagonalisable.

Terminologie
• Diagonaliser un endomorphisme u de E signifie trouver une base de E dans
laquelle la matrice de u est diagonale, c’est-à-dire une base de E constituée de
vecteurs propres pour u .
• Diagonaliser une matrice signifie diagonaliser son endomorphisme canonique-
ment associé, ce qui revient à trouver une matrice D diagonale et une matrice P
inversible telles que A = P DP −1 .

Point méthode Soit A ∈ Mn (IK) diagonalisable et (E1 , . . . , En ) une base de IKn


constituée de vecteurs propres de A associés aux valeurs propres λ1 , . . . , λn .
Si l’on pose P la matrice dont les colonnes sont E1 , . . . , En , alors :
A = P DP −1 où D = Diag (λ1 , . . . , λn ) .

109
Chapitre 3. Réduction des endomorphismes

Ex. 23. Une matrice est diagonalisable si, et seulement si, sa transposée est diagonalisable.
En effet, si A est diagonalisable, il existe P inversible et D diagonale telles que A = P DP −1 .
T
Alors AT = (P −1 ) DT P T = (P T )−1 DT P T est semblable à la matrice diagonale DT = D ,
donc est diagonalisable.
La réciproque s’obtient en appliquant cela à la matrice AT .

Proposition 25
Si E est de dimension n et si u ∈ L(E) possède n valeurs propres distinctes,
alors u est diagonalisable et chaque sous-espace propre est de dimension 1 .
De même, si A ∈ Mn (IK) possède n valeurs propres distinctes, alors A est diago-
nalisable et chaque sous-espace propre est de dimension 1 .
Démonstration page 123
 
1 2 3
Ex. 24. La matrice A = 0 4 5 est diagonalisable. En effet, son polynôme caractéris-
0 0 6
tique est (X − 1)(X − 4)(X − 6) , donc A admet trois valeurs propres distinctes.

Attention Il ne s’agit bien que d’une condition suffisante pour que u soit diagona-
lisable. La proposition suivante donne une caractérisation qui peut être utile dans le
cas où le nombre de valeurs propres est strictement inférieur à la dimension de E .
Proposition 26
Les propriétés suivantes sont équivalentes :
(i) l’endomorphisme u est diagonalisable,

(ii) Eλ (u) = E ,
λ∈sp(u)

(iii) dim Eλ (u) = dim E .
λ∈sp(u)
Démonstration page 123
Corollaire 27
Il y a équivalence entre :
(i) la matrice A est diagonalisable,

(ii) Eλ (A) = IKn ,
λ∈sp(A)

Exo (iii) dim Eλ (A) = n.
3.15 λ∈sp(A)

Ex. 25. Un projecteur p de E est diagonalisable.


• Si p = 0 ou p = IdE , c’est immédiat.
• Sinon, on sait que sp(p) = {0, 1} et l’on a E0 (p) ⊕ E1 (p) = E .
L’exemple 30 de la page 112 montre comment éviter de traiter les cas particuliers.
Ex. 26. Si u ∈ L(E) admet λ pour unique valeur propre, u est diagonalisable si, et seulement
si, le sous-espace propre associé est égal à E , c’est-à-dire si, et seulement si, u = λ IdE .

110
III Diagonalisation

De même, si A ∈ Mn (IK) admet λ pour unique valeur propre, elle est diagonalisable si, et
seulement si, son endomorphisme canoniquement associé est égal à λ IdIKn , c’est-à-dire si, et
seulement si, A = λIn .
Ex. 27. En particulier un endomorphisme nilpotent (respectivement une matrice nilpotente)
n’est diagonalisable que s’il (elle) est nul(le).
Ex. 28. De même, si A ∈ Mn (IK) est triangulaire de termes diagonaux tous égaux à λ , alors
son polynôme caractéristique est égal à (X − λ)n . La matrice A admet donc λ pour unique
valeur propre ; elle n’est par conséquent diagonalisable que si A = λIn .

Remarque Les sous-espaces propres étant en somme directe, la somme de leurs


dimensions est majorée par la dimension de E .

Point méthode Pour montrer qu’un endomorphisme d’un espace vectoriel de di-
mension n, ou une matrice de taille n, est diagonalisable, il suffit de montrer que
la somme des dimensions de ses sous-espaces propres est supérieure ou égale à n.
 
0 1 0 0
 1 k 1 1 
Ex. 29. Considérons la matrice complexe A =  .
0 1 0 0 
0 1 0 0
Notons u l’endomorphisme de C4 associé à la matrice A dans la base canonique (e1 , e2 , e3 , e4 ) .
Par lecture de la matrice A , une base de l’image de u est (e2 , e0 ) , où e0 = e1 + ke2 + e3 + e4 .
Dans une base de C4 obtenue en complétant (e2 , e0 ) , l’endomorphisme u a pour matrice :
 
0 3
1 k

M = ,
0 0
2 2
donc le polynôme caractéristique de u est X (X − kX − 3) .
Le sous-espace propre associé à la valeur propre 0 est de dimension 4 − 2 = 2 puisque u est de
rang 2 .
• Si k vérifie k2 + 12 �= 0, le trinôme X 2 − kX − 3 a deux racines λ1 et λ2 distinctes
non nulles. Les sous-espaces propres associés étant de dimension supérieure ou égale à 1, la
matrice A est diagonalisable puisque la somme des dimensions des sous-espaces propres est
supérieure ou égale à 4 .
√ k
• Si k est égal à ±2i 3, le trinôme X 2 − kX − 3 a une seule racine λ = ·
2
Le sous-espace propre est obtenu en résolvant :

 −λx + y = 0

x + (k − λ)y + z + t = 0

 y − λz = 0
y − λt = 0.
 
1
 λ 
Il est de dimension 1 , engendré par  . La dimension de la somme des sous-espaces
1 
1
propres valant 3, la matrice A n’est pas diagonalisable.

111
Chapitre 3. Réduction des endomorphismes

Remarque Si E est somme de sous-espaces vectoriels stables E1 , . . . , Ep sur chacun


desquels u induit une homothétie, alors u est diagonalisable.
En effet, en prenant dans chaque Ei des vecteurs en constituant une base, on obtient
une famille génératrice de E , constituée de vecteurs propres, de laquelle on peut
extraire une base de E .

Ex. 30. Si p est un projecteur de E , on sait que l’on a E = E0 (p) ⊕ E1 (p) , avec pE0 (p) = 0
et pE1 (p) = IdE1 (p) , donc p est diagonalisable.
De même, toute symétrie s de E est diagonalisable puisque E = E1 (s) ⊕ E−1 (s) .
 
Ex. 31. Soit f ∈ L Mn (IK) défini par f (A) = A + tr(A)In .
• Considérons l’hyperplan H noyau de la forme linéaire trace. On a immédiatement f|H = IdH .
• D’autre part, f (In ) = (n + 1)In , donc la droite D = Vect(In ) est stable par l’endomor-
phisme f et f|D = (n + 1) IdD .
Comme Mn (IK) = D + H , l’endomorphisme f est diagonalisable.

2 Utilisation du polynôme caractéristique


Les valeurs propres étant les racines du polynôme caractéristique, la proposition 25
de la page 110 se réécrit :
Proposition 28
Si le polynôme caractéristique de u (respectivement de A) est scindé à racines
simples, alors u (respectivement A) est diagonalisable.

Terminologie Un polynôme scindé à racines simples est dit aussi simplement scindé.

Attention Il faut bien noter que le résultat précédent ne fournit qu’une condition
suffisante pour que u soit diagonalisable comme le montre, par exemple, le cas d’une
homothétie.
Le théorème qui suit donne une condition nécessaire et suffisante.
Théorème 29
Pour que u soit diagonalisable, il faut et il suffit qu’il vérifie les deux conditions
suivantes :
• son polynôme caractéristique χu est scindé sur IK ;
• pour toute valeur propre de u , la dimension du sous-espace propre associé est
égale à l’ordre de multiplicité de cette valeur propre, c’est-à-dire :
∀λ ∈ sp(u) dim Eλ (u) = m(λ).

On a le même résultat pour une matrice A ∈ Mn (IK).


 Démonstration page 123
Principe de démonstration. On écrit χu = Q (X − λ)m(λ) , où Q n’a pas de racine
λ∈sp(u)

dans IK et l’on utilise le fait que dim Eλ (u)  m(λ) , pour tout λ ∈ sp(u) .

112
III Diagonalisation

Remarque Si λ est valeur propre simple, on a toujours dim Eλ (u) = m(λ) car :
Eλ (u) �= {0} et dim Eλ (u)  m(λ) = 1.
Dans la caractérisation précédente, on peut donc se limiter aux sous-espaces propres
associés à des valeurs propres multiples.

Point méthode Pour savoir si un endomorphisme u est diagonalisable, on peut


calculer son polynôme caractéristique.
• S’il n’est pas scindé, alors u n’est pas diagonalisable.
• Sinon, pour toute valeur propre multiple, on compare dim Eλ (u) et m(λ) (par
exemple en calculant le rang de u − λ IdE ).
 
1 a b
Ex. 32. Soit A = 0 1 c ∈ M3 (IK) . Donnons une condition nécessaire et suffisante
0 0 −1
portant sur (a, b, c) ∈ IK3 pour que la matrice A soit diagonalisable.
On a χA = (X − 1)2 (X + 1) ; ainsi χA est scindé, −1 est valeur propre simple et 1 est valeur
propre double. La matrice A est diagonalisable si, et seulement si, dim E1 (A) = 2 .
En appliquant le théorème du rang, cela équivaut à rg (A − I3 ) = dim(IK3 ) − 2 = 1 .
 
0 a b
Comme A−I3 = 0 0 c , on a rg (A − I3 ) = 1 si, et seulement si, la deuxième colonne
0 0 −2
est proportionnelle à la dernière, ce qui équivaut à a = 0 .

3 Utilisation d’un polynôme annulateur


À lui seul, le polynôme caractéristique ne peut permettre de montrer que u est dia-
gonalisable que s’il est scindé à racines simples. Sinon, on a besoin d’étudier en plus
la dimension des sous-espaces propres.
Le théorème suivant donne une condition nécessaire et suffisante pour être diagonali-
sable, en utilisant cette fois-ci les polynômes annulateurs.
Théorème 30
L’endomorphisme u est diagonalisable si, et seulement s’il possède un polynôme
annulateur scindé à racines simples.
On a le même résultat pour A ∈ Mn (IK).
 Démonstration page 123
Principe de démonstration. Considérer le polynôme P = (X − λ) pour le sens
λ∈sp(u)
direct et utiliser le lemme de décomposition des noyaux pour la réciproque.

Ex. 33. On retrouve que les projecteurs et les symétries sont diagonalisables puisque annulés
respectivement par les polynômes X 2 − X et X 2 − 1 scindés à racines simples.
Ex. 34. Une matrice carrée est diagonalisable si, et seulement si, sa transposée l’est.
En effet, si A est diagonalisable, on peut donc trouver un polynôme P scindé à racines simples
tel que P (A) = 0 et alors P (AT ) = P (A)T = 0 , ce qui prouve que AT est diagonalisable.
La réciproque s’obtient en appliquant ce résultat à AT .

113
Chapitre 3. Réduction des endomorphismes

Ex. 35. Soit σ ∈ Sn . Considérons la matrice Aσ ∈ Mn (C) dont tous les coefficients sont nuls
 
excepté ceux d’indices σ(j), j qui sont égaux à 1 . L’endomorphisme uσ associé à Aσ dans
la base canonique (e1 , . . . , en ) de Cn vérifie : ∀j ∈ [[1, n]] uσ (ej ) = eσ(j) .
Soit k ∈ IN . Il est donc clair que ukσ (ej ) = eσ k (j) pour tout j ∈ [[1, n]] , ce qui prouve
que ukσ = uσ k . Comme σ appartient au groupe fini Sn , il est d’ordre fini et il existe donc N ∈ IN∗
tel que σ N = Id[[1,n]] . Cela prouve que uN
σ = IdCn et donc que uσ est annulé par le polynôme

scindé à racines simples X N − 1 (ses racines sont les N racines N -ièmes de l’unité).
Ainsi, uσ est diagonalisable, et donc aussi Aσ .
 
A C
Ex. 36. Soit M = une matrice triangulaire par blocs. Supposons M diagonalisable
0 B
et montrons qu’il en est de même de A et B .
Considérons un polynôme P scindé simple annulateur de M . Par opérations par blocs, on a :
 
P (A) ∗
0 = P (M ) = .
0 P (B)

Ainsi A et B sont annulées par le polynôme P scindé simple, donc sont diagonalisables.

Corollaire 31
L’endomorphisme u est diagonalisable si, et seulement si, son polynôme minimal
est scindé à racines simples.
On a le même résultat pour A ∈ Mn (IK).

Proposition 32
Exo Soit u ∈ L(E) diagonalisable et F un sous-espace vectoriel de E stable par u .
3.16 L’endomorphisme induit par u sur F est alors diagonalisable.

Démonstration. D’après le théorème 30, u admet un polynôme annulateur P scindé à racines


simples. Il est clair que P (uF ) = 0 , donc, d’après le même théorème, uF est diagonalisable.

 
A C
Ex. 37. Retrouvons que si la matrice M = de l’exemple 36 est diagonalisable,
0 B
alors A et B sont diagonalisables.
• La matrice A ∈ Mp (IK) représente l’endomorphisme induit, sur le sous-espace vectoriel en-
gendré par les p premiers vecteurs de la base canonique, par l’endomorphisme canoniquement
associé à M . Donc, par la proposition 32, elle est diagonalisable.
• Pour B , ce n’est pas aussi facile car elle n’est pas directement la matrice d’un endomor-
phisme induit. Mais on peut faire le même raisonnement que précédemment avec la transpo-
 T 
A 0
sée M T = pour montrer que B T est diagonalisable et utiliser le résultat de
C T BT
l’exemple 34 de la page précédente.

114
IV Trigonalisation

IV Trigonalisation
Dans cette section, u ∈ L(E) où E est supposé de dimension finie n, et A ∈ Mn (IK).
1 Définitions
Définition 8
• L’endomorphisme u est dit trigonalisable s’il existe une base de E dans la-
quelle la matrice de u est triangulaire supérieure.
Une telle base s’appelle une base de trigonalisation de u .
• La matrice A est dite trigonalisable si elle est semblable à une matrice trian-
gulaire supérieure.

Interprétation géométrique
Dire que la matrice de u dans une base B = (e1 , . . . , en ) est triangulaire supérieure
revient à dire que, pour tout i ∈ [[0, n]], le sous-espace vectoriel Vect (e1 , . . . , ei ) est
stable par u .
Donc l’endomorphisme u est trigonalisable si, et seulement s’il existe des sous-espaces
vectoriels F0 , . . . , Fn de E , stables par u , tels que :
∀i ∈ [[0, n]] dim Fi = i et ∀i ∈ [[1, n]] Fi−1 ⊂ Fi .

Terminologie
• Trigonaliser un endomorphisme u signifie trouver une base dans laquelle la ma-
trice de u est triangulaire supérieure.
• Trigonaliser une matrice signifie trigonaliser son endomorphisme canoniquement
associé, ce qui revient à trouver une matrice T triangulaire supérieure et une
matrice P inversible telles que A = P T P −1 .

Ex. 38. Supposons IK = IR et E euclidien. Soit u un endomorphisme trigonalisable de E .


Considérons une base B = (e1 , . . . , en ) de trigonalisation de u. Par le procédé d’orthonormalisation
de Gram-Schmidt, on peut alors trouver une base orthonormée C = (f1 , . . . , fn ) de E telle que :

∀i ∈ [[1, n]] Vect(e1 , . . . , ei ) = Vect(f1 , . . . , fi ).

D’après l’interprétation ci-dessus, la matrice de u est alors également triangulaire supérieure dans
la base C . Autrement dit, un endomorphisme trigonalisable de E peut être trigonalisé dans une
base orthonormée.

Proposition 33
Si A représente u , elle est trigonalisable si, et seulement si, u est trigonalisable.

Démonstration. Comme pour la proposition 23 de la page 109 en remplaçant « diagonali-


sable » et « diagonale » respectivement par « trigonalisable » et « triangulaire supérieure ».

Corollaire 34
La matrice A est trigonalisable si, et seulement si, son endomorphisme canonique-
ment associé est trigonalisable.

115
Chapitre 3. Réduction des endomorphismes

Remarque On aurait pu aussi choisir la forme triangulaire inférieure. En effet, si la


matrice de u ∈ L(E) dans la base (e1 , e2 , . . . , en ) est triangulaire supérieure, alors la
matrice de u dans la base (en , en−1 , . . . , e1 ) est triangulaire inférieure (attention : ce
n’est pas la transposée !).

Point méthode
• Une base de trigonalisation commençant par un vecteur propre, pour trigonaliser
un endomorphisme u , on commence souvent par compléter un vecteur propre
de u en une base de E , base dans laquelle la matrice de u est donc de la forme :
 
λ L
∈ Mn (IK) où A ∈ Mn−1 (IK) et L ∈ M1,n−1 (IK).
0 A

• Il suffit alors de montrer que l’on peut prendre A triangulaire supérieure pour
conclure. Comme la matrice A n’est pas a priori la matrice d’un endomorphisme
induit par u , on raisonne le plus souvent matriciellement en trigonalisant la
matrice A.

Remarques
• La démonstration du théorème 35 est une illustration de cette méthode.
• Il peut être parfois plus intéressant d’utiliser la forme suivante :
 
λIp B
où A ∈ Mn−p (IK) et B ∈ Mp,n−p (IK)
0 A
en complétant une base du sous-espace propre Eλ (u) en une base de E .

2 Utilisation du polynôme caractéristique


Théorème 35
Exo Un endomorphisme u ∈ L(E) est trigonalisable si, et seulement si, son polynôme
3.28 caractéristique est scindé sur IK .

Remarque De plus on voit, en adaptant la démonstration ci-dessous, que quel que


soit l’ordre dans lequel on écrit la liste (λ1 , . . . , λn ) des valeurs propres de u , comptées
avec ordre de multiplicité, on peut trouver une base de E dans laquelle la matrice
de u est triangulaire supérieure avec (λ1 , . . . , λn ) pour diagonale.
Démonstration. D’après la proposition 33 de la page précédente, il est équivalent d’établir
le résultat pour les matrices ou pour les endomorphismes.

• Si A ∈ Mn (IK) est trigonalisable, alors son polynôme caractéristique est égal à celui d’une
matrice triangulaire supérieure ; il est donc scindé sur IK , d’après la proposition 16 de la
page 102.
• Montrons la réciproque par récurrence. Posons, pour n ∈ IN∗ :
Hn : « Tout endomorphisme d’un IK -espace vectoriel de dimension n dont le
polynôme caractéristique est scindé est trigonalisable. »
Hn′ : « Toute matrice de Mn (IK) dont le polynôme caractéristique est scindé est
trigonalisable. »

116
IV Trigonalisation

Il est clair que les deux énoncés Hn et Hn′ sont équivalents, ce qui, pour l’hérédité, nous
permettra de montrer l’implication Hn′ ⇒ Hn+1 .
Initialisation : H1 est immédiat.
Hérédité : Soit n  1 ; supposons Hn′ . Soit E un IK -espace vectoriel de dimension n + 1
et u ∈ L(E) tel que χu soit scindé. Utilisons le point méthode de la page ci-contre.
Comme χu est scindé de degré n + 1  1 , il possède une racine. Par conséquent, il
existe λ ∈ sp(u) . Prenons un vecteur propre associé et complétons-le en une base B
de E de sorte que :
 
λ L
MatB (u) = avec L ∈ M1,n (IK) et A ∈ Mn (IK).
0 A

Le calcul du polynôme caractéristique de cette matrice triangulaire par blocs


donne χu = (X − λ) χA . Comme χu est scindé sur IK , on en déduit que χA l’est
également.
D’après Hn′ , il existe donc P ∈ GLn (IK) tel que P −1 AP soit triangulaire supérieure.
 
1 0
Notons Q = . Il s’agit d’une matrice inversible de Mn+1 (IK) dont l’inverse
0 P
 
1 0
est Q−1 = (il suffit de vérifier que le produit vaut In+1 ).
0 P −1
Un produit par blocs donne alors :
   
−1 1 0 λ L 1 0
Q MatB (u)Q =
0 P −1 0 A 0 P
    
λ L 1 0 λ LP
= = .
0 P −1 A 0 P 0 P −1 AP

Ainsi Q−1 MatB (u)Q , qui est la matrice de u dans une certaine base de E , est triangulaire
supérieure, ce qui permet de conclure que u est trigonalisable. Cela prouve Hn+1 .

Ex. 39. Comme une matrice et sa transposée ont même polynôme caractéristique, on en déduit
qu’une matrice A est trigonalisable si, et seulement si, AT est trigonalisable.
Ex. 40. Si u est trigonalisable et si F est un sous-espace vectoriel de E stable par u , alors
l’endomorphisme induit uF est aussi trigonalisable.
En effet, le polynôme caractéristique de uF divise celui de u qui est scindé. Ainsi, le polynôme
caractéristique de uF est scindé donc uF est trigonalisable.

Corollaire 36
Si E est un C -espace vectoriel de dimension finie, alors tout endomorphisme de E
est trigonalisable.
Toute matrice carrée à coefficients dans C est trigonalisable sur C.

Démonstration. Le théorème de d’Alembert-Gauss nous dit que le polynôme caractéristique


est scindé, ce qui permet de conclure d’après le théorème 35 de la page précédente.

117
Chapitre 3. Réduction des endomorphismes
 
0 3 3
Ex. 41. Soit A = −1 8 6 .
2 −14 −10
On peut remarquer que l’on a C3 − C2 = 2C1 , donc que A n’est pas inversible.
• Calculons χA . Soit λ ∈ IK . L’opération C2 ← C2 + 2C1 − C3 donne :
   
 λ 2λ −3   λ 2 −3 
   
χA (λ) =  1 λ −6  = λ 1 1 −6 .
 −2 −λ λ + 10   −2 −1 λ + 10 

Les opérations élémentaires L1 ← L1 − 2L2 et L3 ← L3 + L2 , puis un développement par


rapport à la deuxième colonne, donnent :
   
 λ−2 0 9   λ−2 
  9
χA (λ) = λ  1 1 −6  = λ  −1 λ + 4  = λ (λ + 1)2 .

 −1 0 λ+4 

Une liste de valeurs propres de A est donc (0, −1, −1) . Comme la matrice :
 
1 3 3
A + I3 = −1 9 6
2 −14 −9

n’est pas de rang 1 , on a dim E−1 (A) �= 2 = m(−1) . D’après le théorème 29 de la page 112,
la matrice A n’est pas diagonalisable.
• Comme χA est scindé, la matrice A est trigonalisable, d’après le théorème 35 de la page 116.
En étudiant les systèmes AX = 0 et AX = −X , on obtient facilement que :
   
2 3
E0 (A) = Vect(u) avec u= 1 et E−1 (A) = Vect(v) avec v= 3 .
−1   −4
1
3
On peut compléter (u, v) en une base de IK à l’aide de w = 0 .
  0
2 3 1
En notant P = 1 3 0 , la matrice de passage de la base canonique de IK3 à la
−1 −4 0
base (u, v, w) , il existe (α, β, γ) ∈ IK3 tel que :
 
0 0 α
−1
P AP = 0 −1 β avec γ = −1 puisque tr A = −2 .
0 0 γ
 
0 4 3
−1
On pourrait alors calculer P = 0 −1 −1 pour obtenir P −1 AP mais il est plus
1 −5 −3
 
0
simple d’écrire Aw = −1 = 2u − v − w (par résolution d’un système) pour en dé-
2
duire la matrice, dans la base (u, v, w) , de l’endomorphisme canoniquement associé à A ,
 
0 0 2
−1
soit P AP = 0 −1 −1 .
0 0 −1

118
IV Trigonalisation

3 Théorème de Cayley-Hamilton
Théorème 37 (Théorème de Cayley-Hamilton)
Le polynôme caractéristique de u annule u , c’est-à-dire χu (u) = 0 .
De même, si A ∈ Mn (IK), alors χA (A) = 0 .
Démonstration (non exigible) page 124
Corollaire 38
Le polynôme minimal d’un endomorphisme d’un espace vectoriel de dimension fi-
nie n est de degré inférieur ou égal à n.
On a le même résultat pour une matrice carrée de taille n.

Démonstration. En effet, le polynôme minimal, qui divise tout polynôme annulateur, divise
le polynôme caractéristique qui est de degré n .

4 Utilisation d’un polynôme annulateur


Remarque Rappelons qu’un polynôme scindé est non nul par définition.
Théorème 39
L’endomorphisme u est trigonalisable si, et seulement s’il possède un polynôme
annulateur scindé.
On a le même résultat pour A ∈ Mn (IK).
Démonstration page 124
Principe de démonstration.
• Si u est trigonalisable, son polynôme caractéristique est scindé, et il est annulateur d’après
le théorème de Cayley-Hamilton.
• Pour la réciproque, on procède par récurrence, à l’aide du point méthode de la page 116.
Corollaire 40
L’endomorphisme u est trigonalisable si, et seulement si, son polynôme minimal est
scindé.
On a le même résultat pour A ∈ Mn (IK).

Cas des endomorphismes nilpotents


Proposition 41
• Un endomorphisme est nilpotent si, et seulement s’il est trigonalisable et toutes
ses valeurs propres sont nulles.
• Une matrice est nilpotente si, et seulement si, elle est semblable à une matrice
triangulaire supérieure stricte.

Démonstration.
• Un endomorphisme nilpotent est annulé par un polynôme scindé de la forme X k , donc est
trigonalisable d’après le théorème 39. D’autre part, d’après la proposition 12 de la page 99,
ses valeurs propres sont racines de X k , donc sont toutes nulles.
• Soit u un endomorphisme trigonalisable ayant toutes ses valeurs propres nulles. Son polynôme
caractéristique est donc X n et d’après le théorème de Cayley-Hamilton, on a donc un = 0 ,
ce qui prouve que u est nilpotent.
Le deuxième résultat est la traduction matricielle de ce que l’on vient de montrer.

119
Chapitre 3. Réduction des endomorphismes

Remarque En particulier, une matrice triangulaire supérieure stricte est nilpotente.

Corollaire 42
• Si dim E = n, un endomorphisme de E est nilpotent si, et seulement si, son
polynôme caractéristique est X n .
• Une matrice A ∈ Mn (IK) est nilpotente si, et seulement si, son polynôme ca-
ractéristique est X n .

Démonstration. C’est une reformulation de la proposition précédente en utilisant le théo-


rème 35 de la page 116.

5 Sous-espaces caractéristiques
Théorème 43

Soit u ∈ L(E) dont le polynôme caractéristique χu = (X −λ)m(λ) est scindé.
λ∈sp(u)
On a la décomposition :

E= Ker(u − λ IdE )m(λ) .
λ∈sp(u)

Démonstration. D’après le théorème de Cayley-Hamilton, on a χu (u) = 0 et le lemme


de décomposition des noyaux donne alors le résultat puisque les polynômes (X − λ)m(λ) sont
premiers entre eux deux à deux.

Terminologie Les sous-espaces vectoriels Fλ = Ker(u−λ IdE )m(λ) , pour λ ∈ sp(u),


sont appelés sous-espaces caractéristiques de l’endomorphisme u .
Soit λ ∈ sp(u). Comme noyau d’un polynôme en u , Fλ est stable par u et l’endo-
morphisme uλ induit par u sur Fλ vérifie (uλ − λ IdFλ )m(λ) = 0 . Ainsi, uλ est la
somme de l’homothétie de rapport λ et d’un endomorphisme nilpotent.
Remarque Soit πu le polynôme minimal d’un tel endomorphisme. Il divise χu donc

est de la forme πu = (X − λ)n(λ) , avec n(λ)  m(λ) pour tout λ ∈ sp(u). On
λ∈sp(u)
a donc également :

E= Ker(u − λ IdE )n(λ) .
λ∈sp(u)

Proposition 44
Pour toute valeur propre λ, la dimension de Fλ est l’ordre de multiplicité de λ.
Démonstration page 125

Corollaire 45
Soit u ∈ L(E) dont le polynôme caractéristique est scindé. Il existe une base de E
dans laquelle la matrice de u est diagonale par blocs, chaque bloc étant triangulaire
à coefficients diagonaux égaux.

Démonstration. Dans chaque sous-espace caractéristique Fλ , on choisit une base de trigo-


nalisation de l’endomorphisme nilpotent induit par u − λ IdE sur Fλ .

120
IV Trigonalisation

Ex. 42. Soit u l’endomorphisme de E = IR3 canoniquement associé à la matrice :


� �
0 −3 −5
A= −1 0 −3 ∈ M3 (IR).
1 2 5
Le calcul du polynôme caractéristique de A donne χA = (X − 1)(X − 2)2 .
� � � �
−1 −3 −5 −2
• A − I3 = −1 −1 −3 dont un vecteur du noyau est e1 = −1 .
1 2 4 1
� �
−2 −3 −5
• A − 2I3 = −1 −2 −3 est de rang 2 (elle est de rang strictement inférieur à 3
1 2 3
puisque 2 est une valeur propre et de rang au moins 2 puisque ses colonnes ne sont pas
proportionnelles). Cela prouve que E2 (A) est de dimension 1 , donc en particulier que A
� �
−1
n’est pas diagonalisable. Le sous-espace vectoriel E2 (A) est engendré par e2 = −1 .
1
D’après la proposition 44 de la page ci-contre, les sous-espaces caractéristiques de u sont
donc F1 = Ker(u − IdE ) de dimension 1 (valeur propre simple) et F2 = Ker(u − 2 IdE )2
de dimension 2 (valeur propre double). Il existe donc une base (e1 , e2 , e3 ) de E dans laquelle
 
1 0 0
la matrice de u est  0 2 α  , avec α ∈ IR . Comme A n’est pas diagonalisable, α est
0 0 2
1
non nul et, quitte à remplacer e3 par e ,
α 3
on peut donc prendre α = 1 .
Déterminons une telle base. Il reste donc à trouver un vecteur e3 vérifiant u(e3 ) = 2e3 + e2 , ce
qui revient à résoudre le système (A − 2I3 )X = e2 , c’est-à-dire :

−2x − 3y −5z = −1
−x − 2y −3z = −1
x + 2y +3z = 1.
Une solution est, par exemple, x = −1 , y = 1 , z = 0 . Un tel vecteur e3 est dans F2
puisque (u−2 IdE )2 (e3 ) = (u−2 IdE )(e2 ) = 0 et il est indépendant de e2 puisque u(e3 ) �= 2e3 .
Comme F1 ∩ F2 = {0} , cela montre que (e1 , e2 , e3 ) est libre. On a donc :
� � � �
1 0 0 −2 −1 −1
−1
A = PTP avec T = 0 2 1 et P = −1 −1 1 .
0 0 2 1 1 0
Ex. 43. Supposons χu scindé. Le corollaire 45 de la page précédente nous fournit une base B
de E dans laquelle la matrice de u est A = Diag(T1 , . . . , Tr ) , où chaque matrice Ti est somme
d’une matrice scalaire Di et d’une matrice triangulaire supérieure stricte Ni .
En prenant D = Diag(D1 , . . . , Dr ) et N = Diag(N1 , . . . , Nr ) , on obtient A = D + N , avec D
diagonale et N triangulaire supérieure stricte, donc nilpotente.
De plus, pour tout i ∈ [[1, r]] , on a Di Ni = Ni Di puisque Di est scalaire. Donc, par produit
de matrices diagonales par blocs, cela donne DN = N D .
En notant d (respectivement n ) l’endomorphisme de E dont la matrice dans B est D (respec-
tivement N ), on obtient u = d + n , avec d diagonalisable, n nilpotent commutant avec d .
L’exercice 3.35 montre l’unicité d’un tel couple (d, n) . Cette décomposition u = d + n s’appelle
la décomposition de Dunford de u .

121
Chapitre 3. Réduction des endomorphismes

Démonstrations
Proposition 1 Soit u et v deux endomorphismes qui commutent.
Soit λ une valeur propre de u ; comme u et v commutent, il en est de même de u − λ IdE
et v . D’après la proposition 11 de la page 57, Eλ (u) = Ker(u − λ IdE ) est stable par v .

Proposition 3 Les polynômes (X − λ1 ), . . . , (X − λp ) sont premiers entre eux deux à deux puis-
qu’irréductibles, unitaires et distincts. En posant P = (X − λ1 ) · · · (X − λp ) , le lemme de
décomposition des noyaux donne :

Ker P (u) = Ker(u − λi IdE )
i∈[[1,p]]

ce qui montre que les sous-espaces propres Eλi (u) = Ker(u − λi IdE ) sont en somme directe.
Proposition 13
• On sait, d’après la proposition 12, que toute valeur propre de u est racine de πu .
• Réciproquement, soit µ une racine de πu .
On peut alors écrire πu = (X − µ) P , avec 0  deg(P ) < deg (πu ) . Par minimalité
de πu , le polynôme P n’est pas annulateur de u , donc P (u) �= 0 et il existe x ∈ E
 
tel que y = P (u)(x) �= 0 . Alors, u(y) − µy = (u − µ IdE ) P (u)(x) = πu (u)(x) = 0 , ce
qui prouve que µ est valeur propre de u .
Proposition 14 Soit A = (ai,j )1i,jn . Le déterminant de la matrice (λIn − A) étant donné par :
    
ε(σ) λδσ(1),1 − aσ(1),1 · · · λδσ(n),n − aσ(n),n ,
σ∈Sn

la fonction λ �→ det (λIn − A) est polynomiale de degré inférieur ou égal à n .


Soit σ ∈ Sn différente de l’identité. Il existe alors au moins deux éléments distincts i et j
de [[1, n]] tels que δσ(i),i et δσ(j),j soient nuls et le terme :
   
ε(σ) Xδσ(1),1 − aσ(1),1 · · · Xδσ(n),n − aσ(n),n
est de degré inférieur ou égal à n − 2 . Les termes de degré n et n − 1 de χA sont donc ceux
du produit qui correspond à σ = Id[[1,n]] :
(X − a1,1 ) · · · (X − an,n ) ,
n
soit respectivement X et − (a1,1 + · · · + an,n ) X n−1 = − tr(A)X n−1 .
On obtient finalement le terme constant de χA en évaluant en 0 .

Proposition 19 Soit p la dimension de F et B = (e1 , . . . , en ) une base de E adaptée à F


c’est-à-dire telle que BF = (e1 , . . . , ep ) soit une base de F .
 
A B
La matrice de u dans B est alors de la forme , où A est la matrice de uF dans la
0 D
base BF . Le polynôme caractéristique de u , égal à χA χD (cf. exemple 15 de la page 102), est
donc divisible par le polynôme caractéristique χA de uF .

Proposition 20 Notons n(λ) la dimension du sous-espace propre Eλ (u) .


Comme Eλ (u) est non réduit à {0} , on a 1  n(λ) . De plus, Eλ (u) est stable par u et l’en-
domorphisme induit par u sur Eλ (u) est l’homothétie λ IdEλ (u) ; son polynôme caractéristique
vaut donc (X − λ)n(λ) . D’après la proposition 19, il divise χu (X) , ce qui donne n(λ)  m(λ) .

122
Démonstrations

Proposition 25 Supposons que u possède n valeurs propres λ1 , . . . , λn distinctes.


Pour chaque i ∈ [[1, n]] , il existe un vecteur propre ei associé à λi , et les vecteurs e1 , . . . , en sont
linéairement indépendants puisque ce sont des vecteurs propres associés à des valeurs propres dis-
tinctes (cf. corollaire 4 de la page 95). Donc (e1 , . . . , en ) est une base de E , puisque dim E = n ,
constituée de vecteurs propres pour u , ce qui prouve que u est diagonalisable.

Comme E = Eλ (u) et que les sous-espaces propres sont de dimension au moins 1 , on en
λ∈sp(u)

déduit card sp(u)  dim E = n , ce qui prouve qu’il n’y a pas d’autre valeur propre que les λi

n
et que les sous-espaces propres sont des droites puisque dim Eλi (u) = n .
i=1

Proposition 26

• Supposons (i) . Puisqu’il existe une base de E constituée de vecteurs propres de u , la somme

directe Eλ contient une base de E , ce qui implique (ii) .
λ∈sp(u)

• La somme Eλ étant directe d’après la proposition 3 de la page 95, on a :
λ∈sp(u)

   
dim Eλ (u) = dim Eλ (u).
λ∈sp(u) λ∈sp(u)

On en déduit que (ii) ⇒ (iii) .


• Supposons (iii) . En concaténant des bases de chaque sous-espace propre de u , on obtient une
famille libre de E , puisque les sous-espaces propres sont en somme directe (cf. proposition 3
de la page 95). Cette famille libre est constituée de dim E vecteurs de E . Il s’agit ainsi d’une
base de E constituée de vecteurs propres de u ; cela prouve (i) .

Théorème 29 Écrivons χu = Q (X − λ)m(λ) , où Q n’a pas de racine dans IK . On a :
λ∈sp(u)

 
dim Eλ (u)  m(λ) = dim E − deg Q.
λ∈sp(u) λ∈sp(u)


L’endomorphisme u est diagonalisable si, et seulement si, dim Eλ (u) = dim E d’après la
λ∈sp(u)

proposition 26 de la page 110, c’est-à-dire si, et seulement si, deg Q = 0 et dim Eλ (u) = m(λ)
pour tout λ ∈ sp(u) , ce qui est la caractérisation annoncée.

Théorème 30

• Supposons u diagonalisable et montrons que le polynôme P = (X −λ) , qui est scindé
λ∈sp(u)

à racines simples, est annulateur de u . Comme E = Eλ (u) par hypothèse, il suffit de
λ∈sp(u)

montrer que la restriction de l’endomorphisme v = (u − λ IdE ) à chaque sous-espace
λ∈sp(u)

propre est nulle. Soit donc µ ∈ sp(u) et x ∈ Eµ (u) . On a alors (u − µ IdE )(x) = 0 et
 

puisque v = (u − λ IdE ) ◦ (u − µ IdE ) , on en déduit v(x) = 0 .
λ�=µ

123
Chapitre 3. Réduction des endomorphismes


p
• Supposons u annulé par un polynôme P = (X − λi ) scindé à racines simples. Comme P
i=1
est annulateur de u , on sait que sp(u) ⊂ {λ1 , . . . , λp } (cf. proposition 12 de la page 99).
Comme les λi sont deux à deux distincts, les polynômes X − λi sont deux à deux premiers

p
entre eux et le lemme de décomposition des noyaux donne E = Eλi (u) .
i=1

En supprimant les λi non valeurs propres de u , pour lesquels Eλi (u) = {0} , on obtient que
la somme des sous-espaces propres de u est égale à E , donc que u est diagonalisable.
Théorème 37 On commence par montrer le résultat dans le cas d’un endomorphisme trigonalisable,
puis pour toute matrice de Mn (IK) , ce qui le prouvera également pour tout endomorphisme.
• Montrons le résultat pour un endomorphisme trigonalisable.
Supposons donc que la matrice de u dans une base (e1 , . . . , en ) soit triangulaire supé-
rieure de diagonale (λ1 , . . . , λn ) . Posons Fk = Vect(e1 , . . . , ek ) , pour tout k ∈ [[0, n]] , avec
donc F0 = {0} et Fn = E .
Soit k ∈ [[1, n]] . Par la forme triangulaire supérieure de la matrice de u dans B , on a :
∗ pour tout i ∈ [[1, k − 1]] , (u − λk IdE )(ei ) ∈ Fi ⊂ Fk−1 ,
∗ u(ek ) = λk ek + x , avec x ∈ Fk−1 . Donc (u − λk IdE )(ek ) ∈ Fk−1 .
On a alors :
u−λn Id u−λ1 Id
E = Fn −−−−−−E
→ Fn−1 → − F1 −−−−−−E
− ··· → → F0 = {0},
 
ce qui donne (u − λ1 IdE ) ◦ · · · ◦ (u − λn IdE ) (u) = 0 , c’est-à-dire χu (u) = 0 .
Lorsque IK = C , on a donc le résultat puisque tout endomorphisme est trigonalisable.
• Dans le cas général, puisque IK est supposé être un sous-corps de C , il suffit de considérer
toute matrice de Mn (IK) comme matrice de Mn (C) et d’appliquer le résultat précédent.
Autre démonstration 1 Soit x un vecteur non nul de E . L’exemple 33 de la page 64 montre
que le plus petit sous-espace vectoriel Ex de E contenant x est stable par u et qu’il possède
 
une base de la forme Bx = x, u(x), . . . , up−1 (x) . Dans cette base, la matrice de l’endomor-
phisme ux induit par u est la matrice compagnon d’un certain polynôme P . Or, P est le
polynôme minimal de cette matrice (exemple 40 de la page 66) ainsi que son polynôme carac-
téristique (exemple 16 de la page 102). Donc le polynôme caractéristique de ux est annulateur
de ux et comme il divise χu , on a χu (ux ) = 0 .
Cela donne, en particulier, χu (u)(x) = χu (ux )(x) = 0 . Comme x est quelconque non nul, on
obtient bien χu (u) = 0 (on a χu (u)(0) = 0 par linéarité).

Théorème 39
Si u est trigonalisable, son polynôme caractéristique est scindé, et il est annulateur d’après le
théorème de Cayley-Hamilton.
Pour la réciproque, procédons par récurrence, à l’aide du point méthode de la page 116.
Posons, pour n ∈ IN∗ :
Hn : « Tout endomorphisme d’un IK -espace vectoriel de dimension n annulé par
un polynôme scindé est trigonalisable. »
Hn′ : « Toute matrice de Mn (IK) annulée par un polynôme scindé est trigonali-
sable. »
Initialisation : H1 est immédiat.
1. valable sans supposer que IK est un sous-corps de C

124
Démonstrations

Hérédité : Soit n  1 ; supposons Hn′ .


Soit E un IK -espace vectoriel de dimension n + 1 , Π un polynôme scindé et u ∈ L(E) tel
que Π(u) = 0 .
Le polynôme minimal de u divise Π , donc est scindé. D’autre part, il est non constant
puisque dim E  1 . Il admet donc au moins une racine λ , qui est une valeur propre de u
d’après la proposition 13 de la page 100.
Prenons un vecteur propre associé et complétons-le en une base B de E de sorte que :
 
λ L
MatB (u) = avec L ∈ M1,n (IK) et A ∈ Mn (IK).
0 A

On a alors :
 
  Π(λ) ∗
0 = Π MatB (u) = donc Π(A) = 0.
0 Π(A)

La matrice A est ainsi annulée par le polynôme scindé Π , donc d’après Hn′ , il existe une
matrice P ∈ GLn (IK) tel que P −1 AP soit triangulaire supérieure.
 
1 0
Notons Q = . Il s’agit d’une matrice inversible de Mn+1 (IK) dont l’inverse
0 P
 
1 0
est Q−1 = (il suffit de vérifier que le produit vaut In+1 ).
0 P −1
Un produit par blocs donne alors :
   
−1 1 0 λ L 1 0
Q MatB (u) Q =
0 P −1 0 A 0 P
    
λ L 1 0 λ LP
= −1 = −1 .
0 P A 0 P 0 P AP

Ainsi Q−1 MatB (u) Q , qui est la matrice de u dans une certaine base de E , est triangulaire
supérieure, ce qui permet de conclure que u est trigonalisable. Cela prouve Hn+1 .
Proposition 44 Soit λ ∈ sp(u) . Notons uλ l’endomorphisme induit par u sur Fλ . L’endomor-
phisme uλ − λ IdFλ étant nilpotent, son polynôme caractéristique est X dim Fλ , donc celui de uλ
est (X − λ)dim Fλ .

En utilisant la décomposition E = Fλ comme somme directe de sous-espaces vectoriels
λ∈sp(u)
stables, on a :
 
χu = χu λ = (X − λ)dim Fλ ,
λ∈sp(u) λ∈sp(u)

ce qui donne le résultat.

125
Chapitre 3. Réduction des endomorphismes

S’entraîner et approfondir
Éléments propres
3.1 Soit ϕ un isomorphisme de E dans F et u un endomorphisme de E .
→92
Déterminer les éléments propres de ϕ ◦ u ◦ ϕ−1 en fonction de ceux de u .

3.2 Pour tout α ∈ IR , notons fα la fonction définie sur IR∗+ par fα (t) = tα .
→95
Montrer que la famille (fα )α∈IR est libre.
Indication. On utilisera un endomorphisme de C ∞ (IR∗+ , IR) .

3.3 Montrer que dans C ∞ (IR, IR) , la famille constituée des fonctions x �→ cos nx (pour n ∈ IN )
→95
et x �→ sin nx (pour n ∈ IN∗ ) est libre.
Indication. On pourra penser à l’opérateur de dérivation seconde.

3.4 Soit n ∈ IN tel que n  2 .


→96  
1 ··· 1
 .. .. ..  ∈ M (IK) .
1. Déterminer les éléments propres de la matrice J =  . . . n

1 ··· 1
2. Soit (α, β) ∈ IK × IK∗ .
 
α (β)
 .. 
Déterminer les éléments propres de la matrice A =  .  ∈ Mn (IK) .
(β) α

⋆ 3.5 1. Déterminer les valeurs propres et les vecteurs propres de la matrice réelle de taille n :
 0 1 0 ... 0

 .. 
 1 0 1 . 
 .. ..

A=
 0 1 . . 0 .

 . 
 . .. 
. . 0 1
0 ... 0 1 0
Indication. On pourra s’intéresser aux suites vérifiant une relation de récurrence de la
forme uk+1 = λuk − uk−1 .
2. En déduire une matrice P inversible et une matrice D diagonale telles que A = P DP −1 .

⋆ 3.6 Soit A et B deux matrices de Mn (C) .


Montrer que A et B ont une valeur propre commune si, et seulement s’il existe une matrice U
non nulle de Mn (C) telle que AU = U B.

3.7 Soit u et v deux endomorphismes d’un C -espace vectoriel E de dimension finie non nulle.
1. On suppose que u et v commutent. Montrer que u et v ont un vecteur propre commun.
2. On suppose que u ◦ v − v ◦ u = αu avec α ∈ C∗ . Montrer que u est nilpotent et que u
et v ont un vecteur propre commun.
3. En déduire que si u ◦ v − v ◦ u ∈ Vect(u, v) , alors u et v ont un vecteur propre commun.

126
Exercices

Polynôme caractéristique
3.8 Soit A ∈ GLn (IK) . Pour λ �= 0 , donner une relation entre χA (λ) et χA−1 (λ−1 ) . En déduire
→101
une expression du coefficient de X dans χA en fonction de la trace de la comatrice de A .

 
1 0 0
3.9 Soit θ ∈ IR et A = 0 cos θ − sin θ .
→102
0 sin θ cos θ
Calculer le polynôme caractéristique de A . Déterminer son spectre dans IR et C .

 
0 A
3.10 Calculer le polynôme caractéristique de la matrice par blocs B = en fonction
→102 A 0
de celui de A ∈ Mn (IK) .

3.11 Soit A ∈ Mn (IR) telle que A3 − 3A − 5In = 0 .


Montrer que A est de déterminant strictement positif.

3.12 Montrer l’égalité X p χAB = X n χBA pour toutes matrices A ∈ Mn,p (IK) et B ∈ Mp,n (IK) .
Indication. On pourra commencer par le cas où A = Jr , où r ∈ [[0, min(n, p)]] .

3.13 Soit A et B deux matrices de Mn (IK) .


Montrer que s’il existe une matrice U de rang r tel que AU = U B, alors les polynômes
caractéristiques de A et B ont un facteur commun de degré r .

3.14 Soit E un espace vectoriel de dimension n et u un endomorphisme de E .


1. On suppose u nilpotent. Montrer :
∀k ∈ IN∗ tr(uk ) = 0.
2. On suppose :
∀k ∈ [[1, n]] tr(uk ) = 0.
(a) Montrer que si n  1 , alors det u = 0 .
Indication. On pourra utiliser le polynôme caractéristique de u .
(b) En raisonnant par récurrence, montrer que u est nilpotent.

Diagonalisation
 
0 3 2
3.15 La matrice A = −2 5 2 est-elle diagonalisable ?
→110
2 −3 0
Si c’est le cas, fournir une matrice P ∈ GL3 (IK) telle que P −1 AP soit diagonale.

3.16 Soit u un endomorphisme diagonalisable d’un espace vectoriel E de dimension finie.


→114 
1. Montrer que les sous-espaces vectoriels de E stables par u sont les F = Fλ , où Fλ
λ∈sp(u)

est un sous-espace vectoriel de Eλ (u) pour tout λ ∈ sp(u) .


2. À quelle condition y a-t-il un nombre fini de tels sous-espaces vectoriels stables, et dans
ce cas, combien y en a-t-il ?

127
Chapitre 3. Réduction des endomorphismes
 
1 2 −2
3.17 Soit A = 2 1 −2 .
2 2 −3
1. Déterminer une matrice P inversible et une matrice D diagonale telles que A = P DP −1 .
2. Déterminer le polynôme minimal de A .

3.18 Soit n ∈ IN . Montrer que l’endomorphisme v : P �→ (1 − X 2 )P ′ + nXP de IR[X] induit un


endomorphisme diagonalisable de IRn [X] .

3.19 On dit qu’une famille (ui )i∈I d’endomorphismes de E est simultanément diagonalisable
s’il existe une base B de E dans laquelle les matrices de tous les ui sont diagonales. Une
telle base s’appelle alors une base de diagonalisation simultanée.
1. Montrer que des endomorphismes simultanément diagonalisables commutent.
2. Montrer réciproquement qu’une famille d’endomorphismes diagonalisables de E commu-
tant deux à deux est simultanément diagonalisable.

3.20 1. Soit u un endomorphisme diagonalisable de spectre {λ1 , . . . , λr } . On note pλ1 , . . . , pλr ,


et l’on appelle projecteurs spectraux de u , les projecteurs associés à la décomposition
en somme directe :
E = Eλ1 (u) ⊕ · · · ⊕ Eλr (u).
(a) Montrer :
∀k ∈ IN uk = λk1 pλ1 + · · · + λkr pλr
et que cette relation est vraie pour tout k ∈ ZZ si u est bijectif.
(b) Montrer que p1 , . . . , pr sont des polynômes en u .
2. En utilisant les projecteurs spectraux, déterminer les puissances de :
 
5 9 12
A= 6 8 12 .
−6 −9 −13

3.21 Soit A ∈ Mn (IR) vérifiant A(A2 + A + In ) = 0 . Montrer que le rang de A est pair.

 
1 1
3.22 Résoudre dans M2 (C) l’équation M 2 + M = .
1 1

3.23 Soit A ∈ M2 (C) à coefficients entiers.


On suppose qu’il existe un entier naturel non nul p tel que Ap = I2 .
Montrer que A12 = I2 .

 
0 A
3.24 Soit A ∈ Mn (C) et B = ∈ M2n (C).
In 0

1. Montrer que χB (X) = χA (X 2 ) .


2. Discuter la diagonalisabilité de B en fonction de celle de A .

128
Exercices

3.25 Soit A ∈ Mn (C). Montrer que la matrice par blocs :


 
4A 2A
B= ∈ M2n (C)
−3A −A

est diagonalisable si, et seulement si, A l’est.

3.26 Soit A et B deux matrices de Mn (C) vérifiant AB = BA.


Trouver une condition nécessaire et suffisante pour que la matrice par blocs :
 
A B
M= .
0 A

soit diagonalisable.

⋆ 3.27 Soit E un C -espace vectoriel de dimension finie. Pour a ∈ L(E) , on définit :


Ga : L(E) −→ L(E) Da : L(E) −→ L(E) et Ma = Ga − Da .
u �−→ a◦u u �−→ u◦a
1. Soit P ∈ C[X] . Déterminer P (Ga ) et en déduire que Ga est diagonalisable si, et seule-
ment si, a est diagonalisable.
2. On admet que deux endomorphismes diagonalisables qui commutent sont simultanément
diagonalisables (cf. exercice 3.19). Montrer que si a est diagonalisable, alors Ma égale-
ment.
3. Montrer que si a est nilpotent, alors Ma est nilpotent.
4. Montrer que si Ma = 0 , alors a est une homothétie.
5. On admet que tout endomorphisme d’un C -espace vectoriel de dimension finie s’écrit de
façon unique comme somme d’un endomorphisme diagonalisable et d’un endomorphisme
nilpotent qui commutent (cf. exercice 3.35). Montrer la réciproque de la question 2.

Trigonalisation
 
14 18 18
3.28 1. La matrice A = −6 −7 −9 ∈ Mn (IR) est-elle diagonalisable ? trigonalisable ?
→116
−2 −3 −1
 
2 0 0
2. Montrer que la matrice A est semblable à la matrice T = 0 2 1 et expliciter
0 0 2
une matrice inversible P telle que A = P T P −1 .

3.29 Soit E un espace vectoriel de dimension finie. Montrer qu’une famille d’endomorphismes
trigonalisables de E commutant deux à deux est simultanément trigonalisable, c’est-à-dire
qu’il existe une base de E dans laquelle tous les éléments de la famille ont une matrice
triangulaire supérieure.

3.30 Montrer que tout sous-espace vectoriel de Mn (IK) de dimension strictement supérieure
n(n+1)
à 2
contient une matrice nilpotente non nulle.

129
Chapitre 3. Réduction des endomorphismes

⋆ 3.31 Soit P un polynôme à coefficients entiers, unitaire et de degré n . On note λ1 , . . . , λn ses


racines complexes comptées avec ordre de multiplicité.
1. Montrer l’existence d’une matrice à coefficients entiers dont le polynôme caractéristique
est P .

n
2. Soit k ∈ IN . Montrer que le polynôme Pk = (X − λki ) est à coefficients entiers.
i=1
3. On suppose les λi tous de module inférieur ou égal à 1 .
  
(a) Montrer que Pk  k ∈ IN est fini.
(b) En déduire qu’il existe (k, ℓ) ∈ IN2 , avec k < ℓ , tel que (λk1 , . . . , λkn ) = (λℓ1 , . . . , λℓn )
puis que les λi sont nuls ou des racines de l’unité.

 
3 0 8
3.32 Soit B = 3 −1 6 .
−2 0 −5
1. La matrice B est-elle diagonalisable ?
2. Déterminer le polynôme minimal de la matrice B .
 
−1 0 0
3. Montrer que matrice B est semblable à T = 0 −1 1 .
0 0 −1

3.33 Déterminer les sous-espaces stables par l’endomorphisme u canoniquement associé à la ma-
trice réelle :
 
0 1 1
A= 1 0 0 .
0 0 1

⋆ 3.34 Sous-espace caractéristique associé à une valeur propre


Soit u un endomorphisme d’un espace vectoriel E de dimension finie et λ une valeur propre
de u . On écrit χu = (X − λ)m Q(X) , où m est l’ordre de multiplicité de la valeur propre λ .
 
1. Montrer que la suite Ker(u − λ IdE )k k∈IN
est croissante et que si l’on note r le plus
 
petit entier k tel que Ker(u−λ IdE ) = Ker(u−λ IdE )k+1 , la suite Ker(u−λ IdE )k
k
kr
est constante.
On appelle sous-espace caractéristique de u associé à la valeur propre λ le sous-
espace vectoriel Fλ (u) = Ker(u − λ IdE )r .
2. (a) Montrer :
Im(u − λ IdE )m = Ker Q(u) et E = Ker(u − λ IdE )m ⊕ Im(u − λ IdE )m .
(b) En déduire Ker(u − λ IdE )2m ⊂ Ker(u − λ IdE )m puis Fλ (u) = Ker(u − λ IdE )m (on
retrouve ainsi la définition des sous-espaces caractéristiques donnée dans le cours dans
le cas où χu est scindé).
(c) Montrer que dim Fλ (u) = m .
  
3. (a) Montrer que la suite (u − λ IdE )k Fλ (u) est strictement décroissante, puis
0kr
que r est l’indice de nilpotence de l’endomorphisme induit par (u − λ IdE ) sur Fλ (u) .
(b) Montrer que r est l’ordre de multiplicité de λ en tant que racine du polynôme minimal
de u .

130
Exercices

3.35 Décomposition de Dunford


Soit u un endomorphisme d’un espace vectoriel de dimension finie dont le polynôme ca-
ractéristique est scindé. On a montré, dans l’exemple 43 de la page 121, l’existence d’un
couple (d, n) d’endomorphismes de E , avec d diagonalisable, n nilpotent et u = d + n
et d ◦ n = n ◦ d . Le but de l’exercice est d’en prouver l’unicité.
Considérons un tel couple (d, n) . Soit λ une valeur propre de u et Fλ le sous-espace carac-
téristique associé.
1. Vérifier que u , d et n stabilisent Fλ .
On note uλ , dλ et nλ les endomorphismes qu’ils induisent.
2. Montrer que dλ − λ IdFλ est nilpotent et en déduire que dλ = λ IdFλ .
3. Conclure.

⋆ 3.36 Soit E un C -espace vectoriel de dimension finie non nulle et u un endomorphisme de E .


1. On suppose u nilpotent, d’indice de nilpotence p .
 
(a) Montrer qu’il existe x ∈ E tel que B = x, u(x), . . . , up−1 (x) soit libre.
Montrer que F = Vect B est stable par u . Donner la matrice Mp , dans la base B ,
de l’endomorphisme induit par u sur F .
 
(b) Montrer qu’il existe une forme linéaire ϕ sur E telle que ϕ up−1 (x) �= 0 .

p−1
Montrer que G = Ker(ϕ ◦ uk ) est stable par u et que F ⊕ G = E .
k=0
(c) Montrer qu’il existe une base de E dans laquelle la matrice de u est diagonale par
blocs, avec des blocs de la forme Mr .
2. Montrer qu’il existe une base de E dans laquelle la matrice de u est diagonale par blocs,
avec des blocs de la forme λ Ir + Mr .
3. Montrer que toute matrice carrée complexe est semblable à sa transposée.

⋆ 3.37 Pour A ∈ Mn (IR) , on définit :


gA : Mn (IR) −→ Mn (IR) dA : Mn (IR) −→ Mn (IR) et m A = g A − dA .
M �−→ AM M �−→ M AT
1. Soit P ∈ IR[X] . Déterminer P (gA ) et en déduire que gA est trigonalisable si, et seulement
si, A est trigonalisable.
2. On admet que deux endomorphismes trigonalisables qui commutent sont simultanément
trigonalisables (cf. exercice 3.29). Montrer que si A est trigonalisable, alors mA égale-
ment.
3. Montrer que si λ est valeur propre complexe de A , il existe M ∈ Mn (C) non nulle telle
que AM − M AT = (λ − λ̄)M .
4. En déduire la réciproque de la question 2.

131
Chapitre 3. Réduction des endomorphismes

Solutions des exercices


3.1 Pour tout vecteur x de E et pour tout scalaire λ , on a, par bijectivité et linéarité de ϕ :
     
u(x) = λx ⇐⇒ u ◦ ϕ−1 ϕ(x) = λx ⇐⇒ ϕ ◦ u ◦ ϕ−1 ϕ(x) = λϕ(x),
c’est-à-dire :
x ∈ Eλ (u) ⇐⇒ ϕ(x) ∈ Eλ (ϕ ◦ u ◦ ϕ−1 ).
Comme ϕ est un isomorphisme, on en déduit que les endomorphismes u et ϕ ◦ u ◦ ϕ−1 ont
les mêmes valeurs propres et leurs sous-espaces propres sont reliés par :
 
Eλ (ϕ ◦ u ◦ ϕ−1 ) = ϕ Eλ (u) .

3.2 Notons u l’endomorphisme C ∞ (IR∗+ , IR) −→ ∞ ∗


 (IR+ ,′ IR)
C
f �−→ t �→ tf (t) .
Soit α ∈ IR . Pour tout t > 0 , on a u (fα ) (t) = αtα donc u(fα ) = αfα et la fonction non
nulle fα est vecteur propre de u pour la valeur propre α .
Par suite, si α1 , . . . , αn sont des réels deux à deux distincts, la famille de fonc-
tions (fα1 , . . . , fαn ) est une famille libre de C ∞ (IR∗+ , IR) .
Ainsi, la famille (fα )α∈IR est libre.

3.3 Soit n ∈ IN ; notons cn : x �→ cos nx et sn : x �→ sin nx (avec donc s0 = 0 ). Il est clair


que cn et sn appartiennent à E = C ∞ (IR, IR) et sont dans le sous-espace propre E−n2 (D2 ) ,
où D2 est l’opérateur de dérivation seconde.

+∞ 
+∞
Soit (an )n∈IN et (bn )n∈IN∗ deux suites presque nulles telles que an cn + bn s n = 0 .
n=0 n=1
Prenons N ∈ IN tel que an = bn = 0 pour tout n > N .
En posant b0 = 0 , on obtient :
N

(an cn + bn sn ) = 0.
  
n=0
∈E−n2 (D 2 )

Comme les sous-espaces propres de D2 , associés aux valeurs propres deux à deux dis-
tinctes −n2 , sont en somme directe, cela donne ∀n ∈ [[0, N ]] an cn +bn sn = 0 . Par évaluation
en 0 , on en déduit la nullité de tous les an , puis, pour n �= 0 , de bn puisque sn n’est pas
la fonction nulle.
Donc la famille est libre.

3.4 1. Soit λ ∈ IK . Un vecteur X = (xi )1in vérifie JX = λX si, et seulement si :


∀i ∈ [[1, n]] x1 + x2 + · · · + xn = λxi . (∗)

n
• Lorsque λ = 0 , cela équivaut à l’unique équation xi = 0 . Ainsi, 0 est valeur
i=1

n
propre de J et le sous-espace propre associé est l’hyperplan H d’équation xi = 0 .
i=1

132
Solutions des exercices

• Supposons λ �= 0 et X �= 0 tel que JX = λX .


On déduit de (∗) que x1 = · · · = xn puis que λ = n puisque X �= 0 .
 
1
 
Réciproquement, le vecteur U =  ...  est non nul vérifie JU = nU .
1
Ainsi, n ∈ sp(J) et le sous-espace propre associé est la droite engendrée par U .
2. On a A = βJ + γIn , avec γ = α − β .
Soit λ ∈ IK . On a AX = λX si, et seulement si, βJX = (λ − γ)X .
λ−γ
Donc λ est valeur propre de A si, et seulement si, β
∈ sp(J) = {0, n} .
� �
Ainsi, sp(A) = {γ, βn + γ} = α − β, (n − 1)β + α et les sous-espaces propres associés
sont :
Eα−β (A) = H et E(n−1)β+α (A) = Vect(U ).

3.5 1. Il est difficile ici d’obtenir le polynôme caractéristique de A sous forme factorisée. On
utilise donc l’équation aux éléments propres.
Soit X = (xi )1in ∈ IRn et λ ∈ IR . L’équation AX = λX est équivalente à :
x2 = λx1 ∀k ∈ [[2, n − 1]] xk−1 + xk+1 = λxk et xn−1 = λxn .
On remarque que si l’on pose x0 = 0 et xn+1 = 0 , cela équivaut à :
∀k ∈ [[1, n]] xk+1 = λxk − xk−1 .
Considérons donc l’ensemble Rλ des suites réelles (xk )k∈IN vérifiant la relation de récur-
rence linéaire d’ordre 2 à coefficients constants :
∀k ∈ IN∗ xk+1 = λxk − xk−1 (R)
ainsi que les conditions x0 = xn+1 = 0 .
• Si (xk )k∈IN ∈ Rλ , alors X = (xk )1kn vérifie AX = λX .
• Réciproquement, si AX = λX , on peut poser x0 = 0 et prolonger (x0 , . . . , xn ) en
une suite (xk )k∈IN de Rλ par la relation de récurrence d’ordre deux définissant Rλ .
On remarque, d’autre part, que si (xk )k∈IN ∈ Rλ , alors X = (xk )1kn est non nul si, et
seulement si, x1 �= 0 .
Il s’agit donc de déterminer les λ ∈ IR pour lesquels Rλ admet un élément (xk )k∈IN tel
que x1 �= 0 .
L’équation caractéristique associée à R est r 2 − λr + 1 de discriminant ∆ = λ2 − 4 .
Commençons par le cas ∆ < 0 , c’est-à-dire λ ∈ ]−2, 2[ , qui équivaut à l’existence
de θ ∈ ]0, π[ tel que λ = 2 cos θ . L’équation caractéristique admet alors deux racines non
réelles conjuguées eiθ et e−iθ , donc les suites vérifiant la relation de récurrence (R) sont
celles pour lesquelles existent des réels α et β tels que :
∀k ∈ IN xk = α sin(kθ) + β cos(kθ).
Les conditions x0 = xn+1 = 0 sont équivalentes à :
� �
β=0 et α sin (n + 1)θ = 0.
� �
Il existe donc un élément non nul dans Rλ si, et seulement si, sin (n + 1)θ = 0 , c’est-

à-dire si, et seulement s’il existe p ∈ ZZ tel que θ = n+1 , et alors Rλ est de dimension 1
� pkπ

engendré par la suite sin n+1 k∈IN
.

133
Chapitre 3. Réduction des endomorphismes

Compte tenu de θ ∈ ]0, π[ , on en déduit que les valeurs propres de A dans ]−2, 2[ sont :

λp = 2 cos avec p ∈ [[1, n]]
n+1
 pkπ

et que le sous-espace propre Eλp est la droite engendrée par le vecteur sin n+1 1kn
.
Par injectivité de la fonction cos sur ]0, π[ , la famille (λ1 , . . . , λn ) a n éléments distincts
et l’on a ainsi trouvé toutes les valeurs propres de la matrice A de taille n .
Il est donc inutile d’étudier le cas où |λ|  1 (et encore moins d’envisager de chercher
des valeurs propres non réelles).
2. Ayant n valeurs propres distinctes, la matrice A ∈ Mn (IR) est diagonalisable et l’on
a A = P DP −1 où :
 kpπ

D = Diag(λ1 , . . . , λn ) et P = (X1 · · · Xn ) = sin .
n+1 1k,pn

Remarque En fait, la matrice A est symétrique réelle et le théorème spectral (voir le cha-
pitre 4) montre qu’elle est diagonalisable et que ses sous-espaces propres sont orthogonaux.
Cela prouve que les colonnes de P sont orthogonales et donne que le produit P T P est une
matrice diagonale. Cela facilite le calcul de P −1 .
Ici on trouve sans trop de difficultés que P T P = n+1
2
In (il suffit de calculer ses termes
−1
diagonaux), ce qui donne P = 2
n+1
PT = 2
n+1
P .

3.6 • Supposons qu’il existe une matrice U non nulle de Mn (C) telle que AU = U B . Montrons
par récurrence que Ak U = U B k , pour tout k ∈ IN .
∗ C’est immédiat lorsque k = 0 .
∗ Supposons Ak U = U B k , pour un certain k ∈ IN . Alors :

Ak+1 U = A(Ak U ) = A(U B k ) = (AU )B k = (U B)B k = U B k+1 .


Par linéarité, on en déduit P (A)U = U P (B) , pour tout polynôme P ∈ C[X] .
En particulier, πB (A)U = U πB (B) = 0 , donc πB (A) est non inversible puisque U �= 0 .

p
Le polynôme πB étant scindé sur C[X] , on peut écrire πB = (X − λi ) , où les λi (non
i=1
nécessairement distincts) sont les valeurs propres de B d’après la proposition 13 de la

p
page 100. Donc (A − λi In ) est non inversible, ce qui prouve qu’il existe i ∈ [[1, p]] tel
i=1
que A − λi In soit non inversible. Ainsi λi est une valeur propre commune à A et B .
• Réciproquement, supposons que les matrices A et B possèdent une valeur propre com-
mune λ . Alors λ est aussi valeur propre de B T puisqu’une matrice et sa transposée ont
le même spectre. Il existe donc deux vecteurs colonnes non nuls X et Y tels que l’on
ait AX = λX et B T Y = λY. La matrice U = X Y T vérifie alors :
T
AU = AX Y T = λX Y T et U B = X Y T B = X (B T Y ) = λX Y T .
Comme les vecteurs X et Y sont non nuls, la matrice U est non nulle car il existe un
couple (i, j) ∈ [[1, n]]2 tel que Ui,j = Xi Yj �= 0 .

134
Solutions des exercices

3.7 1. Comme E est un C -espace vectoriel de dimension finie non nulle, u possède une valeur
propre λ. Le sous-espace propre associé est stable par v car u et v commutent (propo-
sition 1 de la page 94). L’endomorphisme v ′ induit par v sur Eλ (u) possède alors un
vecteur propre x puisque Eλ (u) est un C -espace vectoriel de dimension finie non nulle,
et x est donc un vecteur propre commun à u et v .
 
2. Pour tout k ∈ IN , on a uk+1 ◦ v − v ◦ uk+1 = u ◦ uk ◦ v − v ◦ uk + (u ◦ v − v ◦ u) ◦ uk ,
ce qui permet de prouver par récurrence sur k :
uk ◦ v − v ◦ uk = αkuk .
Cela s’écrit Φ(uk ) = αkuk en posant Φ : L(E) −→ L(E)
w �−→ w ◦ v − v ◦ w.
Or, l’endomorphisme Φ admet un nombre fini de valeurs propres puisque L(E) est de
dimension finie. Ainsi, il existe k ∈ IN tel que uk = 0 , ce qui prouve que u est nilpotent.
En particulier, Ker u n’est pas réduit à {0} et est stable par v car si x ∈ Ker u ,
alors u (v(x)) = v ◦ u(x) + αu(x) = 0 . L’endomorphisme induit par v sur Ker u possède
alors un vecteur propre qui est un vecteur propre commun à u et v .
3. Supposons qu’il existe (α, β) ∈ C2 tel que u ◦ v − v ◦ u = αu + βv .
Si β = 0 , on conclut grâce à l’une deux questions précédentes suivant la nullité de α .
Sinon, l’endomorphisme w = αu + βv vérifie alors u ◦ w − w ◦ u = βw et la question
précédente implique que les endomorphismes u et w possèdent un vecteur propre x
commun. Il existe donc deux nombres complexes λ et µ tels que u(x) = λx et w(x) = µx .
w(x) − αu(x) µ − αλ
Comme β est non nul, on en déduit que v(x) = = x.
β β
Le vecteur x est donc un vecteur propre commun à u et v .

3.8 Soit λ �= 0 . On a :
χA (λ) = det(λIn − A) = det(A) det(λA−1 − In )

= (−λ)n det(A) det( λ1 In − A−1 ) = (−1)n det(A) λn χA−1 ( λ1 ).

Par égalité de deux fonctions polynomiales sur l’ensemble IK∗ qui est infini, on en déduit
 
que le coefficient α1 de X dans χA est (−1)n det(A) − tr A−1 .
Or Com(A)T = det(A) A−1 , donc tr Com(A) = tr Com(A)T = det(A) tr(A−1 ) . En conclu-
sion :  
α1 = (−1)n det(A) − tr A−1 = (−1)n−1 tr(Com A).

Remarque On verra à l’exercice 8.3 de la page 362 une autre méthode pour obtenir ce
résultat, y compris pour des matrices non inversibles.

3.9 Soit λ ∈ C . En développant det (λI3 − A) par rapport à la première colonne, on obtient :
   
χA (λ) = (λ − 1) (λ − cos θ)2 + sin θ2 = (λ − 1) λ2 − 2λ cos θ + 1 .
 
• Si θ �≡ 0 [π] , on a donc spIR (A) = {1} et spC (A) = 1, eiθ , e−iθ .
• Si θ ≡ 0 [2π] , alors χA = (X − 1)3 et spIR (A) = spC (A) = {1} .
• Si θ ≡ π [2π] , alors χA = (X − 1)(X + 1)2 et spIR (A) = spC (A) = {1, −1} .

135
Chapitre 3. Réduction des endomorphismes
 
∗ λIn −A
3.10 Soit λ ∈ IK . On a χB (λ) = det que l’on peut calculer par la transvection
−A λIn
 
In λ−1 A
par blocs C2 ← C2 + C1 (λ−1 A) , c’est-à-dire par multiplication à droite par
0 In
de déterminant 1 . Cela donne :
   
λIn −A λIn 0
χB (λ) = det = det
−A λIn −A λIn − λ−1 A2
et, par conséquent :
 
χB (λ) = λn det(λIn − λ−1 A2 ) = det λ2 In − A2
= det(λIn + A) det(λIn − A)
= (−1)n det(−λIn − A) det(λIn − A) = (−1)n χA (λ)χA (−λ).

L’égalité polynomiale χB (λ) = (−1)n χA (λ)χA (−λ) étant vraie pour tout λ dans IK∗ , et IK∗
étant infini, on en déduit l’égalité de polynômes χB (X) = (−1)n χA (X)χA (−X) .

3.11 La matrice A est annulée par le polynôme P = X 3 − 3X − 5 . L’étude des variations de la


fonction x �→ x3 − 3x − 5 montre que P a une unique racine réelle, et que cette racine α
est strictement positive. Ses deux autres racines dans C sont donc complexes conjuguées, et
il existe, par conséquent, ω ∈ C \ IR tel que :
P = (X − α)(X − ω)(X − ω).
Puisque A est annulée par P , ses valeurs propres appartiennent à {α, ω, ω} donc il existe
des entiers p et q tels que
χA = (X − α)n−p−q (X − ω)p (X − ω)q .
Comme A est une matrice réelle, le polynôme χA est à coefficients réels, d’où p = q . Par
conséquent :
det A = (−1)n χA (0) = αn−2p |ω|2p > 0.

   
Ir 0r,p−r B1 B2
3.12 • Supposons A = Jr = . En écrivant B = par blocs,
0n−r,r 0n−r,p−r B3 B4
avec B1 ∈ Mr (C) , on obtient :
   
B1 B2 B1 0
Jr B = et BJr = .
0 0n−r B3 0p−r

Ainsi, χJr B = χB1 X n−r et χBJr = χB1 X p−r . Le résultat s’ensuit immédiatement.
• La matrice A est équivalente à la matrice Jr utilisée ci-dessus, où r = rg A . Il existe
donc deux matrices inversibles P ∈ GLn (IK) et Q ∈ GLp (IK) telles que A = P Jr Q .
Posons B0 = QBP . On a alors :
AB = P Jr QB = P Jr B0 P −1 et BA = BP Jr Q = Q−1 B0 Jr Q
donc AB et BA sont respectivement semblables à Jr B0 et B0 Jr . À l’aide du point
précédent, on déduit :
X p χAB = X p χJr B0 = X n χB0 Jr = X n χBA .

136
Solutions des exercices

3.13 Supposons qu’il existe une matrice U de rang r tel que AU = U B . Il existe alors deux
matrices inversibles P et Q telles que U = P Jr Q. La relation AP Jr Q = P Jr QB donne
alors A′ Jr = Jr B ′ avec A′ = P −1 AP et B ′ = QBQ−1 . Si l’on écrit :
   
A′1 A′2 B1′ B2′
A′ = et B′ = avec (A′1 , B1′ ) ∈ Mr (IK)2 ,
A′3 A′4 B3′ B4′
   
A′1 0 B1′ B2′
alors on a A′ Jr = et Jr B ′ = , donc A′1 = B1′ , A′3 = 0 et B2′ = 0 ,
A′3 0 0 0
ce qui donne :
   
′ A′1 A′2 ′ A′1 0
A = et B = .
0 A′4 B3′ B4′

Par suite, χA = χA′ = χA′ χA′ et χB = χB′ = χA′ χB′ .


1 4 1 4

Ainsi, χA et χB ont le facteur χA′ de degré r en commun.


1

3.14 1. Si u est nilpotent, il existe une base dans laquelle la matrice A de u est triangulaire su-
périeure stricte. Les matrices Ak étant triangulaires supérieures strictes pour tout k > 0 ,
on a tr(uk ) = 0 pour tout k > 0.
2. (a) Soit χu = α0 + α1 X + · · · + αn X n le polynôme caractéristique de u . D’après le
théorème de Cayley-Hamilton, on a :
α0 IdE +α1 u + · · · + αn un = χu (u) = 0.
En appliquant la trace à cette égalité, on obtient nα0 = 0 , donc det u = 0
puisque n  1 et α0 = (−1)n det u .
(b) Prouvons maintenant par récurrence sur n ∈ IN :
Hn : « Tout endomorphisme u d’un espace vectoriel de dimension n véri-
fiant ∀k ∈ [[1, n]] tr(uk ) = 0 est nilpotent. »
Initialisation. Si dim E = 0 , L(E) ne possède que l’endomorphisme nul qui est
nilpotent.
Hérédité. Soit n ∈ IN∗ ; supposons le résultat acquis en toute dimension stricte-
ment inférieure à n . Soit E un espace vectoriel de dimension n et u ∈ L(E) tel
que ∀k ∈ [[1, n]] tr(uk ) = 0 .
D’après la question précédente (on a supposé n  1 ), u n’est pas bijective,
donc Im u est de dimension r < n .
Dans une base adaptée à Im u , la matrice de uk est :
 
Bk ∗
,
0 0

où B ∈ Mr (IK) est la matrice de l’endomorphisme v induit par u sur Im u .


On en déduit que tr(v k ) = 0 pour tout k ∈ [[1, r]] . L’hypothèse Hr nous dit alors
que v est nilpotent, donc il existe k ∈ IN tel que v k = 0 .
Ainsi, pour tout y ∈ Im u , on a uk (y) = 0 . Par conséquent, pour tout x ∈ E :
 
uk+1 (x) = uk u(x) = 0,

donc uk+1 = 0 , ce qui montre Hn .

137
Chapitre 3. Réduction des endomorphismes

3.15 • Soit λ ∈ IK . Pour le calcul de χA (λ) , l’opération C1 ← C1 + C2 − C3 donne :


   
 λ − 1 −3 −2   1 −3 −2 
   
χA (λ) =  λ − 1 λ − 5 −2  = (λ − 1)  1 λ − 5 −2  .
 1−λ 3 λ   −1 3 λ 
Les opérations L2 ← L2 − L1 et L3 ← L3 + L1 donnent ensuite :
 
 1 −3 −2 
  2
χA (λ) = (λ − 1)  0 λ−2 0  = (λ − 1) (λ − 2) .
 0 0 λ−2 

Une liste de ses valeurs propres est donc (1, 2, 2) .


• On obtient le sous-espace propre associé à la valeur propre 1 en résolvant le sys-
tème AX = X , soit :

−x + 3y + 2z = 0
−2x + 4y + 2z = 0
2x − 3y − z = 0.
Notons E1 , E2 et E3 les équations de ce système.
En effectuant les opérations E2 ← E2 − E1 et E3 ← E3 + E1 , on montre que ce système
est équivalent à x = y = −z .
 
1
Ainsi E1 (A) = IKv1 , où v1 = 1 .
−1
L’étude du sous-espace propre associé à la valeur propre 2 conduit au système :

−2x + 3y + 2z = 0
−2x + 3y + 2z = 0
2x − 3y − 2z = 0
équivalent à 2x − 3y − 2z = 0 . On obtient E2 (A) = IKv2 ⊕ IKv3 où :
   
3 1
v2 = 2 et v3 = 0
0 1
(ils forment une famille libre, car ce sont deux vecteurs non proportionnels).
• La somme des dimensions des sous-espaces propres valant 3 , la matrice A est diagona-
lisable et une base de vecteurs propres est C = (v1 , v2 , v3 ) .
   
1 0 0 1 3 1
−1
On peut donc conclure que P AP = 0 2 0 , où P = 1 2 0 est la
0 0 2 −1 0 1
matrice de passage de la base canonique à C .

3.16 1. Soit F un sous-espace vectoriel de E stable par u . Notons v l’endomorphisme induit


par u sur F . Il est diagonalisable d’après la proposition 32 de la page 114, et ses valeurs
propres appartiennent au spectre de u . On peut donc écrire :
 
F = Ker(v − λ IdF ) = Ker(v − λ IdF ),
λ∈sp(v) λ∈sp(u)

la dernière égalité provenant du fait que Ker(v − λ IdF ) = {0} si λ est valeur propre de u
mais pas de v . Comme Ker(v − λ IdF ) ⊂ Eλ (u) = Ker(u − λ IdE ) pour tout λ ∈ sp(u) ,

138
Solutions des exercices


on en déduit que F s’écrit F = Fλ , avec Fλ sous-espace vectoriel de Eλ (u) pour
λ∈sp(u)

tout λ ∈ sp(u) .
Réciproquement, il est clair qu’un tel sous-espace vectoriel de E est stable par u puisque
tout sous-espace vectoriel d’un sous-espace propre est évidemment stable.
2. • Pour qu’il n’y ait qu’un nombre fini de sous-espaces vectoriels stables, il faut en
particulier que les sous-espaces propres de u ne contiennent qu’un nombre fini de
sous-espaces vectoriels, et donc que ce soient des droites. En effet, si un espace vec-
toriel contient deux vecteurs a et b linéairement indépendants, il contient toutes les
droites Vect(a + λb) , pour λ ∈ IK , et ces droites sont distinctes par liberté de la
famille (a, b) . Il faut donc que u possède exactement n = dim E valeurs propres car
il est diagonalisable.
• Réciproquement, si u admet exactement n valeurs propres, ses sous-espaces propres
sont des droites, chacune contenant exactement 2 sous-espaces vectoriels : elle-même
et {0} .
En notant (eλ )λ∈sp(u) une base de vecteurs propres de u , les sous-espaces vectoriels
stables par u sont, d’après la première question, les sous-espaces vectoriels engendrés
 
par certains des eλ . Ce sont donc les FI = Vect (eλ )λ∈I , où I est une partie
quelconque de sp(u) .
Par indépendance de la famille (eλ )λ∈sp(u) , l’application I �→ FI est injective, donc il
y a autant de sous-espaces vectoriels stables que de parties de sp(u) , c’est-à-dire 2n .

3.17 1. Soit λ ∈ IK . On a :
 
 λ−1 −2 2 
 
χA (λ) =  −2 λ−1 2 
 −2 −2 λ+3 
 
 λ−1 −2 2 
 
= λ−1 λ−1 2  C1 ← C1 + C 2 + C 3
 λ−1 −2 λ+3 
 
 1 −2 2 
 
= (λ − 1)  1 λ−1 2  (factorisation)
 1 −2 λ+3 

 1 −2 2

= (λ − 1)  0 λ+1 0 L2 ← L2 − L1
 0 0 λ+1 L3 ← L3 − L1
= (λ − 1) (λ + 1)2 .

Les valeurs propres de A sont donc 1 de multiplicité 1 et −1 de multiplicité 2 .


On détermine le sous-espace propre E1 en résolvant le système :

2y − 2z = 0
2x − 2z = 0
2x + 2y − 4z = 0
 
1
qui est équivalent à x = y = z. On a donc E1 = IKf1 avec f1 = 1 .
1

139
Chapitre 3. Réduction des endomorphismes

On détermine le sous-espace propre E−1 en résolvant le système :



2x + 2y − 2z = 0
2x + 2y − 2z = 0
2x + 2y − 2z = 0
qui est équivalent à x + y − z = 0 donc E−1 est de dimension 2 et :
�� � � �� � � ��
−y + z � −1 1
E−1 = y � (y, z) ∈ IK2 = Vect 1 , 0 .
z 0 1
� � � �
−1 1
Ainsi E−1 = IKf2 ⊕ IKf3 avec f2 = 1 et f3 = 0 .
0 1
Puisque dim E1 + dim E−1 = 3, la matrice A est diagonalisable et (f1 , f2 , f3 ) est une
base de diagonalisation. Par conséquent :
� �
1 0 0
A=P 0 −1 0 P −1
0 0 −1
avec :
� � � �
1 −1 1 1 1 −1
−1
P = 1 1 0 et P = −1 0 1 .
1 0 1 −1 −1 2
2. Puisque A est diagonalisable de spectre {−1, 1}, le polynôme minimal de A est :
πA (X) = (X − 1)(X + 1)
(polynôme unitaire scindé à racines simples dont les racines sont 1 et −1 ).

3.18 Pour tout k ∈ [[0, n − 1]] , on a :


v(X k ) = (n − k) X k+1 + kX k−1 ∈ IRk+1 [X] ⊂ IRn [X]
et v(X n ) = nX n−1 ∈ IRn [X] .
Donc l’endomorphisme v laisse stable le sous-espace vectoriel E = IRn [X] .
Considérons alors l’endomorphisme u induit par v sur E .
La matrice de u dans la base canonique (1, X, . . . , X n ) est :
 
0 1 (0)
 n 0 2 
 .. .. 
 . . 
 n−1 .
 .. .. 
 . . 
n
(0) 1 0
Son polynôme caractéristique ne paraissant pas facile à calculer, on peut rechercher les
valeurs propres de u par l’équation aux éléments propres.

r
Soit P ∈ E non nul de factorisation β (X − αk )nk sur C , où les αk sont des complexes
k=1
deux à deux distincts et β �= 0 .
Le polynôme P est un vecteur propre de u si, et seulement s’il existe λ ∈ IR tel que :
(1 − X 2 )P ′ + nXP = λP,

140
Solutions des exercices

soit :
P′ nX − λ n−λ n+λ
= 2 = + ·
P X −1 2 (X − 1) 2 (X + 1)
Comme :
r
P′  nk
= ,
P X − αk
k=1
il suffit que (n − λ)/2 et (n + λ)/2 soient des entiers naturels et que l’on prenne :
r = 2, α1 = 1, α2 = −1, n1 = (n − λ)/2 et n2 = (n + λ)/2
pour que P soit vecteur propre de u associé à la valeur propre λ .
Posons donc, pour tout k ∈ [[0, n]] :
λk = n − 2k et Pk = (X − 1)k (X + 1)n−k ∈ IRn [X].
Alors les polynômes P0 , . . . , Pn sont des vecteurs propres de u associés respectivement aux
valeurs propres λ0 , . . . , λn deux à deux distinctes.
Ainsi, u possède (au moins) n + 1 valeurs propres distinctes, donc est diagonalisable.

3.19 1. Dans une base de diagonalisation simultanée, les matrices des endomorphismes sont dia-
gonales, donc commutent deux à deux.
2. Raisonnons par récurrence forte sur la dimension de E . Le résultat est évident en di-
mension inférieure égale à 1 puisqu’alors toute matrice est diagonale.
Soit n ∈ IN∗ ; supposons le résultat vrai pour tout espace vectoriel de dimension stricte-
ment inférieure à n . Soit E un espace vectoriel de dimension n et (ui )i∈I une famille
d’endomorphismes de E diagonalisables et commutant deux à deux.
• Si tous les ui sont des homothéties, n’importe quelle base de E convient.
• Supposons alors que ui0 avec i0 ∈ I ne soit pas une homothétie. On peut alors écrire :
E =F ⊕G
où F est un sous-espace propre de ui0 et G la somme des autres sous-espaces propres.
Ces sous-espaces vectoriels sont stables par ui pour tout i par hypothèse de commu-
tation. Les familles (u′i )i∈I et (u′′i )i∈I d’endomorphismes induits sur F et G sont
alors formées d’endomorphismes commutant deux à deux, et diagonalisables puisque
ce sont des endomorphismes induits par des diagonalisables sur un sous-espace vec-
toriel stable (cf. proposition 32 de la page 114). Or, F �= {0} (c’est un sous-espace
propre) et F �= E (puisque ui0 n’est pas une homothétie) donc les dimensions de F
et G sont strictement inférieures à n . On peut appliquer l’hypothèse de récurrence : il
existe une base B′ de diagonalisation simultanée des u′i et de même une base B′′ de G
pour les u′′i . Les vecteurs de B′ et B′′ fournissent alors une base de diagonalisation
simultanée des (ui )i∈I .

3.20 1. Rappelons que les projecteurs pi vérifient les relations :



pi si j = i
∀(i, j) ∈ [[1, r]]2 pi ◦ pj = et p1 + · · · + pr = IdE .
0 si j =
� i
(a) • L’égalité p1 + · · · + pr = IdE = u0 donne la relation demandée pour k = 0 .
• Vérifions-la pour k = 1 . Comme l’endomorphisme induit par u sur chaque sous-
espace propre Eλi (u) est l’homothétie de rapport λi , les endomorphismes u
et λ1 pλ1 + · · · + λr pλr coïncident sur chacun des sous-espaces propres, donc sont

r
égaux puisque E = Eλi (u) .
i=1

141
Chapitre 3. Réduction des endomorphismes

• Soit k ∈ IN . On a :
(λ1 pλ1 + · · · + λr pλr ) ◦ (λk1 pλ1 + · · · + λkr pλr ) = λk+1
1 pλ1 + · · · + λk+1
r p λr
puisque p2λi = pλi pour tout i et que tous les autres termes en pλi ◦pλj , avec i �= j ,
sont nuls. On a alors immédiatement, par récurrence :
∀k ∈ IN uk = λk1 pλ1 + · · · + λkr pλr .
• Supposons maintenant u bijectif. Toutes ses valeurs propres sont donc non nulles.
De la même façon que précédemment, pour tout k ∈ ZZ− :
(λ−k −k k k
1 pλ1 + · · · + λr pλr ) ◦ (λ1 pλ1 + · · · + λr pλr ) = pλ1 + · · · + pλr = IdE ,

ce qui prouve :
λk1 pλ1 + · · · + λkr pλr = (λ−k −k
1 p λ 1 + · · · + λr p λ r )
−1
= (u−k )−1 = uk .
(b) Par combinaison linéaire, les relations précédentes donnent :
∀P ∈ IK[X] P (u) = P (λ1 ) p1 + · · · + P (λr ) pr .
En prenant les polynômes de Lagrange (L1 , . . . , Lr ) associés aux scalaires deux à
deux distincts λ1 , . . . , λr , cela donne ∀i ∈ [[1, r]] pi = Li (u) , donc les projecteurs
spectraux sont des polynômes en u .
 
6 9 12
2. La matrice A + I3 = 6 9 12 est de rang 1 . Cela prouve que −1 est valeur
−6 −9 −12
propre de A d’ordre de multiplicité au moins 2 . Comme la trace de A est nulle, la
troisième valeur propre est 2 et dim E−1 (A)+dim E2 (A)  3 . Donc A est diagonalisable
de spectre {−1, 2} .
Les projecteurs spectraux ont des matrices P et Q vérifiant donc P + Q = I3
et P Q = QP = 0 . Pour les calculer, on peut utiliser les polynômes de Lagrange comme
vu dans la question précédente, mais on peut aussi résoudre le système :

P + Q = I3
−P + 2Q = A.
La résolution de ce système donne immédiatement :
   
−1 −3 −4 2 3 4
2I3 − A A + I3
P = = −2 −2 −4 et Q= = 2 3 4 .
3 3
2 3 5 −2 −3 −4
On a alors :
∀k ∈ ZZ Ak = (−1)k P + 2k Q.

3.21 Comme A est annulée par le polynôme X(X 2 + X + 1) scindé à racines simples dans C ,
elle est diagonalisable sur C et la dimension de son noyau est égal à la multiplicité de 0
dans χA . De plus, ses valeurs propres appartiennent à {0, j, j 2 } donc il existe des entiers p
et q tels que son polynôme caractéristique χA soit égal à :
 q
χA = X n−p−q (X − j)p X − j 2 .
La matrice A étant réelle, son polynôme caractéristique aussi, donc ses deux racines non
réelles conjuguées j et j 2 ont même ordre de multiplicité, ce qui donne p = q . Le théorème
du rang donne alors rg A = 2p .

142
Solutions des exercices

3.22 Raisonnons par analyse-synthèse.


 
1 1
• Considérons une matrice M solution. La matrice A = = M 2 + M est annulée
1 1
par son polynôme caractéristique χA = X(X − 2) , donc le polynôme :
χA (X 2 + X) = (X 2 + X)(X 2 + X − 2) = X(X + 1)(X − 1)(X + 2)
annule M . Comme ce polynôme est scindé à racines simples, on en déduit que M est
diagonalisable.
 
α 0
Soit P ∈ GL2 (C) tel que P −1 M P = .
0 β
 
α2 + α 0
On a alors P −1 AP = 2 donc {α2 + α, β 2 + β} = {0, 2} .
0 β +β
Cela donne α ∈ {−1, 0} et β ∈ {−2, 1} (les racines des deux polynômes X 2 + X
et X 2 + X − 2 ) ou le contraire.
La matrice M a donc comme polynôme caractéristique (et donc annulateur) l’un des
quatre polynômes suivants : X(X − 1) , X(X + 2) , (X + 1)(X − 1) ou (X + 1)(X + 2) .
∗ Dans le premier cas, les relations M 2 + M = A et M 2 − M = 0 donnent M = 21 A ;
∗ dans le deuxième cas, les relations M 2 + M = A et M 2 + 2M = 0 donnent M = −A ;
∗ dans le troisième cas, les relations M 2 +M = A et M 2 −In = 0 donnent M = A−In ;
∗ dans le quatrième cas, les relations M 2 + M = A et M 2 + 3M + 2In = 0
donnent M = − 21 A − In .
• Réciproquement, on vérifie facilement que les quatre matrices précédentes conviennent.
        
1 1 1 −1 −1 0 1 1 −3 −1
Par conséquent S = , , , .
2 1 1 −1 −1 1 0 2 −1 −3

3.23 La matrice A est annulée par le polynôme X p − 1 dont les racines complexes sont simples.
Elle est donc diagonalisable dans M2 (C) et ses valeurs propres sont des racines p -ièmes de
l’unité. Ainsi, A est semblable à une matrice diagonale Diag(α, β) où α et β sont des
racines p -ièmes de l’unité.
D’un autre côté, le polynôme caractéristique χA (X) = X 2 + aX + b de A est à coefficients
entiers. La relation a = − tr A = −(α + β) montre, du fait de l’inégalité triangulaire, que a
est un entier de module inférieur ou égal à 2 et que b = det A = αβ est un entier de module 1
c’est-à-dire b = ±1 .
• Si A possède une valeur propre réelle, alors comme a est réel, l’autre valeur propre est
également réelle. Comme α et β sont des racines p -ièmes de l’unité, la matrice A est
alors semblable à Diag(1, 1), Diag(1, −1) ou Diag(−1, −1) , donc A2 = I2 .
• Si A possède une valeur propre non réelle, eiθ avec θ �≡ 0 [π] , alors l’autre est conjuguée
et leur produit b vaut 1. On en déduit que a = −2 cos θ ∈ {−1, 0, 1} car a est un entier
et θ �≡ 0 [π] . Le polynôme caractéristique est alors égal à X 2 + X + 1, X 2 − X + 1
ou X 2 + 1. La matrice A est semblable à :
∗ Diag(j, j 2 ) et dans ce cas A3 = I2 ;
∗ Diag(−j 2 , −j) et dans ce cas A6 = I2 ;
∗ ou Diag(i, −i) et dans ce cas A4 = I2 .
Dans tous les cas, on a A12 = I2 .

143
Chapitre 3. Réduction des endomorphismes

3.24 1. Soit λ ∈ C . En utilisant la transvection par blocs C2 ← C2 + C1 (λIn ) , c’est-à-dire en


 
In λIn
multipliant λI2n − B à droite par la matrice bloc , on obtient :
0 In
   
λIn −A λIn −A + λ2 In
χB (λ) = det = det .
−In λIn −In 0

En échangeant les deux « colonnes » de cette matrice, c’est-à-dire en effectuant les opé-
rations élémentaires Ci ↔ Ci+n pour i ∈ [[1, n]] , on obtient ensuite :
 
−A + λ2 In λIn
χB (λ) = (−1)n det = (−1)n det(−A + λ2 In ) det(−In )
0 −In
 
= det λ2 In − A = χA (λ2 ).

Donc, χB (X) = χA (X 2 ) .
2. • Un nombre complexe λ est valeur propre de B si, et seulement si, λ2 est valeur propre
de A . Si l’on note λ1 , . . . , λd les valeurs propres distinctes de A et mλ1 , . . . , mλd leurs
ordres de multiplicité dans χA , alors :
d d
  mλ 
χB (X) = X 2 − λi i
= (X − µi )mλi (X + µi )mλi ,
i=1 i=1

en choisissant, pour tout i ∈ [[1, d]] , une racine carrée µi de λi .


On en déduit que toute valeur propre µ non nulle de B , a une multiplicité dans χB
égale à mµ2 , et que si 0 est valeur propre de A , alors il est valeur propre de B
d’ordre 2m0 .
• Déterminons la dimension des sous-espaces propres de B en fonction de ceux de A .
 
X
Soit µ une valeur propre de B . Un vecteur avec (X, Y ) ∈ (Cn )2 appartient
Y
au sous-espace propre Eµ (B) si, et seulement si, l’on a :
 
AY = µX AY = µ2 Y
c’est-à-dire si, et seulement si,
X = µY X = µY,

ou encore si, et seulement si, Y ∈ Eµ2 (A) et X = µY . L’application :

Eµ2 (A) −→ µ (B) 


E
µY
Y �−→
Y

est donc bijective, et comme elle est évidemment linéaire, c’est un isomorphisme.
D’où dim Eµ (B) = dim Eµ2 (A) pour tout µ ∈ sp B .
Comme B est diagonalisable si, et seulement si, pour tout µ ∈ sp(B) la dimension
de Eµ (B) est égale à la multiplicité de µ dans χB , on en déduit que :
∗ lorsque 0 n’est pas valeur propre de A , la matrice B est diagonalisable si, et
seulement si, A l’est ;
∗ lorsque 0 est valeur propre de A , la matrice B n’est pas diagonalisable.

144
Solutions des exercices

3.25 On étudie la matrice :  


4 2
U= .
−3 −1
Son polynôme caractéristique, X 2 − 3X + 2 , est simplement scindé de racines 1 et 2, donc
la matrice U est diagonalisable.
   
3 2 2
• Comme U − I2 = , on obtient E1 (U ) = C .
−3 −2 −3
   
2 2 1
• De même, puisque U − 2I2 = , on trouve E2 (U ) = C .
−3 −3 −1
   
2 1 1 0
En posant P = et D = , on a donc U = P DP −1 . On trouve
−3 −1 0 2
 
−1 −1
facilement P −1 = . Donc :
3 2
   
2 1 1 0 −1 −1
U= .
−3 −1 0 2 3 2
En effectuant des produits par blocs, on vérifie alors que :
     
4A 2A 2In In A 0 −In −In
=
−3A −A −3In −In 0 2A 3In 2In
et que :
  
2In In −In −In
= I2n ,
−3In −In 3In 2In
 
A 0
ce qui prouve que la matrice B est semblable à C = .
0 2A

• Si B est diagonalisable, alors la matrice C aussi, donc il existe un polynôme Q scindé à


 
Q(A) 0
racines simples tel que Q(C) = 0 . Or, Q(C) = . Donc Q(A) = 0 , ce
0 Q(2A)
qui prouve que la matrice A est diagonalisable puisque Q est scindé à racines simples.
• Si A est diagonalisable, alors il existe une matrice R inversible et une matrice diago-
nale D telles que A = RDR−1 . On a alors, par produit par blocs :
     −1
A 0 R 0 D 0 R 0
= .
0 2A 0 R 0 2D 0 R
Ainsi, C est diagonalisable, donc B aussi.

3.26 En utilisant la commutation de A et B , on prouve facilement par récurrence que :


 
∗ k Ak kAk−1 B
∀k ∈ IN M = .
0 Ak
Ainsi, la relation :
 
P (A) P ′ (A)B
P (M ) = (∗)
0 P (A)
est valable lorsque P = X k , pour k ∈ IN∗ et de façon évidente lorsque P = 1 . Par linéarité,
elle est donc vraie pour tout polynôme P .

145
Chapitre 3. Réduction des endomorphismes

• En particulier, si M est diagonalisable, alors il existe un polynôme P scindé à racines


simples qui annule M . On en déduit, que P (A) = 0 puis que A est diagonalisable. Elle
est donc semblable à une matrice diagonale Diag(λ1 , . . . , λn ) , donc P ′ (A) est semblable
 
à Diag P ′ (λ1 ), . . . , P ′ (λn ) . Or, les valeurs propres λi de A sont racines de P (cf. pro-
position 12 de la page 99), donc ne sont pas racines de P ′ , puisque P est à racines
simples. On en déduit que P ′ (A) est inversible. Comme P ′ (A)B = 0 , il vient B = 0 .
• Réciproquement, si A est diagonalisable et B = 0 , en prenant un polynôme P scindé
à racines simples annulant A , on a P (M ) = 0 d’après la relation (∗) . Donc M est
diagonalisable.
Par conséquent, M est diagonalisable si, et seulement si, la matrice A est diagonalisable et
la matrice B est nulle.

3.27 1. Soit u ∈ L(E) . On montre facilement par récurrence sur k ∈ IN que Gka (u) = ak ◦ u . On

N
en déduit, pour tout P = αk X k :
k=0

N N
 
P (Ga )(u) = αk Gka (u) = αk ak ◦ u = P (a) ◦ u.
k=0 k=0

On en déduit l’égalité P (Ga ) = GP (a) . Donc si P (a) = 0 , alors P (Ga ) = 0 et récipro-


quement, si P (Ga ) = 0 , alors GP (a) = 0 et en particulier P (a) = GP (a) (IdE ) = 0 .
Les idéaux annulateurs de a et Ga sont donc égaux, ce qui prouve que a possède un
polynôme annulateur scindé à racines simples si, et seulement si, Ga possède un polynôme
annulateur scindé à racines simples. Par le théorème 30 de la page 113, on en déduit
que Ga est diagonalisable si, et seulement si, a est diagonalisable.
2. De la même façon, on prouve que Da est diagonalisable si, et seulement si, a est dia-
gonalisable. Donc, si a est diagonalisable, les deux endomorphismes Ga et Da de L(E)
sont diagonalisables. Par ailleurs, ils commutent par associativité de la composition.
D’après le résultat admis, il existe donc une base de L(E) constituée de vecteurs propres
communs à Ga et Da et donc également vecteurs propres de Ma = Ga − Da .
3. Supposons a nilpotent. En utilisant le premier résultat de la première question, puisque a
est annulé par un polynôme de la forme X k , alors il en est de même de Ga . On a
évidemment le même résultat pour Da , donc si a est nilpotent, alors Ga et Da sont
nilpotents.
Considérons un entier p tel que Gpa = Dap = 0 . Par commutation de Ga et Da , la formule
du binôme de Newton donne :
2p
  
2p
Ma2p = (−1)k G2p−k
a Dak .
k
k=0

Or, Dak = 0 pour tout k  p et G2p−k


a= 0 pour tout k  p . Donc Ma2p = 0 et Ma est
nilpotent.
4. La nullité de Ma équivaut à dire que a commute avec tout endomorphisme de E . Soit x
un vecteur non nul de E . Considérons un supplémentaire H de la droite Cx et la projec-
tion p sur Cx parallèlement à H . Comme a commute avec p , il stabilise E1 (p) = Cx .
Ainsi, a stabilise toutes les droites vectorielles de E ce qui, classiquement (cf. exer-
cice 2.15 de la page 75), nous montre que a est une homothétie.

146
Solutions des exercices

5. Écrivons a = d + n , avec d diagonalisable, n nilpotent et d ◦ n = n ◦ d . Il est clair


que Ga = Gd + Gn et Da = Dd + Dn . Finalement, Ma = Md + Mn . La deuxième
question nous dit que Md est diagonalisable et la troisième que Mn est nilpotent. De
plus :
Md ◦ Mn = (Gd − Dd ) ◦ (Gn − Dn ) = Gd ◦ Gn − Gd ◦ Dn − Dd ◦ Gn + Dd ◦ Dn .
Par commutation de d et n , on a Gd ◦ Gn = Gn ◦ Gd et de même Dd ◦ Dn = Dn ◦ Dd .
Par le même argument que dans la deuxième question, on a aussi Gd ◦ Dn = Dn ◦ Gd
et Dd ◦ Gn = Gn ◦ Dd . Donc Md et Mn commutent.
Si maintenant on suppose Ma diagonalisable, alors les deux égalités :
Ma = Md + Mn et Ma = Ma + 0
sont des décompositions de Ma comme somme d’un endomorphisme diagonalisable et
d’un endomorphisme nilpotent qui commutent. L’unicité admise donne alors Mn = 0 .
La question précédente nous dit donc qu’il existe λ ∈ C tel que n = λ IdE . Comme n
est nilpotent, cela donne λ = 0 , donc n = 0 . Ainsi, a = d , donc a est diagonalisable.
 
 λ − 14 −18 −18 
 
3.28 1. Pour tout λ ∈ IR , on a χA (λ) =  6 λ+7 9 .
 2 3 λ+1 
En retranchant la deuxième colonne de la troisième, il vient :
 
 λ − 14 −18 0 
 
χA (λ) =  6 λ+7 −λ + 2 .
 2 3 λ−2 
En ajoutant la dernière ligne à la deuxième, puis en développant par rapport à la dernière
colonne, on obtient :
   
 λ − 14 −18 0   λ − 14
  −18 
χA (λ) =  8 λ + 10 0  = (λ − 2)  8 λ + 10 
 2 3 λ−2 
 2 
= (λ − 2) λ − 4λ + 4 = (λ − 2)3 .
Ainsi χA est scindé et admet 2 pour racine triple. Comme A �= 2I3 , la matrice A n’est
pas diagonalisable (cf. exemple 26 de la page 110).
En revanche, elle est trigonalisable, puisque χA est scindé.
 
2 0 0
2. Pour trigonaliser A sous la forme T = 0 2 1 demandée, on a donc besoin de
0 0 2
trouver deux vecteurs propres non colinéaires U et V et un troisième vecteur W , indé-
pendant de (U, V ) , tel que AW = 2V + W .
On cherche donc une base (U, V, W ) de IR3 telle que :

(A − 2I3 ) U = 0
(⋆) (A − 2I3 ) V = 0
(A − 2I3 ) W = V.
Les vecteurs U et V sont donc à chercher dans le sous-espace propre de A pour la
 
12 18 18
valeur propre 2 . Comme A − 2I3 = −6 −9 −9 est de rang 1 , le sous-espace
−2 −3 −3
propre E2 (A) est le plan de IR3 d’équation 2x + 3y + 3z = 0 .
 
6
De plus, le vecteur V doit appartenir à Im(A − 2I3 ) = Vect −3 .
−1
147
Chapitre 3. Réduction des endomorphismes
     
12 0 1
Prenons donc V = −6 , puis U = 1 , et enfin W = 0 .
−2 −1 0
Les vecteurs U et V forment une base du plan E2 (A) d’équation 2x + 3y + 3z = 0
et W �∈ E2 (A) donc la famille (U, V, W ) est une base de IR3 vérifiant (⋆) .
On a alors :
   
0 12 1 2 0 0
−1
A = PTP avec P = 1 −6 0 et T = 0 2 1 .
−1 −2 0 0 0 2
3.29 Raisonnons par récurrence sur la dimension de E en posant, pour tout n ∈ IN :
Hn : « Pour tout espace vectoriel E de dimension n et pour toute famille (ui )i∈I
d’endomorphismes trigonalisables de E commutant deux à deux, il existe
une base de E dans laquelle les matrices de tous les ui sont triangulaires
supérieures. »
Hn′ : « Pour toute famille (Ai )i∈I de matrices de Mn (IK) trigonalisables et
commutant deux à deux, il existe une matrice inversible P telle que, pour
tout i ∈ I , la matrice P −1 Ai P soit triangulaire supérieure. »
Il est clair que Hn′ est la traduction matricielle de Hn .
Initialisation. H0 est évident.
Hérédité. Soit n ∈ IN∗ ; supposons H0′ , . . . , Hn−1

.
Soit E un espace vectoriel de dimension n et (ui )i∈I une famille d’endomorphismes
trigonalisables de E commutant deux à deux.
Si tous les ui sont des homothéties, toute base de E les trigonalise simultanément.
Sinon, prenons i0 ∈ I tel que ui0 ne soit pas une homothétie. Considérons l’une de
ses valeurs propres λ (qui existe car ui0 est trigonalisable et dim E > 0 ) et prenons
une base B de E adaptée au sous-espace propre Eλ (ui0 ) . Sa dimension p vérifie 1  p
(un sous-espace propre n’est pas nul) et p < n (puisque ui0 n’est pas une homothétie).
Soit i ∈ I . Comme ui commute avec ui0 , il stabilise ce sous-espace propre. Dans la
base B , la matrice de ui est de la forme :
 
Ai ∗
Mi = avec Ai ∈ Mp (IK) et Bi ∈ Mn−p (IK).
0 Bi
Comme ui est trigonalisable, il existe un polynôme P scindé tel que P (Mi ) = 0 . On a
alors P (Ai ) = 0 et P (Bi ) = 0 , donc les matrices Ai et Bi sont trigonalisables.
D’autre part, l’hypothèse de commutation des ui donne, par produit par blocs, les rela-
tions Ai Aj = Aj Ai et Bi Bj = Bj Bi pour tout (i, j) ∈ I 2 .
Les hypothèses Hp′ et Hn−p ′
nous donnent donc l’existence de deux matrices inver-
sibles Q ∈ GLp (IK) et R ∈ GLn−p (IK) telles que, pour tout i ∈ I :
Ti = Q−1 Ai Q ∈ Tp+ et Ti′ = R−1 Bi R ∈ Tn−p
+
.
   
Q 0 Q−1 0
En posant P = , qui est inversible, d’inverse P −1 = , on
0 R 0 R−1
obtient, pour tout i ∈ I :
 
Ti ∗
P −1 Mi P = ∈ Tn+ (IK).
0 Ti′
Dans la base B′ de E telle que P soit la matrice passage de B à B′ , les matrices des ui
sont donc triangulaires supérieures, ce qui achève de démontrer Hn .

148
Solutions des exercices

3.30 Soit E un sous-espace vectoriel de Mn (IK) de dimension strictement supérieure à n(n+1)/2 .


Considérons le sous-espace vectoriel Tn++ (IK) constitué des matrices triangulaires supérieures
strictes. Il est de dimension n(n−1)
2
, donc dim E +dim Tn++ (IK) > n2 = dim Mn (IK) . Il existe
donc, dans E , une matrice non nulle triangulaire supérieure stricte, et une telle matrice est
nilpotente (cf. proposition 41 de la page 119).

3.31 1. D’après l’exemple 16 de la page 102, le polynôme P = X n − a1 X n−1 − · · · − an est le


polynôme caractéristique de sa matrice compagnon :
 0 ··· ··· 0 an

 .. .. .. .. 
 1 . . . . 
 .. .. .. .. 
A=
 0 . . . .
.

 . 
 . .. .. 
. . . 0 a2
0 ··· 0 1 a1
Comme P est à coefficients entiers, la matrice A est bien à coefficients entiers.
2. Soit k ∈ IN . La matrice A , ayant P comme polynôme caractéristique, est semblable
dans Mn (C) à une matrice triangulaire de diagonale (λ1 , . . . , λn ) . Donc Ak est semblable
à une matrice triangulaire de diagonale (λk1 , . . . , λkn ) . Son polynôme caractéristique est

n
donc (X − λki ) et il est à coefficient entiers puisque Ak , comme A , est à coefficients
i=1
entiers.
3. (a) Soit k ∈ IN et ℓ ∈ [[0, n − 1]] . Le coefficient ck,ℓ du terme de degré ℓ de Pk vérifie :
� � � �
� � � � �
� � n
|ck,ℓ | = � λki1 · · · λkiℓ �  |λki1 · · · λkiℓ |  1= .
� � ℓ
i1 <···<iℓ i1 <···<iℓ i1 <···<iℓ

Comme les ck,ℓ sont des entiers, ils ne prennent qu’un nombre fini de valeurs, et il en
est donc de même pour les polynômes Pk .
� −1
(b) Notons R = Pk {0} l’ensemble des racines des polynômes Pk . C’est un ensemble
k∈IN
fini, puisqu’il n’y a qu’un nombre fini de polynômes Pk et que chacun a un nombre
fini de racines.
Soit i ∈ [[1, n]] . La suite (λki )k∈IN est à valeurs dans l’ensemble fini R , donc il
existe k < ℓ tels que λki = λℓi . Cela entraîne λki (λℓ−ki − 1) = 0 , c’est-à-dire λi = 0
ou λℓ−k
i = 1 . Ainsi, λ i est nul ou racine de l’unité.

3.32 1. En développant par rapport à la deuxième colonne, on trouve facilement


que χB = (X + 1)3 . La matrice B n’a donc qu’une valeur propre : −1 . Si elle était
diagonalisable, alors elle serait égale à la matrice −I3 , ce qui n’est pas le cas. La matrice
B n’est donc pas diagonalisable.
2. D’après le théorème de Cayley-Hamilton, le polynôme minimal de B est un diviseur
de (X + 1)3 .
� �
4 0 8
Posons alors C = B + I3 = 3 0 6 . On a C �= 0 et C 2 = 0 .
−2 0 −4
Le polynôme minimal de B est donc πB = (X + 1)2 .

149
Chapitre 3. Réduction des endomorphismes

3. Soit u l’endomorphisme canoniquement associé à B et v = u + IdIK3 . On veut montrer


 
0 0 0
3
l’existence d’une base (f1 , f2 , f3 ) de IK dans laquelle la matrice de v est 0 0 1
0 0 0
c’est-à-dire telle que f1 et f2 soient dans le noyau de v et que v(f3 ) = f2 .
Comme C 2 = 0 , on en déduit Im v ⊂ Ker v .
Par ailleurs, comme rg(C) = 1 , on a dim Im v = 1 et dim Ker v = 2 .
Prenons donc une base (f2 ) de Im v que l’on complète en (f1 , f2 ) une base de Ker v .
Ensuite, on choisit un antécédent f3 de f2 par v . Comme v(f3 ) = f2 �= 0 , le vecteur f3
n’appartient pas à Ker v = Vect(f1 , f2 ) , donc (f1 , f2 , f3 ) est libre et par conséquent
une base de IK3 . Dans cette base, la matrice de v a la forme cherchée, ce qui prouve le
résultat.
Remarque On peut finir les calculs, en posant :
     
4 0 1
f2 = 3 , f1 = 1 et f3 = 0 .
−2 0 0

Cela donne B = P T P −1 , avec :


   
0 4 1 0 0 0
P = 1 3 0 et T = 0 0 1 .
0 −2 0 0 0 0

3.33 • Le polynôme caractéristique de A est χA (X) = (X − 1)2 (X + 1) (développement par


rapport à la dernière ligne).
 
1 1 1
∗ La matrice A + I3 = 1 1 0 est de rang 2 et admet dans son noyau le vecteur
0 0 2
 
−1
non nul e−1 = 1 . Donc E−1 (u) = IRe−1 .
0
 
−1 1 1
∗ La matrice A − I3 = 1 −1 0 est de rang 2 et admet dans son noyau le
0 0 0
 
1
vecteur non nul e1 = 1 . Donc E1 (u) = IRe1 .
0
 
2 −2 −1
2
∗ La matrice (A − I3 ) = −2 2 1 est de rang 1 , et le sous-espace carac-
0 0 0
téristique F1 (u) = Ker(u − IdIR3 )2 de A associé à la valeur propre 1 est le plan
d’équation 2x − 2y − z = 0 .
Comme E−1 (u) , E1 (u) et F1 (u) sont des noyaux d’endomorphismes commutant avec u ,
puisque polynômes en u , ils sont stables par u , ainsi que {0} et IR3 . On remarque
également que E−1 (u) ⊕ E1 (u) est stable par u , comme somme de deux sous-espaces
vectoriels stables.

150
Solutions des exercices

• Montrons qu’il n’y en a pas d’autres. Soit F un sous-espaces stable par u .


∗ Si F est de dimension 0 ou 3 , il est respectivement égal à {0} ou IR3 .
∗ Si F est de dimension 1 , alors F est une droite stable, donc engendrée par un vecteur
propre de u c’est-à-dire F = IRe1 ou F = IRe−1 .
∗ Si F est de dimension 2 , le polynôme caractéristique de l’endomorphisme induit
par u sur F est un polynôme de degré 2 divisant χA .
Il vaut donc (X − 1)2 ou (X − 1)(X + 1) .
⋆ Dans le premier cas, F est contenu dans le noyau de (u − IdIR3 )2 qui est égal
à F1 (u) , donc qui lui est égal pour des raisons de dimension.
⋆ Dans le second cas, F contient un vecteur propre associé à 1 et un vecteur propre
associé à −1 . Il est donc égal à IRe1 ⊕ IRe−1 .

3.34 Dans tout l’exercice, nous noterons v = u − λ IdE .


1. Soit k ∈ IN .
 
Pour tout x ∈ Ker(v k ) , on a v k+1 (x) = v v k (x) = 0 , donc Ker(v k ) ⊂ Ker(v k+1 ) .
   
La suite Ker(v k ) k∈IN
est donc croissante, ainsi donc que dim Ker(v k ) k∈IN
qui est à
valeurs dans [[0, n]] , où n est la dimension de E .
Il existe donc k tel que dim Ker(v k+1 ) = dim Ker(v k ) , ce qui donne Ker(v k+1 ) = Ker(v k )
avec l’inclusion précédemment montrée. Notons r le plus petit tel entier k .
 
Soit p  r et x ∈ Ker(v p+1 ) . On a alors v r+1 v p−r (x) = 0 , ce qui donne :

v p−r (x) ∈ Ker(v r+1 ) = Ker(v r )


et, par suite, x ∈ Ker(v p ) .
Cela prouve l’inclusion réciproque de celle obtenue précédemment : Ker(v p+1 ) ⊂ Ker(v p ) .
 
On a donc montré que la suite Ker(v p ) pr
était constante.
2. (a) Puisque m est l’ordre de multiplicité de λ , le polynôme Q n’admet pas λ
pour racine, donc est premier avec (X − λ)m . Comme χu = (X − λ)m Q , le
théorème de Cayley-Hamilton et le lemme de décomposition des noyaux nous
donnent E = Fλ (u) ⊕ Ker Q(u) . D’autre part, toujours par le fait que χu est an-
nulateur de u , on a l’inclusion Im(u − λ IdE )m ⊂ Ker Q(u) . C’est en fait une égalité,
puisque, par la formule du rang, dim Im(u−λ IdE )m = n−dim Fλ (u) = dim Ker Q(u) .
Finalement, on a :
E = Fλ (u)⊕Ker Q(u) = Ker(u−λ IdE )m ⊕Im(u−λ IdE )m = Ker(v m )⊕Im(v m ). (∗)
(b) Si x ∈ Ker(v 2m ) , alors v m (x) ∈ Ker(v m ) ∩ Im(v m ) , donc v m (x) = 0 .
Cela prouve l’inclusion Ker(v 2m ) ⊂ Ker(v m ) et donc, par la première question :
Ker(v m ) ⊂ Ker(v m+1 ) ⊂ Ker(v 2m ) ⊂ Ker(v m ).
On en déduit Ker(v m ) = Ker(v m+1 ) ce qui, par définition de r , donne m  r .
 
La suite Ker(v p ) pr étant constante égale à Fλ (u) , on a bien l’égalité deman-
dée Fλ (u) = Ker(u − λ IdE )m .
(c) L’endomorphisme v m est un polynôme en v , donc commute avec v . Ainsi, son noyau
et son image sont stables par v . Notons v1 et v2 les endomorphismes induits par v
respectivement sur Ker(v m ) et Im(v m ) .
m
• Il est clair que v1 est nilpotent donc que χv1 = X dim Ker(v )
.

151
Chapitre 3. Réduction des endomorphismes

• Comme Ker(v) ∩ Im(v m ) ⊂ Ker(v m ) ∩ Im(v m ) = {0} , on en déduit que v2 est


injectif. Donc 0 n’est pas racine de χv2 .
La relation (∗) donne l’égalité χv = χv1 χv2 qui prouve que l’ordre de multiplicité
de 0 en tant que valeur propre de v est égal à dim Ker(v m ) .
En revenant à u , cela donne m = dim Fλ (u) .
 
3. (a) La suite Ker(v k ) k∈IN
étant strictement croissante jusqu’au rang r puis constante.
 
Par le théorème du rang, la suite Im(v k ) k∈IN
, qui est évidemment décroissante, est
strictement décroissante jusqu’au rang r puis constante.
   
Or, pour tout k ∈ IN , v k (E) = v k Ker(v m ) + v k Im(v m ) à l’aide des décompo-
sitions (∗) , et la somme est directe par stabilité de Ker(v m ) et Im(v m ) par v k .
Avec les notations de la question 2(c), l’endomorphisme v2 de Im(v m ) est bijectif,
 
donc v k Im(v m ) = Im(v m ) pour tout k .
  
Ainsi, la suite dim v k Ker(v m ) est strictement décroissante jusqu’au rang r
k∈IN
 
puis constante, et elle stationne à 0 puisque v m Ker(v m ) = {0} .
   
Comme v k Ker(v m ) = (u − λ IdE )k Fλ (u) , r est le plus petit des entiers k tels
 
que (u − λ IdE )k Fλ (u) = {0} , c’est-à-dire est l’indice de nilpotence de l’endomor-
phisme induit par (u − λ IdE ) sur Fλ (u) .
(b) Comme Ker(v m ) = Ker(v r ) , les décompositions (∗) s’écrivent aussi :

E = Ker(u − λ IdE )r ⊕ Ker Q(u),

ce qui permet de montrer facilement que u est annulé par le polynôme (X − λ)r Q . Le
polynôme πu est donc un diviseur de (X − λ)r Q . Si πu admettait λ comme racine
d’ordre de multiplicité strictement inférieur à r , il diviserait (X − λ)r−1 Q qui serait
alors annulateur de u . Mais c’est impossible puisque :

Ker(u − λ IdE )r−1 ⊕ Ker Q(u)  Ker(u − λ IdE )r ⊕ Ker Q(u) = E.

3.35 1. Le sous-espace vectoriel Fλ = Ker(u−λ IdE )m(λ) est stable par u comme noyau d’un po-
lynôme en u qui commute donc avec u . De plus, d commute avec n , donc avec u = d+n
puis avec tout polynôme en u . Donc d stabilise Fλ . Enfin, n = u − d le stabilise égale-
ment.
2. Par définition de Fλ , l’endomorphisme uλ −λ IdFλ est nilpotent. De plus, dλ −uλ = −nλ
est également nilpotent. Puisque n et u commutent, −nλ = dλ − uλ commute
avec uλ − λ IdFλ . Il est alors facile de montrer, à l’aide de la formule du binôme de
Newton, que leur différence dλ − λ IdFλ est également un endomorphisme nilpotent (voir
par exemple l’exercice 2.18 de la page 76). Les valeurs propres de dλ − λ IdFλ sont donc
toutes nulles, et comme il est diagonalisable, comme endomorphisme induit par d − λ IdE
qui est diagonalisable, il est nul. Donc dλ = λ IdFλ .
3. On en déduit que d est l’unique endomorphisme de E coïncidant avec λ IdFλ sur
chaque Fλ (caractérisation d’une application linéaire par ses restrictions à une décom-
position). Cela prouve donc l’unicité de d , puis celle de n = u − d .

152
Solutions des exercices

3.36 1. (a) Comme E �= {0} , on a p  1 donc, par définition de l’indice, up−1 �= 0 . On prend
alors un vecteur de E n’appartenant pas à Ker(up−1 ) et l’on montre facilement que
la famille B est libre (voir l’exemple 32 de la page 62).
� � � �
La stabilité de F par u vient du fait que u B = u(x), . . . , up−1 (x), 0 ∈ F p . La
matrice de l’endomorphisme induit par u sur F est alors immédiatement :
 
0 ··· ··· 0
 .. .. 
 1 . . 
Mp =  .
 .. .. .. 
. . .
(0) 1 0

(b) • Complétons la famille libre B en une base de E . Il est clair que la forme linéaire
coordonnée dans cette base correspondant au vecteur up−1 (x) convient ; notons-
la ϕ .
� �
• Soit y ∈ G . Pour tout k ∈ [[0, p − 1]] , on a donc ϕ uk (y) = 0 , donc :
� � �� � �
∀k ∈ [[0, p − 2]] ϕ uk u(y) = ϕ uk+1 (y) = 0.
� � ��
Comme de plus up (y) = 0 , cela donne aussi ϕ up−1 u(y) = 0 . Donc u(y) ∈ G ,
ce qui montre la stabilité de G par u .
� �
• Puisque ϕ up−1 (x) �= 0 , la forme linéaire ϕ ◦ up−1 est non nulle, et il en est donc
de même de ϕ ◦ uk , pour tout k ∈ [[0, p − 1]] .
Ainsi, G est l’intersection de p hyperplans, ce qui prouve, d’après le cours de
première année, que sa dimension est supérieure ou égale à dim E − p . Comme F
est de dimension p , pour montrer l’égalité E = F ⊕ G , il suffit de montrer
que F ∩ G = {0} .
Supposons, par l’absurde, qu’il existe une famille non nulle (λ0 , . . . , λp−1 ) telle

p−1
que y = λk uk (x) ∈ G . Considérant le plus petit k tel que λk �= 0 , on a alors :
k=0

p−1
� � � � �
0 = (ϕ ◦ up−1−k )(y) = λi ϕ up−1−i (x) = λk ϕ up−1 (x)
i=k

car les autres termes de la somme sont nuls par l’hypothèse up = 0 . C’est contra-
� �
dictoire, puisque λk �= 0 et ϕ up−1 (x) �= 0 .
(c) Montrons par récurrence sur n ∈ IN la propriété suivante.
Hn : « Tout endomorphisme nilpotent u d’un espace vectoriel de dimen-
sion n peut-être représenté une matrice diagonale par blocs, avec des
blocs de la forme Mp . »

Initialisation. La propriété H0 est immédiate (aucun bloc diagonal).


Hérédité. Soit n  1 ; supposons Hk , pour tout k < n .
Soit E un espace vectoriel de dimension n et u un endomorphisme nilpotent de E .
Comme n  1 , on peut appliquer ce qui précède et obtenir une décomposition
de E comme somme de deux sous-espaces F et G , stables par u , tels que la
matrice, dans une certaine base de F , de l’endomorphisme induit par u sur F
soit Mp , où p = dim F  1 .

153
Chapitre 3. Réduction des endomorphismes

L’endomorphisme uG est évidemment nilpotent. En appliquant l’hypothèse de


récurrence Hn−p , on peut donc trouver une base de G dans laquelle sa matrice
est diagonale par blocs, avec des blocs de la forme Mk . En concaténant ces bases
de F et de G , on obtient bien une base de E dans laquelle la matrice est diagonale
par blocs, avec des blocs de la forme Mk (le premier étant Mp ). Cela prouve Hn .
2. On commence par décomposer E en somme des sous-espaces caractéristiques de u , c’est-

à-dire E = Fλ (u) . Sur chaque Fλ (u) , u induit un endomorphisme uλ somme de
λ∈sp(u)
l’homothétie de rapport λ et d’un endomorphisme nilpotent nλ . On peut donc, d’après
ce qui précède, trouver une base de Fλ (u) dans laquelle la matrice de nλ est diagonale
par blocs, avec des blocs de la forme Mr et donc la matrice de uλ diagonale par blocs,
avec des blocs de la forme λIr + Mr .
Cela prouve le résultat.
3. On remarque alors que si un endomorphisme u admet λIr + Mr pour matrice dans
une base (e1 , . . . , er ) , alors sa matrice dans (en , . . . , e1 ) est λIr + MrT . Donc les ma-
trices λIr + MrT et λIr + Mr sont semblables.
Le résultat s’ensuit, d’après la question précédente, en travaillant bloc par bloc.

k
3.37 1. Soit A ∈ Mn (IR) . On montre facilement par récurrence sur k ∈ IN que gA (M ) = Ak M .

N
On en déduit, pour tout P = αk X k :
k=0
N N
 k

P (gA )(M ) = αk gA (M ) = αk Ak M = P (A)M.
k=0 k=0

On en déduit l’égalité P (gA ) = gP (A) . Donc si P (A) = 0 , alors P (gA ) = 0 et récipro-


quement, si P (gA ) = 0 , alors gP (A) = 0 et en particulier P (A) = gP (A) (In ) = 0 .
Les idéaux annulateurs de A et gA sont donc égaux, ce qui prouve que A possède un
polynôme annulateur scindé si, et seulement si, gA possède un polynôme annulateur
scindé. Par le théorème 39 de la page 119, on en déduit que gA est trigonalisable si, et
seulement si, A est trigonalisable.
2. De la même façon, on prouve que dA est trigonalisable si, et seulement si, AT est trigona-
lisable c’est-à-dire si, et seulement si, A est trigonalisable. Donc, si A est trigonalisable,
les deux endomorphismes gA et dA de Mn (IR) sont trigonalisables. Par ailleurs, ils
commutent par associativité du produit matriciel.
D’après le résultat admis, il existe donc une base de trigonalisation commune à gA et dA ,
qui est donc également une base de trigonalisation pour mA = gA − dA .
3. Soit λ ∈ spC (A) . Considérons un vecteur propre associé X ∈ Cn \ {0} et M = X X̄ T .
On a AM = AX X̄ = λX X̄ et :
T T T
M AT = X X̄ T AT = (AX̄X T ) = (ĀX̄X T ) = (λ̄X̄X T ) = λ̄M.

A réelle
Donc AM − M A = (λ − λ̄)M , c’est-à-dire m′A (M ) = (λ − λ̄)M , où m′A est le prolon-
T

gement naturel de mA à Mn (C) , c’est-à-dire m′A : Mn (C) −→ Mn (C)


M �−→ AM − M AT .
Enfin, la matrice M est non nulle, puisqu’en notant (x1 , . . . , xn ) les coefficients de X , il
existe i ∈ [[1, n]] tel que xi �= 0 et qu’alors le coefficient de M d’indice (i, i) est |xi |2 �= 0 .
Donc M est un vecteur propre, associé à la valeur propre λ− λ̄ , de l’endomorphisme m′A .

154
Solutions des exercices

4. Si A n’est pas trigonalisable sur IR , elle admet une valeur propre λ non réelle et alors λ−λ̄
est une valeur propre non réelle de m′A .
Or, puisque la base canonique de Mn (C) est constituée de matrices réelles, les endomor-
phismes mA et m′A ont la même matrice dans les bases canoniques respectives de Mn (IR)
et Mn (C) . En notant P ∈ Mn2 (IR) cette matrice, ce qui précède montre que P admet
une valeur propre non réelle, donc n’est pas triagonalisable sur IR .
Ainsi, mA n’est pas trigonalisable. Par contraposition, on obtient la réciproque de la
question 2.

155
Chapitre 4 : Endomorphismes d’un espace euclidien

I Adjoint d’un endomorphisme . . . . . . . . . . . . . . . 158


1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . 158
2 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . 159
II Matrices orthogonales . . . . . . . . . . . . . . . . . . . . 160
1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . 160
2 Le groupe orthogonal . . . . . . . . . . . . . . . . . . . . 161
3 Espaces vectoriels euclidiens orientés . . . . . . . . . . . . 162
III Endomorphismes autoadjoints . . . . . . . . . . . . . . . 163
1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . 163
2 Réduction des endomorphismes autoadjoints . . . . . . . 165
3 Endomorphismes autoadjoints (définis) positifs . . . . . . 167
IV Isométries vectorielles . . . . . . . . . . . . . . . . . . . . 168
1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . 168
2 Isométries en dimension 2 . . . . . . . . . . . . . . . . . . 171
3 Réduction des isométries vectorielles . . . . . . . . . . . . 172
Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183
Endomorphismes
d’un espace euclidien 4

Dans ce chapitre, on considère un espace euclidien E dont le produit scalaire sera


noté ( | ). La norme et la distance euclidiennes associées seront respectivement
notées � � et d.

I Adjoint d’un endomorphisme


1 Définition
Pour tout vecteur a, l’application x �→ ( a | x ) est une forme linéaire sur E . Le
théorème de Riesz permet de montrer réciproquement que toute forme linéaire sur E
est de cette forme.

Théorème 1 (Théorème de représentation de Riesz)


Soit ϕ une forme linéaire sur E .
Il existe un unique vecteur a ∈ E tel que : ∀x ∈ E ϕ(x) = ( a | x ).

Démonstration. Comme E est un espace euclidien, il possède une base orthonor-


mée (e1 , . . . , en ) . Soit a ∈ E . La forme linéaire x �→ ( a | x ) est égale à ϕ si, et seulement si,
elle coïncide avec ϕ sur une base. Donc le vecteur a est solution si, et seulement si :
∀i ∈ [[1, n]] ( a | ei ) = ϕ(ei )

n
c’est-à-dire si, et seulement si, a = ϕ(ei ) ei puisque la base est orthonormée. On en déduit
i=1

n
Exo qu’il existe un unique vecteur solution : a = ϕ(ei ) ei .
4.1 i=1
I Adjoint d’un endomorphisme

Le théorème de Riesz permet de définir l’adjoint d’un endomorphisme de E .


Définition 1
Soit u ∈ L(E). Pour tout x ∈ E , l’application y �→ ( x | u(y) ) est une forme
linéaire sur E donc il existe un unique vecteur, que l’on notera u∗ (x), vérifiant :
∀y ∈ E ( x | u(y) ) = ( u∗ (x) | y ).
L’application u∗ définie de E vers E est appelée adjoint de l’endomorphisme u .

2 Propriétés
Proposition 2
Soit u ∈ L(E). Alors u∗ ∈ L(E).
Démonstration page 175

Proposition 3
• L’application u �→ u∗ est linéaire sur L(E).
• Pour tout (u, v) ∈ L(E)2 , on a :
(v ◦ u)∗ = u∗ ◦ v ∗ et (u∗ )∗ = u.
Démonstration page 175

Remarque De la propriété précédente découle que u �→ u∗ est une symétrie de


l’espace vectoriel L(E).
Proposition 4
T
Soit u ∈ L(E) et B une base orthonormée de E . Alors MatB (u∗ ) = MatB (u) .
Démonstration page 175

Remarque On munit IRn de sa structure euclidienne canonique. Soit A ∈ Mn (IR)


dont on note ϕA l’endomorphisme canoniquement. Alors (ϕA )∗ est l’endomorphisme
canoniquement associé à AT car la base canonique de IRn est une base orthonormée.
Corollaire 5
Soit u ∈ L(E). Alors on a :
det u∗ = det u, tr u∗ = tr u et rg u∗ = rg u.
Exo Démonstration. C’est une conséquence de la conservation du déterminant, de la trace et du
4.2
rang par la transposition des matrices carrées.

Proposition 6
Soit u ∈ L(E). Alors on a :
Ker u∗ = (Im u)⊥ et Im u∗ = (Ker u)⊥ .
Démonstration page 175

Exo
Remarque En remplaçant u par u∗ et en utilisant (u∗ )∗ = u , on a aussi :
4.3
Ker u = (Im u∗ )⊥ et Im u = (Ker u∗ )⊥ .

159
Chapitre 4. Endomorphismes d’un espace euclidien
Proposition 7
Soit u ∈ L(E) et F un sous-espace vectoriel de E stable par u .
Alors F ⊥ est stable par u∗ .

Démonstration. Soit x ∈ F ⊥ . Pour tout y ∈ F , on a u(y) ∈ F puis :


( u∗ (x) | y ) = ( x | u(y) ) = 0.
On en déduit u∗ (x) ∈ F ⊥ , donc F ⊥ est stable par u∗ .

II Matrices orthogonales
1 Définition
Définition 2
Soit A ∈ Mn (IR). On dit que A est une matrice orthogonale si AT A = In .

Notation On note On (IR) ou O(n) l’ensemble des matrices orthogonales de Mn (IR).


Soit A ∈ Mn (IR) dont on note C1 , . . . , Cn les colonnes et L1 , . . . , Ln les lignes (vues
comme des vecteurs de IRn ).
Proposition 8
La matrice A est orthogonale si, et seulement si, l’une des propriétés équivalentes
suivantes est vérifiée :
(i) A ∈ GLn (IR) et AT = A−1 ;
(ii) la famille (C1 , . . . , Cn ) est une base orthonormée ;
(iii) la famille (L1 , . . . , Ln ) est une base orthonormée.
Démonstration page 176

Point méthode Une famille orthonormée de n vecteurs de IRn étant évidemment


une base de IRn , il suffira de vérifier le caractère orthonormé de la famille des
colonnes (ou des lignes) d’une matrice carrée pour démontrer que la matrice est
orthogonale.

 
1 1
Ex. 1. La matrice A = n’est pas une matrice orthogonale. En effet, sa deuxième
0 1
colonne n’est pas unitaire.
 
cos θ − sin θ
Ex. 2. Pour tout θ ∈ IR , la matrice R(θ) = est orthogonale. En effet, les
sin θ cos θ
deux colonnes sont évidemment orthogonales et aussi unitaires car :

cos2 θ + sin2 θ = 1.

Ex. 3. La base canonique de IRn étant une base orthonormée, toute matrice obtenue en per-
mutant les colonnes et/ou les lignes de la matrice In est orthogonale.
Ex. 4. Si l’un des coefficients d’une matrice orthogonale vaut 1 ou −1 , alors tous les autres
Exo
4.4
coefficients de sa ligne et de sa colonne sont nuls.

160
II Matrices orthogonales

La propriété suivante exprime que les matrices de On (IR) sont les matrices de chan-
gement de base orthonormée dans n’importe quel espace euclidien de dimension n.

Proposition 9
Soit B une base orthonormée de E et B ′ une famille de n vecteurs de E . Alors B ′
est une base orthonormée si, et seulement si, MatB (B ′ ) ∈ On (IR).
Démonstration page 176

Définition 3
Deux matrices A et B de Mn (IR) sont dites orthogonalement semblables si :
∃P ∈ On (IR) A = P BP −1 .

Remarque Deux matrices qui représentent un même endomorphisme dans deux


bases orthonormées sont orthogonalement semblables, d’après les formules de chan-
gement de base et la proposition 9.

Point méthode Pour montrer que deux matrices A et B de Mn (IR) sont orthogo-
Exo nalement semblables, on pourra montrer qu’il existe une base orthonormée de IRn
4.5 dans laquelle l’endomorphisme canoniquement associé à A a pour matrice B .

2 Le groupe orthogonal
Remarque Soit A ∈ On (IR). Alors AT A = In puis, par passage au déterminant et
conservation du déterminant par la transposition :
1 = det In = det(AT A) = det AT det A = (det A)2 .
On en déduit det A ∈ {1, −1} , ce qui justifie la définition qui suit.
Définition 4
Une matrice A ∈ On (IR) est dite :
• positive, ou directe, si det A = 1 ;
• négative, ou indirecte, si det A = −1 .

Notation On note SO n (IR) l’ensemble des matrices orthogonales positives


de Mn (IR), également appelées matrices de rotations.

 
cos θ − sin θ
Ex. 5. Pour tout θ ∈ IR , la matrice R(θ) = est orthogonale positive. En
sin θ cos θ
effet, les deux colonnes sont évidemment orthogonales et aussi unitaires car :

cos2 θ + sin2 θ = 1.
Comme det R(θ) = 1 , on a bien R(θ) ∈ SO2 (IR) .
 
1 1
Ex. 6. La matrice A = n’est pas une matrice orthogonale (positive). En effet, sa
0 1
deuxième colonne n’est pas unitaire. En revanche, on a det A = 1 .

161
Chapitre 4. Endomorphismes d’un espace euclidien

Attention Comme le montre l’exemple 6 de la page précédente, ces conditions


sur le déterminant ne sont pas des conditions suffisantes d’appartenance à On (IR),
ou SO n (IR), pour une matrice quelconque de Mn (IR).
Proposition 10
Les ensembles On (IR) et SOn (IR) sont des sous-groupes de GLn (IR).
Démonstration page 176

Terminologie Ces groupes sont appelés respectivement groupe orthogonal


d’ordre n et groupe spécial orthogonal d’ordre n.

3 Espaces vectoriels euclidiens orientés


Orientation d’un espace vectoriel réel de dimension finie non nulle
Dans cette sous-section, E désigne un espace vectoriel réel de dimension finie non
nulle. Si B et B ′ sont deux bases de E , le réel detB (B ′ ) est non nul.
On définit sur l’ensemble des bases de E la relation suivante :
B R B ′ ⇐⇒ detB (B ′ ) > 0.
Lorsque B R B ′ , on dit que les bases B et B ′ ont même orientation.
Proposition 11
La relation R est une relation d’équivalence sur l’ensemble des bases de E . Elle
possède deux classes d’équivalences.
Démonstration page 177

Choisir une orientation de E , c’est choisir une classe d’équivalence et donc un repré-
sentant B0 de cette classe. Fixons une telle base.
Définition 5
On dit qu’une base B de E est :
• directe si B R B0 , c’est-à-dire si detB0 (B) > 0 ;
• indirecte sinon.

Remarque En pratique, dans IRn , on choisit toujours la base canonique comme


base directe de référence.

Bases orthonormées directes


Dans cette sous-section, on suppose que E est un espace euclidien non nul orienté.
Proposition 12
Soit B une base orthonormée de E et B ′ une famille de n vecteurs de E .
Alors B ′ est une base orthonormée de même orientation que B si, et seulement
si, MatB (B ′ ) ∈ SO n (IR).

Démonstration. L’équivalence souhaitée résulte des deux propriétés suivantes :


• la base B est une base orthonormée de E si, et seulement si, MatB (B′ ) ∈ On (IR) ;

• la base B′ a même orientation que B si, et seulement si, det MatB (B′ ) > 0 .
On en déduit l’équivalence souhaitée.

162
III Endomorphismes autoadjoints

Remarque Les matrices orthogonales positives sont donc les matrices de change-
ment de bases orthonormées directes. En particulier, A ∈ SO n (IR) si, et seulement
si, la famille des colonnes de A est une base orthonormée directe de IRn .

Corollaire 13
Soit B et B ′ deux bases orthonormées directes de E . Alors, on a :
detB = detB′ .

Démonstration. On a det MatB (B′ ) = 1 donc detB = detB′ d’après la formule de change-
ment de base pour les déterminants.

Terminologie Pour (u1 , . . . , un ) ∈ E n , le réel detB (u1 , . . . , un ), indépendant de


la base orthonormée directe B choisie, est appelé produit mixte de (u1 , . . . , un ) et
parfois noté [u1 , . . . , un ].

III Endomorphismes autoadjoints


1 Généralités
Définition 6
On dit qu’un endomorphisme u ∈ L(E) est autoadjoint si u∗ = u c’est-à-dire si :
 
∀ (x, y) ∈ E 2 x | u (y) = (u (x) | y) .

Notation L’ensemble des endomorphismes autoadjoints de E est noté S(E).

Terminologie Un endomorphisme autoadjoint est parfois appelé endomorphisme


symétrique, ce qui explique la notation S(E).

Proposition 14
L’ensemble S(E) est un sous-espace vectoriel de L(E).

Démonstration. C’est le noyau de l’application linéaire u �→ u − u∗ .

Proposition 15
Soit B une base orthonormée de E et u ∈ L(E). Alors :
u ∈ S(E) ⇐⇒ MatB (u) ∈ Sn (IR).

Démonstration. On a MatB (u∗ ) = MatB (u)T , car B est une base orthonormée,
donc u = u si, et seulement si, MatB (u)T = MatB (u) , soit MatB (u) ∈ Sn (IR) .

Remarque On munit IRn de sa structure euclidienne canonique, si bien que la base


canonique est une base orthonormée. Soit A ∈ Mn (IR). L’endomorphisme canonique-
ment associée à la matrice A est autoadjoint si, et seulement si, A ∈ Sn (IR).

163
Chapitre 4. Endomorphismes d’un espace euclidien

Attention L’ensemble S(E) n’est en général pas stable par composition. En effet,
si (u, v) ∈ S(E)2 , on a :
v ◦ u ∈ S(E) ⇐⇒ (v ◦ u)∗ = v ◦ u ⇐⇒ u∗ ◦ v ∗ = v ◦ u ⇐⇒ u ◦ v = v ◦ u.
Ainsi, la composée v ◦ u est autoadjointe si, et seulement si, u et v commutent, et il
est facile de trouver un contre-exemple en dimension supérieure ou égale à 2 .

Corollaire 16
n(n + 1)
L’espace vectoriel S(E) est de dimension ·
2

Démonstration. Soit B une base orthonormée de E .


L’application L(E) −→ Mn (IR) induit un isomorphisme de S(E) sur Sn (IR) donc :
u �−→ MatB (u)
n(n + 1)
dim S(E) = dim Sn (IR) = ·
2
Proposition 17
Soit u ∈ S(E) et F un sous-espace vectoriel de E stable par u . Alors l’endomor-
phisme induit uF est autoadjoint.
 
Démonstration. La relation x | u (y) = (u (x) | y) pour tout (x, y) ∈ E 2 montre que :
 
∀ (x, y) ∈ F 2 x | uF (y) = (uF (x) | y) .

Projecteurs orthogonaux
Définition 7
Soit F et G deux sous-espaces vectoriels de E . On dit que F et G sont orthogo-
naux, et l’on note F ⊥ G, si :
∀(x, y) ∈ F × G ( x | y ) = 0.

Notation Si F et G sont orthogonaux, la somme F + G est une somme directe



que l’on peut noter F ⊕ G.

Proposition 18
Soit F et G deux sous-espaces vectoriels de E . Alors :
• F ⊥ G si, et seulement si, G ⊂ F ⊥ ;
• si E = F ⊕ G, on a :
F ⊥ G ⇐⇒ G = F ⊥ .
Démonstration page 177

Définition 8
Soit p un projecteur de E . On dit que p est un projecteur orthogonal si Ker p
et Im p sont orthogonaux.

164
III Endomorphismes autoadjoints

Remarque Si p est un projecteur orthogonal, on a la décomposition :



E = Im p ⊕ Ker p donc Im p = (Ker p)⊥ et Ker p = (Im p)⊥ .

Proposition 19
Un projecteur de E est un projecteur orthogonal si, et seulement s’il est autoadjoint.
Démonstration page 177

Remarque On munit IRn de sa structure euclidienne canonique. Soit A ∈ Mn (IR).


L’endomorphisme canoniquement associé à A est un projecteur orthogonal de IRn si,
et seulement si, A2 = A et A ∈ Sn (IR).

2 Réduction des endomorphismes autoadjoints


Lemme 20
Soit u un endomorphisme d’un IR-espace vectoriel E de dimension finie non nulle.
Alors il existe une droite ou un plan stable par u .
Démonstration page 177
Principe de démonstration. Utiliser un facteur irréductible d’un polynôme annulateur de u .

Proposition 21
Soit u ∈ S(E) et F un sous-espace vectoriel de E stable par u . Alors F ⊥ est
stable par u .

Démonstration. C’est une conséquence directe de la proposition 7 de la page 160 et du fait


que u∗ = u .

Proposition 22
Les sous-espaces propres d’un endomorphisme autoadjoint sont deux à deux ortho-
gonaux.
Démonstration page 178

Dans le théorème suivant et dans le reste du chapitre, Eλ (u) désigne le sous-espace


propre de l’endomorphisme u associé à la valeur propre λ.
Théorème 23 (Théorème spectral)
Soit u ∈ L(E). Les propriétés suivantes sont équivalentes :
(i) u est autoadjoint ;


(ii) E = Eλ (u) ;
λ∈sp(u)

(iii) il existe une base orthonormée de E diagonalisant u .


Démonstration page 178

165
Chapitre 4. Endomorphismes d’un espace euclidien

Ex. 7. Soit u ∈ S(E) .


Utilisons le théorème spectral pour expliciter les extrema de x �→ ( x | u(x) ) sur la sphère unité
de E . Notons (λ1 , . . . , λn ) la liste croissante des valeurs propres de u comptées avec multi-
plicité ainsi que (e1 , . . . , en ) une base orthonormée de vecteurs propres associés respectivement

n
à (λ1 , . . . , λn ) . Pour x = xk ek ∈ E un vecteur unitaire, on a :
k=1

n n
 
x2k = 1, ( x | u(x) ) = λk x2k et ∀k ∈ [[1, n]] λ1 x2k  λk x2k  λn x2k .
k=1 k=1

Par somme, on obtient λ1  ( x | u(x) )  λn .


De plus, ( e1 | u(e1 ) ) = λ1 et ( en | u(en ) ) = λn donc :
Exo
min ( x | u(x) ) = λ1 et max ( x | u(x) ) = λn .
4.9 �x�=1 �x�=1

Corollaire 24
Une matrice A ∈ Mn (IR) est symétrique si, et seulement si, elle est orthogonalement
semblable à une matrice diagonale.

Démonstration. On applique le théorème spectral à l’endomorphisme de IRn canoniquement


associé à la matrice A .
Remarque Le corollaire 24 fournit une condition suffisante extrêmement simple de
diagonalisabilité d’une matrice réelle : il suffit qu’elle soit symétrique.

Attention On aura garde de croire que ce résultat reste vrai pour les matrices
 
i 1
complexes : la matrice complexe symétrique est nilpotente, non nulle,
1 −i
donc n’est pas diagonalisable.
 
1 1 1
Ex. 8. Soit A = 1 1 1 ∈ S3 (IR) .
1 1 1
• On a rg A = 1 donc 0 est valeur propre de multiplicité 2 puisque A est symétrique réelle
donc diagonalisable. Le noyau de A est le plan d’équation x + y + z = 0 dont (e1 , e2 ) est
une base orthonormée, avec :
   
1 1
1 1
e1 = √ −1 et e2 = √ 1 .
2 0 6 −2
 
1
1
• Par ailleurs, tr A = 3 donc 3 est la dernière valeur propre et e3 = √ 1 est un vecteur
3 1
propre unitaire associé.
• On pose P ∈ O3 (IR) la matrice dont les colonnes sont (e1 , e2 , e3 ) et, par les formules de
changements de bases, on a :
Exo
4.11
4.10
A = P DP −1 avec D = Diag(0, 0, 3) et P −1 = P T .

166
III Endomorphismes autoadjoints

3 Endomorphismes autoadjoints (définis) positifs

Définition 9
Soit u ∈ S(E).
• On dit que u est autoadjoint positif si :
∀x ∈ E ( x | u(x) )  0.

• On dit que u est autoadjoint défini positif si :


∀x ∈ E \ {0} ( x | u(x) ) > 0.

Notation L’ensemble des endomorphismes autoadjoints positifs (respectivement dé-


finis positifs) de E est noté S + (E) (respectivement S ++ (E)).

Remarque Si u ∈ S ++ (E), alors l’application :


(x, y) �→ ( x | u(y) )
est un produit scalaire sur E .

Ex. 9. Soit u ∈ L(E) . Alors u∗ ◦ u ∈ S + (E) .


En effet, on a (u∗ ◦ u)∗ = u∗ ◦ (u∗ )∗ = u∗ ◦ u donc u∗ ◦ u ∈ S(E) .
Par ailleurs, pour tout x ∈ E , on a :

 2
( x | u∗ (u(x)) ) = ( u(x) | u(x) ) = u(x)  0.

Ex. 10. L’exemple précédent et le fait qu’un endomorphisme de E est bijectif si, et seulement
si, son noyau est nul montre que u∗ ◦ u ∈ S ++ (E) si, et seulement si, u ∈ GL(E) .

La propriété suivante fournit une caractérisation des endomorphismes autoadjoints


(définis) positifs à l’aide de leur spectre.

Proposition 25
Soit u ∈ S(E). On a les équivalences suivantes :
u ∈ S + (E) ⇐⇒ sp(u) ⊂ IR+ et u ∈ S ++ (E) ⇐⇒ sp(u) ⊂ IR∗+ .
Démonstration page 178

Principe de démonstration.
Calculer ( x | u(x) ) en décomposant x sur une base orthonormée de vecteurs propres de u .

On munit IRn de sa structure euclidienne canonique. En appliquant les définitions


et caractérisations qui précèdent à l’endomorphisme de IRn canoniquement associé à
une matrice, on obtient les définitions suivantes.

167
Chapitre 4. Endomorphismes d’un espace euclidien
Définition 10
Soit A ∈ Sn (IR). On dit que A est une matrice :
• symétrique positive si :
∀x ∈ IRn ( x | Ax )  0 ou encore sp(A) ⊂ IR+ ;

• symétrique définie positive si :


∀x ∈ IRn \ {0} ( x | Ax ) > 0 ou encore sp(A) ⊂ IR∗+ .

Notation On note Sn+ (IR) et Sn++ (IR) l’ensemble des matrices respectivement sy-
métriques positives et symétriques définies positives.

Ex. 11. La matrice nulle est une matrice symétrique positive.


Ex. 12. Par caractérisation par le spectre, si une matrice symétrique est définie positive, elle a
une trace et un déterminant strictement positifs. La réciproque est fausse lorsque n  3 comme
le montre l’exemple de la matrice Diag(−1, −1, 3, . . . , 3) .
Ex. 13. Soit A ∈ Mn (IR) . En notant (e1 , . . . , en ) la base canonique de IRn , on a :
∀i ∈ [[1, n]] ai,i = ( ei | Aei ).
Une matrice symétrique (définie) positive a donc tous ses coefficients diagonaux (strictement)
positifs.
Ex. 14. Soit A ∈ S2 (IR) . Montrons que :

A ∈ S2++ (IR) ⇐⇒ tr A > 0 et det A > 0.


La matrice A est symétrique réelle donc diagonalisable. Notons λ1 et λ2 les deux racines réelles
éventuellement confondues du polynôme caractéristique de A . On a alors :
tr A = λ1 + λ2 et det A = λ1 λ2 .
• Supposons A ∈ S2++ (IR) . Alors, sp A ⊂ IR∗+ donc :

Exo tr A > 0 et det A > 0.


4.12
• Supposons tr A > 0 et det A > 0 . Alors :
Exo
λ1 + λ 2 > 0 et λ1 λ2 > 0.
4.13
La deuxième relation montre que λ1 et λ2 sont de même signe strict. La première relation
Exo
4.14
montre alors que λ1 et λ2 sont strictement positifs. Donc A ∈ S2++ (IR) .

IV Isométries vectorielles
1 Généralités
Définition 11
Soit u ∈ L(E). On dit que u est une isométrie vectorielle si :
∀x ∈ E �u(x)� = �x�.
Exo
4.19
Notation On note O(E) l’ensemble des isométries vectorielles de E .

168
IV Isométries vectorielles
Proposition 26
Soit u ∈ L(E). Soit B une base orthonormée de E . Les propriétés suivantes sont
équivalentes :
(i) u ∈ O(E) ;
(ii) ∀(x, y) ∈ E 2 ( u(x) | u(y) ) = ( x | y ) ;
(iii) u ∈ GL(E) et u−1 = u∗ ;
(iv) MatB (u) ∈ On (IR) ;
(v) La famille u(B) est une base orthonormée de E .
Démonstration page 179

Terminologie Une isométrie étant un élément de GL(E), on parle parfois


d’automorphisme orthogonal pour désigner un tel élément, ce qui explique la
notation O(E).

Proposition 27
Soit u ∈ O(E). Alors, det u ∈ {−1, 1} .

Démonstration. C’est une conséquence directe du point (iv) de la proposition 26 et de la


remarque de la page 161.

Définition 12
Une isométrie vectorielle u ∈ O(E) est dite :
• positive ou directe si u est de déterminant 1 ;
• négative ou indirecte si u est de déterminant −1 .

Notation On note SO(E) l’ensemble des isométries positives de E , aussi appelées


rotations de E .
Proposition 28
Soit u ∈ L(E) et B une base orthonormée de E . Alors on a :
u ∈ SO(E) ⇐⇒ MatB (u) ∈ SOn (IR).

Démonstration. Puisque B est une base orthonormée, on a les équivalences suivantes :


 
u ∈ O(E) MatB (u) ∈ On (IR)
u ∈ SO(E) ⇐⇒ ⇐⇒ ⇐⇒ MatB (u) ∈ SOn (IR).
det u = 1 det MatB (u) = 1

Conséquence On munit IRn de sa structure euclidienne canonique.


Soit A ∈ Mn (IR). La matrice A est orthogonale (respectivement orthogonale positive)
si, et seulement si, l’endomorphisme canoniquement associé à A est une isométrie
(respectivement isométrie directe).

Proposition 29
Les ensembles O(E) et SO(E) sont des sous-groupes de GL(E).
Démonstration page 180

169
Chapitre 4. Endomorphismes d’un espace euclidien

Terminologie Les groupes O(E) et SO(E) sont appelés respectivement groupe


orthogonal de E et groupe spécial orthogonal de E .
Dans la propriété suivante, on suppose que E est orienté par le choix d’une base
directe de référence.
Proposition 30
Soit u ∈ L(E) et B une base orthonormée directe de E . Alors u ∈ SO(E) si, et
seulement si, l’image de B par u est une base orthonormée directe de E .

Démonstration.
• Supposons u ∈ SO(E) . Comme u est une isométrie vectorielle, u envoie la base orthonor-
mée B sur une base orthonormée. Par ailleurs, det u > 0 donc l’endomorphisme u conserve
l’orientation des bases. Ainsi, l’image de B par u est une base orthonormée directe de E .
• Supposons que u envoie la base orthonormée directe B sur une base orthonormée directe B′ .
Comme u envoie une base orthonormée sur une base orthonormée, on a u ∈ O(E) . Par
ailleurs, det u = det MatB (B′ ) > 0 donc det u = 1 , ce qui conclut.

Symétries orthogonales
Définition 13
Soit F un sous-espace vectoriel de E . On appelle symétrie orthogonale par
rapport à F la symétrie par rapport à F parallèlement à F ⊥ .

Terminologie
• Une symétrie orthogonale par rapport à un hyperplan est appelée réflexion.
• Lorsque F est une droite, la symétrie orthogonale par rapport à F est appelée
symétrie d’axe F .
Proposition 31
Soit s ∈ L(E) une symétrie orthogonale. Alors s ∈ O(E).
Démonstration page 180

Ex. 15. Soit s ∈ L(E) une réflexion par rapport à un hyperplan H . En considérant une base

orthonormée B adaptée à la décomposition E = H ⊕ H ⊥ , on a :
 
1 (0)
 .. 
MatB (s) =  .  donc det s = −1.
 1

(0) −1

Par ailleurs, s est une isométrie vectorielle puisque c’est une symétrie orthogonale.
Une réflexion est donc une isométrie indirecte.
Ex. 16. Soit s une symétrie de E vérifiant s ∈ O(E) . Alors on a :

s2 = IdE et s∗ ◦ s = IdE donc s = s∗ .


Comme s est un endomorphisme autoadjoint, les sous-espaces propres Ker(s − IdE )
et Ker(s + IdE ) sont orthogonaux, donc s est une symétrie orthogonale.

170
IV Isométries vectorielles

2 Isométries en dimension 2
Proposition 32
Soit A ∈ M2 (IR).
 
cos θ− sin θ
• A ∈ SO 2 (IR) ⇐⇒ ∃θ ∈ IR A = .
sin θ cos θ
 
cos θ sin θ
• A ∈ O2 (IR) \ SO 2 (IR) ⇐⇒ ∃θ ∈ IR A= .
sin θ − cos θ
Démonstration page 180

Proposition 33
L’application suivante :

 2 (IR), ×)
R : (IR, +) −→ (SO 
cos θ − sin θ
θ �−→
sin θ cos θ
est un morphisme de groupes surjectif de noyau 2πZZ.
Démonstration page 180

Proposition 34
Le groupe SO 2 (IR) est commutatif et isomorphe à U .
Démonstration page 180

Dans le reste de cette section, E désigne un plan euclidien orienté, c’est-à-dire un


espace euclidien de dimension 2 que l’on oriente par le choix d’une base directe de
référence.
Proposition 35
Soit u ∈ SO(E). Il existe θ ∈ IR, unique modulo 2π , tel que pour toute base
orthonormée directe B on ait :
 
cos θ − sin θ
MatB (u) = .
sin θ cos θ
Démonstration page 181

Terminologie Un tel élément de SO(E) est appelé rotation d’angle θ .


Remarque Si B = (e1 , e2 ) est une base orthonormée indirecte de E et u une
rotation d’angle θ , alors B ′ = (−e1 , e2 ) est une base orthonormée directe de E ,
donc on a MatB′ (u) = R(θ) puis MatB (u) = R(−θ) par vérification immédiate.
Proposition 36
Le groupe SO(E) est commutatif et isomorphe à U.

Démonstration. C’est une conséquence directe de la proposition 34.


Remarque Soit (u, v) ∈ SO(E)2 deux rotations d’angles respectifs θ et θ′ . Si B
est une base orthonormée directe de E , on a :
MatB (u ◦ v) = MatB (u) MatB (v) = R(θ)R(θ′ ) = R(θ + θ′ ),
donc u ◦ v est la rotation d’angle θ + θ′ .

171
Chapitre 4. Endomorphismes d’un espace euclidien
Proposition 37
Soit u ∈ O(E) \ SO(E). Alors u est une réflexion de E .
Démonstration page 181

Angles orientés de vecteurs dans E


Proposition 38
Soit x et y deux vecteurs unitaires de E . Il existe une unique rotation u ∈ SO(E)
telle que u(x) = y .
Démonstration page 181

Définition 14
Soit x et y deux vecteurs non nuls du plan E .
 x  y
• Il existe une unique rotation u telle que u �x� = �y� ·

• L’angle de cette rotation est appelé angle orienté des vecteurs x et y .

Notation L’angle orienté des vecteurs non nuls x et y est noté (x, y).
Proposition 39 (Relation de Chasles)
Soit (x, y, z) ∈ E 3 trois vecteurs non nuls. Alors on a :
(x, z) = (x, y) + (y, z) [2π].
Démonstration page 181

3 Réduction des isométries vectorielles


Proposition 40
L’endomorphisme induit sur un sous-espace vectoriel stable par une isométrie vec-
torielle est aussi une isométrie vectorielle.
Démonstration. La propriété de conservation de la norme reste vraie par restriction à un
sous-espace stable.

Proposition 41
Soit u une isométrie vectorielle et F un sous-espace vectoriel de E .
Si F est stable par u , alors F ⊥ est aussi stable par u .
Démonstration page 182
Principe de démonstration. Montrer que F ⊥ est stable par u−1 puis utiliser les dimensions.

Théorème 42
Soit u une isométrie vectorielle. Il existe une base orthonormée B de E dans laquelle
la matrice de u est égale à une matrice diagonale par blocs avec des blocs diagonaux :
• de taille 1 de la forme (γ) avec γ ∈ {−1, 1} ;
• de taille 2 et de la forme :
 
cos θ − sin θ
R(θ) = avec θ ∈ IR \ πZZ.
sin θ cos θ
Démonstration page 182

172
IV Isométries vectorielles

Autrement dit, la matrice d’une isométrie dans une telle base orthonormée peut se
mettre sous la forme :
 
Ip
 −Iq (0) 
 
 R(θ1 ) 
  avec (θ1 , . . . , θr ) ∈ (IR \ πZZ)r .
 . . 
Exo  (0) . 
4.20 R(θr )

Conséquence On munit IRn de sa structure euclidienne canonique. Toute matrice


orthogonale est orthogonalement semblable à une matrice de la forme précédente.

Rotations en dimension 3
Dans le reste de cette section, E désigne un espace euclidien de dimension 3 que l’on
oriente par le choix d’une base directe de référence.

Proposition 43
Si u ∈ SO(E), alors il existe une base orthonormée B de E telle que :
 
1 0 0
MatB (u) =  0 cos θ − sin θ  avec θ ∈ IR.
0 sin θ cos θ
Démonstration page 182

Conséquence On munit IR3 de sa structure euclidienne canonique.


Soit A ∈ SO3 (IR). Alors A est orthogonalement semblable à une matrice de la forme :
 
1 0 0
 0 cos θ − sin θ  avec θ ∈ IR.
0 sin θ cos θ

Corollaire 44
Exo
Si u est une isométrie vectorielle directe de E , il existe une droite D et un plan P
4.21 orthogonal à D tel que u|D = IdD et tel que u|P soit une rotation.

Démonstration. D’après la proposition 43, il existe une base orthonormée B = (e1 , e2 , e3 )


telle que :
� �
1 0 0
MatB (u) = 0 cos θ − sin θ avec θ ∈ IR.
0 sin θ cos θ
On définit la droite D et le plan P par :
D = Vect(e1 ) et P = Vect(e2 , e3 ).
Par construction, D et P sont orthogonaux, uD = IdD et uP est une rotation du plan P car
sa matrice dans la base orthonormée (e2 , e3 ) est la matrice de rotation R(θ) .

173
Chapitre 4. Endomorphismes d’un espace euclidien

Remarques
• On dit qu’une telle isométrie vectorielle directe de E est une rotation d’angle θ .
L’angle θ de la rotation peut être déterminé, au signe près, par tr(u) = 1 + 2 cos θ .
• Si u ∈ O(E) \ SO(E) est une isométrie indirecte, alors −u ∈ SO(E).
En effet, u conserve la norme donc −u également et donc −u ∈ O(E).
Par ailleurs, det(−u) = (−1)3 det u = 1 .
D’après la proposition 43 de la page précédente, il existe une base orthonormée B
telle que :
   
1 0 −1 0
Exo MatB (−u) = donc MatB (u) = .
4.22 0 R(θ) 0 R(θ + π)

174
Démonstrations

Démonstrations
2
Proposition 2 Soit (x, y) ∈ E et λ ∈ IR . On a :
∀e ∈ E ( x + λy | u(e) ) = ( x | u(e) ) + λ( y | u(e) ) (bilinéarité du produit scalaire)
∗ ∗
= ( u (x) | e ) + λ( u (y) | e ) (définition de l’adjoint)
= ( u∗ (x) + λu∗ (y) | e ). (bilinéarité du produit scalaire)

On en déduit u∗ (x + λy) = u∗ (x) + λu∗ (y) par définition de l’adjoint.

Proposition 3 Fixons (u, v) ∈ L(E)2 et λ ∈ IR .


• Soit x ∈ E . On a :
        
∀y ∈ E x  (u + λv)(y) = x  u(y) + λ x  v(y) (bilinéarité du produit scalaire)
 ∗    ∗  
= u (x)  y + λ v (x)  y (définition de l’adjoint)
 ∗  
= (u + λv )(x)  y .

(bilinéarité du produit scalaire)

On en déduit (u + λv)∗ (x) = (u∗ + λv ∗ )(x) par définition de l’adjoint,


donc (u + λv)∗ = u∗ + λv ∗ .
• Soit x ∈ E . On a :
∀y ∈ E ( u∗ (v ∗ (x)) | y ) = ( v ∗ (x) | u(y) ) = ( x | v(u(y)) ),
ce qui montre que (v ◦ u)∗ (x) = u∗ (v ∗ (x)) pour tout x ∈ E donc (v ◦ u)∗ = u∗ ◦ v ∗ .
On a aussi :
∀y ∈ E ( u(x) | y ) = ( x | u∗ (y) ),
ce qui montre que u(x) = (u∗ )∗ (x) pour tout x ∈ E donc (u∗ )∗ = u .

Proposition 4 Notons B = (e1 , . . . , en ) , A = MatB (u) et B = MatB (u∗ ) .


Par expression des coordonnées dans une base orthonormée et définition de l’adjoint, on a :
bi,j = ( u∗ (ej ) | ei ) = ( ej | u(ei ) ) = aj,i .

On en déduit B = AT .

Proposition 6
• Soit x ∈ E . On a les équivalences suivantes :
x ∈ Ker u∗ ⇐⇒ u∗ (x) = 0
⇐⇒ ∀y ∈ E ( u∗ (x) | y ) = 0
⇐⇒ ∀y ∈ E ( x | u(y) ) = 0
⇐⇒ ∀z ∈ Im u (x | z) = 0

⇐⇒ x ∈ (Im u)⊥ .

• En passant à l’orthogonal dans l’égalité Ker u∗ = (Im u)⊥ , on obtient Im u = (Ker u∗ )⊥ . Vu


que u∗ ∈ L(E) , on peut remplacer u par u∗ dans cette égalité. En observant que (u∗ )∗ = u ,
il vient Im u∗ = (Ker u)⊥ .

175
Chapitre 4. Endomorphismes d’un espace euclidien

Proposition 8
• Par caractérisation de l’inversibilité d’une matrice carrée, on a directement :
AT A = In ⇐⇒ A ∈ GLn (IR) et AT = A−1 .

• Les équivalences suivantes :

A ∈ On (IR) ⇐⇒ ∀(i, j) ∈ [[1, n]]2 (AT A)i,j = δi,j


n

⇐⇒ ∀(i, j) ∈ [[1, n]]2 ak,i ak,j = δi,j
k=1

⇐⇒ ∀(i, j) ∈ [[1, n]]2 ( Ci | Cj ) = δi,j

montrent que A est une matrice orthogonale si, et seulement si, la famille (C1 , . . . , Cn ) est
une base orthonormée.
• Enfin, (L1 , . . . , Ln ) étant la famille des colonnes de AT , d’après le point précédent, c’est
une base orthonormée si, et seulement si, AT ∈ On (IR) c’est-à-dire si, et seulement
si, AAT = In . Par caractérisation de l’inversibilité, on retrouve la propriété (i) qui ca-
ractérise que A ∈ On (IR) .

Proposition 9 Posons A = MatB (B′ ) ainsi que B = (e1 , . . . , en ) et B′ = (e′1 , . . . , e′n ) . En


utilisant l’expression du produit scalaire en fonction des coordonnées dans la base orthonormée B
et en notant (C1 , . . . , Cn ) les colonnes de A , on obtient que B′ est une base orthonormée de E
si, et seulement si :
n

∀(i, j) ∈ [[1, n]]2 ak,i ak,j = δi,j c’est-à-dire Ci T Cj = δi,j .
k=1

Cette dernière propriété traduit le fait que (C1 , . . . , Cn ) est une famille orthonormée de IRn , ou
encore que A ∈ On (IR) .

Proposition 10 Montrons que On (IR) et SOn (IR) sont des sous-groupes de GLn (IR) .
• On a déjà les inclusions SOn (IR) ⊂ On (IR) ⊂ GLn (IR) .
• Ensuite, In ∈ On (IR) puisque InT In = In2 = In et In ∈ SOn (IR) car det In = 1 .
• Soit (A, B) ∈ On (IR)2 .
∗ Par propriété de la transposition, on a :
T T
(A−1 B) A−1 B = B T (A−1 ) A−1 B

= B −1 AA−1 B = In , (AT = A−1 et B T = B −1 )

donc A−1 B ∈ On (IR) .


∗ Si de plus, A et B sont dans SOn (IR) , on a aussi :

det(A−1 B) = (det A)−1 det B = 1

puisque det A = 1 et det B = 1 . Donc A−1 B ∈ SOn (IR) .


 
Remarque L’application det permet de définir un morphisme de groupes de On (IR), ×
sur (IR∗ , ×) et SOn (IR) est le noyau de ce morphisme.

176
Démonstrations

Proposition 11 La relation R est :


réflexive car pour toute base B , on a detB (B) = 1 , donc B R B ;
symétrique car pour toutes bases B et B′ , les réels detB (B′ ) et detB′ (B) sont non nuls et
inverses l’un de l’autre, donc de même signe strict ;
transitive car pour toutes bases B, B′ et B′′ , on a :
detB (B′′ ) = detB (B′ ) detB′ (B′′ )

donc detB (B′′ ) est un réel strictement positif dès que B R B′ et B′ R B′′ .
Choisissons une base B0 = (e1 , . . . , en ) et posons B0′ = (−e1 , e2 , . . . , en ) . Si B est une base
de E , alors deux alternatives sont possibles :
• detB0 (B) > 0 donc B R B0 ;
• ou detB0 (B) < 0 et dans ce cas, on a :
detB0′ (B) = detB0′ (B0 ) detB0 (B) = − detB0 (B) > 0 donc B R B0′ .

Les bases B0 et B0′ ne sont pas en relation car detB0 (B0′ ) = −1 < 0 donc la relation R possède
exactement deux classes d’équivalences.
Proposition 18
• Le premier point est une conséquence directe des définitions.
• Supposons E = F ⊕ G .
Sens direct Supposons F ⊥ G . Déjà, on a G ⊂ F ⊥ . Ensuite, si x ∈ F ⊥ , on peut
noter x = a + b sa décomposition sur la somme directe F ⊕ G . Comme b ∈ G ⊂ F ⊥ ,
on a x − b ∈ F ⊥ donc ( a | a ) = ( x − b | a ) = 0 puis a = 0 et enfin, x = b ∈ G .
Sens réciproque C’est une conséquence immédiate du premier point.
Proposition 19 Soit p un projecteur de E .
• Supposons que p soit un projecteur orthogonal. Soit (x, y) ∈ E 2 . On a :
   
(p(x) | y) = p(x) | p(y) + y − p(y) = p(x) | p(y)

puisque p(x) appartient à Im p et y − p(y) à Ker p = (Im p)⊥ .


Le résultat étant symétrique en (x, y) , on en déduit :
        
p(x)  y = p(y)  x = x  p(y) ,
ce qui montre que p est autoadjoint.
• Si p est un projecteur autoadjoint, alors pour tout (x, y) ∈ Ker p × Im p , on a :
( x | y ) = ( x | p(y) ) = ( p(x) | y ) = ( 0 | y ) = 0.
Ainsi, Ker p et Im p sont orthogonaux, ce qui prouve que p est un projecteur orthogonal.
Lemme 20 Comme u possède un polynôme annulateur dans IR[X] , il existe des polynômes uni-
taires P1 , . . . , Pr de degré 1 ou 2 tels que :
(P1 . . . Pr ) (u) = 0 c’est-à-dire P1 (u) ◦ · · · ◦ Pr (u) = 0,
avec r  1 puisque E �= {0} .
Parmi les endomorphismes P1 (u), . . . , Pr (u) l’un d’entre eux est donc non injectif. Sans perdre
de généralité, on suppose qu’il s’agit de P1 (u) et l’on considère x ∈ Ker P1 (u) non nul.
 
Comme P1 est de degré inférieur ou égal à 2 , on a u2 (x) ∈ Vect x, u(x) . Par consé-
quent, Vect (x, u(x)) est une droite ou un plan stable par u .

177
Chapitre 4. Endomorphismes d’un espace euclidien

Proposition 22 Soit x et y deux vecteurs propres d’un endomorphisme autoadjoint u associés à


des valeurs propres différentes λ et µ . On a alors :
λ( x | y ) = ( u(x) | y ) = ( x | u(y) ) = µ( x | y )
donc (λ − µ) ( x | y ) = 0 , puis ( x | y ) = 0 , car λ − µ �= 0 , ce qui prouve que les vecteurs x
et y sont orthogonaux.
Théorème 23 On commence par le lemme suivant.
Lemme
Tout endomorphisme autoadjoint u d’un espace euclidien E de dimension 1 ou 2 possède un
vecteur propre.

Démonstration. Il suffit de montrer que le polynôme caractéristique de u est scindé


dans IR[X] . Le résultat est évident si l’espace est une droite. Supposons E de dimension 2
et fixons B une base orthonormée de E . Alors MatB (u) est une matrice symétrique réelle que
 
a b
l’on peut noter MatB (u) = . On a ensuite χu (X) = X 2 − (a + c)X + (ac − b2 ) ,
b c
polynôme du second degré de discriminant :
∆ = (a + c)2 − 4(ac − b2 ) = (a − c)2 + 4b2  0,
donc scindé dans IR[X] .

Passons à la démonstration du théorème spectral.


• La propriété (ii) implique la propriété (iii) : il suffit de choisir une base orthonormée adaptée


à la décomposition E = Eλ (u) .
λ∈sp(u)

• Si l’on suppose (iii) , alors il existe B une base orthonormée de E telle que MatB (u) soit
diagonale et en particulier symétrique. D’après la proposition 15 de la page 163, on en déduit
que u∗ = u .


• Supposons (i) . Le sous-espace vectoriel G = Eλ (u) est stable par u . Son supplé-
λ∈sp(u)

mentaire orthogonal G⊥ l’est aussi d’après la proposition 21 de la page 165.


L’endomorphisme u′ induit par u sur G⊥ est autoadjoint. Si G⊥ n’est pas réduit à {0} ,
l’endomorphisme autoadjoint u′ possède une droite ou un plan stable (cf. lemme 20 de la
page 165), donc au moins un vecteur propre (d’après le lemme ci-dessus), ce qui contredit
G∩G⊥ = {0} puisque tout vecteur propre de u′ appartient aussi à G . Il vient alors G⊥ = {0}
puis G = E .
Proposition 25 Fixons B = (e1 , . . . , en ) une base orthonormée de vecteurs propres de u
et (λ1 , . . . , λn ) les valeurs propres associées. Soit x ∈ E que l’on écrit :
n

x= x k ek .
k=1


n
Alors, on a u(x) = λk xk ek puis, d’après l’expression du produit scalaire dans une base
k=1
orthonormée :
n

( x | u(x) ) = λk x2k .
k=1

178
Démonstrations

• Supposons u ∈ S + (E) . Pour j ∈ [[1, n]] , en prenant x = ej dans ce qui précède, il vient :
( ej | u(ej ) ) = λj donc λj  0.
++
Si u ∈ S (E) , comme le vecteur ej est non nul, on a λj > 0 .
• Réciproquement, si l’on suppose que sp u ⊂ IR+ , on a immédiatement ( x | u(x) )  0 , avec
égalité si, et seulement si :
∀k ∈ [[1, n]] λk x2k = 0.
Ainsi, en supposant que sp u ⊂ IR∗+ , on a ( x | u(x) ) > 0 dès que le vecteur x est non nul.

Proposition 26
• Supposons (i) et montrons (ii) . D’après une identité de polarisation, on a pour tout (x, y) :
1 
( u(x) | u(y) ) = �u(x) + u(y)�2 − �u(x)�2 − �u(y)�2
2
1 
= �x + y�2 − �x�2 − �y�2 (conservation de la norme)
2
= ( x | y ). (identité de polarisation)

• Supposons (ii) et montrons (iii) . Soit y ∈ E . On a pour tout x ∈ E :


( x | (u∗ ◦ u)(y) ) = ( u(x) | u(y) ) = ( x | y ) donc ( x | (u∗ ◦ u)(y) − y ) = 0,
ce qui prouve ( x | (u∗ ◦u)(y)−y ) = 0 puis (u∗ ◦u)(y) = y . On en déduit u∗ ◦u = IdE puis,
par caractérisation de l’inversibilité d’un endomorphisme d’un espace vectoriel de dimension
finie, on a :
u ∈ GL(E) et u−1 = u∗ .
• Supposons (iii) et montrons (iv) .
On a alors MatB (u∗ u) = MatB (IdE ) puis MatB (u∗ ) MatB (u) = In et enfin :

MatB (u)T MatB (u) = In ,


ce qui montre que MatB (u) ∈ On (IR) .
• Supposons (iv) et montrons (v) . Alors, la matrice de la famille u(B) dans la base orthonor-
mée B est une matrice orthogonale. D’après la proposition 9 de la page 161, u(B) est une
base orthonormée de E .
• Supposons (v) et montrons (i) . On pose B = (e1 , . . . , en ) .
Soit x ∈ E dont on note (x1 , . . . , xn ) la famille des coordonnées dans la base B .
Par expression de la norme dans une base orthonormée, on a :

 n

�x� =  x2 . k
k=1


n
On a aussi u(x) = xk u(ek ) et, par expression de la norme dans la base orthonor-
k=1
mée (u(e1 ), . . . , u(en )) , il vient :

 n

�u(x)� =  x2k = �x�,
k=1

ce qui conclut.

179
Chapitre 4. Endomorphismes d’un espace euclidien

Proposition 29 L’application Mat−1 B est un isomorphisme de groupes de GLn (IR) vers GL(E) qui
envoie le sous-groupe On (IR) (respectivement SOn (IR) ) sur O(E) (respectivement SO(E) ).
Comme l’image d’un sous-groupe est un sous-groupe, O(E) et SO(E) sont des sous-groupes
de GL(E) .

Proposition 31 Soit x ∈ E dont on note x = a + b la décomposition sur F ⊕ F ⊥ . On a
alors s(x) = a − b puis, d’après le théorème de Pythagore :

�s(x)�2 = �a − b�2 = �a�2 + �b�2 = �a + b�2 = �x�2 .


Par positivité de la norme, on a �s(x)� = �x� donc s ∈ O(E) .

Proposition 32
 
a c
• Soit M = ∈ O2 (IR) . Par orthogonalité des colonnes, il vient ac + bd = 0 qui
b d
 
 −b c 
se réécrit  = 0 . Comme la première colonne de ce déterminant est non nulle (car
a d 
unitaire), il existe λ ∈ IR tel que (c, d) = λ(−b, a) . Par passage à la norme, il vient |λ| = 1
donc (c, d) = ±(−b, a) et :
   
a −b a b
A= ou A= .
b a b −a

Dans le premier cas, on a det A = a2 + b2 = 1 et dans le second cas, on a det A = −1 .


Par ailleurs, comme a2 + b2 = 1 , il existe θ ∈ IR (unique modulo 2π ) tel que a = cos θ
et b = sin θ donc :
 
cos θ − sin θ
∗ si A ∈ SO2 (IR) , alors on est dans le premier cas et A = ;
sin θ cos θ
 
cos θ sin θ
∗ si A ∈ O2 (IR) \ SO2 (IR) , alors on est dans le second cas et A = .
sin θ − cos θ
• Les deux sens réciproques sont des vérifications immédiates.

Proposition 33
• Soit (θ, θ′ ) ∈ IR2 . Un calcul direct utilisant les formules d’addition donne :
 
′ cos(θ + θ′ ) − sin(θ + θ′ )
R(θ)R(θ ) = = R(θ + θ′ ),
sin(θ + θ′ ) cos(θ + θ′ )

ce qui montre que R est un morphisme de groupes de (IR, +) sur (SO2 (IR), ×) .
• La surjectivité découle de la proposition 32 de la page 171.
• Un réel θ appartient au noyau de R si, et seulement si, R(θ) = I2 c’est-à-dire si, et seulement
si :
cos θ = 1 et sin θ = 0,
soit θ ≡ 0 [2π] . Ainsi, Ker R = 2πZZ .

Proposition 34
• Soit (A, B) ∈ SO2 (IR)2 . Il existe (θ, θ′ ) ∈ IR2 tels que A = R(θ) et B = R(θ′ ) . On a
alors :
AB = R(θ + θ′ ) = R(θ′ + θ) = BA.

180
Démonstrations

• Posons ϕ :  SO2 (IR)


 −→ U
a −b
�−→ a + ib.
b a
La fonction ϕ est bien définie, injective et surjective.
   
a −b c −d
Soit A = et B = deux matrices orthogonales positives. Alors
b a d c
on a :
 
ac − bd −(bc + ad)
AB = et (a + ib)(c + id) = (ac − bd) + i(bc + ad),
bc + ad ac − bd

ce qui achève de montrer que ϕ est un isomorphisme de groupes.


Proposition 35 Soit B0 une base orthonormée directe de E . La matrice de u dans B0 appartient
à SO2 (IR) , donc il existe θ ∈ IR (unique modulo 2π ) tel que MatB0 (u) = R(θ) .
Si B est une base orthonormée directe de E , la matrice P de passage de B0 à B est aussi
dans SO2 (IR) . Comme ce groupe est commutatif, on en déduit :

MatB (u) = P −1 R(θ)P = R(θ).

Proposition 37 Soit B une base orthonormée de E . Alors MatB (u) ∈ O2 (IR) \ SO2 (IR) donc est
de la forme :  
cos θ sin θ
MatB (u) = ∈ S2 (IR).
sin θ − cos θ
On a donc χu = X 2 − 1 et u ∈ S(E) . Le polynôme caractéristique est scindé à racines simples
donc u est diagonalisable et ses sous-espaces propres sont de dimension 1 , et orthogonaux
car u ∈ S(E) . On a donc :

E = Ker(u − IdE ) ⊕ Ker(u + IdE ) et dim Ker(u − IdE ) = dim Ker(u + IdE ) = 1.

Ainsi, u est une symétrie orthogonale par rapport à l’hyperplan Ker(u − IdE ) .

Proposition 38
Existence. Le vecteur x est unitaire donc il existe e2 ∈ E tel que (x, e2 ) soit une base
orthonormée de E . Quitte à remplacer e2 par −e2 , on peut supposer que (x, e2 ) est une
base orthonormée directe de E . De même, il existe e′2 ∈ E tel que (y, e′2 ) soit une base
orthonormée directe de E . L’unique endomorphisme u de E qui envoie la base orthonor-
mée directe (x, e2 ) sur la base orthonormée directe (y, e′2 ) est un élément de SO(E) et
vérifie u(x) = y .
Unicité. Comme dans la partie existence, fixons B = (x, e2 ) une base orthonormée di-
recte de E . Soit u ∈ SO(E) tel que u(x) = y . Notons θ l’angle de cette rotation
et (a, b) ∈ IR2 tel que y = ax + be2 . Comme B est une base orthonormée directe de E , on
a MatB (u) = R(θ) donc y = cos θx + sin θe2 puis cos θ = a et sin θ = b , ce qui détermine
l’angle θ de façon unique modulo 2π et achève la preuve de l’unicité.
x y
Proposition 39 Notons u et v les rotations du plan qui envoient respectivement �x�
sur �y�
y z
et �y�
sur �z�
·
x z
Alors v ◦ u ∈ SO(E) et cette rotation envoie �x�
sur �z�
·
Par ailleurs, si u est d’angle θ et v d’angle θ′ , alors v ◦ u est la rotation d’angle θ + θ′ , ce qui
conclut.

181
Chapitre 4. Endomorphismes d’un espace euclidien

Proposition 41 Supposons F stable par u . Comme u ∈ O(E) , on a u−1 = u∗ donc F ⊥


est stable par u−1 (cf. proposition 7 de la page 160). On en déduit u−1 (F ⊥ ) ⊂ F ⊥ puis
F ⊥ ⊂ u(F ⊥ ) . Comme u est un isomorphisme, u(F ⊥ ) et F ⊥ ont même dimension finie. Par
inclusion et égalité des dimensions, il vient u(F ⊥ ) = F ⊥ et en particulier, F ⊥ est stable par u .
Théorème 42 On va démontrer le résultat par récurrence sur la dimension de E .
Si E est de dimension 1, alors le résultat est trivial.
Soit n ∈ IN∗ . Supposons le résultat vrai pour toute isométrie d’un espace euclidien de dimension
inférieure ou égale à n − 1 et considérons u une isométrie d’un espace euclidien de dimension n .
• Supposons que u possède une valeur propre réelle λ .


Soit e1 un vecteur propre associé à λ . On a alors E = IRe1 (IRe1 )⊥ . Comme IRe1 est
stable par l’isométrie u , son orthogonal aussi.
Par hypothèse de récurrence, comme l’endomorphisme induit par u sur (IRe1 )⊥ est une
isométrie, il existe une base orthonormée de (IRe1 )⊥ dans laquelle sa matrice est de la forme
annoncée. Il suffit de la compléter avec �ee11 � pour obtenir une base orthonormée de E dans
laquelle la matrice de u est de la forme annoncée. En effet, u étant une isométrie, λ = ±1 .
• Supposons que u ne possède pas de valeur propre réelle. Alors u possède un plan stable P
(cf. lemme 20 de la page 165). Soit B une base orthonormée de P et ũ l’endomorphisme
induit par u sur P . La matrice MatB (u) est alors une matrice de O2 (IR) sans valeur propre
réelle.
Or, d’après la proposition 32 de la page 171, les matrices de O2 (IR) sont de la forme :
� � � �
cos θ − sin θ cos θ sin θ
R(θ) = ou S(θ) = .
sin θ cos θ sin θ − cos θ
Comme u ne possède pas de valeur propre réelle, ũ non plus et ce n’est donc pas une
symétrie. On en déduit que MatB (u) est de la forme R(θ) avec sin θ �= 0 .
Par hypothèse de récurrence, comme l’endomorphisme induit par u sur P ⊥ est une isométrie,
il existe une base orthonormée de P ⊥ dans laquelle sa matrice est de la forme annoncée. Il
suffit de la compléter avec une base orthonormée de P pour obtenir une base orthonormée
de E dans laquelle la matrice de u est de la forme annoncée.
Proposition 43 D’après le théorème de réduction des isométries vectorielles (cf. théorème 42 de la
page 172), il existe une base orthonormée B de E telle que :
 
Ip
 −Iq (0) 
 R(θ1 )

MatB (u) = 


 avec (θ1 , . . . , θr ) ∈ (IR \ πZZ)r .
 .. 
(0) .
R(θr )
Pour la disjonction de cas qui suit, on observe que p + q + 2r = 3 et que (−1)q = det u = 1
donc q est un entier pair puis (p, q, r) ∈ {(3, 0, 0), (1, 0, 1), (1, 2, 0)} .
� �
1 0
• Si (p, q, r) = (3, 0, 0) , alors MatB (u) = I3 = .
0 R(0)
� �
1 0
• Si (p, q, r) = (1, 0, 1) , alors MatB (u) = .
0 R(θ1 )
� �
1 0
• Si (p, q, r) = 1, 2, 0) , alors MatB (u) = Diag(1, −1, −1) = .
0 R(π)

182
Exercices

S’entraîner et approfondir
Adjoint d’un endomorphisme
4.1 Soit ϕ une forme linéaire sur Mn (IR) .
→158
Montrer qu’il existe une unique matrice A ∈ Mn (IR) telle que :
∀M ∈ Mn (IR) ϕ(M ) = tr (AM ).

4.2 Soit u ∈ L(E) . Montrer que Ker(u∗ ◦ u) = Ker u et Im(u∗ ◦ u) = Im u∗ .


→159

4.3 Soit u ∈ L(E) . Montrer l’équivalence :


→159
 
u2 = 0 et u + u∗ ∈ GL(E) ⇐⇒ Ker u = Im u.

Matrices orthogonales
4.4 Montrer que l’ensemble des matrices de On (IR) à coefficients entiers (relatifs) est un ensemble
→160
fini et déterminer son cardinal.

4.5 Soit A ∈ Mn (IR) . On suppose que χA est scindé dans IR[X] . Montrer que A est orthogo-
→161
nalement semblable à une matrice triangulaire supérieure.

4.6 Inégalité d’Hadamard


On munit IRn de sa structure euclidienne canonique.
Soit A ∈ GLn (IR) dont on note C1 , . . . , Cn les colonnes.
1. Montrer qu’il existe Q ∈ On (IR) et R ∈ Tn+ (IR) une matrice triangulaire supérieure telles
que A = QR .
Indication. On pourra appliquer le procédé d’orthonormalisation de Gram-Schmidt à la
famille des colonnes de A .

n
2. Montrer que | det A|  �Cj � .
j=1

4.7 Soit A ∈ Mn (IR) de rang r telle que AT A = A3 .

1. Montrer que Im A = Im A3 .
2. Montrer qu’il existe B ∈ Or (IR) telle que B 3 = Ir et A soit orthogonalement semblable
 
B 0
à la matrice s’écrivant par blocs .
0 0

⋆ 4.8 Soit u ∈ L(E) tel que tr u = 0 .


  
1. Montrer qu’il existe un vecteur unitaire ε1 tel que u(ε1 )  ε1 = 0.
2. Montrer qu’il existe une base orthonormée de E dans laquelle la matrice de u est à
diagonale nulle.

183
Chapitre 4. Endomorphismes d’un espace euclidien

Endomorphismes autoadjoints
4.9 On note S l’ensemble des vecteurs unitaires de E . Soit u ∈ S(E) et (λ1 , . . . , λn ) la liste
→166
croissante des valeurs propres de u comptées avec multiplicité ainsi que (e1 , . . . , en ) une
base orthonormée de vecteurs propres associés. Soit k ∈ [[1, n]] .
1. On pose Fk = Vect(e1 , . . . , ek ) . Montrer que :
λk = max ( x | u(x) ).
x∈Fk ∩S

2. Soit F un sous-espace vectoriel de E de dimension k . Montrer que :


sup ( x | u(x) )  λk .
x∈F ∩S

Indication. On pourra commencer par vérifier que l’intersection F ∩ Gk est non nulle,
avec Gk = Vect(ek , . . . , en ) .

4.10 Soit M ∈ Mn (IR) telle que M M T M = In .


1. Montrer que M est inversible et symétrique.
→166

2. Montrer que M = In .

4.11 Soit A ∈ Mn (IR) . On suppose que pour toute matrice P ∈ On (IR) , la matrice P −1 AP est
→166
à diagonale nulle. Montrer que A est antisymétrique.
Indication. On pourra s’intéresser à la matrice A + AT .
 
r s
4.12 Soit A = ∈ S2 (IR) . Montrer que :
→168 s t

A ∈ S2++ (IR) ⇐⇒ r > 0 et rt > s2 .

4.13 Pour (A, B) ∈ Sn (IR)2 , on note A  B lorsque B − A ∈ Sn+ (IR) .


→168
Montrer que  est une relation d’ordre sur Sn (IR) .

4.14 Soit A ∈ Sn++ (IR) et B ∈ Sn+ (IR) .


→168
1. Montrer qu’il existe C ∈ Sn++ (IR) telle que A−1 = C 2 .
2. Montrer qu’il existe P ∈ GLn (IR) et D une matrice diagonale à coefficients positifs tels
que :
A = PPT et B = P DP T .
+
Indication. On pourra montrer que CBC ∈ Sn (IR) .
3. Montrer que det A + det B  det(A + B) .

4.15 Soit p et q deux projecteurs orthogonaux d’un espace euclidien E .


1. Soit F un sous-espace vectoriel de E et x ∈ F tel que q(x) ∈ F ⊥ . Montrer que q(x) = 0 .
2. Soit u ∈ L(E) . On suppose que l’endomorphisme induit uIm u est diagonalisable
et E = Im u ⊕ Ker u . Montrer que u est diagonalisable.
3. Montrer que p ◦ q est diagonalisable.

4.16 1. Soit u ∈ Sn++ (E) . Montrer qu’il existe un unique v ∈ Sn++ (E) tel que u = v 2 .
2. Soit f ∈ GL(E) . Montrer qu’il existe un unique couple (g, h) ∈ O(E) × Sn++ (E) tel
que f = g ◦ h .

184
Exercices

4.17 Soit f ∈ GL(E) . Montrer qu’il existe une base orthonormée (e1 , . . . , en ) de E telle
 
que f (e1 ), . . . , f (en ) soit une base orthogonale.

4.18 Soit p ∈ L(E) un projecteur.


Montrer que p est une projection orthogonale si, et seulement si :
∀x ∈ E �p(x)�  �x�.
Indication. On pourra, pour tout couple (x, y) ∈ Ker p×Im p , considérer les vecteurs y+λx .

Isométries vectorielles
4.19 Soit (u, v) ∈ O(E)2 et λ ∈ ]0, 1[ . On suppose que (1−λ)u+λv ∈ O(E) . Montrer que u = v .
→168

4.20 Soit A ∈ Sn (IR) . Montrer que les deux propriétés suivantes sont équivalentes :
→173
(i) ∃B ∈ On (IR) A = B + B T ;
(ii) sp(A) ⊂ [−2, 2] et les valeurs propres de A dans ]−2, 2[ sont de multiplicité paire.

 
0 1 0
4.21 Soit A = 0 0 1 .
→173
1 0 0
Montrer que A ∈ SO3 (IR) et expliciter P ∈ O3 (IR) et θ ∈ IR tels que :
 
1 0 0
A=P 0 cos θ − sin θ P −1 .
0 sin θ cos θ

4.22 Soit E un espace euclidien de dimension 4 . Soit u ∈ O(E) tel que u2 = − IdE . Montrer
→174
qu’il existe une base orthonormée B telle que :
 
R(π/2) 0
MatB (u) = .
0 R(π/2)

4.23 Soit u un endomorphisme d’un espace euclidien E .


1. Montrer qu’il y a équivalence entre :
(i) ∀x ∈ E ( x | u(x) ) = 0 ;
(ii) u∗ = −u .
2. Montrer que deux quelconques des trois propositions suivantes impliquent la troisième :
(i) u est une isométrie ;
(ii) u2 = − IdE ;
(iii) ∀x ∈ E ( x | u(x) ) = 0 .

4.24 Soit (f, g) ∈ L(E)2 tel que f ∗ ◦ f = g ∗ ◦ g .


1. Montrer que Ker f = Ker g .
2. Montrer qu’il existe u ∈ O(E) tel que g = u ◦ f .

4.25 Soit E un espace euclidien. Montrer que le groupe O(E) des automorphismes orthogonaux
est engendré par l’ensemble des réflexions.
Indication. On pourra raisonner par récurrence sur la dimension de E et utiliser le
lemme 20 de la page 165.

185
Chapitre 4. Endomorphismes d’un espace euclidien

Solutions des exercices


 
4.1 L’application (M, N ) �→ tr M T N étant un produit scalaire sur Mn (IR) (le produit scalaire
canonique), le théorème de Riesz prouve l’existence d’une unique matrice B telle que :
 
∀M ∈ Mn (IR) ϕ(M ) = tr B T M .

En posant A = B T , on en déduit le résultat (l’unicité découlant de l’injectivité de l’appli-


cation transposition).

4.2 • On a déjà l’inclusion Ker u ⊂ Ker(u∗ ◦ u) . Soit x ∈ Ker(u∗ ◦ u) . Pour montrer que
u(x) = 0 , calculons le carré de la norme de ce vecteur :
       
u(x)2 = u(x)  u(x) = x  u∗ (u(x)) = ( x | 0 ) = 0.

Par caractère défini du produit scalaire, on en déduit u(x) = 0 .


• On a immédiatement Im(u∗ ◦ u) ⊂ Im u∗ et d’après le théorème du rang et le point
précédent :
dim Im(u∗ ◦ u) = dim E − dim Ker(u∗ ◦ u) = dim E − dim Ker u = rg u.
Par ailleurs, rg u = rg u∗ d’après le corollaire 5 de la page 159.
On obtient donc l’égalité Im(u∗ ◦ u) = Im u∗ par inclusion et égalité des dimensions.

4.3 Sens direct Supposons u2 = 0 et u + u∗ ∈ GL(E) .


De l’égalité u2 = 0 on déduit Im u ⊂ Ker u .
Soit x ∈ Ker u . Par surjectivité de u + u∗ , il existe a ∈ E tel que x = u(a) + u∗ (a) .
 
Comme u(x) = 0 et u2 = 0 , on a u u∗ (a) = 0 . Ainsi :
 ∗ 2  ∗  
u (a) = u (a)  u∗ (a)
  
= a  u(u∗ (a)) (car (u∗ )∗ = u)
=0 donc u∗ (a) = 0.

On en déduit x = u(a) donc x ∈ Im u .


Sens réciproque Supposons Ker u = Im u .
De l’inclusion Im u ⊂ Ker u , on déduit u2 = 0 .
Soit x ∈ Ker(u + u∗ ) . Alors u(x) + u∗ (x) = 0 .
D’après la proposition 6 de la page 159, on a Im u∗ = (Ker u)⊥ . Par hypothèse, on en
déduit Im u∗ = (Im u)⊥ . Ainsi, Im u∗ et Im u sont orthogonaux donc en somme directe.
Il vient donc u(x) = u∗ (x) = 0 puis :

x ∈ Ker u ∩ Ker u∗ = Ker u ∩ (Im u)⊥ = Ker u ∩ (Ker u)⊥


donc x = 0 . Cela prouve l’injectivité de u .
L’espace E étant de dimension finie, l’injectivité de u + u∗ assure que u + u∗ ∈ GL(E) .

186
Solutions des exercices

4.4 • Tout d’abord, toute matrice obtenue en permutant les colonnes de la matrice In et en
changeant ou non le signe de chaque colonne est une matrice orthogonale à coefficients
entiers. Il y a 2n × n! telles matrices.
• Vérifions que ce sont les seules matrices orthogonales à coefficients entiers. Soit
donc A ∈ On (IR) une telle matrice à coefficients entiers relatifs. Soit j ∈ [[1, n]] . On
a alors :
n

a2i,j = 1.
i=1

Si au moins deux coefficients de cette j –ème colonne sont non nuls, alors on a :
n

a2i,j  2.
i=1

Comme Cj (A) n’est pas la colonne nulle, il existe un unique i ∈ [[1, n]] tel que :

a2i,j = 1 et ∀k ∈ [[1, n]] \ {i} ak,j = 0.

On a alors Cj (A) = ±ei , en notant (e1 , . . . , en ) la base canonique de IRn .


Comme deux colonnes d’une matrice orthogonale sont non colinéaires, la famille des co-
lonnes de A constitue, aux signes près, une permutation de la base canonique (e1 , . . . , en ) ,
ce qui conclut.

4.5 Notons u l’endomorphisme de IRn canoniquement associé à A .


Comme le polynôme caractéristique de A est scindé dans IR[X] , l’endomorphisme u est
trigonalisable et il existe une base de trigonalisation B = (e1 , . . . , en ) .
Notons B′ = (e′1 , . . . , e′n ) la base orthonormée de IRn obtenue en appliquant le procédé de
Gram-Schmidt à la base B .
Pour tout j ∈ [[1, n]] , on a Vect(e1 , . . . , ej ) = Vect(e′1 , . . . , e′j ) donc B′ est encore une base
de trigonalisation de u .
Ainsi, la matrice T = MatB′ (u) est triangulaire supérieure et orthogonalement semblable à
la matrice A car ces deux matrices représentent le même endomorphisme dans deux bases
orthonormées.

4.6 1. Notons B = (C1 , . . . , Cn ) la famille des colonnes de A . La matrice A étant inversible, B


est une base de IRn . En appliquant l’algorithme d’orthonormalisation de Gram-Schmidt
à la base B , on obtient une base orthonormée B′ = (e′1 , . . . , e′n ) de IRn telle que :

∀j ∈ [[1, n]] Vect(C1 , . . . , Cj ) = Vect(e′1 , . . . , e′j ),

propriété qui implique que la matrice de passage R = MatB′ (B) est une matrice triangu-
laire supérieure. Par ailleurs, si l’on note Bc la base canonique de IRn et Q = MatBc (B′ ) ,
la matrice Q est orthogonale car c’est une matrice de passage entre deux bases ortho-
normées. Enfin, grâce aux relations entre les matrices de changement de base, on a :

A = MatBc (B) = MatBc (B′ ) MatB′ (B) = QR,


ce qui conclut.

187
Chapitre 4. Endomorphismes d’un espace euclidien

2. On reprend les notations précédentes. Comme Q ∈ On (IR) , on a | det Q| = 1 donc :


| det A| = | det R|,
puis, R étant triangulaire :
n

| det A| = |rj,j |.
j=1

Vu que R est la matrice de passage de B′ vers B et que B′ est une base orthonormée,
l’expression des coordonnées dans une base orthonormée donne :
∀j ∈ [[1, n]] rj,j = ( Cj | e′j ).
D’après l’inégalité de Cauchy-Schwarz, on a :
∀j ∈ [[1, n]] |rj,j |  �Cj ��e′j � = �Cj �.
Par produit d’inégalités dont les termes sont positifs, on peut conclure :
n

| det A|  �Cj �.
j=1

Remarque En suivant l’algorithme d’orthonormalisation de Gram-Schmidt, on a même :


∀j ∈ [[1, n]] ( Cj | e′j ) > 0
donc la matrice R obtenue dans la première question est à coefficients diagonaux strictement
positifs.

4.7 1. On a déjà Im A3 ⊂ Im A . On a aussi :


rg A3 = n − dim Ker A3 = n − dim Ker AT A.
Par ailleurs, si x ∈ Ker AT A , alors ( Ax | Ax ) = ( x | AT Ax ) = 0 donc x ∈ Ker A .
L’inclusion Ker A ⊂ Ker AT A est évidente donc on a Ker AT A = Ker A , puis :
rg A3 = n − dim Ker A = rg A.
Par inclusion et égalité des dimensions, on a Im A3 = Im A .

2. • Montrons que IRn = Im A ⊕ Ker A . On a tout d’abord :
Im A = Im A3 = Im AT A ⊂ Im AT = (Ker A)⊥ .
D’après la formule du rang, on a aussi :
dim Im A = n − dim Ker A = dim(Ker A)⊥ ,
donc Im A = (Ker A)⊥ par inclusion et égalité des dimensions, ce qui montre :

IRn = Im A ⊕ Ker A.
• Notons B une base orthonormée de IRn adaptée à la décomposition ci-dessus ainsi
que u l’endomorphisme de IRn canoniquement associé à A .
∗ Par stabilité de Im A par u , il existe B ∈ Mr (IR) telle que :
 
B 0
MatB (u) = .
0 0
Comme Im A est un supplémentaire de Ker A , l’endomorphisme induit uIm A est
un automorphisme et la matrice B est inversible.

188
Solutions des exercices

∗ Par ailleurs, les matrices A et MatB (u) sont orthogonalement semblables donc
il existe P ∈ On (IR) telle que MatB (u) = P −1 AP . Comme P est une matrice
orthogonale, P −1 = P T donc MatB (u)T = P −1 AT P puis :
MatB (u)T MatB (u) = P −1 AT AP = P −1 A3 P = MatB (u)3 .
Un calcul par blocs donne alors B T B = B 3 puis B T = B 2 par inversibilité de B .
On a ensuite :
T T
B = (B T ) = (B 2 ) = (B T )2 = B 4 ,
puis B 3 = Ir par inversibilité de B et enfin :
B T B = B 3 = Ir donc B ∈ Or (IR).

4.8 1. Soit A la matrice de u dans une base orthonormée (e1 , . . . , en ) . On a :


n
   
0 = tr u = u(ei )  ei .
i=1
  
• S’il existe i ∈ [[1, n]] tel que u(ei )  ei = 0 , alors il suffit de prendre ε1 = ei .
     
• Sinon, il existe (i, j) ∈ [[1, n]]2 tel que u(ei )  ei < 0 < u(ej )  ej .
  
Pour tout réel t , on pose e(t) = (1 − t)ei + tej . La fonction t �→ u(e(t))  e(t)
est alors polynomiale, négative en 0 et positive en 1 . Il existe donc un réel t0 tel
  
que le vecteur e(t0 ) vérifie u(e(t0 ))  e(t0 ) = 0 . Les vecteurs ei et ej étant non
e(t0 )
colinéaires, le vecteur e(t0 ) est non nul. Par conséquent, le vecteur ε1 = �e(t 0 )�
convient.
2. Montrons le résultat par récurrence sur la dimension n de E . C’est clair pour n = 1 .
Soit n  2 . Supposons le résultat acquis au rang n − 1 et démontrons-le au rang n .
  
D’après la question précédente, il existe un vecteur unitaire ε1 tel que u(ε1 )  ε1 = 0 .
Complétons ε1 en une base orthonormée (ε1 , . . . , εn ) . On peut écrire par blocs la matrice
de u dans cette base :
 
0 L
A= avec B ∈ Mn−1 (IR).
C B

Comme u est de trace nulle, la matrice B l’est également. D’après l’hypothèse de récur-
rence il existe donc une matrice P ∈ On−1 (IR) telle que P −1 BP soit à diagonale nulle.
 
1 0
Il suffit alors de poser Q = pour avoir :
0 P

Q ∈ On (IR) et Q−1 AQ à diagonale nulle.


Il existe donc une base orthonormée de E dans laquelle la matrice de u est à diagonale
nulle.


k
4.9 1. Soit x = xi ei un vecteur unitaire de Fk . Alors on a :
i=1

k k
  k

x2i = 1 puis ( x | u(x) ) = λi x2i  λk x2i = λk .
i=1 i=1 i=1

189
Chapitre 4. Endomorphismes d’un espace euclidien

Par ailleurs, on a ek ∈ Fk ∩ S et :
( ek | u(ek ) ) = ( ek | λk ek ) = λk �ek �2 = λk ,
ce qui conclut.
2. Soit F un sous-espace vectoriel de E de dimension k . Comme on a :
dim F + dim Gk = k + (n − k + 1) = n + 1 > dim E,
les sous-espaces vectoriels F et Gk ne sont pas en somme directe donc il existe y ∈ F ∩Gk

n
y
non nul. Notons x = xi ei le vecteur unitaire �y�
·
i=k
On a alors :
n n
 
x2i = 1 puis ( x | u(x) ) = λi x2i  λk .
i=k i=k

On obtient donc l’inégalité souhaitée.

4.10 1. On a det M 3 = det(M M T M ) = det In = 1 donc det M �= 0 puis M est inversible.


Ensuite, on a M −1 = M T M donc M −1 ∈ Sn (IR) puis M ∈ Sn (IR) .
2. Par le théorème spectral, il existe P ∈ On (IR) et D ∈ Dn (IR) telles que M = P DP −1 .
La relation M M T M = In se réécrit :
M 3 = In puis D 3 = In .
Notons D = Diag(λ1 , . . . , λn ) . On a alors :
∀i ∈ [[1, n]] λ3i = 1 donc λi = 1.
−1
On obtient ainsi D = In puis M = P P = In .

4.11 La matrice A + AT est symétrique réelle donc orthogonalement semblable à une matrice
diagonale D . Notons P ∈ On (IR) telle que P −1 (A + AT )P = D . Par hypothèse, la ma-
trice P −1 AP est à diagonale nulle. Par ailleurs, on a :
P −1 AT P = P T AT P = (P T AP )T = (P −1 AP )T

donc P −1 AT P est également à diagonale nulle. Par somme, D est à diagonale nulle
donc D = 0 puis A + AT = 0 , autrement dit A ∈ An (IR) .

4.12 La matrice A est symétrique réelle donc diagonalisable. Notons λ1 et λ2 les deux racines
réelles éventuellement confondues du polynôme caractéristique de A . On a alors :
r + t = tr A = λ1 + λ2 et rt − s2 = det A = λ1 λ2 .
• Supposons A ∈ S2++ (IR) . Alors, sp A ⊂ IR∗+ donc rt − s2 > 0 .
En posant e = (1, 0) qui est un vecteur non nul de IR2 , on a :
( e | Ae ) = r donc r > 0.

• Supposons r > 0 et rt − s2 > 0 . La relation λ1 λ2 = rt − s2 montre que λ1 et λ2 sont


de même signe strict. Supposons λ1 < 0 et λ2 < 0 . Alors λ1 + λ2 < 0 donc r + t < 0
puis t < −r . En multipliant par le réel strictement positif r , il vient rt < −r 2 ou
encore s2 < −r 2 < 0 : absurde. Ainsi, on a sp(A) ⊂ IR∗+ donc A ∈ S2++ (IR) .

190
Solutions des exercices

4.13 Réflexivité La matrice nulle est évidemment une matrice symétrique positive donc pour
tout A ∈ Sn (IR) , on a A  A .
Antisymétrie Soit (A, B) ∈ Sn (IR)2 . Supposons A  B et B  A .
Alors sp(B − A) ⊂ IR+ et sp(A − B) ⊂ IR+ donc sp(B − A) ⊂ IR− .
Ainsi, on a sp(B − A) ⊂ {0} . Or B − A est une matrice symétrique réelle donc diagona-
lisable, ce qui permet de conclure :
B−A=0 donc A = B.
3
Transitivité Soit (A, B, C) ∈ Sn (IR) . Supposons A  B et B  C .
Soit x ∈ IRn . On a :
( x | (C − A)x ) = ( x | C − B)x ) + ( x | (B − A)x )  0
comme somme de deux termes positifs ou nuls. On a donc C − A ∈ Sn+ (IR) puis A  C .

4.14 1. D’après le théorème spectral, il existe P ∈ On (IR) et D = Diag(λ1 , . . . , λn ) une ma-


trice diagonale à coefficients diagonaux strictement positifs telles que A = P DP −1 . On
pose E = Diag( √1 , . . . , √1 ) puis C = P EP −1 .
λ1 λn

Vérifions que C convient.


• Tout d’abord, C 2 = P E 2 P −1 = P D−1 P −1 = A−1 .
• Ensuite, on a :
T T
(P EP −1 ) = (P EP T ) = P E T P T = P EP −1 ,
car E ∈ Sn (IR) et P ∈ On (IR) . Donc C ∈ Sn (IR) .
• Enfin, C est semblable à la matrice diagonale E donc sp(C) = sp(E) ⊂ IR∗+ , ce qui
conclut.
2. • Les matrices C et B sont symétriques réelles donc :
(CBC)T = CBC puis CBC ∈ Sn (IR).
n
• Soit x ∈ IR . Les matrices C et B sont respectivement symétrique et symétrique
positive donc :
( x | CBCx ) = ( Cx | BCx )  0 puis CBC ∈ Sn+ (IR).
• D’après le théorème spectral, il existe Q ∈ On (IR) et D une matrice diagonale à
coefficients diagonaux positifs telles que CBC = QDQ−1 .
• On pose P = C −1 Q . Par stabilité par produit, on a P ∈ GLn (IR) . Par ailleurs, on a :
P T = QT C −1 = Q−1 C −1
donc P P T = C −2 = A et P DP T = C −1 QDQ−1 C −1 = C −1 CBCC −1 = B .
3. Reprenons les matrices P et D de la question précédente. On a alors :
det A = (det P )2 , det B = (det P )2 det D et det(A + B) = (det P )2 det(In + D).

Comme P ∈ GLn (IR) , on a (det P )2 > 0 et l’inégalité à démontrer revient à :


1 + det D  det(In + D).
En notant D = Diag(λ1 , . . . , λn ) , par positivité des réels λi , on a :
n n
 
1 + det D = 1 + λi  (1 + λi ) = det(In + D).
i=1 i=1

191
Chapitre 4. Endomorphismes d’un espace euclidien

4.15 1. Calculons la norme de q(x) :


       
q(x)2 = q(x)  q(x) = x  (q ∗ ◦ q)(x)
  
= x  q(x) (q ∗ = q et q 2 = q)

= 0. (x ∈ F et q(x) ∈ F ⊥ )

On en déduit q(x) = 0 .
2. Par hypothèse, il existe (e1 , . . . , er ) une base de Im u constituée de vecteurs propres
de uIm u . Fixons (er+1 , . . . , en ) une base de Ker u (ce sont des vecteurs propres de u ,
associés à la valeur propre 0 ). La famille (e1 , . . . , en ) est une base de E (adaptée à
la décomposition E = Im u ⊕ Ker u ), constituée de vecteurs propres de u , donc u est
diagonalisable.
3. D’après la question précédente, il suffit de montrer que E = Im(p ◦ q) ⊕ Ker(p ◦ q) et que
l’endomorphisme induit par p ◦ q sur Im(p ◦ q) est diagonalisable.
• Vérifions que Im(p ◦ q) et Ker(p ◦ q) sont en somme directe.
Soit x ∈ Im(p ◦ q) ∩ Ker(p ◦ q) .
On a q(x) ∈ Ker p = (Im p)⊥ . Comme x ∈ Im(p ◦ q) ⊂ Im p , on en déduit q(x) = 0
d’après la question 1.
 
On peut choisir a ∈ E tel que x = p q(a) . Pour démontrer que x = 0 , calcu-
lons �x�2 :
  
�x�2 = ( x | x ) = p(q(a))  x
  
= q(a)  p(x) (p∗ = p)
  
= q(a)  x (x ∈ Im p donc p(x) = x)
  
= a  q(x) = 0. ∗
(q = q et q(x) = 0)

On en déduit x = 0 donc Im(p ◦ q) et Ker(p ◦ q) sont en somme directe.


D’après la formule du rang, on a dim Im(p ◦ q) + dim Ker(p ◦ q) = dim E .
Par caractérisation des supplémentaires en dimension finie, on a :

E = Im(p ◦ q) ⊕ Ker(p ◦ q).

• Montrons que l’endomorphisme induit par p ◦ q sur Im(p ◦ q) est diagonalisable en


montrant que c’est un endomorphisme autoadjoint. Pour tout (x, y) ∈ (Im(p ◦ q))2 ,
on a :
     
x  p(q(y)) = p(x)  q(y) (p∗ = p)
  
= x  q(y) (x ∈ Im p donc p(x) = x)
  
= q(x)  y (q ∗ = q)
  
= q(x)  p(y) (y ∈ Im p donc y = p(y))
  
= p(q(x))  y , (p∗ = p)

ce qui conclut.

192
Solutions des exercices

4.16 1. Existence D’après le théorème spectral, on peut fixer B une base orthonormée de E
constituée de vecteurs propres de u . Notons (λ1 , . . . , λn ) les valeurs propres associées,
strictement positives car u ∈ S ++ (E) .
√ √
Notons v ∈ L(E) l’unique endomorphisme tel que MatB (v) = Diag( λ1 , . . . , λn ) .
√ √
La matrice Diag( λ1 , . . . , λn ) est symétrique définie positive et B est une base
orthonormée donc v ∈ S ++ (E) .
Par ailleurs, on a :

MatB (v 2 ) = MatB (v)2 = Diag(λ1 , . . . , λn ) = MatB (u) donc v 2 = u.

Unicité Soit v ∈ Sn++ (E) tel que v 2 = u . Comme u est un endomorphisme autoadjoint,
le théorème spectral donne :


E= Eλ (u).
λ∈sp(u)

Les endomorphismes v et v 2 = u commutent donc v stabilise les sous-espaces propres


de u .
Soit λ ∈ sp(u) . Comme v est autoadjoint, v est diagonalisable et son endomorphisme
induit sur Eλ (u) l’est également. Soit µ ∈ IR une valeur propre de cet endomorphisme
induit et x ∈ Eλ (u)\{0} un vecteur propre associé. La relation v 2 (x) = u(x) se réécrit
alors µ2 x = λx donc µ2 = λ puisque x est non nul. Comme les valeurs propres de v

sont positives, on en déduit µ = λ . Ainsi, par diagonalisabilité, la restriction de v

à Eλ (u) est l’homothétie de rapport λ puis :
 √
v= λ pλ ,
λ∈sp(u)



où pλ est le projecteur orthogonal sur Eλ (u) parallèlement à Eµ (u) .
µ∈sp(u)\{λ}
L’unicité est démontrée.

Remarque La partie existence aurait pu se traiter après l’unicité, en prouvant


 √
que λ pλ convenait.
λ∈sp(u)

2. Unicité. Soit (g, h) ∈ O(E) × Sn++ (E) tel que f = g ◦ h . On a alors :

f ∗ ◦ f = h∗ ◦ g ∗ ◦ g ◦ h
= h∗ ◦ h (g ∗ ◦ g = IdE )

= h2 . (h∗ = h)

Comme f ∈ GL(E) , l’endomorphisme f ∗ ◦ f est autoadjoint défini positif et h est


l’unique élément de Sn++ (E) vérifiant h2 = f ∗ ◦ f (cf. question précédente). L’unicité
de h implique l’unicité de g = f ◦ h−1 .
Existence. Comme signalé ci-dessus, on a f ∈ GL(E) donc f ∗ ◦ f ∈ Sn++ (E) et l’on
peut poser h ∈ Sn++ (E) tel que f ∗ ◦ f = h2 . Ensuite, on pose g = f ◦ h et un calcul
similaire à celui posé dans le premier point montre que g ∗ ◦ g = IdE donc g ∈ O(E) .

193
Chapitre 4. Endomorphismes d’un espace euclidien

4.17 L’endomorphisme f ∗ ◦ f est autoadjoint. Par le théorème spectral, il existe (e1 , . . . , en ) une
base orthonormée de E constituée de vecteurs propres de f ∗ ◦ f . Notons (λ1 , . . . , λn ) les
valeurs propres associées.
 
Comme image d’une base par un automorphisme de E , la famille f (e1 ), . . . , f (en ) est une
base de E .
Vérifions qu’il s’agit d’une base orthogonale. Soit (i, j) ∈ [[1, n]]2 tel que i �= j . On a alors :
        
f (ei )  f (ej ) = ei  f ∗ (f (ej )) = λj ei  ej = 0.

En conclusion, la base orthonormée (e1 , . . . , en ) convient.

4.18 • Supposons que p soit une projection orthogonale.


   2  2
Pour tout x ∈ E , on a x−p(x), p(x) ∈ Ker p×Im p donc �x�2 = x−p(x) + p(x) ,
puisque Ker p et Im p sont orthogonaux.
 
Ainsi, p(x)  �x� .
 
• Supposons que pour tout u ∈ E , on ait p(u)  �u� .
Soit (x, y) ∈ Ker p × Im p . Pour tout λ ∈ IR , on a p(x + λy) = λy donc :
 2
λ2 �y�2 = λy   �x + λy�2 = �x�2 + 2λ( x | y ) + λ2 �y�2 .

La fonction affine λ �→ �x�2 + 2λ( x | y ) est donc positive, ce qui implique que son
coefficient directeur est nul, donc ( x | y ) = 0 .
Ainsi, Ker p et Im p sont orthogonaux. Par conséquent, p est une projection orthogonale.

4.19 Soit x ∈ E . Puisque (1 − λ)u + λv est une isométrie vectorielle, il conserve la norme :
 
(1 − λ)u(x) + λv(x)2 = �x�2 .

D’autre part, par propriétés de calcul du produit scalaire et par conservation de la norme
par u et v , on a :
        
(1 − λ)u(x) + λv(x)2 = (1 − λ)2 u(x)2 + λ2 v(x)2 + 2λ(1 − λ) u(x)  v(x)
  
= (1 − λ)2 �x�2 + λ2 �x�2 + 2λ(1 − λ) u(x)  v(x)
   
= �x�2 + 2λ(1 − λ) u(x)  v(x) − �x�2 .

On en déduit que :
   
2λ(1 − λ) u(x)  v(x) − �x�2 = 0,
     
puis, étant donné que λ ∈ / {0, 1} , on obtient u(x)  v(x) = �x�2 = u(x) v(x) . Les
vecteurs u(x) et v(x) vérifient donc le cas d’égalité de Cauchy-Schwarz (sans valeur absolue),
ils sont donc positivement colinéaires. Comme ils ont même norme, ils sont égaux.
On a donc obtenu :
∀x ∈ E u(x) = v(x) c’est-à-dire u = v.

194
Solutions des exercices

4.20 • Supposons qu’il existe B ∈ On (IR) tel que A = B + B T . Par conséquence du théorème
de réduction des isométries directes (cf. théorème 42 de la page 172), il existe P ∈ On (IR)
telle que :
 
Ip
 −Iq (0) 
 R(θ1 )  −1
B=P

P
 avec (θ1 , . . . , θr ) ∈ (IR \ πZZ)r .
 .. 
(0) .
R(θr )
On a ensuite :
 
2Ip
 −2Iq (0) 
 R(θ1 ) + R(θ1 )T
 −1
A=B+B =P 

T P

 .. 
(0) .
R(θr ) + R(θr )T

car P est une matrice orthogonale donc P −1 = P T . Comme pour tout réel θ , on a :
� �
2 cos θ 0
R(θ) + R(θ)T = ,
0 2 cos θ
il vient :
r

χA = (X − 2)p (X + 2)q (X − 2 cos θk )2 .
k=1

On obtient ainsi l’inclusion sp(A) ⊂ [−2, 2] et toutes les valeurs propres de A dans ]−2, 2[
sont de multiplicité paire.
• Supposons que sp(A) ⊂ [−2, 2] et que les valeurs propres de A dans ]−2, 2[ soient de
multiplicité paire. Notons p (respectivement q ) la multiplicité de la valeur propre 2 (res-
pectivement −2 ). Les valeurs propres de A dans l’intervalle ]−2, 2[ sont de multiplicités
paires. Notons-les (λ1 , λ1 , . . . , λr , λr ) , comptées avec leurs multiplicités. Par surjectivité
de la fonction cos de ]0, π[ sur ]−1, 1[ , il existe (θ1 , . . . , θr ) ∈ ]0, π[r tel que :
∀k ∈ [[1, r]] λk = 2 cos θk .
D’après le théorème spectral, il existe P ∈ On (IR) telle que A = P DP −1 avec :

 
2Ip
 −2Iq (0) 
 2 cos θ1 I2

D=

.

 .. 
(0) .
2 cos θr I2
 
2Ip
 −2Iq (0) 
 R(θ1 )  −1
En posant alors B = P 

 P , on constate que :

 .. 
(0) .
R(θr )

B ∈ On (IR) et A = B + BT .

195
Chapitre 4. Endomorphismes d’un espace euclidien

4.21 • Les colonnes de A sont une permutation de la base canonique de IR3 donc A ∈ O3 (IR) .
Par ailleurs, on a det A = 1 , ce qui achève de montrer que A ∈ SO3 (IR) .
� �
1
1
• Posons e1 = √ 1 . Alors le vecteur e1 est unitaire et vérifie Ae1 = e1 .
3 1
� � � �
−1 −1
La famille (u2 , u3 ) avec u2 = 1 et u3 = 0 est une base du sous-espace
0 1
vectoriel {e1 }⊥ . En lui appliquant le procédé d’orthonormalisation de Gram-Schmidt, on
dispose d’une base orthonormée (e2 , e3 ) avec :
� � � �
−1 −1
1 1
e2 = √ 1 et e3 = √ −1 .
2 0 6 2

Par construction, la famille B = (e1 , e2 , e3 ) est une base orthonormée de IR3 (adaptée à

la décomposition IR3 = Vect(e1 ) ⊕ {e1 }⊥ ).
En notant ϕA l’endomorphisme de IR3 canoniquement associé à la matrice A , on a :
 
1 0 0√
MatB (ϕA ) =  0 −
√2
1
− 23  .
3
0 2
− 12

La matrice dont les colonnes sont e1 , e2 et e3 et le réel θ = 3
conviennent.

4.22 De la relation u2 = − IdE , on déduit que l’endomorphisme u ne possède aucune valeur


propre réelle.
Par théorème de réduction des isométries vectorielles, il existe donc B = (e1 , . . . , e4 ) une
base orthonormée de E et (θ1 , θ2 ) ∈ (IR \ πZZ)2 tel que :
� �
R(θ1 ) 0
MatB (u) = .
0 R(θ2 )

De la relation u2 = − IdE , on déduit R(2θ1 ) = R(2θ2 ) = −I2 donc pour i ∈ {1, 2} :


π
2θi ≡ π [2π] puis θi ≡ [π].
2

On obtient alors :


R(θ1 ) = R(±π/2) et R(θ2 ) = R ± π/2).
Si R(θ1 ) = R(−π/2) , on remplace (e1 , e2 ) par (−e1 , e2 ) dans la base B .
On procède de même avec les vecteurs e3 et e4 si R(θ2 ) = R(−π/2) .
� �
R(π/2) 0
On a alors MatB (u) = .
0 R(π/2)

196
Solutions des exercices

4.23 1. • Supposons (i) et montrons (ii) .


Soit (x, y) ∈ E 2 . Alors x + y ∈ E et l’on a :
              
0 = x + y  u(x + y) = x  u(x) + y  u(x) + x  u(y) + y  u(y)
     
= y  u(x) + x  u(y) .
On en déduit :      
∀(x, y) ∈ E 2 x  u(y) = −u(x)  y ,
ce qui montre que u∗ = −u .
• Supposons u∗ = −u et montrons (i) . Soit x ∈ E . On a alors :
           
x  u(x) = u∗ (x)  x = − u(x)  x donc x  u(x) = 0.
2. • Supposons (i) et (ii) et montrons (iii) .
Soit x ∈ E . On a :
           
x  u(x) = u(x)  u2 (x) = u(x)  −x = − x  u(x)
  
donc x  u(x) = 0 .
• Supposons (ii) et (iii) et montrons (i) .
En utilisant la question précédente, on a u∗ = −u et, comme u2 = − IdE , il
vient u∗ ◦ u = IdE donc u ∈ O(E) .
• Supposons (i) et (iii) et montrons (ii) .
D’après la question précédente, on a u∗ = −u et, comme u est une isomé-
trie, u∗ ◦ u = IdE , ce qui donne u2 = − IdE .

4.24 1. Soit x ∈ Ker f . Alors on a :


          
g(x)2 = g(x)  g(x) = x  g ∗ (g(x)) = x  f ∗ (f (x)) = 0 donc g(x) = 0.
Cela montre que Ker f ⊂ Ker g .
Par symétrie du problème en f et g , on a Ker g ⊂ Ker f .
2. Notons r le rang de f et posons (y1 , . . . , yr ) une base orthonormée de Im f
puis (e1 , . . . , er ) ∈ E r tel que yi = f (ei ) pour tout i ∈ [[1, r]] .
La famille (g(e1 ), . . . , g(er )) est une famille orthonormée car :
        
∀(i, j) ∈ [[1, r]]2 g(ei )  g(ej ) = ei  g ∗ (g(ej )) = ei  f ∗ (f (ej ))
  
= f (ei )  f (ej ) = δi,j .

Par le théorème de la base orthonormée incomplète, il existe (yr+1 , . . . , yn )


et (zr+1 , . . . , zn ) des vecteurs de E tels que B = (f (e1 ), . . . , f (er ), yr+1 , . . . , yn )
et B′ = (g(e1 ), . . . , g(er ), zr+1 , . . . , zn ) soient des bases orthonormées de E .
Notons u l’unique endomorphisme de E qui envoie les vecteurs de B sur les vecteurs
de B′ . Comme u envoie une base orthonormée sur une base orthonormée, on a u ∈ O(E) .
Vérifions que g = u ◦ f . Posons x ∈ E . Alors f (x) ∈ Im f et il existe (λ1 , . . . , λr ) ∈ IRr

r
tel que f (x) = λk f (ek ) . On a alors :
k=1
 r
   r
 
f x− λk e k =0 puis g x− λk e k =0 car Ker f = Ker g.
k=1 k=1
 

r 
r   
r  
On en déduit : g(x) = λk g(ek ) = λk u f (ek ) = u λk f (ek ) = u f (x) .
k=1 k=1 k=1

197
Chapitre 4. Endomorphismes d’un espace euclidien

4.25 • Le résultat est immédiat lorsque dim E = 1 car O(E) = {± IdE } , − IdE est une réflexion
et IdE = (− IdE )2 .
• Supposons E de dimension 2 . Soit B = (e1 , e2 ) une base orthonormée de E et s la
réflexion d’axe Vect(e1 ) . Si u ∈ SO(E) , alors s ◦ u est une isométrie négative du plan E
donc une réflexion. La relation u = s ◦ (s ◦ u) montre que u est le produit de deux
réflexions. Si u est une isométrie négative du plan E , c’est une réflexion.
Le résultat est donc vérifié lorsque dim E = 2 .
• Supposons dim E  3 et supposons que le résultat soit vérifié pour tout espace eucli-
dien E ′ vérifiant dim E ′  dim E − 1 . Soit u ∈ O(E) .
∗ D’après le lemme 20 de la page 165, il existe un plan ou une droite F stable par u .
D’après la proposition 41 de la page 172, F ⊥ est également stable par u et les
endomorphismes induits par u sur F et F ⊥ sont des isométries vectorielles. Par
hypothèse de récurrence, ce sont des produits de réflexions :
uF = s1 ◦ · · · ◦ sk et uF ⊥ = sk+1 ◦ · · · ◦ sj .
∗ Soit s une réflexion de F . Notons σ l’unique endomorphisme de E qui coïncide
avec s sur F et avec IdF ⊥ sur F ⊥ . Il existe une base orthonormée B′ de F telle
que MatB′ (s) = Diag(−1, 1, . . . , 1) et, en complétant B′ par une base orthonormée
de F ⊥ pour former une base orthonormée B de E , on a MatB (σ) = Diag(−1, 1, . . . , 1)
donc σ est une réflexion de E . Étant donné une réflexion s de F ⊥ , on procède de
façon symétrique pour la prolonger en une réflexion σ de E vérifiant σF = IdF .
∗ En appliquant ce procédé aux réflexions s1 , . . . , sj , on dispose de réflexions de E
notées σ1 , . . . , σj et vérifiant :
u = σ1 ◦ · · · ◦ σ j ,
car ces deux endomorphismes coïncident évidemment sur les sous-espaces vectoriels
supplémentaires F et F ⊥ .

198
Chapitre 5 : Espaces vectoriels normés

I Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . 200
1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . 200
2 Inégalités triangulaires . . . . . . . . . . . . . . . . . . . . 202
3 Distance associée à une norme . . . . . . . . . . . . . . . 203
4 Boules ouvertes, boules fermées . . . . . . . . . . . . . . . 205
5 Parties convexes . . . . . . . . . . . . . . . . . . . . . . . 206
6 Parties bornées, applications bornées . . . . . . . . . . . . 207
7 Exemples d’espaces vectoriels normés . . . . . . . . . . . 207
8 Produit fini d’espaces vectoriels normés . . . . . . . . . . 210
II Suites d’éléments d’un espace vectoriel normé . . . . . 211
1 Suite convergente . . . . . . . . . . . . . . . . . . . . . . . 211
2 Suite à valeurs dans un espace produit . . . . . . . . . . . 213
3 Suites extraites, valeurs d’adhérence . . . . . . . . . . . . 213
III Topologie d’un espace vectoriel normé . . . . . . . . . . 215
1 Parties ouvertes . . . . . . . . . . . . . . . . . . . . . . . 215
2 Parties fermées . . . . . . . . . . . . . . . . . . . . . . . . 217
3 Voisinage d’un point . . . . . . . . . . . . . . . . . . . . . 219
4 Point intérieur, intérieur d’une partie . . . . . . . . . . . . 220
5 Point adhérent, adhérence d’une partie . . . . . . . . . . . 220
6 Densité . . . . . . . . . . . . . . . . . . . . . . . . . . . . 222
7 Frontière . . . . . . . . . . . . . . . . . . . . . . . . . . . 222
8 Voisinage relatif, ouvert relatif, fermé relatif . . . . . . . . 223
IV Comparaison de normes . . . . . . . . . . . . . . . . . . 225
1 Domination de normes . . . . . . . . . . . . . . . . . . . . 226
2 Normes équivalentes . . . . . . . . . . . . . . . . . . . . . 227
Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 238
Espaces vectoriels
normés 5

Dans tout le chapitre, IK désigne le corps IR ou C . Tous les espaces vectoriels consi-
dérés sont des espaces vectoriels réels ou complexes.

I Généralités
1 Définition
Définition 1
Étant donné un IK -espace vectoriel E , on appelle norme sur E toute applica-
tion N de E dans IR+ vérifiant les trois propriétés suivantes :
• homogénéité : ∀(λ, x) ∈ IK × E N (λx) = |λ| N (x) ;
• inégalité triangulaire : ∀(x, y) ∈ E 2 N (x + y)  N (x) + N (y) ;
Exo
5.1 • séparation : ∀x ∈ E N (x) = 0 =⇒ x = 0 .

Définition 2
Tout espace vectoriel muni d’une norme est appelé espace vectoriel normé.

Notations
• On note (E, N ) l’espace vectoriel E muni de la norme N . Lorsqu’il n’y a pas
de risque d’ambiguïté quant à la norme utilisée, on peut ne pas la préciser et se
contenter de noter E cet espace vectoriel normé.
• Il est souvent d’usage de noter � · � la norme utilisée, et donc �x� la norme d’un
vecteur x.

Remarque Si � · � est une norme, la propriété d’homogénéité implique les propriétés


suivantes, que nous utiliserons librement :
�0� = 0 et ∀x ∈ E �−x� = �x�.
I Généralités

Ex. 1. L’application x �→ |x| est une norme sur IK (où |x| désigne la valeur absolue de x si IK
vaut IR et le module de x si IK vaut C ). Dans la suite, c’est cette norme que nous utiliserons
sur IK .
Ex. 2. Les applications :

IK2 −→ IR+   et IK2 −→ IR+


(x, y) �−→ max |x|, |y| (x, y) �−→ |x| + |y|

sont des normes sur IK2 (une justification sera donnée à la page 208, dans le cadre plus général
de l’espace IKn ), appelées respectivement norme infinie et norme 1 , et notées � · �∞ et � · �1 .

Remarque Si F est un sous-espace vectoriel de E , alors la norme � · � sur E induit


naturellement une structure d’espace vectoriel normé sur F , par sa restriction à F :
F −→ IR+
x �−→ �x�.
Cette restriction est appelée norme induite sur F par la norme � · � .

Ex. 3. La valeur absolue est la norme induite sur IR par le module sur C .

Proposition 1
Soit E un espace préhilbertien réel, c’est-à-dire un IR-espace vectoriel muni d’un
produit scalaire ( · | · ) . Alors l’application :

x �→ ( x | x )
est une norme sur E .
Démonstration page 229
Principe de démonstration. L’inégalité triangulaire est obtenue en utilisant l’inégalité de
Cauchy-Schwarz.

Terminologie Avec les notations précédentes, la norme définie par :



�x� = ( x | x )
est appelée norme euclidienne associée au produit scalaire ( · | · ) .

De la proposition 1 on déduit que les espaces préhilbertiens réels suivants sont naturellement
munis d’une structure d’espace vectoriel normé :
Ex. 4. l’espace IR2 , muni du produit scalaire canonique :
  
(x1 , y1 )  (x2 , y2 ) = x1 x2 + y1 y2 ,

  
dont la norme associée est donnée par (x, y) = x2 + y 2 ;

201
Chapitre 5. Espaces vectoriels normés

Ex. 5. plus généralement, l’espace IRn , muni du produit scalaire canonique :

   n

(x1 , . . . , xn ) (y1 , . . . , yn ) = x k yk ,
k=1

  
dont la norme associée est donnée par (x1 , . . . , xn ) = x21 + · · · + x2n ;
Ex. 6. l’espace C([a, b], IR) (avec a < b ) des fonctions continues de [a, b] dans IR , muni du
 
b b
produit scalaire ( f | g ) = f g , dont la norme associée est donnée par �f � = f2 .
a a

Terminologie Dans chacun des trois exemples précédents, la norme euclidienne


considérée est appelée norme 2 (cf. section I.7 page 207) et est notée � · �2 .
Dans toute la suite de ce chapitre, et sauf mention du contraire, (E, � · �) est un
espace vectoriel normé (et la norme � · � n’est pas supposée euclidienne).
Vecteur unitaire
Définition 3
Un vecteur x de E est dit unitaire si �x� = 1 .

Ex. 7. Dans un IR -espace vectoriel normé E , étant donné x un vecteur non nul, il existe un
unique vecteur unitaire colinéaire à x et de même sens que lui.
En effet, par homogénéité de la norme, on a :

∀λ ∈ IR �λx� = |λ| × �x�.

1
Ainsi, le vecteur λx est unitaire si, et seulement si, |λ| × �x� = 1 , c’est-à-dire λ = ± ·
�x�
x x
Il existe donc deux vecteurs unitaires colinéaires à x qui sont de même sens que x et −
�x� �x�
de sens opposé à x .

x
Terminologie Étant donné un vecteur non nul x de E , le vecteur est appelé
�x�
vecteur unitaire associé à x.

2 Inégalités triangulaires
Nous avons énoncé l’inégalité triangulaire
(propriété vérifiée par toute norme d’après la
définition 1 de la page 200) ainsi :
∀(x, y) ∈ E 2 �x + y�  �x� + �y�.
x+y
Cette inégalité s’interprète en disant que y
dans un triangle, la longueur d’un côté est
inférieure à la somme des longueurs des deux
autres. x

202
I Généralités

De manière plus complète, nous regroupons sous le nom inégalités triangulaires les
inégalités du résultat suivant :

Proposition 2 (Inégalités triangulaires)


Soit x et y des vecteurs de E . Alors on a :
 
 �x� − �y�   �x ± y�  �x� + �y�.
Démonstration page 229
Principe de démonstration. Constater qu’il s’agit essentiellement de montrer que :
�x� − �y�  �x + y�  �x� + �y�.

 
Terminologie L’inégalité  �x� − �y�   �x ± y� est appelée seconde inégalité
triangulaire.

Attention Si la norme considérée est euclidienne, c’est-à-dire si elle est associée à un


produit scalaire, alors le cas d’égalité dans l’inégalité triangulaire est celui où les deux
vecteurs sont positivement colinéaires (résultat vu en première année, conséquence
de l’inégalité de Cauchy-Schwarz). En revanche, si la norme est « quelconque », et
comme le montre l’exemple suivant, on peut a priori se trouver dans le cas d’égalité
de l’inégalité triangulaire sans que les deux vecteurs considérés soient colinéaires.

Ex. 8. Plaçons-nous dans IR2 muni de la norme 1 définie par :


 
∀(x, y) ∈ IR2 (x, y) = |x| + |y|
1

et considérons les vecteurs u = (1, 0) et v = (0, 1) .


On a u + v = (1, 1) , donc �u + v�1 = 2 . Comme �u�1 = �v�1 = 1 , les vecteurs u et v vérifient
le cas d’égalité de l’inégalité triangulaire. Pourtant, ils ne sont pas colinéaires.

Inégalité triangulaire généralisée La propriété d’homogénéité de la norme com-


binée à l’inégalité triangulaire permet, par récurrence, de montrer que si x1 , . . . , xn
sont des éléments de E et λ1 , . . . , λn des scalaires, alors on a :
 
 n   n
 
 λ x
k k  |λk | �xk �.
 
k=1 k=1

3 Distance associée à une norme


Définition 4
On appelle distance associée à la norme � · � l’application :
d : E2 −→ IR+
(x, y) �−→ �y − x�.

203
Chapitre 5. Espaces vectoriels normés

Remarques Avec les notations précédentes, on dispose des propriétés suivantes :


• séparation : ∀(x, y) ∈ E 2 d(x, y) = 0 ⇐⇒ x = y ;
• symétrie : ∀(x, y) ∈ E 2 d(x, y) = d(y, x) ;
• invariance par translation : ∀(x, y, u) ∈ E 3 d(x + u, y + u) = d(x, y) ;
• ∀x ∈ E �x� = d(0, x), i.e. la norme de x est sa distance au vecteur nul.

Formulation des inégalités triangulaires en terme de distance


Proposition 3
Pour tout (u, v, w) ∈ E 3 , on a :
 
d(u, v) − d(v, w)  d(u, w)  d(u, v) + d(v, w).

Démonstration. On applique la proposition 2 aux vecteurs x = v − u et y = w − v .


De manière moins formelle, l’inégalité :
d(u, w)  d(u, v) + d(v, w) w
signifie que les propriétés « géométriquement intui-
tives » suivantes sont vraies :
• dans un triangle, la longueur d’un côté est inférieure
à la somme des longueurs des deux autres ; v
u
• un plus court chemin entre deux points est la ligne
droite.
Attention Le choix de l’article indéfini un dans la phrase « un plus court chemin
entre deux points » n’est pas anodin : la ligne droite est un plus court chemin entre
deux points, mais pas nécessairement le seul (cf. exemple 8 de la page précédente).
Dans la suite, et sauf mention du contraire, (E, � · �) est un espace vectoriel normé
et d désigne la distance associée à la norme � · � .
Distance à une partie
Définition 5
Étant donné une partie A non
vide de E ainsi que x un élé-
ment de E , on appelle distance d(x, A)
x
de x à A, et l’on note d(x, A),  A
la quantité :
Exo  
5.2 d(x, A) = inf d(x, a) | a ∈ A .

Remarques Avec les notations de la définition précédente :


• le caractère non vide de A implique que {d(x, a) | a ∈ A} est une partie non
vide de IR+ , ce qui assure d’une part l’existence de sa borne inférieure d(x, A), et
d’autre part que d(x, A)  0 ;
• par définition de la distance d, on a aussi :
 
d(x, A) = inf �x − a� | a ∈ A .

204
I Généralités

Attention Si x appartient à A, alors il est clair que d(x, A) = 0 . En revanche, la ré-


ciproque est fausse. Par exemple, dans IR muni de la valeur absolue, on a d(0, IR∗+ ) = 0
et pourtant 0 ∈ / IR∗+ . Cela prouve au passage qu’il n’existe pas toujours d’élé-
ment a ∈ A tel que d(x, A) = d(x, a).

Terminologie Lorsqu’il existe un élément a ∈ A tel que d(x, A) = d(x, a), on dit
que la distance de x à A est atteinte.

Proposition 4
Étant donné A une partie non vide de E , et (x, y) ∈ E 2 , on a :
 
d(x, A) − d(y, A)  d(x, y).
Démonstration page 229

Principe de démonstration. Par symétrie en x et y , il suffit de montrer l’inégalité sans


les valeurs absolues d(x, A) − d(y, A)  d(x, y) .

260
Remarque Le résultat précédent se reformule en disant que l’applica-
tion (E, � · �) −→ (IR, | · |) est 1 -lipschitizienne.
x �−→ d(x, A)

4 Boules ouvertes, boules fermées

Définition 6
Soit a un élément de E et r un réel strictement positif.
• On appelle boule ouverte de centre a et de rayon r la partie :
 
B(a, r) = x ∈ E : d(a, x) < r .

• On appelle boule fermée de centre a et de rayon r la partie :


 
Bf (a, r) = x ∈ E : d(a, x)  r .

• On appelle sphère de centre a et de rayon r la partie :


Exo
5.3 S(a, r) = {x ∈ E : d(a, x) = r}.

Remarques
• On a S(a, r) = Bf (a, r) \ B(a, r).

• Par défaut, la notation B(a, r) désigne une boule ouverte. En cas de risque de
confusion, on pourra la noter BO (a, r).

205
Chapitre 5. Espaces vectoriels normés

Ex. 9. Dans IR2 muni successivement des normes infinie, un et deux, dessinons la boule unité
fermée (i.e. la boule fermée de centre 0 et de rayon 1 ) :

1 1 1

0 1 0 1 0 1

pour la norme infinie pour la norme 1 pour la norme 2

Notation Lorsque l’on travaille dans un espace euclidien de dimension 2 , on parle


généralement de disque plutôt que de boule, et l’on utilise alors respectivement les
notations D(a, r) et Df (a, r) au lieu de B(a, r) et Bf (a, r).

5 Parties convexes
Dans cette section, l’espace E est supposé réel.
Exo
5.4
Définition 7
Une partie A de E est dite convexe si :
Exo
5.5 ∀(x, y) ∈ A2 ∀λ ∈ [0, 1] (1 − λ)x + λy ∈ A.

Terminologie Étant donné deux points x et y , l’ensemble des points de la forme :


(1 − λ)x + λy avec λ ∈ [0, 1]
est appelé segment [x, y] .

Interprétation Dire qu’une par-


tie A est convexe signifie qu’étant 

donné deux points de A, le seg-


ment reliant ces deux points est
inclus dans A. Dans les dessins A B 

ci-contre, la partie A est convexe,


mais la partie B ne l’est pas.

Ex. 10. L’ensemble vide est convexe.


Ex. 11. Tout singleton est convexe.
Ex. 12. Les parties convexes de IR sont les intervalles.

Proposition 5
Toute boule (ouverte ou fermée) est une partie convexe.
Démonstration page 230

206
I Généralités

6 Parties bornées, applications bornées


Parties bornées
Exo
5.6 Définition 8
Une partie A de E est dite bornée s’il existe un réel positif R tel que :
Exo
5.7 ∀a ∈ A �a�  R.

Applications bornées, suites bornées

Définition 9
Soit X un ensemble non vide. Une application f : X → E est dite bornée si f (X)
est une partie bornée de E , autrement dit s’il existe R ∈ IR+ tel que :
 
∀x ∈ X f (x)  R.

Remarques
• Une suite d’éléments de E n’étant rien d’autre qu’une application de IN dans E , la
définition précédente s’applique. Une suite (un )n∈IN est bornée s’il existe R ∈ IR+
tel que :
∀n ∈ IN �un �  R.

• Il est facile de vérifier que l’ensemble des applications bornées de X dans E est un
sous-espace vectoriel du IK -espace vectoriel F(X, E) des fonctions de X dans E .

Notation L’espace des applications bornées de X dans E est noté B(X, E).

Remarque Il est clair, d’après la définition, que la notion de partie bornée (et donc
de fonction ou suite bornée) dépend de la norme utilisée. Nous verrons :
• qu’il est possible qu’une partie soit bornée pour une norme mais ne le soit pas
pour une autre (cf. exemple 48 de la page 226) ;
227
• que, néanmoins, des normes équivalentes définissent les mêmes parties bornées
(cf. proposition 39 de la page 228).

7 Exemples d’espaces vectoriels normés


Le résultat suivant sera utile, en particulier pour prouver des propriétés d’homogé-
néité.
Lemme 6
Étant donné A une partie non vide de IR et k ∈ IR+ , on a :
sup(kA) = k sup(A).
Démonstration page 230

Remarque Ce résultat s’applique en particulier si la partie A admet un plus grand


élément, et l’on a dans ce cas max(kA) = k max(A).

207
Chapitre 5. Espaces vectoriels normés

Normes usuelles sur IKn


Si x est un vecteur de IKn , on note (x1 , . . . , xn ) ses composantes, et l’on pose :

n  n
 
�x�∞ = max |xk | ; �x�1 = |xk | et �x�2 =  |xk |2 .
k∈[[1,n]]
k=1 k=1

Proposition 7
Les trois applications suivantes sont des normes :
IKn −→ IR+ ; IKn −→ IR+ et IKn −→ IR+
x �−→ �x�∞ x �−→ �x�1 x �−→ �x�2 .
Démonstration page 230
Terminologie Ces normes sont respectivement appelées norme infinie, norme 1
et norme 2.


Attention Si IK = IR, alors on a �x�2 = x21 + · · · + x2n , mais si IK = C, la présence
des modules est indispensable pour que la définition de �x�2 ait un sens.
Généralisation à tout espace vectoriel de dimension finie
Proposition 8
Soit E un IK -espace vectoriel de dimension n muni d’une base B = (e1 , . . . , en ).
n
Pour x = xk ek ∈ E , posons :
k=1

n  n
 
�x�∞ = max |xk | ; �x�1 = |xk | et �x�2 =  |xk |2 .
k∈[[1,n]]
k=1 k=1

Alors les applications x �→ �x�∞ , x �→ �x�1 et x �→ �x�2 sont des normes sur E ,
appelées respectivement norme infinie, norme 1 et norme 2 dans la base B .
Démonstration page 231
Principe de démonstration. En utilisant l’isomorphisme qui à un vecteur de E associe sa
matrice dans la base B , on peut exploiter les propriétés des trois normes usuelles sur IKn .

Espace des fonctions bornées


Soit E un espace vectoriel normé et X un ensemble non vide. L’ensemble B(X, E)
des applications bornées de X dans E est un sous-espace vectoriel du IK -espace
vectoriel F (X, E) des applications de X dans E .
Proposition 9
L’application :
B(X, E) −→ IR+ où �f �∞ = sup �f (x)�
x∈X
f �−→ �f �∞
est une norme sur B(X, E), appelée norme infinie.
Démonstration page 232

Terminologie On parle aussi de norme de la convergence uniforme.

208
I Généralités

Remarque En particulier, on peut considérer la norme infinie sur l’espace vecto-


riel B(IN, E) des suites bornées à valeurs dans E . Pour u = (un )n∈IN ∈ E IN , on a :

�u�∞ = sup �un �.


n∈IN

Espace des fonctions continues sur un segment à valeurs scalaires


Soit a et b deux réels tels que a < b . On note C([a, b], IK) l’ensemble des fonctions
continues du segment [a, b] dans IK . On sait que C([a, b], IK) est un sous-espace vec-
toriel de F([a, b], IK), et même de B([a, b], IK) (car toute fonction continue sur un
segment est bornée).
Outre la norme � · �∞ , on dispose sur C([a, b], IK) des deux normes classiques sui-
vantes :

Proposition 10 (Norme 1 sur C([a, b], IK))


L’application :
 b
C([a, b], IK) −→ IR où �f �1 = |f |
f �−→ �f �1 a

est une norme sur C([a, b], IK), appelée norme 1 .


Démonstration page 232

Proposition 11 (Norme 2 sur C([a, b], IK))


L’application :

 b
C([a, b], IK) −→ IR où �f �2 = |f |2
f �−→ �f �2 a

est une norme sur C([a, b], IK), appelée norme 2 .


Démonstration page 233

Principe de démonstration. Si IK = IR , alors la norme 2 n’est rien d’autre que la norme


 b
euclidienne associée au produit scalaire usuel sur C([a, b], IR) défini par ( f | g ) = f g . Pour
    a
traiter le cas IK = C , se ramener au cas réel en remarquant que f 2 =  |f | 2 .

Attention Contrairement à la norme infinie, on ne peut pas étendre les normes 1


et 2 à l’espace CM([a, b], IK) des fonctions continues par morceaux de [a, b] dans IK ,
puisque la propriété de séparation serait mise en défaut. En effet, toute fonction
 b  b
nulle sauf en un nombre fini de points vérifie |f | = |f |2 = 0 (par exemple la
a a
fonction 1{a} ).

209
Chapitre 5. Espaces vectoriels normés

Espace des polynômes


Sur IK[X], plusieurs normes classiques peuvent être considérées :

+∞
• celles utilisant la suite (an )n∈IN des coefficients d’un polynôme P = an X n ,
n=0
dont on sait qu’elle est presque nulle (i.e. nulle à partir d’un certain rang) :

+∞  +∞
 
�P �1 = |an |, �P �2 =  |an |2 , et �P �∞ = max |an | ;
n∈IN
n=0 n=0

pour une justification que ce sont bien des normes, on pourra se référer à l’exer-
cice 5.12 de la page 239, qui traite la situation plus générale d’un espace vectoriel
muni d’une base ;

• celles définies à l’aide de la fonction polynomiale t �→ P (t) ; dans ce qui suit, a


et b désignent deux réels vérifiant a < b :

 b  b
 
�P �1 = |P (t)|dt, �P �2 = |P (t)|2 dt et �P �∞ = max P (t) ;
a a t∈[a,b]

dans ce cas, l’homogénéité et l’inégalité triangulaire proviennent du fait


 
que � · �1 , � · �2 et � · �∞ définissent des normes sur C [a, b], IK ; pour la sé-
paration, on utilise de plus le fait qu’un polynôme dont la fonction polynomiale
associée est nulle sur [a, b] admet une infinité de racines, donc est nul.

8 Produit fini d’espaces vectoriels normés

Proposition 12
Soit p ∈ IN∗ ainsi que p espaces vectoriels normés (E1 , ϕ1 ), . . . , (Ep , ϕp ) sur IK .
L’application :
ϕ : E1 × · · · × Ep −→ IR+  
(x1 , . . . , xp ) �−→ max ϕ1 (x1 ), . . . , ϕp (xp )
est une norme sur E1 × · · · × Ep , appelée norme produit.
Démonstration page 233

Ex. 13. La norme infinie sur IKn est la norme produit obtenue en considérant, sur IK , la
norme x �→ |x| .

Remarque En plus de la norme produit présentée dans la proposition précédente,


Exo
5.8
d’autres normes peuvent être construites sur un espace produit (cf. exercice 5.8).

210
II Suites d’éléments d’un espace vectoriel normé

II Suites d’éléments d’un espace vectoriel normé


On rappelle qu’une suite a à valeurs dans E est une application de IN dans E . Une
telle suite est souvent notée (an )n∈IN , voire plus simplement (an ).
On appelle an le terme général de la suite a.

1 Suite convergente
Définition 10
Soit (an )n∈IN une suite d’éléments de E ainsi que ℓ ∈ E . On dit que la suite (an )n∈IN
 
converge vers ℓ si la suite réelle �an − ℓ� n∈IN tend vers 0 .

La suite (an )n∈IN converge donc vers ℓ si, et seulement si :


∀ε > 0 ∃n0 ∈ IN ∀n  n0 �an − ℓ�  ε,
ou encore, en terme de distance :
∀ε > 0 ∃n0 ∈ IN ∀n  n0 d(an , ℓ)  ε.

Notation Pour signifier qu’une suite (an )n∈IN converge vers ℓ , on écrit an −→ ℓ
n→∞
ou plus simplement an → ℓ .

Proposition 13 (Unicité de la limite)


Soit (an )n∈IN une suite d’éléments de E ainsi que ℓ1 et ℓ2 appartenant à E .
Si an → ℓ1 et an → ℓ2 , alors ℓ1 = ℓ2 .

Démonstration. Soit (an )n∈IN une suite convergeant à la fois vers ℓ1 et ℓ2 .


L’inégalité triangulaire donne :
0  d(ℓ1 , ℓ2 )  d(ℓ1 , an ) + d(an , ℓ2 ) .
     
→0 →0

En passant à la limite, on obtient d(ℓ1 , ℓ2 ) = 0 , c’est-à-dire ℓ1 = ℓ2 .

Définition 11
• Une suite (an )n∈IN est dite convergente s’il existe un élément ℓ de E tel
que an → ℓ . Cet élément ℓ est alors appelé limite de la suite (an )n∈IN .
On le note lim an .
• Une suite qui n’est pas convergente est dite divergente.

Attention La convergence d’une suite dépend de la norme utilisée. Une suite peut
converger pour une norme et diverger pour une autre (cf. exemple suivant).

Ex. 14. Dans l’espace C([0, 1], IR) , considérons la suite (fn )n∈IN définie par fn (x) = xn .
 1
1
• D’une part, on a �fn �1 = xn dx = → 0 , donc la suite (fn ) converge, au sens de
0
n+1
la norme 1 , vers la fonction nulle.

211
Chapitre 5. Espaces vectoriels normés

• Montrons désormais que la suite (fn ) n’est pas convergente au sens de la norme infinie. Par
l’absurde : supposons que (fn ) converge, et notons f sa limite (dans C([0, 1], IR) ).
 
Pour tout x ∈ [0, 1] , on a |fn (x) − f (x)|  �fn − f �∞ → 0 , donc la suite réelle fn (x)

0 si x ∈ [0, 1[
converge vers f (x) . Il vient alors que f (x) =
1 si x = 1.
Cela constitue une contradiction, car la fonction f obtenue n’est pas continue.

Remarque Nous verrons cependant que deux normes équivalentes définissent les
mêmes suites convergentes (cf. proposition 40 de la page 228).

Opérations algébriques sur les suites convergentes


Proposition 14 (Combinaison linéaire de deux suites convergentes)
Si deux suites (an )n∈IN et (bn )n∈IN convergent respectivement vers ℓ1 et ℓ2 , et
si λ et µ sont deux scalaires, alors la suite de terme général λan + µbn converge
vers λℓ1 + µℓ2 .

Démonstration. Cela découle de l’inégalité triangulaire et de l’homogénéité de la norme :


   
(λan + µbn ) − (λℓ1 + µℓ2 ) = λ(an − ℓ1 ) + µ(bn − ℓ2 )
 |λ| �an − ℓ1 � +|µ| �bn − ℓ2 � .
     
→0 →0

Remarques
• Par récurrence, on généralise le résultat précédent à une combinaison linéaire
 (1)   (p) 
quelconque de suites : si an , . . . , an sont p suites, convergeant respecti-
vement vers ℓ1 , . . . , ℓp , alors pour tout (λ1 , . . . , λp ) ∈ IKp , la suite de terme géné-
p p
(k)
ral λk an converge vers λk ℓk .
k=1 k=1

• La proposition 14 nous indique que l’ensemble des suites convergentes est un sous-
espace vectoriel de l’espace F (IN, E) des suites à valeurs dans E .

Proposition 15
Si une suite (an )n∈IN converge vers ℓ , alors la suite de terme général �an � converge
vers �ℓ� .

Démonstration. Cela découle de la seconde inégalité triangulaire :


 
0  �an � − �ℓ�  �an − ℓ� .
  
→0

Corollaire 16
Toute suite convergente est bornée.

Démonstration. Utilisons le résultat déjà connu pour les suites réelles. Supposons
que (an )n∈IN soit convergente. D’après la proposition précédente, la suite réelle (�an �)n∈IN
est également convergente, donc bornée.

212
II Suites d’éléments d’un espace vectoriel normé

2 Suite à valeurs dans un espace produit


   
Soit E1 , ϕ1 , . . . , Ep , ϕp des espaces vectoriels normés. On rappelle (cf. proposi-
tion 12 de la page 210) que l’espace E1 × · · · × Ep est muni d’une structure d’espace
vectoriel normé grâce à la norme produit définie par :
   
(x1 , . . . , xp ) = max ϕ1 (x1 ), . . . , ϕp (xp ) .
 (k) 
Pour tout k ∈ [[1, p]], on considère an n∈IN une suite à valeurs dans Ek , et l’on
s’intéresse à la convergence, au sens de la norme produit, de la suite (an )n∈IN , à
valeurs dans E1 × · · · × Ep , de terme général :
 
an = a(1) (p)
n , . . . , an .
La proposition suivante énonce que la convergence de la suite (an )n∈IN revient à celle
 (k) 
de chacune des suites an n∈IN .
Proposition 17
 (1) (p) 
La suite de terme général an , . . . , an converge si, et seulement si, pour
(k)
tout k ∈ [[1, p]], la suite de terme général an converge.
(k)
En notant alors ℓk la limite de la suite (an )n∈IN , la suite (an )n∈IN converge vers
l’élément (ℓ1 , . . . , ℓp ) de E1 × · · · × Ep .
Démonstration page 234

Ex. 15. Une suite à valeurs dans IKp converge au sens de la norme infinie si, et seulement
si, chacune des suites composantes converge. L’étude de la convergence d’une telle suite revient
donc à l’étude de p suites à valeurs dans IK .

3 Suites extraites, valeurs d’adhérence


Comme dans le cas des suites réelles ou complexes, on appelle suite extraite ou
 
sous-suite d’une suite (an )n∈IN toute suite de la forme aϕ(n) n∈IN , où ϕ est une
extraction, c’est-à-dire une application strictement croissante de IN dans IN.
On l’appelle aussi fonction extractrice.
Proposition 18
Toute sous-suite d’une suite convergente est convergente et a la même limite.

Démonstration. Utilisons le résultat déjà connu pour les suites réelles. Si (an )n∈IN est une
 
suite convergeant vers ℓ , et si aϕ(n) n∈IN en est une sous-suite, alors la suite réelle de terme
 
général �aϕ(n) − ℓ� tend vers 0 car c’est une sous-suite de la suite réelle �an − ℓ� n∈IN
qui
tend vers 0 .

Définition 12
On appelle valeur d’adhérence d’une suite (an )n∈IN tout élément de E qui est
limite d’une sous-suite de (an )n∈IN .

Remarque D’après la proposition 18, une suite convergente ne possède qu’une seule
valeur d’adhérence : sa limite.

213
Chapitre 5. Espaces vectoriels normés

Point méthode Pour montrer qu’une suite est divergente, on peut utiliser la contra-
posée de la remarque précédente : il suffit de montrer qu’elle possède au moins deux
valeurs d’adhérence.

Ex. 16. La suite réelle de terme général (−1)n est divergente, car elle possède 1 et −1 comme
valeurs d’adhérence.

Ex. 17. Soit (x, y) ∈ E 2 , avec x �= 0 . La suite (an )n∈IN définie par an = (−1)n x + 2−n y ne
converge pas car possède x et −x comme valeurs d’adhérence. En effet :
• on a a2n → x car �a2n − x� = �2−2n y� = 2−2n �y� → 0 ;
• on a a2n+1 → −x car �a2n+1 + x� = �2−2n−1 y� = 2−2n−1 �y� → 0 .

Attention Comme le montre l’exemple suivant, ce n’est pas parce qu’une suite ne
possède qu’une seule valeur d’adhérence qu’elle converge.
Nous verrons néanmoins que c’est le cas si elle est à valeurs dans une partie compacte
(cf. théorème 5 de la page 291).
 
Ex. 18. Considérons la suite de terme général an = n 1 + (−1)n .
• La suite (an )n∈IN diverge, car sa sous-suite (a2n )n∈IN tend vers +∞ .
• Montrons néanmoins que (an ) possède 0 comme unique valeur d’adhérence.
∗ On voit facilement que 0 est valeur d’adhérence, car c’est la limite de la sous-
suite (a2n+1 )n∈IN .
∗ Montrons qu’il n’y a pas d’autres valeurs d’adhérence.
 
Pour cela, considérons un réel x non nul ainsi qu’une sous-suite aϕ(n) n∈IN de (an )n∈IN ,
 
et montrons que aϕ(n) n∈IN
ne converge pas vers x .
 
⋆ Si ϕ prend une infinité de valeurs impaires, alors aϕ(n) n∈IN
possède 0 comme valeur
d’adhérence ;
 
⋆ sinon, ϕ prend une infinité de valeurs paires, et alors aϕ(n) n∈IN possède une sous-
suite tendant vers +∞ .
 
Dans les deux cas, la sous-suite aϕ(n) n∈IN
ne converge pas vers x .

Proposition 19 (Caractérisation des valeurs d’adhérence)


Soit (an )n∈IN une suite à valeurs dans E . Un élément x ∈ E est valeur d’adhérence
de la suite (an )n∈IN si, et seulement si :
∀ε > 0 ∀n0 ∈ IN ∃n  n0 �an − x�  ε.
Exo
5.9 Démonstration page 234

214
III Topologie d’un espace vectoriel normé

III Topologie d’un espace vectoriel normé


1 Parties ouvertes
Définition 13
Soit U une partie de E . On dit que U est un ouvert de E , ou une partie ouverte
de E , si :
∀x ∈ U ∃r > 0 B(x, r) ⊂ U.

Remarque Dans la définition ci-dessus, on peut remplacer la boule ouverte B(x, r)


par la boule fermée Bf (x, r), car :
• si Bf (x, r) ⊂ U , alors B(x, r) ⊂ U ;
 r
• si B(x, r) ⊂ U , alors Bf x, ⊂U.
2

Ex. 19. Il est clair, d’après la définition, que E et ∅ sont des parties ouvertes de E .
Ex. 20. Supposons que E ne soit pas l’espace nul. Un singleton n’est pas une partie ouverte
de E . En effet, pour tout x ∈ E et r > 0 , on a B(x, r) �⊂ {x} car, si u désigne un vecteur
unitaire, on a x + r2 u ∈ B(x, r) \ {x} .

Terminologie Pour signifier qu’une partie U est un ouvert de E , on dit aussi


que U est ouverte dans E .

Abus de langage Parfois, on se permet de parler d’ouverts et de parties ouvertes,


sans préciser « de E ». Comme l’illustre l’exemple 21, cela nécessite qu’il n’y ait
aucune ambiguïté sur ce qu’est l’espace E dans lequel on se place.

Proposition 20
Toute boule ouverte est ouverte.
Démonstration page 234
Principe de démonstration.
R − �x − a�
x 

Pour x appartenant à une boule de


centre a de rayon R , considérer la R �x − a�
boule ouverte de centre x et de rayon :

a
R − �x − a�.

Remarque Le dessin fait lors de la démonstration précédente correspond à une


norme euclidienne, mais nous a permis de trouver une démonstration valable pour
toute norme. Cette représentation des boules n’induit en général pas de fausse intui-
tion lors de considérations topologiques, c’est pourquoi on l’utilise couramment. 1
1. Concrètement, le risque majeur de cette vision euclidienne concerne le cas d’égalité dans l’in-
égalité triangulaire (cf. le « Attention » de la page 203).

215
Chapitre 5. Espaces vectoriels normés

Ex. 21. Soit a et b deux réels tels que a < b .


• L’intervalle ]a, b[ est ouvert dans IR (muni de la valeur absolue), car c’est la boule de
a+b b−a
centre et de rayon ·
2 2 r
• L’intervalle ouvert ]a, b[ n’est en revanche pas ouvert x+i
2
dans C (muni du module). En effet, pour x ∈ ]a, b[

et r > 0 , la boule ouverte de centre x de rayon r > 0 a b
n’est pas incluse dans ]a, b[ . Par exemple, le nombre x


r
complexe x + i appartient à cette boule mais pas à
2 B(x, r)
l’intervalle ]a, b[ .

Remarque Plus généralement, tout intervalle ouvert de IR, c’est-à-dire de la


forme ]−∞, b[ , ]a, b[ ou ]a, +∞[ , est ouvert dans IR mais pas dans C.

Attention Comme l’illustre l’exemple précédent, le caractère ouvert ou non d’un


ensemble n’est pas une notion intrinsèque à cet ensemble, mais dépend de l’espace
dans lequel on le considère.
Si F est un sous-espace vectoriel de E , alors une partie ouverte dans F n’est en
général pas ouverte dans E .
Proposition 21
• La réunion d’une famille quelconque d’ouverts est ouverte.
• L’intersection d’une famille finie d’ouverts est ouverte.
Démonstration page 234

Remarque En particulier, une réunion quelconque de boules ouvertes est un ouvert


de E . En fait, la réciproque de ceci est vraie (comme l’illustre l’exemple suivant).

Ex. 22. Toute partie ouverte de E peut s’écrire comme une réunion de boules ouvertes.
Soit en effet U une partie ouverte de E . Pour tout x ∈ U , il existe rx > 0 tel que B(x, rx ) ⊂ U ,

et l’on a alors U = B(x, rx ).
x∈U

Attention Une intersection quelconque d’ouverts peut ne pas être ouverte, comme
l’illustre l’exemple suivant.
  
∗ 1 1
Ex. 23. Pour tout n ∈ IN , notons Un = − , . On a Un = {0} . Ainsi, bien que
n n n∈IN∗
chacun des Un soit ouvert, leur intersection ne l’est pas.

Proposition 22
Soit E1 , . . . , Ep des IK -espaces vectoriels normés. On munit l’espace pro-
duit E1 × · · · × Ep de la norme produit. Si U1 , . . . , Up sont ouverts dans E1 , . . . , Ep
respectivement, alors U1 × · · · × Up est ouvert dans E1 × · · · × Ep .
Démonstration page 235

216
III Topologie d’un espace vectoriel normé

2 Parties fermées
Définition 14
On dit qu’une partie de E est un fermé de E , ou une partie fermée de E , si
son complémentaire est ouvert.

Remarque D’après la définition, il est clair que E et ∅ sont des parties fermées
de E , puisque leurs complémentaires, respectivement ∅ et E , sont ouverts dans E .
Terminologie Pour signifier qu’une partie F est un fermé de E , on dit aussi que F
est fermée dans E .
Abus de langage Lorsqu’il n’y a pas d’ambiguïté sur l’espace E dans lequel on
se place, on se permet parfois de parler de fermés et de parties fermées, sans préciser
« de E ».
Ex. 24. Dans IR , tout intervalle fermé, i.e. de la forme ]−∞, b] , [a, b] ou [a, +∞[ , est fermé.
En effet, leurs complémentaires sont respectivement ]b, +∞[ , ]−∞, a[ ∪ ]b, +∞[ et ]−∞, a[ ,
qui sont ouverts.

Attention Il ne faut pas croire, par jeu de mots, qu’une partie qui n’est pas ouverte
est nécessairement fermée. En effet, dans tout IK -espace vectoriel normé non réduit
à {0} , il existe des parties ni ouvertes ni fermées (cf. exemple suivant), et il existe
également des parties à la fois ouvertes et fermées (∅ et E ).

Ex. 25. Dans IR , l’intervalle I = [0, 1[ n’est ni ouvert ni fermé. En effet :


• il n’est pas ouvert car 0 ∈ I mais, pour tout r > 0 , on a ]−r, r[ �⊂ I ;
• il n’est pas fermé car on a IR \ I = ]−∞, 0[ ∪ [1, +∞[ , donc 1 ∈ IR \ I mais, pour tout r > 0 ,
on a ]1 − r, 1 + r[ �⊂ IR \ I .

Proposition 23 (Caractérisation séquentielle des parties fermées)


Une partie A ⊂ E est fermée si, et seulement si, la limite de toute suite convergente
d’éléments de A appartient à A.
Démonstration page 235

Ex. 26. Tout singleton est fermé. En effet, étant donné x ∈ E , la seule suite à valeurs dans le
singleton {x} est la suite constante égale à x , qui converge évidemment vers x .
Ex. 27. Pour justifier que l’intervalle [0, 1[ n’est pas un fermé de IR , on peut considérer la suite
de terme général 1 − 2−n , à valeurs dans [0, 1[ , mais convergeant vers 1 ∈ / [0, 1[ .
Ex. 28. Montrons que si E est un espace préhilbertien réel et A une partie de E , alors l’or-
thogonal de A est une partie fermée. Par caractérisation séquentielle : soit (xn )n∈IN une suite à
valeurs dans A⊥ . Supposons que (xn )n∈IN converge vers une limite ℓ et montrons que ℓ ∈ A⊥ .
Soit a ∈ A . Par bilinéarité du produit scalaire puis inégalité de Cauchy-Schwarz, on a :
   
( xn | a ) − ( ℓ | a ) = ( xn − ℓ | a )  �xn − ℓ� �a� → 0 donc ( xn | a ) → ( ℓ | a ).

Comme on a : ∀n ∈ IN ( xn | a ) = 0 , on en déduit que ( ℓ | a ) = 0 , autrement dit ℓ ∈ A⊥ .

217
Chapitre 5. Espaces vectoriels normés
Proposition 24
Toute boule fermée est fermée.

Démonstration. Procédons par caractérisation séquentielle.


Soit B une boule fermée. Notons ω son centre et R son rayon. Soit (an )n∈IN une suite conver-
gente à valeurs dans B . Montrons que sa limite ℓ appartient à B . Le fait que la suite (an )n∈IN
soit à valeurs dans B se traduit ainsi :
∀n ∈ IN �an − ω�  R.
Or, puisque an → ℓ , on a an − ω → ℓ − ω , puis �an − ω� → �ℓ − ω� . Par passage à la limite
dans une inégalité large, on en déduit que �ℓ − ω�  R , autrement dit ℓ ∈ B .
Cela prouve, par caractérisation séquentielle, que B est une partie fermée de E .

Proposition 25
• L’intersection d’une famille quelconque de fermés est fermée.
• La réunion d’une famille finie de fermés est fermée.

Démonstration. En considérant les complémentaires, ce résultat découle de la proposition 21


de la page 216. En effet, si (Ai )i∈I est une famille de fermés, alors on a :
     
 
E\ Ai = E \ Ai et E\ Ai = E \ Ai .
i∈I i∈I i∈I i∈I

Ex. 29. Soit S une sphère. Notons a son centre et r son rayon.
 
Par définition, on a S = Bf (a, r) \ B(a, r) , c’est-à-dire S = Bf (a, r) ∩ E \ B(a, r) .
La sphère S est donc fermée, comme intersection de deux parties fermées.

Attention Une réunion quelconque de fermés peut ne pas être fermée, comme
l’illustre l’exemple suivant.
  
1
Ex. 30. Dans IR , notons, pour tout n  2 , Fn = 0, 1 − . On a Fn = [0, 1[ . Ainsi, bien
n n∈IN∗
que chacun des Fn soit fermé, leur réunion ne l’est pas (cf. exemple 27 de la page précédente).

Remarque Plus généralement, toute partie A peut être obtenue comme une réunion

de fermés : il suffit d’écrire A = {a} .
a∈A

Proposition 26
Soit E1 , . . . , Ep des IK -espaces vectoriels normés. On munit l’espace pro-
duit E1 × · · · × Ep de la norme produit. Si F1 , . . . , Fp sont fermés dans E1 , . . . , Ep
respectivement, alors F1 × · · · × Fp est fermé dans E1 × · · · × Ep .
Démonstration page 235
Principe de démonstration. On peut procéder par caractérisation séquentielle.

218
III Topologie d’un espace vectoriel normé

3 Voisinage d’un point


Définition 15
Exo Étant donné V une partie de E et a ∈ E , on dit que V est un voisinage de a
5.14 s’il existe r > 0 tel que la boule ouverte B(a, r) soit incluse dans V .

Remarques
r
• Dire que V est un voisinage de a signifie qu’il 
a
existe r > 0 tel que :
∀x ∈ E �x − a� < r =⇒ x ∈ V ;
V
autrement dit, être suffisamment proche du
point a assure d’être dans V .
En particulier, tout voisinage de a contient a.
• On peut, sans en changer la signification, remplacer « boule ouverte » par « boule
fermée » dans la définition 15.

Ex. 31. Étant donné a ∈ E , tout ouvert contenant a est un voisinage de a .


En effet, si U est un tel ouvert, le caractère ouvert de U assure qu’il existe r > 0 tel que la
boule B(a, r) soit incluse dans U , donc U est un voisinage de a .

Proposition 27
Soit a ∈ E ainsi que V un voisinage de a. Si (un ) ∈ E IN est une suite convergeant
vers a, alors il existe un rang n0 ∈ IN tel que :
∀n  n0 un ∈ V.

Démonstration. Immédiat d’après les définitions de voisinage et de suite convergente, car :


• V étant un voisinage de a , il existe r > 0 tel que B(a, r) ⊂ V ;
• si une suite (un ) converge vers a , alors il existe n0 ∈ IN tel que ∀n  n0 un ∈ B(a, r) .

Remarque Le résultat s’applique en particulier à tout ouvert contenant a, puis-


qu’un tel ouvert est un voisinage de a.

Opérations sur les voisinages


Proposition 28
Soit x un élément de E .
• Une intersection finie de voisinages de x est encore un voisinage de x.
• Si V est un voisinage de x, alors toute partie de E contenant V est également
un voisinage de x.
Démonstration page 236

Remarque Le second point de la proposition précédente implique qu’une réunion


quelconque non vide de voisinages de x en est encore un.

219
Chapitre 5. Espaces vectoriels normés

4 Point intérieur, intérieur d’une partie


Définition 16
• On dit qu’un point x est intérieur à une partie A de E si A est un voisinage
de x, i.e. s’il existe r > 0 tel que B(x, r) ⊂ A.
• L’ensemble des points intérieurs à A est appelé intérieur de A ; on le

note A ou Int(A).

Remarques

• On a vu que si A est un voisinage de x, alors x ∈ A. On en déduit que A ⊂ A.
• Un ouvert étant un voisinage de chacun de ses points, il est clair qu’un ouvert est
son propre intérieur.
• La proposition 28 de la page précédente donne les résultats suivants :
∗ si x est intérieur à un nombre fini de parties de E , alors x est intérieur à leur
intersection ;
◦ ◦
∗ si A et B sont deux parties vérifiant A ⊂ B , alors on a A ⊂ B .

Attention La réciproque du dernier point évoqué est fausse : on peut trouver deux
◦ ◦
parties A et B vérifiant A ⊂ B sans pour autant avoir A ⊂ B .
On peut même trouver deux ensembles qui ne sont pas égaux mais qui ont même
◦ ◦
intérieur. Par exemple, dans IR, si A = [0, 1] et B = [0, 1[ , alors on a A = B = ]0, 1[ ,
et pourtant A �= B .
Proposition 29
L’intérieur d’une partie A est le plus grand ouvert (au sens de l’inclusion) qui soit
inclus dans A.
Démonstration page 236

Conséquences
• L’intérieur d’une partie A est la réunion de tous les ouverts inclus dans A. En effet,
la réunion de tous les ouverts inclus dans A est un ouvert (d’après la proposition 21
de la page 216), il est inclus dans A, et il contient de manière évidente tout ouvert
inclus dans A.

• Une partie A est ouverte si, et seulement si, A = A.

5 Point adhérent, adhérence d’une partie


Définition 17
• On dit qu’un point x est adhérent à une partie A de E si pour tout r > 0 ,
on a B(x, r) ∩ A �= ∅ .
• L’ensemble des points adhérents à A est appelé adhérence de A ; on le note A
ou Adh(A).

220
III Topologie d’un espace vectoriel normé

Remarques
• Si x ∈ A, alors x est adhérent à A, car alors toute boule ouverte centrée en x
contient x et donc rencontre A. On a donc A ⊂ Adh(A).
• Dire qu’un point x n’appartient pas à l’adhérence de A signifie qu’on peut trou-
ver r > 0 tel que B(x, r) ∩ A = ∅ (ou encore B(x, r) ⊂ E \ A), ce qui signifie
que x appartient à l’intérieur de E \ A. On a donc la relation :
E \ (Adh A) = Int(E \ A),
ce qui mène également aux deux relations suivantes :
Adh A = E \ Int(E \ A) et IntA = E \ Adh(E \ A).
• L’intérieur d’une partie est toujours un ouvert, la première des relations ci-dessus
nous assure que l’adhérence d’une partie est toujours fermée.

Proposition 30
L’adhérence d’une partie A est le plus petit fermé contenant A.
Démonstration page 236

Conséquences
• L’adhérence d’une partie A est l’intersection de tous les fermés contenant A. En
effet, l’intersection de tous les fermés contenant A est fermée, contient A, et est
contenue dans tout fermé contenant A.
• Une partie A est fermée si, et seulement si, A = A.
Le résultat suivant donne une caractérisation très importante des points adhérents.
Proposition 31 (Caractérisation séquentielle des points adhérents)
Exo Un point x est adhérent à une partie A si, et seulement s’il existe une suite d’élé-
5.15 ments de A qui converge vers x.
Démonstration page 236

Reformulation L’adhérence d’une partie A est l’ensemble des limites des suites
convergentes à valeurs dans A.

Ex. 32. Prouvons qu’étant donné A une partie non vide de E et x ∈ E , on a :


x ∈ Adh(A) ⇐⇒ d(x, A) = 0.
• Supposons d(x, A) = 0 . Alors, pour tout r > 0 , il existe a ∈ A vérifiant d(x, a) < r , et
donc B(x, r) ∩ A �= ∅ . On en déduit x ∈ Adh(A) .
• Réciproquement, supposons x ∈ Adh(A) . Alors, il existe une suite (an )n∈IN à valeurs dans A
telle que an → x . On a :
∀n ∈ IN 0  d(x, A)  d(x, an ).

Comme d(x, an ) → 0 , on en déduit d(x, A) = 0 .


Conséquence Une partie fermée étant égale à son adhérence, on en déduit que si F est une
partie fermée de E , alors :
∀x ∈ E \ F d(x, F ) > 0.

221
Chapitre 5. Espaces vectoriels normés

6 Densité
Définition 18
Soit A une partie de E . Une partie D de A est dite dense dans A si l’une des
trois propriétés équivalentes suivantes est vérifiée :
(i) l’adhérence de D contient A ;
(ii) pour tout a ∈ A et pour tout r > 0 , il existe x ∈ D tel que �x − a�  r ;
(iii) pour tout a ∈ A, il existe une suite d’éléments de D qui converge vers a.

Remarques
• Dans la définition précédente, les propriétés (ii) et (iii) ne sont que des reformu-
lations de la propriété A ⊂ D .
• Une partie D est dense dans E si, et seulement si, D = E .

Ex. 33. Les ensembles Q , IR \ Q et D


I (nombres décimaux) sont denses dans IR (cf. cours de
première année).
Ex. 34. L’ensemble GLn (IK) est dense dans Mn (IK) . En effet, toute matrice A ∈ Mn (IK) est
la limite de la suite de terme général Ak = A − 2−k In , car, en notant � · � la norme dont on a
muni Mn (IK) , on a �A − Ak � = �2−k In � = 2−k �In � → 0 . Or, puisque A admet un nombre
fini de valeurs propres, tous les termes de la suite (Ak ) sont inversibles à partir d’un certain rang.
Ex. 35. Soit (a, b) ∈ IR2 tel que a < b . L’ensemble E ([a, b], IK) des fonctions en escalier
sur [a, b] est dense dans CM([a, b], IK) au sens de la norme � · �∞ . C’est une reformulation du
théorème d’approximation par des fonctions en escalier vu en première année.
Ex. 36. Nous verrons (cf. le théorème 19 de la page 471) que l’ensemble des fonctions polyno-
miales est dense dans C([a, b], IK) au sens de la norme � · �∞ .

7 Frontière
Définition 19
Soit A une partie de E . La frontière de A, notée Fr(A), est l’ensemble :

Fr(A) = A \ A.

Remarques

• Dire qu’un point x appartient à la frontière de A signifie que x ∈ A et x ∈
/ A , i.e. :
 
∀r > 0 B(x, r) ∩ A �= ∅ et B(x, r) ∩ (E \ A) �= ∅
ou encore que x ∈ A ∩ (E \ A) . On a donc :
Fr(A) = A ∩ (E \ A).
• Du point précédent il résulte que :
∗ la frontière de A est fermée (car elle est l’intersection de deux fermés) ;
∗ A et E \ A ont même frontière.

222
III Topologie d’un espace vectoriel normé

Ex. 37. Si B désigne une boule de centre a ∈ E et de rayon r > 0 , alors Fr(B) est la sphère
de mêmes centre et rayon.
Ex. 38. Si a et b sont deux réels vérifiant a < b , et si I est un intervalle d’extrémités a et b ,
alors on a Int(I) = ]a, b[ et Adh(I) = [a, b] , donc Fr(I) = {a, b} .

Remarque Pour toute partie A de E , les trois parties :



A, Fr(A) et E \ A
forment un recouvrement disjoint de E : elles sont
deux à deux disjointes et leur réunion vaut E . En
◦ ◦

effet, sachant que A ⊂ A, la relation Fr(A) = A \ A A

Fr(A)
assure que A et Fr(A) sont disjoints et que
E\A
leur réunion vaut A. Par conséquent, les en-

sembles A , Fr(A) et E \ A forment un recouvre-
ment disjoint de E .

8 Voisinage relatif, ouvert relatif, fermé relatif


Voisinage relatif

Définition 20
Soit A une partie de E et a un point de A. Une partie V de A est un voisinage
relatif de a dans A s’il existe un voisinage V de a dans E tel que V = A ∩ V .

Ex. 39. On se place dans C (muni du module).


L’intervalle [3, 5] , bien qu’il ne soit pas un voisinage du
point 4 , en est un voisinage relatif dans IR . En effet :
3 4 5 IR


[3, 5] = IR ∩ Df (4, 1)

où Df (4, 1) est le disque fermé de centre 4 et de rayon 1 . Df (4, 1)

Proposition 32
Soit A une partie de E et a ∈ A. Une partie V de A est un voisinage relatif de a
dans A si, et seulement s’il existe r > 0 tel que A ∩ B(a, r) ⊂ V .

Démonstration.
 de a tel
• Si V est un voisinage relatif de a dans A , alors il existe un voisinage V
que V = A ∩ V . Puisque V
 est un voisinage de a , il existe r > 0 tel que B(a, r) ⊂ V . On
a alors A ∩ B(a, r) ⊂ A ∩ V , i.e. A ∩ B(a, r) ⊂ V .
• Réciproquement, s’il existe un réel r > 0 tel que A ∩ B(a, r) ⊂ V , alors, l’en-
semble V = V ∪ B(a, r) est un voisinage de a vérifiant V = A ∩ V .

223
Chapitre 5. Espaces vectoriels normés

Ex. 40. Soit A un intervalle de IR d’intérieur non vide. Tout point de A possède un voisinage
relatif dans A qui est un segment. En effet, étant donné a ∈ A :
• si a ∈ Int(A) , alors il existe r > 0 tel que [a − r, a + r] ⊂ A ;
• si a est une extrémité de A alors :
∗ si a = max(A) , alors, A étant d’intérieur non vide, il existe r > 0 tel que [a − r, a] ⊂ A ,
et alors [a − r, a] = [a − r, a + r] ∩ A , donc [a − r, a] est un voisinage relatif de a dans A ;
∗ si a = min(A) , alors de même il existe r > 0 tel que [a, a + r] ⊂ A , et alors [a, a + r]
est un voisinage relatif de a dans A .

Ouvert relatif, fermé relatif


Définition 21
Soit A une partie de E .
• Une partie U de A est un ouvert relatif de A si U est un voisinage relatif
de chacun de ses points dans A.
• Une partie F de A est un fermé relatif de A s’il existe U un ouvert relatif
de A tel que F = A \ U .

Proposition 33
Soit A une partie de E , et U une partie de A. Les assertions suivantes sont
équivalentes :
(i) U est un ouvert relatif de A ;
(ii) pour tout x ∈ U , il existe r > 0 tel que A ∩ B(x, r) ⊂ U ;
 de E tel que U = A ∩ U
(iii) il existe un ouvert U .
Démonstration page 236

Ex. 41. L’ensemble vide est un ouvert relatif de toute partie de E .


Ex. 42. Si A est un ouvert de E , alors les ouverts relatifs de A sont les ouverts de E inclus
dans A . En effet, étant donné U une partie de A :
• si U est un ouvert de E , alors l’écriture U = A ∩ U montre que U est un ouvert relatif
de A ;
 de E tel que U = A ∩ U
• si U est un ouvert relatif de A , alors il existe un ouvert U  , et
alors U est un ouvert de E , comme intersection de deux ouverts de E .

Proposition 34
Soit A une partie de E , et F une partie de A. Les assertions suivantes sont
équivalentes :
(i) F est un fermé relatif de A ;
(ii) il existe un fermé F de E tel que F = A ∩ F .
Démonstration page 237

224
IV Comparaison de normes

Ex. 43. Si A est un fermé de E , alors les fermés relatifs de A sont les fermés de E inclus
dans A . En effet, étant donné F une partie de A :
• si F est un fermé de E , alors l’écriture F = A ∩ F montre que F est un fermé relatif de A ;
• si F est un fermé relatif de A , alors il existe un fermé F de E tel que F = A ∩ F , et
alors F est un fermé de E , comme intersection de fermés de E .
Ex. 44. Toute partie A de E est à la fois un ouvert relatif et un fermé relatif d’elle-même. En
effet, on a A = A ∩ E , et E est à la fois un ouvert et un fermé de E .

Remarque Si A est égal à E , alors les notions de voisinage, ouvert et fermé relatifs
coïncident avec les notions déjà vues de voisinage, ouvert et fermé. En revanche, ce
n’est pas le cas si A est quelconque, comme l’illustrent les exemples suivants.

On se place dans IR (muni de la valeur absolue).


Ex. 45. L’intervalle [0, 1[ , bien qu’il ne soit pas un ouvert de IR , est un ouvert relatif de [0, 1] ,
car on peut écrire :
[0, 1[ = [0, 1] ∩ ]−1, 1[.
Ex. 46. L’intervalle [0, 1[ , bien qu’il ne soit pas un fermé de IR , est un fermé relatif de [−1, 1[ ,
car on peut écrire :
[0, 1[ = [−1, 1[ ∩ [0, 1].

Proposition 35 (Caractérisation séquentielle des fermés relatifs)


Soit A une partie de E . Étant donné une partie F de A, les deux assertions
suivantes sont équivalentes :
(i) F est un fermé relatif de A ;
(ii) pour toute suite d’éléments de F convergeant vers ℓ ∈ A, on a ℓ ∈ F .
Démonstration page 237

IV Comparaison de normes
Il est fréquent de rencontrer plusieurs normes sur un même espace vectoriel. Une
question apparaît alors : si une propriété (comme la convergence d’une suite ou le
caractère borné, ouvert ou fermé d’une partie) est vraie pour une norme, l’est-elle
également pour les autres ?
La réponse est négative dans le cas général, comme l’illustre l’exemple suivant.

Ex. 47. Dans C([0, 1], IK) , considérons la suite de fonctions (fn )n∈IN∗ définie par :
∀x ∈ [0, 1] fn (x) = xn .
Pour n ∈ IN∗ , on a :  1
1
�fn �∞ = 1 et �fn �1 = xn dx = ·
0
n+1

Ainsi, la suite (fn ) n∈IN∗ tend vers la fonction nulle pour la norme 1 , mais pas pour la norme
infinie.

225
Chapitre 5. Espaces vectoriels normés

Ex. 48. En reprenant la suite (fn )n∈IN∗ précédente, et en notant gn = (n + 1)fn , on constate
que la suite (gn )n∈IN∗ est bornée pour la norme 1 (tous ses termes sont unitaires), mais pas
pour la norme infinie.

Cependant, nous allons voir ici que sous des conditions supplémentaires, certaines
propriétés sont conservées lors du passage d’une norme à une autre.
1 Domination de normes
Définition 22
Soit N1 et N2 deux normes sur E . On dit que N1 est dominée par N2 s’il existe
un réel α > 0 tel que N1  αN2 , ou encore :
∀x ∈ E N1 (x)  αN2 (x).

Terminologie Pour signifier que N1 est dominée par N2 , on dit aussi que N2 est
plus fine que N1 .
Le résultat suivant assure que pour étudier le caractère dominé de la norme N1 par la
norme N2 , on peut se contenter de considérer des éléments x ∈ E tels que N2 (x) = 1 .

Exo Proposition 36
5.23 Soit N1 et N2 deux normes sur E . La norme N1 est dominée par la norme N2 si,
et seulement s’il existe un réel α strictement positif tel que :
Exo
5.24 ∀x ∈ E N2 (x) = 1 =⇒ N1 (x)  α.
Démonstration page 237

Proposition 37
Soit N1 et N2 deux normes sur E telles que N1 soit dominée par N2 .
Si une partie de E est bornée pour la norme N2 , alors elle l’est également pour la
norme N1 .

Démonstration. Soit α > 0 tel que N1  αN2 et A une partie bornée pour la norme N2 .
Comme A est bornée pour la norme N2 , on peut considérer M un réel positif vérifiant :
∀a ∈ A N2 (a)  M.
Alors, la relation suivante, valable pour tout a ∈ A :
N1 (a)  αN2 (a)  αM,
montre que A est également bornée pour la norme N1 .

Remarque Avec les notations de la proposition précédente, si une application f à


valeurs dans E (et donc en particulier une suite d’éléments de E ) est bornée pour la
norme N2 , alors elle l’est également pour la norme N1 .

Proposition 38
Soit N1 et N2 deux normes sur E telles que N1 soit dominée par N2 .
Si une suite converge vers un élément ℓ de E pour la norme N2 , alors elle converge
également vers ℓ pour la norme N1 .

226
IV Comparaison de normes

Démonstration. Soit α > 0 tel que N1  αN2 .


Si (an )n∈IN est une suite tendant vers ℓ pour la norme N2 , alors l’encadrement :

0  N1 (an − ℓ)  α N2 (an − ℓ)
  
→0

montre que (an ) tend aussi vers ℓ pour la norme N1 .

Remarque Étant donné deux normes N1 et N2 , pour montrer que N1 n’est pas
dominée par N2 , il suffit, d’après la proposition précédente, d’exhiber une suite qui
converge pour la norme N2 mais pas pour la norme N1 .

Point méthode Dans la pratique, pour montrer que N1 n’est pas dominée par N2
on cherche souvent une suite qui, au choix, tend vers 0 pour N2 mais pas pour N1 ,
ou est bornée pour N2 mais pas pour N1 .

Ex. 49. L’exemple 47 de la page 225 prouve que, dans l’espace C([0, 1], IK) , la norme infinie
n’est pas dominée par la norme 1 .

Ex. 50. Dans IK[X] , considérons les deux normes :

+∞ +∞
 
�P �∞ = max |an | et �P �1 = |an | où P = an X n .
n∈IN
n=0 n=0

• La norme � · �∞ est dominée par la norme � · �1 car : ∀P ∈ IK[X] �P �∞  �P �1 .


• En revanche, la norme � · �1 n’est pas dominée par la norme � · �∞ car, si l’on

n
pose Pn = 1
n+1
X k , on a �Pn �∞ = 1
n+1
et �Pn �1 = 1 , donc la suite (Pn )n∈IN tend
k=0
vers 0 pour la norme � · �∞ mais pas pour la norme � · �1 .

2 Normes équivalentes

Définition 23
Soit N1 et N2 deux normes sur E . On dit que N1 et N2 sont équivalentes s’il
existe deux réels α et β strictement positifs tels que :
∀x ∈ E αN1 (x)  N2 (x)  βN1 (x).

Remarque À partir de la définition précédente, on obtient aisément que :


• deux normes sont équivalentes si, et seulement si, chacune est dominée par l’autre ;
Exo
5.25 • l’équivalence des normes est une relation d’équivalence.

227
Chapitre 5. Espaces vectoriels normés

Beaucoup de propriétés sont conservées lorsque l’on passe d’une norme à une autre
qui lui est équivalente. Donnons trois résultats, dont les deux premiers sont des consé-
quences immédiates des propositions 37 et 38 et de la remarque précédente.
Proposition 39 (Conservation du caractère borné d’une partie)
Soit N1 et N2 deux normes équivalentes sur E . Une partie est bornée pour la
norme N1 si, et seulement si, elle l’est pour la norme N2 .

Remarque Ce résultat s’applique en particulier aux applications bornées et aux


suites bornées.

Proposition 40 (Conservation du caractère convergent d’une suite)


Soit N1 et N2 deux normes équivalentes sur E . Une suite converge vers un élé-
ment ℓ ∈ E pour la norme N1 si, et seulement si, elle converge vers ℓ pour la
norme N2 .

Proposition 41 (Conservation des ouverts et des fermés)


Soit N1 et N2 deux normes équivalentes sur E . Une partie A de E est :
• ouverte pour N1 si, et seulement si, elle l’est pour N2 ;
• fermée pour N1 si, et seulement si, elle l’est pour N2 .
Démonstration page 237

Point méthode Les résultats précédents nous assurent que, pour étudier la conver-
gence d’une suite ou encore le caractère borné, ouvert ou fermé d’une partie (et
donc, par extension, tout résultat reposant sur ces notions), et si l’on dispose de
plusieurs normes équivalentes, alors on pourra choisir celle que l’on préfère.

Équivalence des normes en dimension finie


Le théorème suivant sera démontré dans le chapitre sur les espaces vectoriels normés
de dimension finie (cf. théorème 13 de la page 296) .
Théorème 42
Dans un espace vectoriel de dimension finie, toutes les normes sont équivalentes.

228
Démonstrations

Démonstrations

Proposition 1 Pour alléger l’écriture, notons �x� = ( x | x ) (même si cette notation est abusive
tant que nous n’avons pas encore démontré qu’il s’agit d’une norme).
• L’homogénéité et la séparation sont faciles à vérifier :
∗ en effet, si x ∈ E vérifie �x� = 0 , alors on a ( x | x ) = 0 , ce qui, comme un produit
scalaire est défini positif, entraîne que x est nul ;
∗ pour (λ, x) ∈ IR × E , la bilinéarité du produit scalaire donne :
  
�λx� = ( λx | λx ) = λ2 ( x | x ) = |λ| ( x | x ) = |λ| × �x�.
2
• Il reste à démontrer l’inégalité triangulaire. Pour (x, y) ∈ E , on a :
�x + y�2 = ( x + y | x + y )

= �x�2 + �y�2 + 2 ( x | y ) (bilinéarité et symétrie)

 �x�2 + �y�2 + 2 �x� �y� (inégalité de Cauchy-Schwarz)


 2
= �x� + �y� ,

d’où l’inégalité �x + y�  �x� + �y� souhaitée.


Proposition 2
• Commençons par montrer l’encadrement :
�x� − �y�  �x + y�  �x� + �y�, (1)
qui se reformule ainsi :
�x�  �x + y� + �y� et �x + y�  �x� + �y�.
Ces deux inégalités résultent de l’inégalité triangulaire de la définition d’une norme (cf. défi-
nition 1 de la page 200) appliquée :
∗ pour la première, aux vecteurs x + y et −y (puisque, par homogénéité, �−y� = �y� ) ;
∗ pour la seconde, aux vecteurs x et y .
• L’encadrement (1) étant valable pour tous x et y , on peut échanger leurs rôles :
�y� − �x�  �y + x�  �y� + �x�. (2)
Les encadrements (1) et (2) donnent alors :
 
�x� − �y�  �x + y�  �x� + �y�. (3)

• Il reste, pour conclure, à montrer que :


 
�x� − �y�  �x − y�  �x� + �y�.
Cela résulte de l’encadrement (3) appliqué aux vecteurs x et −y (du fait que �−y� = �y� ).
Proposition 4 Soit a ∈ A . On a, par définition de d(x, A) et par inégalité triangulaire :
d(x, A)  d(x, a)  d(x, y) + d(y, a).
Il en résulte que d(x, A) − d(x, y)  d(y, a) . Cette inégalité étant vraie pour tout a ∈ A , on en
déduit que d(x, A) − d(x, y) minore l’ensemble {d(y, a) | a ∈ A} , et donc :
d(x, A) − d(x, y)  d(y, A) ce qui donne d(x, A) − d(y, A)  d(x, y).
Un argument de symétrie du problème en x et y permet alors d’obtenir le résultat souhaité.

229
Chapitre 5. Espaces vectoriels normés

Proposition 5
x (1 − λ)x + λy
Soit B une boule (ouverte ou fermée). Donnons-


nous deux éléments x et y de B et λ ∈ [0, 1] , 

et montrons que (1 − λ)x + λy ∈ B . Pour cela, il



suffit de montrer qu’en notant a le centre de B , a
on a :


  y
�(1 − λ)x + λy − a�  max �x − a�, �y − a� .

Cela s’obtient en écrivant :


   
(1 − λ)x + λy − a = (1 − λ)(x − a) + λ(y − a)
   
 (1 − λ)(x − a) + λ(y − a) (inégalité triangulaire).

Par homogénéité, et par positivité de 1 − λ et λ , on obtient :


   
(1 − λ)x + λy − a  (1 − λ)�x − a� + λ�y − a�  max �x − a�, �y − a� .

Lemme 6
• Si k = 0 , alors kA = {0} , donc sup(kA) = 0 = k sup(A) (rappelons que par convention
on a 0 × (+∞) = 0 , ce qui rend la formule vraie dans le cas où sup(A) = +∞ ).
• Supposons k > 0 . Si A n’est pas majorée, alors kA ne l’est pas non plus. Dans ce cas, on
a sup(kA) = +∞ = k sup(A) . Supposons donc A majorée.
∗ Pour tout x ∈ A , on a kx  k sup(A) , donc le réel k sup(A) est un majorant de kA .
∗ D’autre part, par caractérisation séquentielle de la borne supérieure, il existe une
suite (xn )n∈IN ∈ AIN telle que xn → sup A . La suite (kxn )n∈IN est alors à valeurs
dans kA et tend vers k sup(A) . Toujours par caractérisation séquentielle de la borne
supérieure, cela prouve que sup(kA) = k sup(A) .
Proposition 7 Notons E = IKn .
• Norme infinie
∗ Séparation. Si x ∈ E vérifie �x�∞ = 0 , alors on a max |xk | = 0 , et donc :
k∈[[1,n]]

∀k ∈ [[1, n]] xk = 0 c’est-à-dire x = 0.


∗ Homogénéité. Pour x ∈ E et λ ∈ IK , on a :
  
�λx�∞ = max |λxk |  k ∈ [[1, n]]
  
= max |λ| |xk |  k ∈ [[1, n]]
  
= |λ| max |xk |  k ∈ [[1, n]] (lemme 6)
= |λ| �x�∞ .

∗ Inégalité triangulaire. Pour (x, y) ∈ E 2 , on a :


  
�x + y�∞ = max |xk + yk |  k ∈ [[1, n]] .

Comme pour tout k ∈ [[1, n]] on a :


|xk + yk |  |xk | + |yk |  �x�∞ + �y�∞ ,

il en résulte que �x�∞ + �y�∞ majore l’ensemble {|xk + yk |  k ∈ [[1, n]]} . On en
déduit �x + y�∞  �x�∞ + �y�∞ .

230
Démonstrations

• Norme 1

n
∗ Séparation. Si x ∈ E vérifie �x�1 = 0 , alors on a |xk | = 0 , et donc :
k=1

∀k ∈ [[1, n]] xk = 0 c’est-à-dire x = 0.


∗ Homogénéité. Pour x ∈ E et λ ∈ IK , on a :
n n n
    
�λx�1 = |λxk | = |λ| |xk | = |λ| |xk | = |λ| �x�1 .
k=1 k=1 k=1

∗ Inégalité triangulaire. Pour (x, y) ∈ E 2 , on a :


n n n n
     
�x + y�1 = |xk + yk |  |xk | + |yk | = |xk | + |yk | = �x�1 + �y�1 .
k=1 k=1 k=1 k=1

• Norme 2

∗ Cas IK = IR . Pour x ∈ IRn , on a �x�2 = ϕ(x, x) , où ϕ est l’application :

ϕ : (IRn )2 −→ IR

n
(x, y) �−→ x k yk .
k=1

L’application ϕ est alors le produit scalaire canonique sur IRn , ce qui permet d’affirmer
que l’application x �→ �x�2 est une norme, car c’est la norme euclidienne associée.
∗ Cas IK = C . L’argument précédent ne s’applique pas.
Pour x = (x1 , . . . , xn ) ∈ Cn , notons x̃ l’élément (|x1 |, . . . , |xn |) de IRn . Il est immédiat
de voir que :
∀x ∈ Cn �x�2 = �x̃�2 .
Pour obtenir les propriétés de séparation, d’homogénéité et d’inégalité triangulaire pour
la norme � · �2 sur Cn , utilisons ces mêmes propriétés, déjà établies, pour la norme � · �2
sur IRn .
⋆ Séparation. Si x ∈ Cn vérifie �x�2 = 0 , alors �x̃�2 = 0 , et donc, par propriété de
séparation de la norme 2 sur IRn , on a x̃ = 0 puis x = 0 .
⋆ Homogénéité. En utilisant la propriété d’homogénéité de la norme 2 sur IRn , on a,
pour tout (x, λ) ∈ Cn × C :
   
�λx�2 = 
λx2 = |λ| x̃2 = |λ| �x̃�2 = |λ| �x�2 .

n 1/2
⋆ Inégalité triangulaire. Pour (x, y) ∈ (Cn )2 , on a �x + y�2 = |xk + yk |2 .
k=1
Or, par inégalité triangulaire sur le module, on a ∀k ∈ [[1, n]] |xk + yk |  |xk | + |yk | ,
ce qui donne :

n 1/2
2
�x + y�2  (|xk | + |yk |) = �x̃ + ỹ�2 .
k=1

Par inégalité triangulaire sur la norme 2 sur IRn , on en déduit :


�x + y�2  �x̃�2 + �ỹ�2 = �x�2 + �y�2 .

231
Chapitre 5. Espaces vectoriels normés

Proposition 8 Soit ϕ : E → IKn l’isomorphisme qui à un vecteur de E associe sa matrice dans


la base B . Montrons que si � · � est une norme sur IKn , alors on définit une norme sur E en
posant :
 
∀x ∈ E N (x) = ϕ(x).
Il suffira alors d’appliquer cela aux trois normes usuelles déjà connues sur IKn .
 
Séparation. Si x ∈ E vérifie N (x) = 0 , alors ϕ(x) = 0 . Par séparation de la norme
sur IKn , on a ϕ(x) = 0 , puis par injectivité de ϕ , on obtient x = 0 .
Homogénéité. Soit (λ, x) ∈ IK × E . On a, par linéarité de ϕ puis par homogénéité de la
norme sur IKn :
     
N (λx) = ϕ(λx) = λϕ(x) = |λ| ϕ(x) = |λ|N (x).
Inégalité triangulaire. Pour (x, y) ∈ E 2 , on a, par linéarité de ϕ puis par inégalité trian-
gulaire de la norme sur IKn :
   
N (x + y) = ϕ(x + y) = ϕ(x) + ϕ(y)
   
 ϕ(x) + ϕ(y) = N (x) + N (y).
Proposition 9 Tout d’abord, X étant non vide et f étant bornée, la partie :
  
�f (x)�  x ∈ X
possède une borne supérieure, comme toute partie non vide et majorée de IR . Vérifions les trois
axiomes de la définition d’une norme.
Séparation Si f vérifie �f �∞ = 0 , alors on a ∀x ∈ X �f (x)� = 0 , autrement dit f est la
fonction nulle.
Homogénéité Soit f ∈ B(X, E) et λ ∈ IK .
  
En notant A = �f (x)�  x ∈ X , on a, par homogénéité :
     
�λf �∞ = sup �λf (x)�  x ∈ X = sup |λ| �f (x)�  x ∈ X = sup(|λ|A)
donc, grâce au lemme 6 de la page 207 :
�λf �∞ = |λ| sup(A) = |λ| �f �∞ .
Inégalité triangulaire Soit (f, g) ∈ B(X, E)2 . Montrons que :
�f + g�∞  �f �∞ + �g�∞ .
  
En notant A l’ensemble �f (x) + g(x)�  x ∈ X , cela revient à montrer que A est majoré
par �f �∞ + �g�∞ . C’est évident, car pour tout x ∈ X , on a :
�f (x) + g(x)�  �f (x)� + �g(x)� .
     
�f �∞ �g�∞

Proposition 10 Vérifions les trois axiomes de la définition d’une norme.


Séparation Si f ∈ C([a, b], IK) vérifie �f �1 = 0 , alors |f | est la fonction nulle car continue,
positive et d’intégrale nulle (l’intervalle d’intégration étant d’intérieur non vide), et donc f
est nulle.
Homogénéité Pour f ∈ C([a, b], IK) et λ ∈ IK , on a :
 b  b  b
 
�λf �1 = |λf | = |λ| |f | = |λ| |f | = |λ| �f �1 .
a a a

Inégalité triangulaire Pour (f, g) ∈ C([a, b], IK)2 , on a :


 b  b  b  b
 
�f + g�1 = |f + g|  |f | + |g| = |f | + |g| = �f �1 + �g�1 .
a a a a

232
Démonstrations

Proposition 11 Si IK = IR , alors la norme 2 est la norme euclidienne associée au produit scalaire


 b
usuel sur C([a, b], IR) défini par ( f | g ) = fg .
a

Supposons désormais IK = C . Vérifions les trois axiomes de la définition d’une norme.


Séparation Si f ∈ C([a, b], C) vérifie �f �2 = 0 , alors |f |2 est la fonction nulle, en tant que
fonction continue, positive et d’intégrale nulle (l’intervalle d’intégration étant d’intérieur non
vide), donc f est la fonction nulle.
Homogénéité Pour f ∈ C([a, b], C) et λ ∈ C , on a :
 b  b  b
�λf �22 = |λf |2 = |λ|2 |f |2 = |λ|2 |f |2 = |λ|2 �f �22 .
a a a

Les quantités considérées étant positives, on obtient �λf �2 = |λ| �f �2 .


Inégalité triangulaire Soit f et g deux éléments de C([a, b], C) . On a :
 
b b  
�f + g�2 = |f + g|  2
(|f | + |g|)2 = |f | + |g|2 . (1)
a a

Mais alors, comme l’application f �→ �f �2 est une norme sur C([a, b], IR) , nous pouvons
appliquer l’inégalité triangulaire associée avec les fonctions |f | et |g| :
     
|f | + |g|  |f | + |g| . (2)
2 2 2
   
Comme on a |f |2 = �f �2 et |g|2 = �g�2 , les relations (1) et (2) permettent de
conclure.

Proposition 12 Notons E l’espace E1 × · · · × Ep .


Séparation Si x = (x1 , . . . , xp ) vérifie ϕ(x) = 0 , alors, par définition de ϕ , on a :

∀k ∈ [[1, p]] ϕk (xk ) = 0,

ce qui, par propriété de séparation des normes ϕk , entraîne ∀k ∈ [[1, p]] xk = 0 , i.e. x = 0 .
Homogénéité Pour x = (x1 , . . . , xp ) ∈ E et λ ∈ IK , on a :
   
ϕ(λx) = ϕ (λx1 , . . . , λxp ) = max ϕ1 (λx1 ), . . . , ϕp (λxp )

L’homogénéité de chacune des normes ϕ1 , . . . , ϕp donne alors :


 
ϕ(λ x) = max |λ|ϕ1 (x1 ), . . . , |λ|ϕp (xp ) = |λ|ϕ(x).

Inégalité triangulaire Soit x = (x1 , . . . , xp ) et y = (y1 , . . . , yp ) dans E . On a :


   
ϕ(x + y) = ϕ (x1 + y1 , . . . , xp + yp ) = max ϕ1 (x1 + y1 ), . . . , ϕp (xp + yp ) .

Pour tout k ∈ [[1, p]] , on a, par inégalité triangulaire sur ϕk puis par définition de ϕ :

ϕk (xk + yk )  ϕk (xk ) + ϕk (yk )  ϕ(x) + ϕ(y).


 
Ainsi, ϕ(x) + ϕ(y) est un majorant de l’ensemble ϕk (xk + yk ) | k ∈ [[1, p]] , d’où :

ϕ(x + y)  ϕ(x) + ϕ(y).

233
Chapitre 5. Espaces vectoriels normés

Proposition 17
 (k)

• Supposons que pour tout k ∈ [[1, p]] , la suite an n∈IN
converge, et notons ℓk sa limite.
En notant alors ℓ = (ℓ1 , . . . , ℓp ) , la relation suivante, valable pour tout n ∈ IN :
    
�an − ℓ� = max ϕ1 a(1) (p)
n − ℓ 1 , . . . , ϕp a n − ℓ p

   
 ϕ1 a(1) (p)
n − ℓ1 + · · · + ϕp an − ℓp
     
→0 →0

prouve la convergence de la suite (an )n∈IN vers ℓ .


• Réciproquement, si la suite de terme général an converge vers un élément ℓ = (ℓ1 , . . . , ℓp )
 (k)

de E1 × · · · × Ep , alors l’inégalité ϕk an − ℓk  �an − ℓ� , valable pour tout k ∈ [[1, p]]
 (k)

et pour tout n ∈ IN , assure la convergence de chaque suite an n∈IN
vers ℓk .

Proposition 19

• Supposons que x soit valeur d’adhérence de la suite (an ) . Soit alors ϕ : IN → IN une
 
fonction strictement croissante telle que la suite aϕ(n) converge vers x .
Soit ε > 0 et n0 ∈ IN . Montrons qu’il existe n  n0 tel que �an − x�  ε .
Comme aϕ(n) → x , il existe un rang n1 ∈ IN tel que :
 
∀p  n1 aϕ(p) − x  ε.

Comme ϕ −→ +∞ , on peut trouver p  n1 tel que ϕ(p)  n0 . En posant alors n = ϕ(p) ,


+∞
on a n  n0 et �an − x�  ε .
• Réciproquement, supposons que :
∀ε > 0 ∀n0 ∈ IN ∃n  n0 �an − x�  ε, (⋆)
et montrons qu’il existe une sous-suite de (an ) qui tend vers x .
Pour cela, construisons une fonction ϕ : IN → IN strictement croissante telle que :
 
∀p ∈ IN aϕ(p) − x  1 ·
p 2
1
∗ Tout d’abord, la propriété (⋆) assure qu’il existe n ∈ IN tel que �an − x�  ·
20
Posons ϕ(0) égal à une telle valeur de n .
∗ Pour p ∈ IN∗ , supposons construits ϕ(0), . . . , ϕ(p − 1) . La propriété (⋆) assure qu’il
1
existe n  ϕ(p − 1) + 1 tel que �an − x�  p ·
2
Il suffit alors de poser ϕ(p) égal à une telle valeur de n .

Proposition 20 Soit B une boule ouverte. Notons a son centre et R son rayon.
Pour x ∈ B , on a d(a, x) < R , et, d’après l’inégalité triangulaire, la boule ouverte de centre x
et de rayon R − d(a, x) est contenue dans B .
En effet, si u vérifie d(x, u) < R − d(a, x) , alors on a :
d(a, u)  d(a, x) + d(x, u) < d(a, x) + R − d(a, x) = R.

Donc B est une partie ouverte.

234
Démonstrations

Proposition 21
• Soit (Ui )i∈I une famille d’ouverts, et U leur réunion. Pour x ∈ U , on peut trouver i ∈ I tel
que x appartienne à Ui . Comme Ui est ouvert, il existe une boule ouverte centrée en x et
de rayon strictement positif qui soit contenue dans Ui , et donc dans U . Il en résulte que U
est ouvert.
• Soit (Ui )i∈I une famille finie d’ouverts, et U leur intersection.
∗ Le cas où I est vide est évident, car une intersection vide vaut, par convention, l’espace
entier.
∗ Supposons I non vide. Soit x ∈ U . Pour tout i ∈ I , l’ensemble Ui est ouvert, donc on
peut trouver ri > 0 tel que la boule ouverte de centre x et de rayon ri soit contenue
dans Ui .
Puisque I est fini, le nombre réel r = min ri existe et est strictement positif. La boule
i∈I
ouverte centrée en x et de rayon r est alors contenue dans chacun des Ui , et donc dans
leur intersection U . D’où le caractère ouvert de U .
Proposition 22 Supposons que U1 , . . . , Up soient ouverts dans E1 , . . . , Ep respectivement.
Montrons que U = U1 × · · · × Up est ouvert dans E1 × · · · × Ep . Soit x = (x1 , . . . , xp ) ∈ U .
Pour tout k ∈ [[1, p]] , on a xk ∈ Uk , donc, par caractère ouvert de Uk , il existe rk > 0
tel que B(xk , rk ) ⊂ Uk . Posons r = min(r1 , . . . , rp ) . Si y = (y1 , . . . , yp ) ∈ E1 × · · · × Ep
vérifie �y − x� < r , alors, par définition de la norme produit, on a :
∀k ∈ [[1, p]] �yk − xk � < r  rk donc yk ∈ Uk .
On en déduit que y ∈ U , ce qui prouve que U est ouvert dans E1 × · · · × Ep .
Proposition 23
• Supposons A fermée. Donnons-nous (an )n∈IN ∈ AIN et ℓ ∈ E tels que an → ℓ , et mon-
trons que ℓ ∈ A . Par l’absurde : supposons que ℓ ∈ E \ A . Comme A est fermée, son
complémentaire E \ A est ouvert. Ainsi, il existe r > 0 tel que B(ℓ, r) ⊂ E \ A . Puisque la
suite (an )n∈IN converge vers ℓ , il existe un rang n0 ∈ IN tel que :
∀n  n0 an ∈ B(ℓ, r).
Pour tout n  n0 , on a donc an ∈ E \ A , ce qui contredit le fait que la suite (an )n∈IN soit
à valeurs dans A .
• Réciproquement, supposons que la partie A ne soit pas fermée, et construisons une
suite (an )n∈IN ∈ AIN , convergente, dont la limite n’est pas dans A . Puisque A n’est pas
fermée, E \ A n’est pas ouvert. Ainsi, il existe x ∈ E \ A tel que :
∀r > 0 B(x, r) �⊂ E \ A.
En particulier, pour tout n ∈ IN , on a B(x, 2−n ) �⊂ E \ A ; l’ensemble B(x, 2−n ) ∩ A
est donc non vide, ce qui nous permet d’y choisir un élément an . On construit ainsi une
suite (an )n∈IN ∈ AIN qui converge vers x , ce qui donne le résultat souhaité car x ∈
/ A.
Proposition 26 Supposons F1 , . . . , Fp fermés dans E1 , . . . , Ep respectivement. Montrons
que F = F1 × · · · × Fp est fermé dans E1 × · · · × Ep . Par caractérisation séquentielle :
soit (un )n∈IN ∈ F IN une suite convergente ; montrons que sa limite ℓ appartient à F .
 (1) (p)

Pour n ∈ IN , écrivons un = un , . . . , un . En notant ℓ = (ℓ1 , . . . , ℓp ) , on a alors (cf. propo-
sition 17 de la page 213), pour tout k ∈ [[1, p]] :
u(k)
n → ℓk .
 (k)

La suite un n∈IN
étant à valeurs dans Fk , et par caractère fermé de Fk , cela donne ℓk ∈ Fk .
Il en résulte que ℓ ∈ F , d’où le caractère fermé de F .

235
Chapitre 5. Espaces vectoriels normés

Proposition 28
• Soit n ∈ IN∗ . Si V1 , . . . , Vn sont des voisinages de x , alors pour tout k ∈ [[1, n]] , on peut
trouver rk > 0 tel que B(x, rk ) ⊂ Vk .

n
Alors en notant r = min(r1 , . . . , rn ) , on a r > 0 et B(x, r) ⊂ Vk .
k=1

n
Cela montre que Vk est un voisinage de x .
k=1
• Le deuxième point est évident, car si V est un voisinage de x , alors il existe r > 0 tel
 est une partie contenant V , alors on a B(x, r) ⊂ V , ce qui montre
que B(x, r) ⊂ V . Si V
que V est un voisinage de x .
◦ ◦
Proposition 29 On sait déjà que A ⊂ A . Il suffit donc de montrer que A est ouvert, et que tout

ouvert inclus dans A l’est aussi dans A .
◦ ◦ ◦
• Soit x ∈ A . On peut trouver r > 0 tel que B(x, r) ⊂ A . On a alors B(x, r) ⊂ A .

Or, B(x, r) étant ouvert, il est son propre intérieur. Il en résulte que B(x, r) ⊂ A .

Cela montre que A est ouvert.
◦ ◦ ◦
• Soit U un ouvert inclus dans A . On a alors U ⊂ A . Or, U étant ouvert, on a U = U . Cela

montre que U ⊂ A , et donne le résultat souhaité.
Proposition 30 Il a déjà été signalé que l’adhérence de A est un fermé contenant A . Il reste à
démontrer que c’est le plus petit, c’est-à-dire que tout fermé contenant A contient aussi son
adhérence.
Soit F un fermé contenant A . Alors E \ F est un ouvert inclus dans E \ A , ce qui en-
traîne E \ F ⊂ Int(E \ A) puisque Int(E \ A) est le plus grand ouvert inclus dans E \ A . En
prenant le complémentaire de chacun des ensembles, on obtient :
 
E \ Int(E \ A) ⊂ F,
  
=Adh(A)

ce qui donne le résultat souhaité.


Proposition 31
• Soit x un point adhérent à A . Alors, pour tout n ∈ IN , l’ensemble B(x, 2−n ) ∩ A est non
vide, ce qui nous permet d’y choisir un élément an . On construit ainsi une suite (an )n∈IN
d’éléments de A vérifiant ∀n ∈ IN �an − x� < 2−n , donc convergeant vers x .
• Réciproquement, supposons que x soit limite d’une suite (an )n∈IN d’éléments de A , et
montrons que x est adhérent à A . Soit r > 0 . Montrons que B(x, r) ∩ A �= ∅ .
Comme an → x , on peut trouver un entier n0 tel que �an0 − x� < r . Alors, an0 appartient
à la fois à A et à B(x, r) , ce qui prouve que B(x, r) ∩ A �= ∅ .
Proposition 33 L’équivalence (i) ⇔ (ii) est immédiate d’après la proposition 32 de la page 223.
 de E tel que U = A ∩ U
(iii) ⇒ (ii) Supposons qu’il existe un ouvert U  . Alors, pour
 et donc, puisque U
tout x ∈ U , on a x ∈ U  est un ouvert de E , il existe r > 0 tel
 . On a alors A ∩ B(x, r) ⊂ U
que B(x, r) ⊂ U  ∩ A , c’est-à-dire A ∩ B(x, r) ⊂ U .
(ii) ⇒ (iii) Supposons (ii) . Pour tout x ∈ U , il existe ainsi rx > 0 tel que A∩B(x, rx ) ⊂ U .
On a alors : 
U =A∩U  avec U = B(x, rx ).
x∈U

 , en tant que réunion d’ouverts de E , est un ouvert de E .


Cela prouve (iii) car U

236
Démonstrations

Proposition 34
(i) ⇒ (ii) Supposons qu’il existe un ouvert relatif U de A tel que F = A \ U . Puisque U
 un ouvert de E tel que U = U
est un ouvert relatif de A , il existe U  ∩ A . On a alors :
 ∩ A) = A \ U
F = A \ (U  = A ∩ (E \ U
 ).
 est un fermé de E .
Cela prouve (ii) , car, en tant que complémentaire d’un ouvert, E \ U
(ii) ⇒ (i) Supposons qu’il existe un fermé F de E tel que F = A∩ F . En notant U
 = E \ F ,
on a alors :
F =A\U  ce qui s’écrit aussi F = A \ (A ∩ U  ).
 est un ouvert de E (car son complémentaire, F , est un fermé de E ), l’en-
Comme U
 est un ouvert relatif de A , d’où le résultat.
semble A ∩ U
Proposition 35
(i) ⇒ (ii) Supposons que F soit un fermé relatif de A . Alors, il existe un fermé G de E tel
que F = A ∩ G . Si (xn ) est une suite d’éléments de F qui converge vers ℓ ∈ A , alors,
comme ∀n ∈ IN xn ∈ G , le caractère fermé de G assure que ℓ ∈ G .
Par suite, on a ℓ ∈ A ∩ G i.e. ℓ ∈ F .
(ii) ⇒ (i) Supposons (ii) et montrons que F = A ∩ Adh(F ) . Comme Adh(F ) est un fermé
de E , cela prouvera (i) .
• L’inclusion F ⊂ A ∩ Adh(F ) est immédiate, puisque F ⊂ A et F ⊂ Adh(F ) .
• Pour prouver l’autre inclusion, donnons-nous ℓ ∈ A ∩ Adh(F ) , et montrons que ℓ ∈ F .
Comme ℓ ∈ Adh(F ) , il existe une suite (xn ) ∈ F IN convergeant vers ℓ . Comme ℓ ∈ A ,
la propriété (ii) nous assure que ℓ ∈ F .
Proposition 36 Le sens direct découle directement de la définition.
Montrons l’autre : supposons qu’il existe α > 0 tel que :
∀x ∈ E N2 (x) = 1 =⇒ N1 (x)  α, (⋆)
et montrons que N1 est dominée par N2 . Plus précisément, montrons que :
∀y ∈ E N1 (y)  αN2 (y).
y
Si y ∈ E est non nul, alors N2 (y) �= 0 , et la propriété (⋆) appliquée à donne :
N2 (y)
 
y
N1  α,
N2 (y)
ce qui, par homogénéité de N1 , donne N1 (y)  αN2 (y) . Cette inégalité reste évidemment vraie
si y = 0 .
Proposition 41
• Supposons A fermée pour l’une des deux normes, par exemple N1 , et montrons que A
est également fermée pour N2 . Procédons par caractérisation séquentielle. Supposons
que (un )n∈IN ∈ AIN converge vers ℓ pour la norme N2 , et montrons que ℓ ∈ A . La suite (un )
convergeant vers ℓ pour la norme N2 , elle converge également vers ℓ pour la norme N1
(cf. proposition 40 de la page 228), donc le caractère fermé de A pour la norme N1 assure
que ℓ ∈ A .
• Une partie étant ouverte si, et seulement si, son complémentaire est fermé, les deux normes N1
et N2 définissent les mêmes ouverts puisqu’elles définissent les mêmes fermés.

237
Chapitre 5. Espaces vectoriels normés

S’entraîner et approfondir
Généralités
5.1 Soit n ∈ IN∗ et (a1 , . . . , an+1 ) une (n + 1) -liste de scalaires deux à deux distincts.
→200
Montrer que l’on définit une norme sur IKn [X] en posant :
 
�P � = max |P (a1 )|, . . . , |P (an+1 )| .

5.2 Dans IR2 , soit u le point (−1, 1) et D la droite d’équation y = 2x . Pour chacune des
→204
normes � · �1 , � · �2 et � · �∞ , déterminer la distance de u à D .

5.3 Soit B une boule ouverte de centre a et de rayon r > 0 , et x un élément de E . Exprimer,
→205
en fonction de a , r et x , la distance de x à B .

5.4 Soit E un espace vectoriel normé réel. Montrer que tout sous-espace affine de E est une
→206
partie convexe.

5.5 Convexité et stabilité par passage au barycentre à coefficients positifs


→206
Soit A une partie d’un espace vectoriel normé réel E . Montrer que si A est convexe, alors :
p p
 
∀p ∈ IN∗ ∀(x1 , . . . , xp ) ∈ Ap ∀(λ1 , . . . , λp ) ∈ [0, 1]p λk = 1 =⇒ λk xk ∈ A.
k=1 k=1

Indication. Procéder par récurrence.

5.6 Montrer que si une partie A est contenue dans une boule quelconque (non nécessairement
→207
centrée en l’origine et non nécessairement fermée), alors A est bornée.

5.7 1. Montrer que si A est une partie non vide et bornée, alors l’ensemble :
→207  
d(x, y) | (x, y) ∈ A2
possède une borne supérieure. Cette borne supérieure est appelée diamètre de A .
2. Déterminer, en fonction de son rayon r , le diamètre d’une boule B (ouverte ou fermée).

5.8 Norme 1 et norme 2 dans un espace produit


→210
Soit p ∈ IN∗ ainsi que p espaces vectoriels normés (E1 , ϕ1 ), . . . , (Ep , ϕp ) sur IK . Montrer
que les applications N1 et N2 respectivement définies par :
N1 : E1 × · · · × Ep −→ IR+ et N2 : E1 × · · · × Ep −→ IR
+

p

p
(x1 , . . . , xp ) �−→ ϕk (xk ) (x1 , . . . , xp ) �−→ ϕk (xk )2
k=1 k=1

sont des normes sur l’espace produit E1 × · · · × Ep .

5.9 Montrer que tout élément du segment [−1, 1] est valeur d’adhérence de la suite a de terme

général an = sin n .
→214


Indication. Pour x ∈ [−1, 1] , on a x = sin tk avec tk = (2kπ + Arcsin x)2 .

238
Exercices

5.10 1. Soit E et F deux IK -espaces vectoriels. Supposons que l’on dispose d’une norme � · �
sur E , ainsi que d’une application linéaire injective u : F → E .
Montrer que l’application :
N : F −→ IR+
x �−→ �u(x)�
est une norme sur F .
2. Soit E = B(IN, IK) l’espace des suites bornées à valeurs dans IK .
Montrer que l’application suivante est une norme sur E :
N: E −→ IR+  
|an |
(an )n∈IN �−→ sup .
n∈IN 2n

 
5.11 Montrer que l’application N : P �→ sup P (t) − P ′ (t) est une norme sur IK[X] .
t∈[0,1]

5.12 Soit E un IK -espace vectoriel muni d’une base B = (ei )i∈I .



Étant donné x = xi ei , notons :
i∈I

 
 
�x�∞ = max |xi | ; �x�1 = |xi | et �x�2 = |xi |2 .
i∈I
i∈I i∈I

Montrer que les applications x �→ �x�∞ , x �→ �x�1 et x �→ �x�2 sont des normes sur E .
Ces trois normes sont respectivement appelées norme infinie, norme 1 et norme 2 dans
la base B .

5.13 On se place dans l’espace des suites réelles bornées, que l’on munit de la norme infinie.
Notons a = (an ) la suite constante égale à 1 et C0 le sous-espace vectoriel des suites
tendant vers 0 . Déterminer la distance de a à C0 .

Topologie d’un espace vectoriel normé


5.14 Soit V une partie d’un espace vectoriel normé E , ainsi que a ∈ E . Montrer que V est un
→219
voisinage de a si, et seulement s’il existe un ouvert contenant a et inclus dans V .

5.15 Soit E un espace vectoriel normé.


1. Soit F un sous-espace vectoriel de E . Montrer que l’adhérence de F est un sous-espace
→221

vectoriel de E .
2. Soit H un hyperplan de E . Montrer que H est soit fermé soit dense dans E .

5.16 Soit E un espace vectoriel normé, et F un sous-espace vectoriel de E .


1. Montrer que si F est ouvert, alors F = E .
2. Montrer que si F n’est pas d’intérieur vide, alors F = E .

5.17 Soit E et F deux IK -espaces vectoriels normés. On munit E × F de la norme produit.


Soit A et B deux parties de E et F respectivement.
1. Montrer que Int(A × B) = Int(A) × Int(B) .
2. Montrer que Adh(A × B) = Adh(A) × Adh(B) .
   
3. Montrer que Fr(A × B) = Adh(A) × Fr(B) ∪ Fr(A) × Adh(B) .

239
Chapitre 5. Espaces vectoriels normés

5.18 Soit E un IR -espace vectoriel normé, et C une partie convexe de E .


Montrer que l’adhérence et l’intérieur de C sont convexes.

5.19 Soit E = C([0, 1], IR) . On note F le sous-espace vectoriel de E constitué des fonctions
s’annulant en 0 et en 1 .
Déterminer l’adhérence de F pour les normes infinie et 1 :
 1
�f �∞ = sup |f (t)| et �f �1 = |f (t)|dt.
t∈[0,1] 0

5.20 Soit (un )n∈IN une suite à valeurs dans un espace vectoriel normé E . Pour p ∈ IN , on note :
Ap = {un | n  p}.
1. Montrer que l’ensemble des valeurs d’adhérence de la suite (un )n∈IN est :

Ap .
p∈IN

2. En déduire que l’ensemble des valeurs d’adhérence de la suite (un )n∈IN est fermé.

⋆ 5.21 On munit l’espace vectoriel IR[X] de la norme � · �∞ définie par :


+∞

∀P = ak X k ∈ IR[X] �P �∞ = max |ak |.
k∈IN
k=0

On rappelle qu’un polynôme non nul est dit unitaire si son coefficient dominant vaut 1 .
1. Montrer que l’ensemble U des polynômes unitaires est fermé.
2. (a) Montrer que si P ∈ IR[X] est un polynôme scindé dans IR[X] , unitaire et de de-
gré r ∈ IN , alors on a :
∀z ∈ C |P (z)|  | Im z|r .
(b) Montrer que l’ensemble S des polynômes unitaires et scindés dans IR[X] est un fermé.

⋆ 5.22 Soit E un espace vectoriel normé.


1. Quelles sont les parties de E dont la frontière est vide ?
2. Quelles sont les parties de E qui sont à la fois ouvertes et fermées ?

Comparaison de normes
5.23 La relation de domination des normes est-elle une relation d’ordre ?
→226

5.24 On se place dans l’espace C([a, b], IK) (avec a < b ).


1. Montrer que les normes 1 et 2 sont dominées par la norme infinie.
→226

2. Montrer que la norme 1 est dominée par la norme 2 .


Indication. On pourra utiliser l’inégalité de Cauchy-Schwarz.

5.25 Équivalence des normes 1 , 2 et infinie dans IKn


→227
Montrer que pour x ∈ IKn on a :
�x�∞  �x�2  �x�1  n�x�∞ .

5.26 Dans IR[X] , on considère les normes N1 et N2 définies par :


 1  2
N1 (P ) = |P (t)|dt et N2 (P ) = |P (t)|dt.
0 0
Montrer que N1 est dominée par N2 , mais que N2 n’est pas dominée par N1 .

240
Solutions des exercices

Solutions des exercices


5.1 Séparation. Si P ∈ IKn [X] vérifie �P � = 0 , alors P possède n + 1 racines dis-
tinctes : a1 , . . . , an+1 , donc, puisque deg P  n , le polynôme P est nul.
Homogénéité. Soit P ∈ IKn [X] et λ ∈ IK . On a :
 
�λP � = max |λP (a1 )|, . . . , |λP (an+1 )|
 
= |λ| max |P (a1 )|, . . . , |P (an+1 )| = |λ| �P �.

Inégalité triangulaire. Soit (P, Q) ∈ IKn [X]2 . On a :

∀k ∈ [[1, n + 1]] |(P + Q)(ak )|  |P (ak )| + |Q(ak )|  �P � + �Q�,

donc :
 
�P + Q� = max (P + Q)(ak )  �P � + �Q�.
k∈[[1,n+1]]

5.2 Les points de D sont de la forme at = (t, 2t) avec t ∈ IR .


• Pour t ∈ IR , on a :
�u − at �∞ = �(t + 1, 2t − 1)�∞
 
= max |t + 1|, |2t − 1| D

1 − 2t si t<0
= t+1 si 0t<2
2t − 1 si t  2. u a1/2
 

Cette quantité est minimale pour t = 0 et vaut


alors 1 . Le point a0 = (0, 0) est donc le point de D  pu
le plus proche de u au sens de la norme infinie, et :


d∞ (u, D) = �u − a0 �∞ = 1. a0 = (0, 0)

• Au sens de la norme euclidienne, le point de D le


plus proche de u est son projeté orthogonal sur D .
 
Il s’agit du point pu = 51 , 52 , et l’on a :

3 5
d2 (x, A) = �x − pu �2 = ·
5
• Pour t ∈ IR , on a :

−3t si t < −1
�u − at �1 = �(t + 1, 2t − 1)�1 = |t + 1| + |2t − 1| = −t + 2 si −1  t < 1/2
3t si t  1/2.
1 3
1 
Cette quantité est minimale pour t = 2
et vaut alors 2
. Le point a1/2 = 2
, 1 est donc
le point de D le plus proche de u au sens de la norme 1 , et d1 (u, D) = 32 ·

241
Chapitre 5. Espaces vectoriels normés

5.3 Il est clair que si x ∈ B , alors d(x, B) = 0 .


Supposons que x ∈ / B et montrons que :
d(x, B) = d(x, a) − r.
En notant A l’ensemble {d(x, y) | y ∈ B} , cela re- 
x
vient à montrer que inf A = d(x, a) − r .
• Soit y ∈ B . L’inégalité triangulaire donne : 

a d(x, B)
d(x, a)  d(x, y) + d(y, a).
Comme d(y, a)  r , on obtient :
r
d(x, a) − r  d(x, y).
Donc d(x, a) − r est un minorant de A .
• Comme a ∈ B et x ∈ / B , on a x − a �= 0 , donc �x − a� �= 0 .
 
x−a 1
Posons u = et, pour tout n ∈ IN∗ , notons yn = a + r − u.
�x − a� n
Alors, pour n ∈ IN∗ assez grand pour que r − n1 > 0 , on a :
1
∗ d’une part, d(a, yn ) = r − < r , donc yn ∈ B ;
n
∗ d’autre part :
      
 1   1 
d(x, yn ) = x − a − r − u =  d(x, a) − r + u ;
n n
le vecteur u étant unitaire, on a, par homogénéité et puisque d(x, a) − r  0 :
 
 1 1
d(x, yn ) = d(x, a) − r +  = d(x, a) − r + donc d(x, yn ) → d(x, a) − r.
n n
Par caractérisation de la borne inférieure, cela montre que inf A = d(x, a) − r .

5.4 Soit F un sous-espace affine de E , passant par a et dirigé par F . Soit (x, y, λ) ∈ F 2 × [0, 1] .
On peut trouver (u, v) ∈ F 2 tel que x = a+u et y = a+v , et alors, en exploitant la stabilité
de F par combinaisons linéaires :
(1 − λ)x + λy = (1 − λ)(a + u) + λ(a + v) = a + (1 − λ)u + λv ∈ F,
  
∈F

d’où la convexité de F .

5.5 Procédons par récurrence sur p ∈ IN∗ . Le cas p = 1 étant trivial, il s’agit de prouver
l’hérédité. Soit p ∈ IN∗ . Supposons la propriété vraie au rang p et montrons-la au rang p+1 .

p+1
Soit (x1 , . . . , xp+1 ) ∈ Ap+1 , ainsi que (λ1 , . . . , λp+1 ) ∈ [0, 1]p+1 tel que λk = 1 .
k=1

p+1
Montrons que λk x k ∈ A .
k=1


p+1
• Si λp+1 = 1 , alors ∀k ∈ [[1, p]] λk = 0 , donc λk xk = xp+1 ∈ A .
k=1

• Supposons λp+1 �= 1 . Pour k ∈ [[1, p]] , posons 


λk = λk
1−λp+1
·
∗ D’une part, on a :
p+1 p
 
λk xk = (1 − λp+1 ) 
λk xk + λp+1 xp+1 . (⋆)
k=1 k=1

242
Solutions des exercices

∗ D’autre part :
⋆ on a λp+1 ∈ [0, 1] , donc 1 − λp+1  0 , et ainsi ∀k ∈ [[1, p]] 
λk  0 ;

p+1 p p
⋆ puisque λk = 1 , on a λk = 1 − λp+1 , donc 
λk = 1 ; les 
λk étant
k=1 k=1 k=1
positifs, cette dernière relation assure qu’ils appartiennent à [0, 1] .

p
L’hypothèse de récurrence assure donc que 
λk x k ∈ A .
k=1


p+1
Par convexité de A et puisque λp+1 ∈ [0, 1] , la relation (⋆) offre alors λk x k ∈ A .
k=1
D’où le résultat.

5.6 Soit A une partie contenue dans une boule B de centre a et de rayon r . Que la boule B soit
fermée ou ouverte, on a toujours B ⊂ Bf (a, r) , et donc A ⊂ Bf (a, r) . Alors, par inégalité
triangulaire :
∀x ∈ A �x� = �a + x − a�  �a� + �x − a�  �a� + r,
donc A est bornée.

 
5.7 1. Notons Γ l’ensemble d(x, y) | (x, y) ∈ A2 .
• Le caractère non vide de A assure que Γ est une partie non vide de IR .
• Montrons que Γ est majorée.
Soit R ∈ IR+ tel que ∀a ∈ A �a�  R (un tel R existe car A est bornée).
Alors Γ est majorée par 2R , car on a :

∀(x, y) ∈ A2 d(x, y) = �x − y�  �x� + �y�  2R.

Donc Γ possède une borne supérieure car c’est une partie non vide et majorée de IR .
2. Notons a le centre de B , et Γ l’ensemble {d(x, y) | (x, y) ∈ B 2 } .
• L’inégalité triangulaire assure que l’ensemble Γ est majoré par 2r . En effet :

∀(x, y) ∈ B 2 d(x, y)  d(x, a) + d(y, a)  r + r = 2r.

• D’autre part, soit u un vecteur unitaire de E (un tel vecteur existe car E n’est pas
l’espace nul). Alors, pour n ∈ IN , les éléments :

xn = a + r(1 − 2−n )u et yn = a − r(1 − 2−n )u

appartiennent à B et vérifient :

d(xn , yn ) = 2r(1 − 2−n ) −→ 2r.


n→+∞

Cela montre, par caractérisation de la borne supérieure, que sup(Γ) = 2r , c’est-à-dire


que B a pour diamètre 2r .

243
Chapitre 5. Espaces vectoriels normés

5.8 Dans ce qui suit, x = (x1 , . . . , xp ) et y = (y1 , . . . , yp ) sont deux éléments de l’espace
produit, et λ est un scalaire.

• Montrons que N1 est une norme.



p
Séparation. Si N1 (x) = 0 , alors ϕk (xk ) = 0 , donc ∀k ∈ [[1, p]] ϕk (xk ) = 0 , puis,
k=1
par propriété de séparation des normes ϕ1 , . . . , ϕp :
∀k ∈ [[1, p]] xk = 0 c’est-à-dire x = 0.
Homogénéité. On a :
p p p
  
N1 (λx) = ϕk (λxk ) = |λ| ϕk (xk ) = |λ| ϕk (xk ) = |λ| N1 (x).
k=1 k=1 k=1

Inégalité triangulaire. On a :
p p
   
N1 (x + y) = ϕk (xk + yk )  ϕk (xk ) + ϕk (yk )
k=1 k=1
p p
 
= ϕk (xk ) + ϕk (yk ) = N1 (x) + N1 (y).
k=1 k=1

• Montrons que N2 est une norme.



p
Séparation. Si N2 (x) = 0, alors ϕk (xk )2 = 0, donc ∀k ∈ [[1, p]] ϕk (xk ) = 0, puis,
k=1
par propriété de séparation des normes ϕ1 , . . . , ϕp :
∀k ∈ [[1, p]] xk = 0 c’est-à-dire x = 0.
Homogénéité. On a
p p
 
N2 (λx)2 = ϕk (λxk )2 = |λ|2 ϕk (xk )2 = |λ|2 N2 (x)2 ,
k=1 k=1

ce qui, les nombres considérés étant positifs, donne N2 (λx) = |λ|N2 (x) .
Inégalité triangulaire. Notons � · �2 la norme 2 sur IRp , et considérons les vecteurs
de IRp suivants :
   
X = ϕ1 (x1 ), . . . , ϕp (xp ) et Y = ϕ1 (y1 ), . . . , ϕp (yp ) .
Alors, l’inégalité triangulaire avec les normes ϕk et la norme � · �2 donne :
 p 1/2
 2
N2 (x + y) = ϕk (xk + yk )
k=1
 p
1/2
  2 (inégalité triangulaire
 ϕk (xk ) + ϕk (yk )
des normes ϕk )
k=1

= �X + Y �2
(inégalité triangulaire
 �X�2 + �Y �2 de la norme � · �2 )
= N2 (x) + N2 (y).

244
Solutions des exercices

5.9 Soit x ∈ [−1, 1] . Montrons que x est valeur d’adhérence de la suite a à l’aide de la propo-
sition 19 de la page 214. Soit ε > 0 et n0 ∈ IN . Montrons qu’il existe un entier n  n0 tel
que �an − x�  ε .

La fonction f : t �→ sin t est dérivable sur IR∗+ , et :

cos t
∀t > 0 f ′ (t) = √ ·
2 t
Comme f ′ (t) −→ 0 , on peut considérer R > 0 tel que ∀t  R |f ′ (t)|  ε .
t→+∞

Pour k ∈ IN∗ , le réel tk = (2kπ + Arcsin x)2 vérifie f (tk ) = x . Fixons une valeur de k telle
que tk  max(n0 , R) , et notons n = ⌊tk ⌋ + 1 . L’inégalité des accroissements finis appliquée
à la fonction f sur l’intervalle [tk , n] assure alors que :
|an − x| = |f (n) − f (tk )|  ε(n − tk )  ε.
Comme n  tk  n0 , cela montre le résultat souhaité.

5.10 1. Vérifions les trois axiomes de la définition d’une norme.


Séparation. Si x ∈ F vérifie N (x) = 0 , c’est-à-dire �u(x)� = 0 , alors la propriété de
séparation de � · � implique u(x) = 0 , puis l’injectivité de u offre x = 0 .
Homogénéité. Pour (x, λ) ∈ F × IK , on a, par linéarité de u et homogénéité de � · � :
N (λx) = �u(λx)� = �λu(x)� = |λ| �u(x)� = |λ|N (x).
Inégalité triangulaire. Pour (x, y) ∈ F 2 , on a, par linéarité de u et par inégalité
triangulaire sur � · � :
N (x + y) = �u(x + y)� = �u(x) + u(y)�  �u(x)� + �u(y)� = N (x) + N (y).
2. Pour tout a ∈ E , on a N (a) = �u(a)�∞ , où u est l’application :
u : E −→ E
 
an
a �−→
2n n∈IN
dont on montre aisément qu’elle est linéaire et injective. Le résultat de la première ques-
tion assure donc que N est une norme sur E .

5.11 • Comme la fonction t �→ P (t) − P ′ (t) est continue, elle est bornée sur le seg-
ment [0, 1] ; l’application N est donc bien définie.
• Notons � · �∞ la norme de la convergence uniforme sur C([0, 1], IK) .
Homogénéité. Soit λ ∈ IK et P ∈ IK[X] . On a, par homogénéité de � · �∞ :
 
N (λP ) = �λP − λP ′ �∞ = λ(P − P ′ )∞ = |λ| �P − P ′ �∞ = |λ| N (P ).
Inégalité triangulaire. Pour (P, Q) ∈ IK[X]2 , l’inégalité triangulaire de � · �∞ donne :
 
N (P + Q) = (P + Q) − (P ′ + Q′ )∞
 
= (P − P ′ ) + (Q − Q′ )∞

 �P − P ′ �∞ + �Q − Q′ �∞ = N (P ) + N (Q).
Séparation. Soit P ∈ IK[X] tel que N (P ) = 0 . La fonction t �→ P (t) − P ′ (t) est alors
nulle sur [0, 1] , et donc le polynôme P − P ′ , admettant une infinité de racines, est
le polynôme nul. On en déduit P = P ′ , et donc deg(P ) = deg(P ′ ) . Or, on sait
que deg(P ′ )  deg(P ) − 1 . On a donc nécessairement deg P = −∞ , autrement dit P
est le polynôme nul.

245
Chapitre 5. Espaces vectoriels normés

5.12 Nous allons exploiter les normes déjà connues sur un espace vectoriel de dimension finie
muni d’une base (cf. proposition 8 de la page 208). Faisons la preuve dans le cas de la norme
infinie ; la preuve est similaire pour la norme 1 et la norme 2 .
Notons N l’application E −→ IR et prouvons que N est une norme sur E .
u �−→ �u�∞
 
Soit (x, y) ∈ E 2 . Écrivons x = xi ei et y = yi ei . Notons Ix et Iy les supports des
i∈I i∈I
suites presque nulles (xi )i∈I et (yi )i∈I , c’est-à-dire :
Ix = {i ∈ I : xi �= 0} et Iy = {i ∈ I : yi �= 0}.
Les ensembles Ix et Iy étant finis, leur réunion J = Ix ∪ Iy l’est aussi. En no-
tant F = Vect(ei | i ∈ J) , la restriction N|F de l’application N à F n’est rien d’autre
que la norme infinie associée à la base (ei )i∈J de F , donc possède les propriétés d’une
norme. On prouve alors aisément que N est une norme.
Séparation. Si N (x) = 0 , alors N|F (x) = 0 , donc, par propriété de séparation de la
norme N|F , on a x = 0 .
Homogénéité. Pour λ ∈ IK , on a N (λx) = N|F (λx) = |λ|N|F (x) = |λ|N (x) .
Inégalité triangulaire. On a N (x + y) = N|F (x + y)  N|F (x) + N|F (y) = N (x) + N (y) .

5.13 • La suite nulle appartient à C0 , et est à une distance 1 de la suite (an ) .


On a donc d(a, C0 )  1 .
• D’autre part, si u = (un ) est une suite tendant vers 0 , alors on a :
|an − un | = |1 − un | → 1,
et donc �a − u�∞ = sup |an − un |  1 . Cela prouve que d(a, C0 )  1 .
n∈IN

Par double inégalité, on en déduit d(a, C0 ) = 1 .

5.14 • Si V est un voisinage de a , alors il existe r > 0 tel que la boule ouverte B(a, r) (qui est
une partie ouverte) soit incluse dans V .
• Réciproquement, s’il existe un ouvert U inclus dans V et contenant a , alors, comme U
est ouvert, on peut trouver une boule ouverte centrée en a et de rayon strictement positif
qui soit incluse dans U donc dans V .

5.15 1. • Tout d’abord, F contient F , donc contient le vecteur nul.


2
• Soit (λ, x, y) ∈ IK × F ; montrons que λx + y ∈ F . Comme x et y appartiennent
à F , il existe des suites (xn ) et (yn ) d’éléments de F convergeant vers x et y respec-
tivement. La suite (λxn + yn ) est alors à valeurs dans F et converge vers λx + y ; cela
prouve, par caractérisation séquentielle, que λx + y ∈ F .
2. Supposons que H ne soit pas fermé et montrons que H est dense dans E , i.e. H = E .
Procédons par double inclusion.
• Tout d’abord, H étant une partie de l’espace vectoriel normé E , on a H ⊂ E .
• Comme H n’est pas fermé, l’inclusion H ⊂ H est stricte. Considérons a ∈ H \ H .
Comme a ∈ / H et que H est un hyperplan de E , les sous-espaces H et Vect(a) sont
supplémentaires dans E . Comme de plus on a H ⊂ H et a ∈ H , on obtient :
E = H ⊕ Vect(a) ⊂ H.

246
Solutions des exercices

5.16 1. Supposons que F soit ouvert. Étant donné que 0 ∈ F (car F est un sous-espace vectoriel)
et que F est ouvert, on peut trouver r > 0 tel que B(0, r) ⊂ F .
r
Soit x un vecteur non nul de E . Alors le vecteur u = x appartient à B(0, r) et
2�x�
2�x�
donc à F . Comme F est un sous-espace vectoriel et que x = u , on a x ∈ F .
r
D’où F = E .
2. Supposons que F ne soit pas d’intérieur vide. On peut trouver x ∈ F et r > 0 tel
que B(x, r) ⊂ F . Pour tout u ∈ B(0, r) , on a x + u ∈ B(x, r) , donc x + u ∈ F , puis :
u = (x + u) − 
x ∈ F.
  
∈F ∈F

On a donc B(0, r) ⊂ F et l’on est ramené au raisonnement fait à la question précédente.

5.17 On note indifféremment � · � les normes de E , F et E × F . Rappelons que, par définition


de la norme produit, on a :
 
∀(x, y) ∈ E × F �(x, y)� = max �x�, �y� .
1. • On a déjà Int(A) ⊂ A et Int(B) ⊂ B , donc Int(A) × Int(B) ⊂ A × B . De
plus, Int(A) × Int(B) , comme produit d’ouverts, est ouvert (cf. proposition 22 de
la page 216). On en déduit l’inclusion Int(A) × Int(B) ⊂ Int(A × B) (car Int(A × B)
est le plus grand ouvert inclus dans A × B ).
• Montrons l’autre inclusion.
Soit (a, b ∈ Int(A × B) . Montrons que a ∈ Int(A) et b ∈ Int(B) . Par symétrie du
problème en a et b , contentons-nous de prouver que a ∈ Int(A) .
Comme (a, b) ∈ Int(A × B) , on peut trouver r > 0 tel que :
∀(x, y) ∈ E × F �(x, y) − (a, b)� < r =⇒ (x, y) ∈ A × B.
Si x ∈ E vérifie �x − a� < r , alors par définition de la norme produit on a :
�(x, b) − (a, b)� = �(x − a, 0)� = �x − a� < r,
donc (x, b) ∈ A × B , i.e. x ∈ A . Cela prouve que B(a, r) ⊂ A , donc a ∈ Int(A) .
2. • On a A ⊂ Adh(A) et B ⊂ Adh(B) , donc A×B ⊂ Adh(A)×Adh(B) . De plus, comme
produit de fermés, Adh(A) × Adh(B) est fermé (cf. proposition 26 de la page 218).
On en déduit l’inclusion Adh(A × B) ⊂ Adh(A) × Adh(B) (car Adh(A × B) est le
plus petit fermé contenant A × B ).
• Montrons l’inclusion réciproque.
Soit (x, y) ∈ Adh(A)×Adh(B) . Alors on peut considérer (an ) et (bn ) des suites d’élé-
ments de A et B convergeant respectivement vers x et y . Mais alors, par définition
 
de la norme produit, la suite (an , bn ) , à valeurs dans A × B , converge vers (x, y) .
On a donc (x, y) ∈ Adh(A × B) .
3. Par définition, on a :
Fr(A × B) = Adh(A × B) \ Int(A × B).
En utilisant les deux premières questions, il vient :
   
Fr(A × B) = Adh(A) × Adh(B) \ Int(A) × Int(B)
     
= Adh(A) \ Int(A) × Adh(B) ∪ Adh(A) × Adh(B) \ Int(B)
   
= Fr(A) × Adh(B) ∪ Adh(A) × Fr(B) .

247
Chapitre 5. Espaces vectoriels normés

5.18 • Montrons que Adh(C) est convexe. Soit (x, y, λ) ∈ Adh(C)2 × [0, 1] ; montrons
que (1 − λ)x + λy ∈ Adh(C) .
Par caractérisation séquentielle de l’adhérence, on peut trouver deux suites (un ) et (vn )
d’éléments de C convergeant vers x et y respectivement. Par convexité de C , on a :
∀n ∈ IN (1 − λ)un + λvn ∈ C.
De plus, comme un → x et vn → y , on a (1 − λ)un + λvn → (1 − λ)x + λy , ce qui prouve
que (1 − λ)x + λy ∈ Adh(C) .
• Montrons que Int(C) est convexe. Soit (x, y, λ) ∈ Int(C)2 × [0, 1] ; montrons
que z = (1 − λ)x + λy ∈ Int(C) . Puisque x et y appartiennent à l’intérieur de C ,
il existe r1 > 0 et r2 > 0 tels que :
B(x, r1 ) ⊂ C et B(y, r2 ) ⊂ C.
Posons r = min(r1 , r2 ) ; on a alors :
B(x, r) ⊂ C et B(y, r) ⊂ C.
Montrons alors qu’on a B(z, r) ⊂ C , ce qui prouvera que z ∈ Int(C) .
Soit u ∈ E vérifiant �u� < r ; montrons que z + u ∈ C .
En notant x̃ = x + u et ỹ = y + u , on a :
z + u = (1 − λ)x + λy + (1 − λ)u + λu
= (1 − λ)x̃ + λỹ.

Comme B(x, r) ⊂ C et B(y, r) ⊂ C , on a x̃ ∈ C et ỹ ∈ C . Puis, comme C est convexe,


on a z + u ∈ C . D’où le résultat.

5.19 Adhérence au sens de la norme infinie. Montrons qu’au sens de la norme infinie, F
est un fermé, donc égal à son adhérence. Par caractérisation séquentielle : soit (fn ) ∈ F IN
une suite convergeant vers f ∈ E ; montrons que f ∈ F .
Pour x ∈ [0, 1] , on a, par définition de la norme infinie :
 
fn (x) − f (x)  �fn − f �∞ ,
donc, puisque �fn − f �∞ → 0 , on obtient fn (x) → f (x) .
En particulier, on a fn (0) → f (0) et fn (1) → f (1) .
Cela assure que f (0) = f (1) = 0 , i.e. f ∈ F .
262 Remarque Pour montrer que F est un fermé au sens de la norme infinie, on peut aussi
utiliser la proposition 17 de la page 262 en remarquant que F est l’image réciproque du
 
fermé {(0, 0)} par l’application (linéaire) continue f �→ f (0), f (1) .

Adhérence au sens de la norme 1 . Montrons qu’au sens de la norme 1 , F est dense


dans E , i.e. Adh(F ) = E . Soit f ∈ E . Pour tout n  3 , notons fn l’unique fonc-
   
1 1 1
tion égale à f sur ,1 − , nulle en 0 et en 1 , et affine sur les intervalles 0,
  n n n
1
et 1 − , 1 . On a alors :
n
4
fn ∈ F et �fn − f �1  �f �∞ → 0.
n
La suite (fn ) est donc une suite d’éléments de F qui converge vers f (au sens de la
norme � · �1 ). D’où le résultat.

248
Solutions des exercices

5.20 1. • Soit a une valeur d’adhérence de la suite (un ) . Montrons que a est adhérent à
chacune des parties Ap . Soit p ∈ IN . Comme a est valeur d’adhérence de (un ) , on
peut considérer une sous-suite (uϕ(n) ) qui converge vers a .
De plus, pour tout n  p , on a ϕ(n)  n  p , donc uϕ(n) ∈ Ap .
 
La suite uϕ(n) np
est donc une suite à valeurs dans Ap qui tend vers a , ce qui
montre que a est adhérent à Ap .

• Réciproquement, donnons-nous a ∈ Ap et montrons que a est valeur d’adhérence
p∈IN
de la suite (un ) . Pour cela, utilisons la caractérisation de la proposition 19 de la
page 214 : soit ε > 0 et n0 ∈ IN ; montrons qu’il existe n  n0 tel que �un − a�  ε .

Comme a ∈ Ap , on a a ∈ An0 . Il existe donc b ∈ An0 tel que �b − a�  ε , ce
p∈IN
qui, par définition de An0 , revient à dire qu’il existe n  n0 tel que �un − a�  ε .
D’où le résultat.
2. D’après la question précédente, l’ensemble des valeurs d’adhérence d’une suite s’écrit
comme une intersection de fermés de E , donc est fermé.

5.21 1. Utilisons la caractérisation séquentielle des fermés. Soit (Pn ) une suite de polynômes
unitaires convergeant vers P . Montrons que P est unitaire.
• Tout d’abord, les polynômes Pn étant unitaires, et par définition de � · �∞ , on a :
∀n ∈ IN �Pn �∞  1,
et donc, puisque �Pn �∞ → �P �∞ , on a �P �∞  1 . En particulier, P est non nul.
• Notons r le degré de P et c son coefficient dominant. Comme Pn → P , il existe un
rang n0 ∈ IN tel que :
min(|c|, 1)
∀n  n0 �Pn − P �∞  ·
2
Pour n  n0 , on a donc nécessairement deg(Pn ) = r car :
∗ si deg(Pn ) < r , alors le coefficient devant le terme de degré r de Pn − P vaut c ,
min(|c|, 1)
et alors �Pn − P �∞  |c| > ·
2
∗ si deg(Pn ) > r , alors le polynôme Pn − P est unitaire, et par conséquent :
min(|c|, 1)
�Pn − P �∞ = 1 > ·
2
• Pour n  n0 , comme Pn est de degré r et unitaire, on a alors :
�Pn − P �∞  |1 − c|.
Comme �Pn − P �∞ → 0 , on a nécessairement |1 − c| = 0 i.e. c = 1 .
2. (a) Soit P ∈ IR[X] un polynôme unitaire et scindé de degré r . En notant z1 , . . . , zr ses
racines (réelles) comptées avec multiplicités, on a :
r r
 
P = (X − zk ) et donc |P (z)| = |z − zk |.
k=1 k=1

Pour z ∈ C , on a, puisque les zk sont réels :



∀k ∈ [[1, r]] |z − zk | = (Im z)2 + (Re z − zk )2  | Im z|,
d’où :
|P (z)|  | Im z|r .

249
Chapitre 5. Espaces vectoriels normés

(b) Procédons par caractérisation séquentielle. Soit (Pn ) une suite d’éléments de S
convergeant vers P ∈ IR[X] . Montrons que P ∈ S . D’après la question 1, on sait
déjà que P est unitaire. Il s’agit donc de montrer que P est scindé dans IR[X] , c’est-
à-dire, d’après le théorème de d’Alembert-Gauss, que P ne possède pas de racine
complexe non réelle. Donnons-nous donc z ∈ C \ IR et prouvons que P (z) �= 0 .
• Tout d’abord, il a été établi à la question 1 que si l’on note r = deg P (on
a r ∈ IN car P est unitaire donc non nul), alors il existe un rang n0 ∈ IN tel
que ∀n  n0 deg Pn = r . La question 2(a) assure alors que :
∀n  n0 |Pn (z)|  | Im z|r . (⋆)
• Il suffit alors de montrer que Pn (z) → P (z) . En effet, un passage à la limite dans
la relation (⋆) donnera |P (z)|  | Im z|r > 0 et donc P (z) �= 0 .
Pour n  n0 , on a deg Pn = r et donc on peut écrire :
r r
 (n)

Pn = ak X k et P = ak X k
k=0 k=0

et ainsi :
r r
 (n)

Pn (z) = ak z k et P (z) = ak z k .
k=0 k=0

Par définition de la norme � · �∞ , la convergence Pn → P donne la convergence


(n)
de chacune des suites de coefficients : ∀k ∈ [[0, r]] ak −→ ak . Par opérations
n→+∞
sur les limites, on obtient alors Pn (z) → P (z) .

5.22 1. Il est clair que E et ∅ ont une frontière vide. Montrons que ce sont les seules. Soit A
une partie vérifiant A �= E et A �= ∅ .
Montrons que la frontière de A est non vide, i.e. A ∩ E \ A �= ∅ .
Comme A �= E et A �= ∅ , on peut prendre x ∈ A et y ∈ E \ A .
Considérons alors l’application :
f : [0, 1] −→ E A
λ �−→ (1 − λ)x + λy.
  

L’ensemble Γ = λ ∈ [0, 1] : f (λ) ∈ A



x 

f (α) y
est non vide (car contient 0 ) et majoré
(par 1 ) ; notons α sa borne supérieure.
Prouvons alors que f (α) ∈ A ∩ E \ A, ce qui terminera le raisonnement.
• Par caractérisation séquentielle de la borne supérieure, on peut trouver une
suite (λn ) d’éléments de Γ qui converge vers α . Par opérations sur les limites, on
a f (λn ) → f (α) . Comme ∀n ∈ IN f (λn ) ∈ A , on obtient f (α) ∈ A .
• Il reste à prouver que f (α) ∈ E \ A .
∗ Si α = 1 , alors f (α) = y ∈ E \ A ⊂ E \ A .
∗ Si α ∈ [0, 1[ , on peut considérer (λn ) une suite à valeurs dans ]α, 1] tendant
vers α . On alors f (λn ) → f (α) et ∀n ∈ IN f (λn ) ∈ E \ A .
Il en résulte que f (α) ∈ E \ A .

250
Solutions des exercices

2. On sait que les parties E et ∅ sont à la fois ouvertes et fermées dans E . Montrons que
ce sont les seules. Soit A une partie à la fois ouverte et fermée.
• Comme A est fermée, on a A = A .
• Comme A est ouverte, E \ A est fermée et donc E \ A = E \ A .
On a alors :
Fr(A) = A ∩ E \ A = A ∩ (E \ A) = ∅.
D’après la question précédente, on a A = E ou A = ∅ .

5.23 Antisymétrie.

• Si E est l’espace nul, alors il existe une unique norme sur E : l’application nulle (et
dans ce cas la relation de domination est une relation d’ordre).
• En revanche, si E n’est pas l’espace nul et que l’on dispose d’au moins une norme N
 : x �→ 2N (x) , on constate que N et N
sur E , alors en considérant l’application N 
sont deux normes distinctes et dominées l’une par l’autre. L’antisymétrie est alors
mise en défaut.

L’exercice est résolu. Constatons tout de même que les propriétés de réflexivité et transitivité
sont quant à elles vérifiées :
Refléxivité. Toute norme est dominée par elle-même (prendre α = 1 dans la définition).
Transitivité. Si N1 est dominée par N2 et si N2 dominée par N3 , alors on peut trouver
des constantes α1 > 0 et α2 > 0 telles que :
 
∀x ∈ E N1 (x)  α1 N2 (x) et N2 (x)  α2 N3 (x) .

La norme N1 est alors dominée par la norme N3 , car :


∀x ∈ E N1 (x)  α1 α2 N3 (x).

5.24 1. Soit f ∈ C([a, b], IK) .


On a, par croissance de l’intégrale :
 b  b
�f �1 = |f |  �f �∞ = (b − a) �f �∞ ,
a a

ce qui montre que la norme 1 est dominée par la norme infinie.


De même, on a :
 b 1/2  b 1/2  √
�f �2 = |f |2  �f �2∞ = (b − a) �f �2∞ = b − a �f �∞ ,
a a

ce qui montre que la norme 2 est dominée par la norme infinie.


2. Pour f ∈ C([a, b], IK) , l’inégalité de Cauchy-Schwarz donne :
 b  b 1/2   b 1/2
2 2

�f �1 = 1 · |f |  1 |f | = b − a�f �2 ,
a a a

ce qui prouve que la norme 1 est dominée par la norme 2 .

251
Chapitre 5. Espaces vectoriels normés

5.25 Soit x = (x1 , . . . , xn ) ∈ IKn .



n
• On a max |xk |2  |xk |2 . Cela donne �x�2∞  �x�22 , donc �x�∞  �x�2 .
k∈[[1,n]] k=1

n 
n 2
• On a |xk |2  |xk | . Cela donne �x�22  �x�21 , donc �x�2  �x�1 .
k=1 k=1

n n 
 
• Enfin, on a |xk |  max |xi | , c’est-à-dire �x�1  n�x�∞ .
k=1 k=1 i∈[[1,n]]

5.26 Tout d’abord, justifions que N1 et N2 sont bien des normes sur IR[X] : l’homogénéité et
l’inégalité triangulaire sont évidentes, quant à la propriété de séparation, il suffit, par exemple
pour N1 , de constater que si P ∈ IR[X] vérifie N1 (P ) = 0 , alors, la fonction t �→ |P (t)|
étant continue, positive et d’intégrale nulle sur [0, 1] , on a :
∀t ∈ [0, 1] P (t) = 0,
ce qui assure que P est le polynôme nul (car admettant une infinité de racines).
• Puisque [0, 1] ⊂ [0, 2] , on a, par croissance de l’intégrale, N1  N2 , donc N1 est dominée
par N2 .
• Montrons que N2 n’est pas dominée par N1 . Pour cela, considérons la suite de poly-
nômes (Pn )n∈IN définie par Pn = X n . On a :
 1  2
1 2n
N1 (Pn ) = tn dt = →0 et N2 (Pn ) = tn dt = → +∞.
0
n+1 0
n+1
Il en résulte que la suite (Pn )n∈IN tend vers le polynôme nul pour la norme N1 mais pas
pour la norme N2 . Donc N2 n’est pas dominée par N1 .

252
Chapitre 6 : Étude locale d’une application, continuité

I Limite d’une application . . . . . . . . . . . . . . . . . . 254


1 Définitions, généralités . . . . . . . . . . . . . . . . . . . . 254
2 Cas d’une application à valeurs réelles : limites infinies . . 256
3 Limites en l’infini . . . . . . . . . . . . . . . . . . . . . . . 257
4 Application à valeurs dans un espace produit . . . . . . . 258
5 Prolongement par continuité . . . . . . . . . . . . . . . . 258
6 Opérations sur les limites . . . . . . . . . . . . . . . . . . 258
II Applications continues . . . . . . . . . . . . . . . . . . . 259
1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . 259
2 Application lipschitzienne . . . . . . . . . . . . . . . . . . 260
3 Opérations sur les applications continues . . . . . . . . . 261
4 Continuité et densité . . . . . . . . . . . . . . . . . . . . . 262
5 Images réciproques d’ouverts et de fermés par une appli-
cation continue . . . . . . . . . . . . . . . . . . . . . . . . 262
6 Continuité uniforme . . . . . . . . . . . . . . . . . . . . . 263
III Continuité et applications linéaires / multilinéaires . . 264
1 Critère de continuité d’une application linéaire . . . . . . 264
2 Espace Lc (E, F ) , norme subordonnée . . . . . . . . . . . 265
3 Critère de continuité des applications multilinéaires . . . . 268
Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 275
Étude locale d’une
application, continuité 6

Dans tout le chapitre, la lettre IK désigne le corps IR ou C . En l’absence de précision


supplémentaire, E et F sont deux IK -espaces vectoriels normés, et A désigne une
partie de E .

I Limite d’une application


1 Définitions, généralités
Définition 1
Soit f : A → F une application, ainsi que a un point adhérent à A et ℓ ∈ F .
On dit que f tend vers ℓ en a si :
 
∀ε > 0 ∃η > 0 ∀x ∈ A �x − a�  η =⇒ f (x) − ℓ  ε.

Notation Pour signifier que f tend vers ℓ en a, on écrit :


f −→ ℓ ou encore f (x) −→ ℓ.
a x→a

Remarques
• La définition précédente peut s’écrire :
∗ en termes de distance :
 
∀ε > 0 ∃η > 0 ∀x ∈ A d(x, a)  η =⇒ d f (x), ℓ  ε ;

∗ en termes de boules 1 :
∀ε > 0 ∃η > 0 ∀x ∈ Bf (a, η) ∩ A f (x) ∈ Bf (ℓ, ε) ;
ou encore :  
∀ε > 0 ∃η > 0 f Bf (a, η) ∩ A ⊂ Bf (ℓ, ε).
• Dans la définition précédente, on peut, sans que cela ait de conséquences, changer
les normes sur E et F en des normes qui leur sont équivalentes.
1. La notation Bf utilisée ici désigne une boule fermée et n’a aucun lien avec le nom f de
l’application considérée.
I Limite d’une application

Dans toute la suite, en l’absence de précision supplémentaire, f désigne une applica-


tion de A dans F , a un point adhérent à A et ℓ un élément de F .

Proposition 1
L’application f tend vers ℓ en a si, et seulement si, pour tout voisinage W de ℓ ,
il existe un voisinage V de a tel que f (V ∩ A) ⊂ W .
Démonstration page 270

Caractérisation séquentielle de la limite


La proposition suivante va nous permettre d’utiliser les résultats déjà obtenus sur les
suites au chapitre précédent pour établir rapidement de nombreuses propriétés sur les
limites d’applications.

Proposition 2 (Caractérisation séquentielle de la limite)


L’application f tend vers ℓ en a si, et seulement si, pour tout suite (un )n∈IN
Exo
6.1 d’éléments de A tendant vers a, on a f (un ) → ℓ .
Démonstration page 270

Remarque Lorsque l’on utilise le sens direct de l’équivalence donnée par la proposi-
tion précédente, on dit en général simplement « par composition de limites », réservant
ainsi le terme « caractérisation séquentielle de la limite » au sens réciproque.

Ex. 1. Si f : A → F tend vers ℓ en a , alors ℓ est adhérent à f (A) . En effet, dans ce cas,
le point a étant adhérent à A , on peut trouver une suite (un ) tendant vers a , et alors, par
composition de limites, on a f (un ) → ℓ .

Unicité de la limite

Proposition 3 (Unicité de la limite)


Si deux éléments ℓ1 et ℓ2 de F vérifient f −→ ℓ1 et f −→ ℓ2 , alors ℓ1 = ℓ2 .
a a

Démonstration. Supposons que ℓ1 et ℓ2 soient tels que f −→ ℓ1 et f −→ ℓ2 . Soit (un )n∈IN


a a
une suite d’éléments de A tendant vers a (une telle suite existe car a est adhérent à A ). D’après
la proposition 2, on a alors f (un ) → ℓ1 et f (un ) → ℓ2 . Par unicité de la limite d’une suite, il
en résulte que ℓ1 = ℓ2 .

Définition 2
On dit que f admet une limite en a s’il existe ℓ ∈ F tel que f −→ ℓ . Cet unique
a
élément ℓ s’appelle alors la limite de f en a et se note lim f ou lim f (x).
a x→a

255
Chapitre 6. Étude locale d’une application, continuité
Proposition 4 (Stabilité par restriction)
Si f : A → F tend vers une limite ℓ en a et si B est une partie de A dont
l’adhérence contient a, alors la restriction de f à B tend également vers ℓ en a.

Démonstration. Procédons par caractérisation séquentielle. Si (an )n∈IN est une suite d’élé-
ments de B tendant vers a , alors, (an )n∈IN étant aussi une suite à valeurs dans A , et
comme f −→ ℓ , on a f (an ) → ℓ , donc f|B (an ) → ℓ . D’où f|B −→ ℓ .
a a

Proposition 5 (Caractère local de la limite)


Soit V un voisinage de a. Alors f tend vers ℓ en a si, et seulement si, la restriction
de f à A ∩ V tend vers ℓ en a.
Démonstration page 270

Continuité en un point
Définition 3
On dit que f est continue en a ∈ A si f admet une limite en a.

Remarque Si a appartient à A et si f admet une limite en a, alors celle-ci


vaut f (a) (on le voit par exemple par composition de limites en considérant la
suite constante (a)n∈IN ). Par conséquent, dire que f est continue en a ∈ A signi-
fie que f (x) −→ f (a).
x→a

Corollaire 6 (Caractérisation séquentielle de la continuité)


L’application f est continue en a ∈ A si, et seulement si, pour toute suite (un )n∈IN
d’éléments de A tendant vers a, on a f (un ) → f (a).

2 Cas d’une application à valeurs réelles : limites infinies


Définition 4
Soit f : A → IR une application, et a un point adhérent à A.
• On dit que f tend vers +∞ en a si :
∀R ∈ IR ∃η > 0 ∀x ∈ A �x − a�  η =⇒ f (x)  R.

• On dit que f tend vers −∞ en a si :


∀R ∈ IR ∃η > 0 ∀x ∈ A �x − a�  η =⇒ f (x)  R.

Notation On note f −→ +∞ ou encore f (x) −→ +∞ pour signifier que f tend


a x→a
vers +∞ en a. On dit également que f admet +∞ comme limite en a, et l’on
note lim f = +∞ ou lim f (x) = +∞.
a x→a
Même principe pour −∞.

Remarque La caractérisation séquentielle de la limite (cf. proposition 2 de la page


précédente), donnée dans le cas où ℓ ∈ F , s’étend naturellement aux cas ℓ = ±∞.

256
I Limite d’une application

3 Limites en l’infini
Limite lorsque �x� → +∞

Définition 5
Soit f : A → F une application. Supposons que A ne soit pas bornée.
On dit que f tend vers ℓ lorsque �x� → +∞ si :
 
∀ε > 0 ∃M ∈ IR ∀x ∈ A �x�  M =⇒ f (x) − ℓ  ε.
On note alors f (x) −→ ℓ.
�x�→+∞

Cas de la variable réelle : limites en −∞ et +∞


Pour une partie A de IR, on étend la définition de point adhérent (définition 17 de
la page 220) de la manière suivante : on dit qu’un élément x ∈ IR est adhérent à A
s’il existe une suite d’élément de A qui tend vers x.
Ainsi, −∞ (respectivement +∞) est adhérent à A s’il existe une suite d’éléments
de A tendant vers −∞ (respectivement +∞).
On constate que :
• −∞ est adhérent à A si, et seulement si, A n’est pas minorée ;
• +∞ est adhérent à A si, et seulement si, A n’est pas majorée.

Définition 6
Soit A une partie de IR, f : A → F une application et ℓ ∈ F .
• Si −∞ est adhérent à A, on dit que f tend vers ℓ en −∞ si :
 
∀ε > 0 ∃M ∈ IR ∀x ∈ A x  M =⇒ f (x) − ℓ  ε.

• Si +∞ est adhérent à A, on dit que f tend vers ℓ en +∞ si :


 
∀ε > 0 ∃M ∈ IR ∀x ∈ A x  M =⇒ f (x) − ℓ  ε.

Ex. 2. Une suite (an )n∈IN d’éléments de E étant une application de IN dans E , la définition
précédente permet d’envisager la convergence de la suite en +∞ . On constate que cette définition
est la même que celle donnée par la définition 10 de la page 211.

Remarque La caractérisation séquentielle de la limite ainsi que la propriété d’unicité


de la limite données dans le cas d’une limite en un point a ∈ Adh(A) (cf. proposition 2
et proposition 3 de la page 255) s’étendent naturellement au cas d’une limite en l’infini.

Dans toute la suite du chapitre, en l’absence de précision supplémentaire, a désigne


un point adhérent à A en l’un des sens suivants :
• premier sens : a est un élément de E appartenant à Adh(A) ;
• deuxième sens : A est une partie non majorée de IR et a = +∞ ;
• troisième sens : A est une partie non minorée de IR et a = −∞.

257
Chapitre 6. Étude locale d’une application, continuité

4 Application à valeurs dans un espace produit


Dans l’énoncé suivant, E1 , . . . , Ep sont des IK-espaces vectoriels normés, et l’espace
produit E1 × · · · × Ep est muni de la norme produit.
Une application f : A → E1 × · · · × Ep est caractérisée par p applications f1 , . . . , fp ,
à valeurs dans E1 , . . . , Ep respectivement, vérifiant :
 
∀x ∈ A f (x) = f1 (x), . . . , fp (x) .

Proposition 7
Étant donné ℓ = (ℓ1 , . . . , ℓp ) ∈ E1 × · · · × Ep , on a l’équivalence :
   
f −→ ℓ ⇐⇒ ∀k ∈ [[1, p]] fk −→ ℓk .
a a
Démonstration page 270
Principe de démonstration. On utilise la caractérisation séquentielle de la limite et le
résultat sur la convergence d’une suite à valeurs dans un espace produit.

5 Prolongement par continuité


Définition 7
Si f possède une limite ℓ ∈ F en un point a ∈ A \ A, alors l’application :
f : A ∪ {a} −→ F 
f (x) si x ∈ A
x �−→
ℓ si x = a
est continue en a ; on l’appelle prolongement de f par continuité en a .

Remarque L’unicité de la limite entraîne que l’application f de la définition pré-


cédente est l’unique prolongement de f à A ∪ {a} qui soit continu en a.

6 Opérations sur les limites


Les résultats suivants sont obtenus par caractérisation séquentielle de la limite et par
opérations sur les suites convergentes.
Proposition 8 (Limite d’une combinaison linéaire)
Soit f1 et f2 deux applications de A dans F ainsi que λ1 et λ2 deux scalaires.
Si f1 −→ ℓ1 ∈ F et f2 −→ ℓ2 ∈ F , alors :
a a

λ1 f1 + λ2 f2 −→ λ1 ℓ1 + λ2 ℓ2 .
a
Démonstration page 271

Proposition 9 (Produit par une fonction à valeurs scalaires)


Si f −→ ℓ ∈ F et si ϕ est une fonction de A dans IK tendant vers λ ∈ IK en a,
a
alors ϕf : A −→ F tend vers λℓ en a.
x �−→ ϕ(x)f (x)
Démonstration page 271

258
II Applications continues
Proposition 10 (Inverse)
1 1
Soit f : A → IK une fonction ne s’annulant pas. Si f −→ ℓ ∈ IK\{0} , alors −→ ·
a f a ℓ
Démonstration page 271

1
Remarque Si la fonction f s’annule sur A, alors la fonction n’est pas définie
f
sur A tout entier. En revanche, si f −→ ℓ ∈ IK \ {0} , alors, IK\ {0} étant un voisinage
a
de ℓ , il existe un voisinage V de a tel que la restriction de f à V ∩ A ne s’annule
pas. C’est à cette restriction que la proposition 10 s’applique.
Quotient d’applications à valeurs scalaires Il résulte des deux résultats précé-
dents que si f1 : A → F et f2 : A → IK vérifient f1 −→ ℓ1 et f2 −→ ℓ2 �= 0 , et si f2
a a
ne s’annule pas, alors :
f1 ℓ1
−→ ·
f2 a ℓ2

Proposition 11 (Limite d’une fonction composée)


Soit E , F et G trois IK-espaces vectoriels normés, ainsi que A ⊂ E et B ⊂ F .
Soit f : A → F et g : B → G deux applications, avec f (A) ⊂ B .
• Si f −→ b , alors b est adhérent à B .
a

• Si de plus on a g −→ ℓ , alors g ◦ f −→ ℓ .
b a
Démonstration page 271

Conséquences en terme de continuité ponctuelle


Les résultats précédents sur les limites donnent des résultats analogues sur les appli-
cations continues en un point :
• toute combinaison linéaire d’applications continues en a est continue en a ;
• tout produit d’une fonction continue en a par une fonction scalaire continue en a
est continue en a ;
1
• si f : A → IK est continue en a et ne s’annule pas, alors est continue en a ;
f
f
• si f : A → F et g : A → IK sont continues en a et si g ne s’annule pas, alors
g
est continue en a ;
• si f : A → F est continue en a et g : B → G vérifie f (A) ⊂ B et est continue
en f (a), alors g ◦ f est continue en a.

II Applications continues
1 Définition
Définition 8
On dit qu’une application est continue si elle est continue en tout point de son
domaine de définition.

259
Chapitre 6. Étude locale d’une application, continuité
Proposition 12
Soit f : A → F une application continue. Pour tout partie non vide B ⊂ A, la
restriction f|B est continue.
Démonstration page 271

2 Application lipschitzienne
Définition 9
• Soit k  0 . On dit que l’application f est k -lipschitzienne ou lipschitzienne
de rapport k si :
 
∀(x, y) ∈ A2 f (x) − f (y)  k �x − y�.

• On dit que f est lipschitzienne s’il existe k  0 tel que f soit k -lipschitzienne.

Remarques
• Cette définition dépend des normes utilisées sur E et F . En revanche, des normes
équivalentes définissent les même applications lipschitziennes.
• Si f est k -lipschitzienne, alors f est k ′ -lipschitzienne pour tout k ′  k .
• Si f1 et f2 sont lipschitziennes de rapports respectifs k1 et k2 et si λ1 et λ2
sont deux scalaires, alors l’application λ1 f1 + λ2 f2 est lipschitzienne, de rap-
port |λ1 |k1 + |λ2 |k2 .
• La composée d’une application k1 -lipschitzienne et d’une application k2 -
lipschitzienne est une application k1 k2 -lipschitzienne.

Proposition 13
Toute application lipschitzienne est continue.
Démonstration page 271

Les applications suivantes sont 1 -lipschitziennes, donc continues :


Ex. 3. l’application norme : E −→ IR
x �−→ �x� ;
Ex. 4. pour A une partie non vide de E , l’application distance à A : E −→ IR
(cf. proposition 4 de la page 205) ; x �−→ d(x, A) ;
Ex. 5. pour k ∈ [[1, n]] , l’application k -ième composante ( E1 × · · · × En étant muni de la
norme produit) :
E1 × · · · × En −→ Ek
(x1 , . . . , xn ) �−→ xk .

Ex. 6. L’application distance ( E 2 étant muni de la norme produit) : E2 −→ IR


(x, y) �−→ d(x, y)
est 2 -lipschitzienne, donc continue ; en effet, pour (x1 , y1 ) et (x2 , y2 ) dans E 2 , on a, par

260
II Applications continues

utilisation des inégalités triangulaires :


     
d(x1 , y1 ) − d(x2 , y2 ) = �y1 − x1 � − �y2 − x2 �  (y1 − x1 ) − (y2 − x2 )
 
= (x2 − x1 ) + (y1 − y2 )
 �x2 − x1 � + �y1 − y2 �
 
 2(x1 , y1 ) − (x2 , y2 ).

3 Opérations sur les applications continues


Les résultats suivants sont les versions globales des propositions 8 à 11.

Proposition 14 (Combinaison linéaire, produit, composée)


• Une combinaison linéaire d’applications continues est continue.
• Le produit d’une application continue avec une application continue à valeurs
dans IK est continue.
• La composée de deux applications continues est continue.

Remarques
• L’application nulle étant continue, l’ensemble des applications continues de A
dans F est un sous-espace vectoriel de F (A, F ). On le note C(A, F ).
• L’application constante égale à 1 étant continue, l’ensemble C(A, IK) est une sous-
algèbre de F (A, IK).

Ex. 7. L’application E −→ E est continue, comme produit des deux applications


x �−→ �x�x
continues E −→ IR et IdE .
x �−→ �x�

Ex. 8. Si f est continue, alors l’application x �→ �f (x)� est continue, comme composée des
deux applications continues f et E −→ IR
y �−→ �y�.

Proposition 15 (Inverse)
1
Si f : A → IK est une application continue ne s’annulant pas, alors est continue.
f

Conséquence Si f : A → F et g : A → IK sont deux applications continues à


f
valeurs scalaires, et si de plus g ne s’annule pas, alors la fonction est continue,
g
1
comme produit des deux applications continues f et ·
g

261
Chapitre 6. Étude locale d’une application, continuité

4 Continuité et densité

Proposition 16
Exo Deux applications continues f : A → F et g : A → F coïncidant sur une partie
6.2 dense dans A sont égales.
Démonstration page 271

Principe de démonstration. Si D est une partie dense dans A , alors tout élément de A
est limite d’une suite d’éléments de D .

5 Images réciproques d’ouverts et de fermés par une


application continue

Proposition 17
Soit f : A → F une application continue.
• L’image réciproque par f de tout fermé de F est un fermé relatif de A.
• L’image réciproque par f de tout ouvert de F est un ouvert relatif de A.
Démonstration page 272

Ex. 9. On munit l’espace produit E × F de la norme produit. Montrons que si f : A → F est


une application continue, alors le graphe de f :
  
Γf = x, f (x) | x ∈ A

est un fermé relatif de A×F . Pour cela, considérons l’application ϕ : A × F −→ F


(x, y) �−→ y − f (x).
La continuité des applications :

E ×F −→ E , E×F −→ F et f
(x, y) �−→ x (x, y) �−→ y

assurent la continuité de ϕ . De plus, on a Γf = ϕ−1 ({0}) car, pour (x, y) ∈ A × F :

 
(x, y) ∈ Γf ⇐⇒ y = f (x) ⇐⇒ ϕ (x, y) = 0.

Dans le cas où f est définie sur E tout entier, les notions d’ouvert et fermé relatifs
coïncident avec les notions d’ouvert et fermé de E , ce qui donne le résultat suivant.

Corollaire 18
Étant donné f : E → F une application continue,
• l’image réciproque par f de tout fermé est fermée ;
Exo
6.3 • l’image réciproque par f de tout ouvert est ouverte.

262
II Applications continues

Ex. 10. Le demi-plan {(x, y) ∈ IR2 : x > 0} est ouvert dans IR2 car c’est l’image réciproque
de l’ouvert IR∗+ par l’application continue IR2 −→ IR
(x, y) �−→ x.
Ex. 11. Une manière efficace d’obtenir qu’une boule ouverte est ouverte et qu’une boule fermée
est fermée est de constater qu’en notant ϕ : E −→ IR , ϕ est continue et :
x �−→ d(x, a)
   
B(a, r) = ϕ−1 ]−∞, r[ et Bf (a, r) = ϕ−1 ]−∞, r] .

Ex. 12. Nous verrons que l’application det : Mn (IK) −→ IK est continue (cf. co-
M �−→ det(M )
rollaire 21 de la page 300). Par conséquent, l’ensemble GLn (IK) est un ouvert de Mn (IK) , car
c’est l’image réciproque de l’ouvert IK∗ par det .

6 Continuité uniforme
La définition suivante généralise la notion de continuité uniforme déjà vue en première
année pour les fonctions d’une variable réelle.
Définition 10
On dit que l’application f est uniformément continue si :
Exo  
6.4 ∀ε > 0 ∃η > 0 ∀(x, y) ∈ A2 �x − y�  η =⇒ f (x) − f (y)  ε.

Proposition 19
Si f est uniformément continue, alors f est continue.

Démonstration. Supposons f uniformément continue. Pour a ∈ A fixé, la définition de


l’uniforme continuité de f , dans laquelle on fixe à a la variable quantifiée y , donne :
 
∀ε > 0 ∃η > 0 ∀x ∈ A �x − a�  η =⇒ f (x) − f (a)  ε,
ce qui prouve que f est continue au point a .
Cela étant valable pour tout a ∈ A , l’application f est continue.

Proposition 20
Si f est lipschitzienne, alors f est uniformément continue.

Démonstration. Supposons que f soit k -lipschitzienne, avec k > 0 . Alors, pour ε > 0 , le
ε
réel η = est tel que pour tout (x, y) ∈ A2 vérifiant �x − y�  η , on a :
k
 
f (x) − f (y)  k�x − y�  k × ε = ε.
k

Attention Les réciproques des deux résultats précédents sont fausses ! À ce titre,
rappelons que (exemples classiques de première année) :
• IR∗+ −→ IR est continue, mais pas uniformément continue ;
x �−→ ln x
• IR+ −→ IR
√ est uniformément continue, mais pas lipschitzienne.
x �−→ x

263
Chapitre 6. Étude locale d’une application, continuité

III Continuité et applications linéaires / multilinéaires


1 Critère de continuité d’une application linéaire
Proposition 21
Une application linéaire u ∈ L(E, F ) est continue si, et seulement s’il existe C  0
Exo tel que :  
6.10 ∀x ∈ E u(x)  C�x�.
Démonstration page 272

Ex. 13. Munissons E 2 de la norme produit. L’application f : E2 −→ E est conti-


(x, y) �−→ x+y
nue car elle est linéaire et vérifie :
∀(x, y) ∈ E 2 �f (x, y)� = �x + y�  �x� + �y�  2�(x, y)�.
Ex. 14. Munissons C([0, π], IK) de la norme infinie. La forme linéaire :
ϕ : C([0, π], IK) −→ IK
 π
f �−→ f (t) sin(t)dt
0

est continue car pour f ∈ C([0, π], IK) , on a :


  
  π   π
ϕ(f )  f (t) sin tdt  | sin t| dt × �f �∞ = 2�f �∞ .
0 0

Ex. 15. Soit E un espace préhilbertien réel. Étant donné a ∈ E , l’inégalité de Cauchy-Schwarz
permet de justifier que l’application linéaire ϕa : E −→ IR est continue ; en effet :
x �−→ ( a | x )
   
∀x ∈ E ϕa (x) = ( a | x )  �a��x�.

Si A est une partie de E , on retrouve ainsi le fait que A⊥ est fermée (propriété déjà obtenue à
l’exemple 28 de la page 217), car on peut l’écrire comme une intersection de fermés :
  
A⊥ = ϕ−1
a {0} .
a∈A

Corollaire 22
Une application linéaire u ∈ L(E, F ) est continue si, et seulement si, elle est bornée
sur la boule unité.
Démonstration page 272
Principe de démonstration. Utiliser la linéarité de u et l’homogénéité de la norme.
 
+∞
 

Ex. 16. Munissons IK[X] de la norme infinie définie par  k
ak X  = max |ak | .
k=0 k∈IN

La dérivation D : IK[X] −→ IK[X] n’est pas continue. En effet, on a :
P �−→ P′

∀n ∈ IN∗ �D(X n )�∞ = �nX n−1 �∞ = n et �X n �∞ = 1,


donc D n’est pas bornée sur la boule unité de (IK[X], �·�∞ ) .

264
III Continuité et applications linéaires / multilinéaires

Point méthode Pour prouver qu’une application linéaire u n’est pas continue, on
peut prouver qu’elle n’est pas continue en 0 . Comme u(0) = 0 par linéarité, il suffit
 
d’exhiber une suite (xn ) tendant vers 0 mais telle que la suite u(xn ) ne tende
pas vers 0 .

Ex. 17. Dans C([0, 1], IK) muni de la norme un, la forme linéaire :

ϕ : C([0, 1], IK) −→ IK


f �−→ f (1)

n’est pas continue. En effet, en posant fn : t �→ tn , on a, pour n ∈ IN :

1
ϕ(fn ) = 1 et �fn �1 = ·
n+1
 
Ainsi la suite (fn ) tend vers 0 , mais ϕ(fn ) ne tend pas vers 0 . On en déduit que l’application ϕ
n’est pas continue en 0 , donc n’est pas continue.

Nous verrons dans le prochain chapitre le théorème suivant (cf. théorème 19 de la


page 298).

Théorème 23
Soit E et F deux IK -espaces vectoriels normés. Si E est de dimension finie, alors
toute application linéaire de E dans F est continue.

2 Espace Lc (E, F ), norme subordonnée


Notation On note Lc (E, F ) l’ensemble des applications linéaires continues de E
dans F .

Remarque La relation Lc (E, F ) = L(E, F ) ∩ C(E, F ) assure que Lc (E, F ) est un


sous-espace vectoriel de F (E, F ).
Dans la suite de cette section, on suppose que E n’est pas l’espace nul.
Proposition 24
Soit u ∈ Lc (E, F ). L’ensemble des réels C  0 tels que ∀x ∈ E �u(x)�  C�x�
admet un plus petit élément, appelé norme subordonnée de u et noté |||u||| .
On a de plus :
�u(x)�
|||u||| = sup = sup �u(x)� = sup �u(x)�.
x=0 �x� x1 x=1
Démonstration page 273

Terminologie La norme subordonnée est aussi appelée norme triple, ou encore


norme d’opérateur, et notée �·�op .

265
Chapitre 6. Étude locale d’une application, continuité

Remarques
• Par définition de la norme subordonnée, on a :
∀x ∈ E �u(x)�  |||u||| �x�.

• La norme subordonnée dépend des normes dont ont été munis les espaces E et F .
Si l’on change une de ces normes, on change a priori la norme subordonnée.
• En particulier, on peut considérer la norme subordonnée d’un endomorphisme
continu. Dans ce cas, on choisit en général la même norme au départ et à l’arrivée.

Ex. 18. Quelle que soit la norme utilisée sur E , on a |||IdE ||| = 1 .
Ex. 19. Munissons Mn (IK) de la norme infinie : ∀A = (ai,j )1i,jn �A�∞ = sup |ai,j | ,
1i,jn

et munissons IK du module. Considérons la forme linéaire tr : Mn (IK) −→ IK


A �−→ tr(A).
  
 n  n
• Pour A ∈ Mn (IK) , on a | tr(A)| =  ak,k   |ak,k |  n�A�∞ ; cela prouve que tr
k=1 k=1
est continue, et |||tr|||  n .
• En remarquant de plus que | tr(In )| = n = n�In �∞ , on obtient |||tr||| = n .
Ex. 20. Dans l’espace B(IN, E) des suites bornées à valeurs dans E , muni de la norme infinie,
considérons le sous-espace C des suites convergentes, ainsi que l’application ϕ : C → E qui à
une suite associe sa limite. L’application ϕ est linéaire.
• Si a = (an )n∈IN ∈ E IN est une suite convergente, on a, par définition de la norme infinie :

∀n ∈ IN �an �  �a�∞

donc par passage à la limite, on obtient �ϕ(a)�  �a�∞ . Cela prouve que ϕ est continue et
que |||ϕ|||  1 .
• En constatant de plus que si a est une suite constante égale à x ∈ E \ {0} , on
a �ϕ(a)� = �x� = �a�∞ , on peut conclure que |||ϕ||| = 1 .
Ex. 21. Dans C([0, 1], IK) muni de la norme infinie, considérons le sous-espace :

F = {f ∈ C([0, 1], IK) : f (0) = 0}.

Considérons de plus g : x �→ 1 − x . Montrons que l’endomorphisme u : F −→ F est


f �−→ fg
continu, et déterminons |||u||| .
• Pour f ∈ F et x ∈ [0, 1] , on a |u(f )(x)| = (1 − x)|f (x)|  |f (x)|  �f �∞ ,
d’où �u(f )�∞  �f �∞ . Cela prouve que u est continu et que |||u|||  1 .
  1 
• Pour n  2 , considérons la fonction fn , affine sur les segments 0, 1
n
et n
, 1 , véri-
1
fiant fn (0) = 0 , fn n
= 1 et fn (1) = 1 . On a alors :
  �u(fn )�∞
1 1
�fn �∞ = 1 et 1  �u(fn )�∞  (fn g) =1− donc → 1.
n n �fn �∞

On en déduit que |||u||| = 1 .

266
III Continuité et applications linéaires / multilinéaires

Point méthode Pour montrer que la norme subordonnée de u vaut C , on com-


mence généralement par montrer que ∀x ∈ E �u(x)�  C�x� , puis :
• si l’on y arrive (cf. exemples 19 et 20), on exhibe un vecteur x non nul véri-
Exo fiant �u(x)� = C�x� ;
6.11
• sinon (cf. exemple 21), on cherche à exhiber une suite (xn ) de vecteurs non nuls
Exo u(xn )
telle que xn  → C.
6.12

291
Remarque Si E est de dimension finie, alors Lc (E, F ) = L(E, F ) (cf. théorème 19
de la page 298). Nous verrons aussi, comme conséquence du théorème des bornes
atteintes, que si E est de dimension finie non nulle et u ∈ L(E, F ), il existe toujours
un vecteur x �= 0 tel que �u(x)� = |||u||| �x� .

Proposition 25
L’application Lc (E, F ) −→ IR+ est une norme sur Lc (E, F ).
u �−→ |||u|||
Démonstration page 273

Proposition 26 (Sous-multiplicativité de la norme d’opérateur)


Exo
6.13 Pour (u, v) ∈ Lc (E, F ) × Lc (F, G), on a |||v ◦ u|||  |||u||| |||v||| .

Démonstration. Soit (u, v) ∈ Lc (E, F ) × Lc (F, G) .


Pour x ∈ E , on a, par définition de |||v||| et |||u||| :
�(v ◦ u)(x)�  |||v||| �u(x)� et �u(x)�  |||u||| �x�,
d’où �(v◦u)(x)�  |||v||| |||u||| �x� . Par définition de |||v◦u||| , on en déduit |||v◦u|||  |||v||| |||u||| .

Attention En général, on n’a pas égalité dans l’inégalité précédente. Par exemple,
si u ∈ Lc (E) est nilpotent d’indice 2 , on a u2 = 0 , donc |||u2 ||| = 0 , mais u �= 0
donc |||u|||2 > 0 .

Adaptation matricielle

Définition 11
Supposons IKn et IKp chacun muni d’une norme. Étant donné A ∈ Mn,p (IK), on
appelle norme subordonnée de A, et l’on note |||A||| , la norme subordonnée de
l’application linéaire canoniquement associée à A.

Remarque La norme subordonnée de A est donc le plus petit réel C véri-


fiant ∀X ∈ IKp �AX�  C�X� , et l’on a aussi :
�AX�
|||A||| = sup = sup �AX� = sup �AX�.
X=0 �X� X1 X=1

267
Chapitre 6. Étude locale d’une application, continuité

Ex. 22. On a |||In ||| = 1 (indépendamment de la norme utilisée sur IKn ).


Ex. 23. Munissons IKn de la norme un. Étant donné A = (ai,j )1i,jn ∈ Mn (IK) , on a :
n

|||A||| = max |ai,j |.
j∈[[1,n]]
i=1


n
En effet, en notant K = max |ai,j | :
j∈[[1,n]] i=1

• pour X = (x1 , . . . , xn ) ∈ IKn , on a :


n  n  n n
   
�AX�1 =  a x  |ai,j | |xj |
 i,j j 
i=1 j=1 i=1 j=1
n  n  n
    
= |xj | |ai,j |  |xj |K = K�x�1 ,
j=1 i=1 j=1

d’où |||A|||  K ;

n
• si j0 ∈ [[1, n]] vérifie K = |ai,j0 | , alors en notant (e1 , . . . , en ) la base canonique de IKn :
i=1

n

�Aej0 �1 = |ai,j0 | = K = K�ej0 �1 d’où |||A||| = K.
Exo i=1
6.14

3 Critère de continuité des applications multilinéaires


Dans la suite, E1 , . . . , Ep et F désignent des IK-espaces vectoriels normés, et l’es-
pace E1 × · · · × Ep est muni de la norme produit.
Définition 12
Une application ϕ : E1 × · · · × Ep → F est dite multilinéaire, ou p-linéaire, si
pour toute famille (x1 , . . . , xp ) ∈ E1 ×· · ·×Ep et pour tout i ∈ [[1, p]], l’application :
Ei −→ F
u �−→ ϕ(x1 , . . . , xi−1 , u, xi+1 , . . . , xp )
est linéaire.

Proposition 27
Une application multilinéaire ϕ : E1 × · · · × Ep → F est continue si, et seulement
s’il existe C  0 tel que :
p

Exo ∀(u1 , . . . , up ) ∈ E1 × · · · × Ep �ϕ(u1 , . . . , up )�  C �uk �.
6.15 k=1
Démonstration (non exigible) page 274

268
III Continuité et applications linéaires / multilinéaires

Ex. 24. L’application bilinéaire ϕ : IK × E −→ E est continue car, par homogénéité de


(λ, x) �−→ λx
la norme sur E , on a �ϕ(λ, x)� = �λx� = |λ| �x� .
Ex. 25. Si E est un espace préhilbertien réel, l’application produit scalaire est continue car elle
est bilinéaire et vérifie, par l’inégalité de Cauchy-Schwarz :

∀(x, y) ∈ E 2 |( x | y )|  �x��y�.

Ex. 26. L’application ϕ : Lc (E, F ) × E −→ F est continue car elle est bilinéaire et
(u, x) �−→ u(x)
vérifie �ϕ(u, x)� = �u(x)�  |||u|||�x� .
Ex. 27. Si Lc (E, F ) et Lc (F, G) sont chacun muni de la norme subordonnée, alors l’application
bilinéaire Lc (E, F ) × Lc (F, G) −→ Lc (E, G) est continue car, d’après la proposition 26
(u, v) �−→ v ◦ u
de la page 267, on a ∀(u, v) ∈ Lc (E, F ) × Lc (F, G) |||v ◦ u|||  |||u||| |||v||| .

Remarque Il sera vu dans le chapitre suivant que, si E1 , . . . , Ep sont de dimen-


sion finie, alors toute application multilinéaire ϕ : E1 × · · · × Ep → F est continue
(cf. théorème 22 de la page 300).

269
Chapitre 6. Étude locale d’une application, continuité

Démonstrations
Proposition 1
• Supposons que pour tout voisinage W de ℓ , il existe un voisinage V de a tel
que f (V ∩ A) ⊂ W . Pour tout ε > 0 , la boule Bf (ℓ, ε) étant un voisinage de ℓ , il existe
un voisinage V de a tel que f (V ∩ A) ⊂ Bf (ℓ, ε) . Comme V est un voisinage de a , il
 
existe η > 0 tel que Bf (a, η) ⊂ V . On a alors f Bf (a, η) ∩ A ⊂ Bf (ℓ, ε) , ce qui prouve
que f tend vers ℓ en a .
• Réciproquement, supposons que f tende vers ℓ en a . Soit W un voisinage de ℓ . Alors,
il existe ε > 0 tel que Bf (ℓ, ε) ⊂ W . Par définition de la limite, il existe η > 0 tel
 
que f Bf (a, η) ∩ A ⊂ Bf (ℓ, ε) . Cela prouve le résultat, puisque la boule Bf (a, η) est un
voisinage de a .
Proposition 2
• Supposons que f tende vers ℓ en a .
Soit (un ) une suite tendant vers a . Montrons que f (un ) → ℓ . Pour cela, fixons ε > 0 , et
montrons qu’il existe un rang n0 ∈ IN tel que :
 
∀n  n0 f (un ) − ℓ  ε. (⋆)
Comme f −→ ℓ , on peut trouver η > 0 tel que :
a
 
∀x ∈ A �x − a�  η =⇒ f (x) − ℓ  ε.
La convergence de la suite (un ) vers a assure l’existence de n0 ∈ IN tel que :
∀n  n0 �un − a�  η.
Un tel rang n0 vérifie la propriété ( ⋆ ).
• Montrons l’autre implication par la contraposée : supposons que f ne tende pas vers ℓ en a ,
 
et construisons une suite (un ) d’éléments de A tendant vers a telle que la suite f (un )
ne tende pas vers ℓ . Le fait que f ne tende pas vers ℓ en a s’écrit :
 
∃ε > 0 ∀η > 0 ∃x ∈ A �x − a�  η et f (x) − ℓ > ε.
Cela nous assure de pouvoir trouver, pour tout n ∈ IN , un élément un ∈ A vérifiant :
 
�un − a�  2−n et f (un ) − ℓ  ε.
 
On construit ainsi une suite (un ) d’éléments de A qui tend vers a et telle que la suite f (un )
ne tende pas vers ℓ .
Proposition 5
• Le sens direct est immédiat grâce à la proposition 4.
• Pour le sens réciproque, utilisons la proposition 1 de la page 255. Supposons que la restric-
tion f|A∩V tende vers ℓ en a . Soit W un voisinage de ℓ . Comme f|A∩V tend vers ℓ en a ,
il existe un voisinage V ′ de a tel que f (A ∩ V ∩ V ′ ) ⊂ W . Cela prouve que f tend vers ℓ
en a , car, comme intersection de deux voisinages de a , V ∩ V ′ en est un.
Proposition 7
• Supposons que f tende vers ℓ = (ℓ1 , . . . , ℓp ) ∈ E1 × · · · × Ep en a .
 
Soit (un ) une suite à valeurs dans A tendant vers a . La suite f (un ) , à valeurs dans
l’espace produit E1 × · · · × Ep , converge vers ℓ .
   
D’après la proposition 17 de la page 213, il en résulte que les suites f1 (un ) , . . . , fp (un )
tendent vers ℓ1 , . . . , ℓp respectivement. Par caractérisation séquentielle de la limite, on en
déduit que les applications f1 , . . . , fp tendent respectivement vers ℓ1 , . . . , ℓp en a .

270
Démonstrations

• Réciproquement, supposons que f1 , . . . , fp tendent respectivement vers ℓ1 , . . . , ℓp en a .


Montrons que pour toute suite (un ) d’éléments de A tendant vers a , on a f (un ) → ℓ . Cela
conclura par caractérisation séquentielle de la limite.
Soit (un ) une telle suite. Alors, les suites :
   
f1 (un ) , . . . , fp (un )
tendent vers ℓ1 , . . . , ℓp respectivement, ce qui entraîne (cf. proposition 17 de la page 213)
 
que la suite f (un ) tend vers ℓ . D’où le résultat.
Proposition 8 Supposons que f1 −→ ℓ1 et f2 −→ ℓ2 . Soit (un ) une suite d’éléments de A ten-
a a
dant vers a . Alors on a f1 (un ) → ℓ1 et f2 (un ) → ℓ2 . Par opérations sur les suites convergentes,
la suite de terme général λ1 f1 (un ) + λ2 f2 (un ) tend alors vers λ1 ℓ1 + λ2 ℓ2 .
Par caractérisation séquentielle de la limite, on en déduit que :
λ1 f1 + λ2 f2 −→ λ1 ℓ1 + λ2 ℓ2 .
a

Proposition 9 Supposons que f −→ ℓ et ϕ −→ λ . Soit (un ) une suite d’éléments de A tendant


a a
vers a . Alors on a f (un ) → ℓ et ϕ(un ) → λ . Par produit d’une suite convergente avec une
suite convergente à valeurs dans IK , la suite de terme général ϕ(un )f (un ) tend alors vers λℓ .
Par caractérisation séquentielle de la limite, cela montre que ϕf −→ λℓ .
a

Proposition 10 Soit (un ) une suite d’éléments de A tendant vers a .


1 1
On a alors f (un ) → ℓ donc, comme ℓ �= 0 , on a → ·
f (un ) ℓ
1 1
Par caractérisation séquentielle de la limite, cela prouve que −→ ·
f a ℓ
Proposition 11 Soit (un ) une suite d’éléments de A tendant vers a (une telle suite existe car a
 
est adhérent à A ). Alors, comme f −→ b , la suite f (un ) tend vers b . Cela montre déjà que b
a
est un point adhérent à f (A) , donc à B .
 
Puis, comme g −→ ℓ , la suite de terme général g f (un ) tend vers ℓ .
b
Par caractérisation séquentielle de la limite, cela prouve que g ◦ f −→ ℓ .
a

Proposition 12 Pour tout b ∈ B , comme l’application f est continue, donc en particulier continue
en b , on a f −→ f (b) . Par stabilité de la limite par restriction (cf. proposition 4 de la page 256),
b
on a donc également f|B −→ f (b) = f|B (b) . Ainsi, f|B est continue en b .
b

Proposition 13 Soit f : A → F une application k -lipschitzienne. Montrons que f est continue en


tout point a ∈ A . Par caractérisation séquentielle : si (un ) ∈ AIN est une suite tendant vers a ,
alors par caractère k -lipschitzien de f , on a :
 
∀n ∈ IN f (un ) − f (a)  k�un − a� → 0,
ce qui montre que f (un ) → f (a) .
Proposition 16 Soit D une partie dense dans A .
Supposons que f et g coïncident sur D , c’est-à-dire vérifient :
∀x ∈ D f (x) = g(x),
et montrons que f et g sont égales, c’est-à-dire :
∀x ∈ A f (x) = g(x).

271
Chapitre 6. Étude locale d’une application, continuité

Soit x ∈ A . Par densité de D dans A , on peut considérer une suite (un ) d’éléments de D
tendant vers x . Par hypothèse, on a :
∀n ∈ IN f (un ) = g(un ).
Puis, par continuité de f et g sur A , donc en particulier au point x , on a :
f (un ) → f (x) et g(un ) → g(x).
Par unicité de la limite d’une suite, on en déduit f (x) = g(x) .
Proposition 17
• Soit Y un fermé de F . Montrons que f −1 (Y ) est un fermé relatif de A . Par caractérisation
séquentielle : donnons-nous (an ) ∈ f −1 (Y )IN une suite tendant vers a ∈ A et montrons
 
que a ∈ f −1 (Y ) , i.e. f (a) ∈ Y . La suite f (an ) est à valeurs dans Y et, par continuité
de f en a , tend vers f (a) . Comme Y est fermé, on en déduit que f (a) ∈ Y , d’où le
résultat.
• Soit U un ouvert de F . Montrons que f −1 (U ) est un ouvert relatif de A .
Soit Y le complémentaire de U dans F . D’après le premier point déjà démontré, l’image
réciproque de Y par f est un fermé relatif de A , c’est-à-dire qu’il existe un fermé X de E
tel que :
f −1 (Y ) = A ∩ X.
On a alors :
f −1 (U ) = f −1 (F \ Y ) = A \ f −1 (Y ) = A \ (A ∩ X) = A ∩ (E \ X).
L’ensemble X étant fermé dans E , l’ensemble E \ X est ouvert, ce qui montre le résultat.
Proposition 21
• Supposons qu’il existe C  0 tel que :
 
∀x ∈ E u(x)  C�x�.
Alors, pour tout (x, y) ∈ E 2 , on a, par linéarité de u :
   
u(x) − u(y) = u(x − y)  C�x − y�.
Cela prouve que u est C -lipschitzienne donc continue.
• Réciproquement, supposons u continue. En particulier, u est continue en 0 , donc il
existe η > 0 vérifiant :
 
∀z ∈ E �z�  η =⇒ u(z)  1.
    
 η   η 
Pour tout vecteur x ∈ E non nul, on a    
 �x� x = η , donc u �x� x   1 d’après la
propriété précédente, puis par linéarité de u :
 
u(x)  C�x� avec C = 1 ·
η
Cette inégalité étant aussi vérifiée pour x = 0 , cela prouve le résultat.
Corollaire 22
• Si f est continue, alors il existe C > 0 telle que :
   
∀x ∈ E u(x)  C�x� donc ∀x ∈ E �x�  1 =⇒ u(x)  C.
• Réciproquement, si f est bornée sur la boule unité, alors il existe C > 0 telle que :
 
∀x ∈ E �x� = 1 =⇒ u(x)  C.
  
Alors, pour tout vecteur non nul x ∈ E , on a u x
�x�
  C , puis par linéarité de u et
 
homogénéité de la norme, u(x)  C�x� . Cette inégalité étant aussi vérifiée par le vecteur
nul, cela prouve que f est continue.

272
Démonstrations

Proposition 24
 
• Notons Γ = k ∈ IR+ : ∀x ∈ E �u(x)�  k�x� . Montrons que Γ possède un plus petit
élément.
∗ L’application linéaire étant continue, il existe M ∈ IR+ tel que :
�u(x)�
∀x ∈ E �u(x)�  M �x� donc ∀x ∈ E \ {0}  M.
�x�
  
L’ensemble Ω = u(x)  x ∈ E \ {0} est une partie de IR , non vide (car E n’est
x

pas l’espace nul) et majoré (par M ) ; Ω possède donc une borne supérieure appartenant
à IR .
∗ Par linéarité de u , on a u(0) = 0 , donc l’inégalité �u(0)�  k�0� est vraie pour tout
réel k , ce qui permet d’écrire :
k ∈ Γ ⇐⇒ ∀x ∈ E �u(x)�  k�x� ⇐⇒ ∀x ∈ E \ {0} �u(x)�  k�x�
�u(x)�
⇐⇒ ∀x ∈ E \ {0} k
�x�
⇐⇒ ∀ω ∈ Ω ω  k.

L’ensemble Γ est donc l’ensemble des majorants de Ω . Il admet donc un plus petit
élément : la borne supérieure de Ω . Cela justifie l’existence de |||u||| , et donne déjà :
�u(x)�
|||u||| = sup ·
x=0 �x�

• Justifions maintenant que sup �u(x)� = sup u(x)


x
 avec :
; prouvons pour cela que Ω = Ω
x=1 x=0
  
 = �u(x)�  �x� = 1 .

 ⊂ Ω est évidente. De plus, pour x ∈ E \ {0} , on a


L’inclusion Ω u(x)
x
= �u(x̃)�
avec x̃ = x
x
.
, ce qui prouve Ω ⊂ Ω
• Justifions enfin que sup �u(x)� = sup �u(x)� .
x1 x=1

∗ L’inégalité sup �u(x)�  sup �u(x)� est évidente.


x1 x=1

∗ Pour prouver l’autre inégalité, constatons que pour tout x non nul vérifiant �x�  1 , le
x 1
vecteur x̃ = x est de norme 1 et vérifie �u(x̃)� = x �u(x)�  �u(x)� .

Proposition 25
Séparation. Si u ∈ Lc (E, F ) vérifie |||u||| = 0 , alors, par définition, le réel C = 0 véri-
fie ∀x ∈ E �u(x)�  C�x� , et donc ∀x ∈ E u(x) = 0 , d’où u = 0 .
Homogénéité. Soit (u, λ) ∈ Lc (E, F ) × IK . On a, par homogénéité de la norme sur F :
�(λu)(x)� �λu(x)� �u(x)�
 
|||λu||| = sup = sup = sup |λ| .
x=0 �x� x=0 �x� x=0 �x�

Ainsi (en utilisant le lemme 6 de la page 207) :


�u(x)�
|||λu||| = |λ| sup = |λ| |||u|||.
x=0 �x�

273
Chapitre 6. Étude locale d’une application, continuité

Inégalité triangulaire. Soit (u, v) ∈ Lc (E, F )2 . Pour x ∈ E , on a, par inégalité triangu-


laire de la norme sur F :
�(u + v)(x)� = �u(x) + v(x)�  �u(x)� + �v(x)�.
Puis, par définition de |||u||| et |||v||| :
 
�(u + v)(x)�  |||u||| �x� + |||v||| �x� = |||u||| + |||v||| �x�.
Ainsi, le réel C = |||u||| + |||v||| vérifie ∀x ∈ E �(u + v)(x)�  C�x� , d’où :
|||u + v|||  |||u||| + |||v|||.
Proposition 27
• Supposons ϕ continue. Par définition de la continuité en 0 , il existe r > 0 tel que :
∀(u1 , . . . , up ) ∈ E1 × · · · × Ep �(u1 , . . . , up )�  r =⇒ �ϕ(u1 , . . . , up )�  1. (⋆)
−p
Montrons alors qu’en posant C = r , on a :
p

∀(x1 , . . . , xp ) ∈ E1 × · · · × Ep �ϕ(x1 , . . . , xp )�  C �xk �.
k=1

Fixons (x1 , . . . , xp ) ∈ E1 × · · · × Ep .
∗ C’est évident si l’un des vecteurs xk est nul car alors, par linéarité de ϕ par rapport à
la k -ième variable, on a ϕ(x1 , . . . , xp ) = 0 .
∗ Supposons les vecteurs x1 , . . . , xp tous non nuls.
Pour k ∈ [[1, p]] , notons uk = �xrk � xk . On a alors ∀k ∈ [[1, p]] �uk � = r  r , donc, par
définition de la norme produit, on a �(u1 , . . . , up )�  r . La propriété (⋆) donne alors :
  
 
�ϕ(u1 , . . . , up )�  1 c’est-à-dire ϕ r x1 , . . . , r xp   1.
 �x1 � �xp � 

p
Par multilinéarité de ϕ , il vient alors �ϕ(x1 , . . . , xp )�  r −p �xk � , qui est l’inégalité
k=1
souhaitée.
• Réciproquement, supposons qu’il existe C  0 tel que :
p

∀(x1 , . . . , xp ) ∈ E1 × · · · × Ep �ϕ(x1 , . . . , xp )�  C �xk �.
k=1

Soit a = (a1 , . . . , ap ) ∈ E1 × · · · × Ep . Montrons que ϕ(x) −→ ϕ(a) .


x→a

Écrivons x = (x1 , . . . , xp ) et posons, pour k ∈ [[1, p]] :


 
δk (x) = a1 , . . . , ak−1 , xk − ak , xk+1 , . . . , xp .
La multilinéarité de ϕ puis un télescopage permettent d’écrire :
p
  
ϕ(x) − ϕ(a) = ϕ δk (x) . (⋆⋆)
k=1

Fixons k ∈ [[1, p]] . D’après l’hypothèse faite sur ϕ , on a :


 k−1
   
p 
    
ϕ δk (x)   C �aj � �xk − ak � �xj � et donc ϕ δk (x) −→ 0.
    x→a
j=1 j=k+1
−→ 0 −→ �aj �
x→a x→a

Par somme finie de limites, la relation (⋆⋆) offre alors ϕ(x) −→ ϕ(a) .
x→a

274
Exercices

S’entraîner et approfondir
Généralités sur la continuité
6.1 Soit E et F deux IK -espaces vectoriels normés et f : A → F une application continue,
→255
où A est une partie non vide de E . Montrer que l’image par f d’une partie dense dans A
est dense dans f (A) .

6.2 Soit E et F deux IR -espaces vectoriels normés.


→262
Montrer qu’une application continue f : E → F est linéaire si :
∀(x, y) ∈ E 2 f (x + y) = f (x) + f (y).

6.3 Séparation de fermés disjoints


→262
Soit A et B deux fermés disjoints non vides d’un espace vectoriel normé E .
Considérons l’application :
ϕ: E −→ IR
x �−→ d(x, A) − d(x, B).
1. Montrer que :
∀x ∈ A ϕ(x) < 0 et ∀x ∈ B ϕ(x) > 0.
2. En déduire qu’il existe deux ouverts disjoints U et V vérifiant A ⊂ U et B ⊂ V .

6.4 Caractérisation séquentielle de l’uniforme continuité


→263
Soit f une application définie sur une partie non vide A d’un espace vectoriel normé.
1. Montrer que f est uniformément continue si, et seulement si, pour toutes suites (an )n∈IN
 
et (bn )n∈IN d’éléments de A telles que �an − bn � → 0 , on a f (an ) − f (bn ) → 0 .
2. En déduire que la fonction IR∗+ −→ IR n’est pas uniformément continue.
x �−→ ln x

6.5 Soit E et F deux IK -espaces vectoriels normés, et A une partie non vide de E .
Soit f : A → F une application.
1. Montrer que si l’image réciproque par f de tout ouvert de F est un ouvert relatif de A ,
alors f est continue.
2. Montrer que si l’image réciproque par f de tout fermé de F est un fermé relatif de A ,
alors f est continue.

⋆ 6.6 Soit E un espace vectoriel normé, X une partie dense dans E ainsi que f : X → F une
application continue. On suppose que f admet une limite finie en tout point de E \ X .
Montrer que f admet un prolongement continu f : E → F .

6.7 Soit E et F deux IK -espaces vectoriels normés et f : E → F une application.


Montrer que f est continue si, et seulement si :
   
∀A ∈ P(E) f Adh(A) ⊂ Adh f (A) .

275
Chapitre 6. Étude locale d’une application, continuité

6.8 Munissons IR2 de l’une de ses normes usuelles.


Soit f : IR2 → IR une fonction. Pour (x, y) ∈ IR2 , on note fx et fy les applications partielles :
fx : IR −→ IR et fy : IR −→ IR
t �−→ f (x, t) t �−→ f (t, y).

1. Soit (x, y) ∈ IR2 . Montrer que si f est continue en (x, y) ∈ IR2 , alors ses applications
partielles fx et fy sont continues respectivement en y et en x .
L’objectif de la suite de l’exercice est de montrer que la réciproque du résultat précédent est
fausse. Soit f : IR2 → IR la fonction définie par :
xy
f (0, 0) = 0 et ∀(x, y) ∈ IR2 \ {(0, 0)} f (x, y) = 2 ·
x + y2
2. Vérifier que pour tout (x, y) ∈ IR2 , les applications partielles fx et fy sont continues.
3. Montrer que, pourtant, l’application f n’est pas continue.

6.9 Une limite dans chaque direction, mais pas de limite


Munissons IR2 de l’une de ses normes usuelles. Notons ∆ la première bissectrice, i.e. :
∆ = {(x, y) ∈ IR2 : x = y}
et considérons l’application f : IR2 \ ∆ → IR définie par :
x2 + y 2
∀(x, y) ∈ IR2 \ ∆ f (x, y) = ·
x−y
 
π
1. Montrer que pour tout θ ∈ IR \ + πZZ , l’application :
4
fθ : IR∗ −→ IR
r �−→ f (r cos θ, r sin θ)
possède une limite en 0 .
2. Montrer que, néanmoins, f ne possède pas de limite en (0, 0) .

Continuité et (multi)linéarité
6.10 Montrer qu’une application linéaire u : E → F est continue si, et seulement si, sa restriction
→264
à la sphère unité est bornée.

6.11 On munit B(IR, IK) de la norme infinie. Étant donné (an )n∈IN ∈ IKIN une suite bornée,
→267
montrer que la forme linéaire :
u : B(IR, IK) −→ IK
+∞
 f (an )
f �−→
2n
n=0

est continue et déterminer sa norme subordonnée.

6.12 On munit l’espace C([0, 1], IK) de la norme un.


→267
Considérons l’application ϕ : C([0, 1], IK) → C([0, 1], IK) qui à une fonction associe sa primi-
tive s’annulant en 0 . Montrer que ϕ est continue et déterminer sa norme triple.

276
Exercices

6.13 Soit E un espace vectoriel normé. Montrer que si �·�1 et �·�2 sont deux normes équivalentes
→267
sur E , alors les normes |||·|||1 et |||·|||2 , subordonnées à �·�1 et �·�2 respectivement, sont des
normes équivalentes sur Lc (E) .

6.14 On munit IRn de la norme infinie. Soit A = (ai,j )1i,jn ∈ Mn (IR) . Montrer que :
→268
n

|||A||| = max |ai,j |.
i∈[[1,n]]
j=1

6.15 On munit l’espace C([0, 1], IK) de la norme un. L’application bilinéaire :
→268
π : C([0, 1], IK)2 −→ C([0, 1], IK)
(f, g) �−→ fg
est-elle continue ?

6.16 Soit u un endomorphisme d’un IK -espace vectoriel normé E . Montrer que u est continue si,
et seulement si, la partie A = {x ∈ E : �u(x)� = 1} est fermée.

⋆ 6.17 Soit ϕ une forme linéaire sur un IK -espace vectoriel normé E . Montrer que ϕ est continue si,
et seulement si, son noyau est fermé.


⋆ 6.18 On note ℓ1 l’espace des suites réelles x = (xn )n∈IN telles que la série xn converge abso-
lument. On munit ℓ1 de la norme :
+∞

�x� = |xn |.
n=0

1. Pour n ∈ IN , notons e(n) la suite dont tous les termes sont nuls sauf celui d’indice n qui
vaut 1 . Montrer que :
 
F = Vect e(n) | n ∈ IN
est dense dans ℓ1 .
2. Soit a = (an )n∈IN une suite réelle bornée. Montrer que l’application :
ϕa : ℓ1 −→ IR

+∞
x �−→ an xn
n=0

est une forme linéaire continue sur ℓ1 , et déterminer sa norme subordonnée.


3. Réciproquement, montrer que toute forme linéaire continue sur ℓ1 est de la forme ϕa
avec a une suite réelle bornée.

6.19 Soit E un espace euclidien (muni, donc, de sa norme euclidienne). Si f est un endomorphisme
autoadjoint de E , on appelle rayon spectral de f le réel positif :
 
ρ(f ) = max |λ| | λ ∈ sp(f ) .
1. Montrer que pour tout f ∈ S(E) , on a |||f ||| = ρ(f ) .
2. Soit u ∈ L(E) . Montrer que l’endomorphisme u⋆ ◦ u est autoadjoint positif et que :

|||u||| = ρ(u⋆ ◦ u).

277
Chapitre 6. Étude locale d’une application, continuité

Solutions des exercices


6.1 Soit D une partie dense dans A . Montrons par caractérisation séquentielle que f (D) est
dense dans f (A) . Soit y ∈ f (A) . Considérons a ∈ A , un antécédent de y par f . Comme D
est dense dans A , il existe une suite (un ) d’éléments de D convergeant vers a . Comme f
est continue et par composition de limites, on a alors :
f (un ) → f (a) = y.
 
Comme f (un ) est une suite d’éléments de f (D) , cela prouve la densité de f (D)
dans f (A) .

6.2 Supposons que f : E → F soit continue et vérifie :

∀(x, y) ∈ E 2 f (x + y) = f (x) + f (y) (⋆)


et montrons que f est linéaire. Comme f vérifie (⋆) , il suffit de montrer que :
∀(λ, x) ∈ IR × E f (λx) = λf (x).
Fixons x ∈ E et montrons que pour tout λ ∈ IR , on a f (λx) = λf (x) .
• Tout d’abord, f étant un morphisme de groupes de (E, +) vers (F, +) , on a :
∀p ∈ ZZ f (px) = pf (x).

• On obtient ensuite :
∀q ∈ Q f (qx) = qf (x)
a
car, pour q ∈ Q , en notant q = avec (a, b) ∈ ZZ × IN∗ , on a, en utilisant la propriété
b
précédente :
a
bf (qx) = f (bqx) = f (ax) = af (x) donc f (qx) = f (x) = qf (x).
b

• Un argument de continuité permet alors d’étendre le résultat précédent à IR tout entier.


Pour cela, il suffit de constater que les applications :

IR −→ F et IR −→ F
λ �−→ f (λx) λ �−→ λf (x)

sont continues et coïncident sur Q ; comme Q est dense dans IR , elles coïncident donc
sur IR tout entier.

6.3 1. Pour x ∈ A , on a d(x, A) = 0 , et, comme x ∈/ B et que B est fermé, on a d(x, B) > 0
(cf. exemple 32 de la page 221), donc ϕ(x) < 0 . De même, pour x ∈ B , on a ϕ(x) > 0 .
2. D’après la première question, on a A ⊂ ϕ−1 (IR∗− ) et B ⊂ ϕ−1 (IR∗+ ) . De plus, par
continuité des fonctions x �→ d(x, A) et x �→ d(x, B) , la fonction ϕ est continue
sur E . Puisque IR∗− et IR∗+ sont des ouverts de IR , il en résulte que U = ϕ−1 (IR∗− )
et V = ϕ−1 (IR∗+ ) sont des ouverts.
Ils sont disjoints et contiennent respectivement A et B .

278
Solutions des exercices

6.4 1. • Supposons f uniformément continue. Soit (an ) et (bn ) deux suites d’éléments de A
telles que �an − bn � → 0 . Montrons que �f (an ) − f (bn )� → 0 en revenant à la
définition de la convergence vers 0 d’une suite : fixons ε > 0 et montrons qu’il existe
un rang n0 tel que :
 
∀n  n0 f (an ) − f (bn )  ε.
Comme f est uniformément continue, on peut considérer η > 0 tel que :
 
∀(x, y) ∈ A2 �x − y�  η =⇒ f (x) − f (y)  ε.
Comme �an − bn � → 0 , on peut considérer un rang n0 tel que :
∀n  n0 �an − bn �  η.
Cela fournit le résultat car �f (an ) − f (bn )�  ε pour tout n  n0 .
• Réciproquement, supposons que f ne soit pas uniformément continue. Cela signifie
qu’il existe ε > 0 tel que :
 
∀η > 0 ∃(x, y) ∈ A2 �x − y�  η et �f (x) − f (y)� > ε .

En particulier, pour tout n ∈ IN , on peut considérer (an , bn ) ∈ A2 vérifiant :


1  
�an − bn �  et f (an ) − f (bn ) > ε.
n+1
On construit ainsi deux suites (an ) et (bn ) d’éléments de A vérifiant �an − bn � → 0
mais telles que �f (an ) − f (bn )� ne tende pas vers 0 .
1 1
2. En posant an = et bn = , on a |an − bn | → 0 et pourtant :
n 2n
ln an − ln bn = ln 2 donc | ln an − ln bn | �→ 0.
Cela prouve que la fonction x �→ ln x n’est pas uniformément continue.

6.5 1. Supposons que l’image réciproque par f de tout ouvert de F soit un ouvert relatif de A ,
et montrons que f est continue en tout point de A .
Pour cela, donnons-nous a ∈ A et ε > 0 , et montrons qu’il existe η > 0 tel que :
 
∀x ∈ A �x − a�  η =⇒ f (x) − f (a)  ε. (⋆)
 
La boule B f (a), ε est un ouvert de F contenant f (a) , donc son image réciproque
par f est un ouvert relatif de A contenant a , i.e. s’écrit sous la forme A ∩ U , avec U
un ouvert de E contenant a . Le caractère ouvert de U offre alors l’existence de η > 0
tel que B(a, η) ⊂ U . Il est alors clair que η vérifie la propriété (⋆) .
2. Supposons que l’image réciproque par f de tout fermé de F soit un fermé relatif de A .
Ramenons-nous à la première question en montrant que l’image réciproque par f de tout
ouvert de F est un ouvert relatif de A .
Soit U un ouvert de F . L’ensemble Y = F \U étant fermé dans F , son image réciproque
par f est un fermé relatif de A . Il existe donc un fermé X de E tel que :
f −1 (Y ) = A ∩ X.
On a alors :
f −1 (U ) = f −1 (F \ Y ) = A \ f −1 (Y ) = A \ (A ∩ X) = A ∩ (E \ X).
Or, X étant fermé dans E , son complémentaire E \ X est ouvert, ce qui montre
que f −1 (U ) est un ouvert relatif de A .

279
Chapitre 6. Étude locale d’une application, continuité

6.6 Par hypothèse, f possède une limite finie en tout point de E \ X . Comme de plus f est
continue sur X , elle possède également une limite finie en tout point de X . On peut donc
considérer l’application :
f˜ : E −→ F
x �−→ lim f
x

qui est bien un prolongement de f à E puisque, pour tout x ∈ X , on a f (x) = lim f = f˜(x).
x
Soit a ∈ E . Montrons que f˜ est continue en a .
Fixons ε > 0 et montrons qu’il existe η > 0 tel que :
 
∀x ∈ B(a, η) f˜(x) − f˜(a)  ε.

Puisque f˜(a) = lim f , il existe r > 0 tel que :


a
 
∀z ∈ X ∩ B(a, r) f (z) − f˜(a)  ε.

r
En posant η = 2
, alors pour tout x ∈ B(a, η) , on a B(x, η) ⊂ B(a, r) , donc :
 
∀z ∈ X ∩ B(x, η) f (z) − f˜(a)  ε.

En passant à la limite quand z tend vers x dans l’inégalité précédente, on obtient :


   
lim f − f˜(a)  ε autrement dit f˜(x) − f˜(a)  ε.
x

D’où le résultat.

   
6.7 • Supposons f continue. Soit y ∈ f Adh(A) . Montrons que y ∈ Adh f (A) en prou-
 
vant que y est limite d’une suite à valeurs dans f (A) . Puisque y ∈ f Adh(A) , il
existe x ∈ Adh(A) tel que f (x) = y . Par caractérisation séquentielle de l’adhérence, il
existe une suite (an ) ∈ AIN telle que an → x . La continuité de f donne alors :
f (an ) → f (x) c’est-à-dire f (an ) → y.
 
Cela prouve le résultat souhaité, car la suite f (an ) est à valeurs dans f (A) .
• Réciproquement, supposons que f ne soit pas continue et montrons qu’il existe A ⊂ E
   
tel que f Adh(A) �⊂ Adh f (A) . Soit x ∈ E tel que f ne soit pas continue en x . Il
existe alors ε > 0 tel que :
 
∀η > 0 ∃u ∈ E �u − x�  η et �f (u) − f (x)�  ε .

En utilisant cette propriété avec η = 2−n , pour tout n ∈ IN , on peut construire une
suite (an ) vérifiant :

∀n ∈ IN �an − x�  2−n et �f (an ) − f (x)�  ε.


   
L’ensemble A = {an | n ∈ IN} est alors tel que f Adh(A) �⊂ Adh f (A) car :
∗ x ∈ Adh(A) puisque x est la limite de la suite (an ) ;
 
/ Adh f (A) puisque, pour tout a ∈ A , on a �f (a) − f (x)�  ε .
∗ f (x) ∈

280
Solutions des exercices

6.8 1. • Constatons que :


fx = f ◦ ϕ1 avec ϕ1 : IR −→ IR2
t �−→ (x, t).
La fonction ϕ1 est continue car elle est 1 -lipschitzienne. Par continuité de ϕ1 en y
et de f en ϕ1 (y) = (x, y) , l’application fx est continue en y .
• Pour justifier la continuité de fy en x , on procède de même en constatant que :
fy = f ◦ ϕ2 avec ϕ2 : IR −→ IR2
t �−→ (t, y).

2. Les cas de fx et fy se traitent de la même manière. Intéressons-nous à fx .


• Pour x ∈ IR∗ , la continuité de fx s’obtient par opérations sur les fonctions continues,
puisque :
xt
∀t ∈ IR fx (t) = 2 ·
x + t2
• Pour la continuité de f0 , constatons que :
0×t
∀t ∈ IR∗ f0 (t) = = 0 = f (0, 0) = f0 (0).
02 + t2
L’application f0 est donc l’application nulle ; en particulier elle est continue.
3. Montrons que f n’est pas continue au point (0, 0) .
Remarquons que :
t×t 1
∀t ∈ IR∗ f (t, t) = 2 = ·
t + t2 2
En notant g la fonction IR −→ IR2 , la fonction f ◦g n’est pas continue puisqu’elle
t �−→ (t, t)
1
vaut sur IR∗ et 0 en 0 .
2
Comme g est continue, la fonction f ne peut pas l’être. Plus précisément, la fonction f ◦g
n’étant pas continue en 0 , la fonction f n’est pas continue en g(0) , i.e. en (0, 0) .

 
π
6.9 1. Soit θ ∈ IR \ + πZZ . Pour r ∈ IR∗ , on a :
4
r 2 cos2 θ + r 2 sin2 θ r
fθ (r) = = ·
r cos θ − r sin θ cos θ − sin θ
Il en résulte que la fonction fθ tend vers 0 en 0 .
2. • De la question précédente il vient que si f admet une limite en (0, 0) , celle-ci vaut
nécessairement 0 .
• D’autre part, on constate qu’en posant g : IR∗ −→ IR2 \ ∆ , on a :
t �−→ (t + t2 , t)

(t + t2 )2 + t2
∀t ∈ IR∗ (f ◦ g)(t) = = 2 + 2t + t2 .
(t + t2 ) − t
La fonction f ◦ g tend donc vers 2 en 0 . Comme g tend vers (0, 0) en 0 , il s’ensuit
que si f admet une limite en (0, 0) , alors celle-ci vaut nécessairement 2 .
Des deux points précédents on déduit que f n’admet pas de limite en (0, 0) .

281
Chapitre 6. Étude locale d’une application, continuité

6.10 • Si u est continue, alors, d’après la proposition 21 de la page 264, il existe C  0 telle
que :
∀x ∈ E �u(x)�  C�x�.
On a alors immédiatement :
∀x ∈ E �x� = 1 =⇒ �u(x)�  C,
donc la restriction de u à la sphère unité est bornée.
• Réciproquement, supposons qu’il existe C  0 tel que :
∀x ∈ E �x� = 1 =⇒ �u(x)�  C.
  
 x 
Pour tout vecteur x non nul, on a  
 �x�   C , donc par linéarité de u :
u

�u(x)�  C�x�.
Cette dernière inégalité étant aussi vérifiée pour x = 0 , cela prouve que u est continue
(cf. proposition 21 de la page 264).

6.11 L’application u est bien définie et linéaire.


• Pour f ∈ B(IR, IK) , on a :
 +∞  +∞
   f (an )   |f (an )|
+∞
 1
u(f ) =    �f � = 2�f �∞ .
 2n  2n

2n
n=0 n=0 n=0

Cela montre que u est continue et assure que |||u|||  2 .


• On a en fait |||u||| = 2 car si f est la fonction constante égale à 1 , alors :
+∞
 1
u(f ) = = 2 = 2�f �∞ .
2n
n=0

6.12 • Pour f ∈ C([0, 1], IK) , on a, par inégalité triangulaire et croissance de l’intégrale :
     
  1  x  1 x
ϕ(f ) =  f dx  |f | dx.
1 
0 0 0 0

Une intégration par parties donne (en prenant x �→ x − 1 comme primitive de x �→ 1 ) :


  x 1  1  1
 
ϕ(f )  (x − 1) |f | − (x − 1)|f (x)|dx = (1 − x)|f (x)|dx.
1
0 0 0
  0
=0

Puisque ∀x ∈ [0, 1] (1 − x)|f (x)|  |f (x)| , on obtient, par croissance de l’intégrale :


 
ϕ(f )  �f �1 .
1

Cela prouve que ϕ est continue et que |||ϕ|||  1 .


• Montrons désormais que |||ϕ||| = 1 .
�ϕ(fn )�1
Pour cela, exhibons une suite (fn ) ∈ C([0, 1], IK)IN telle que → 1.
�fn �1
1−(1−x)n+1
Posons fn : x �→ (1 − x)n . On a alors ϕ(fn ) : x �→ n+1
, puis :
   
1 1 ϕ(fn ) = 1 1 1
�fn �1 = ∼ et 1− ∼ ·
n+1 n 1 n+1 n+2 n
�ϕ(fn )�1
Cela prouve le résultat souhaité, car → 1.
�fn �1

282
Solutions des exercices

6.13 Par symétrie du problème, il suffit de prouver que la norme |||·|||1 est dominée par la
norme |||·|||2 . Il s’agit de prouver l’existence d’une constante C telle que :

∀u ∈ Lc (E) |||u|||1  C|||u|||2 .

Les normes �·�1 et �·�2 étant équivalentes, il existe α > 0 et β > 0 telles que :

∀a ∈ E α�a�2  �a�1  β�a�2 .

Pour u ∈ Lc (E) et x ∈ E , on a :
1
0  �u(x)�1  β�u(x)�2 et 0  �x�2 < �x�1 ,
α
donc :
β|||u|||2
�u(x)�1  β�u(x)�2  β|||u|||2 �x�2  �x�1 .
α
β
Cela offre |||u|||1  |||u|||2 , et prouve que |||·|||1 est dominée par |||·|||2 .
α

6.14 • Pour tout X = (x1 , . . . , xn ) ∈ IRn , on a par définition de la norme infinie :


 n 
 
�AX�∞ = max   ai,j xj .
i∈[[1,n]]
j=1

Par inégalité triangulaire puis en majorant |xj | par �X�∞ , on a, pour tout i ∈ [[1, n]] :
 n  n 
n 
    
 a x   a x   |a | �X�∞
 i,j j  i,j j i,j
j=1 j=1 j=1


n
ce qui donne, en notant C = max |ai,j | :
i∈[[1,n]] j=1

�AX�∞  C �X�∞ donc |||A|||  C.

• Pour obtenir l’égalité |||A||| = C , montrons qu’il existe X ∈ IRn non nul vérifiant :

�AX�∞ = C �X�∞ .

n
Par définition de C , il existe i0 ∈ [[1, n]] tel que C = |ai0 ,j | .
j=1

En considérant alors le vecteur X dont les composantes valent ±1 , les signes étant choisis
de telle sorte que la j -ème composante de X soit de même signe que ai0 ,j , on constate
que la i0 -ième composante de AX vaut C , ce qui assure que :

�AX�∞  C.

Puisque �X�∞ = 1 , on obtient �AX�∞  C�X�∞ . L’inégalité dans l’autre sens étant
vraie d’après le premier point, cela donne le résultat souhaité.

283
Chapitre 6. Étude locale d’une application, continuité

6.15 Montrons que π n’est pas continue. Pour n ∈ IN , posons fn : t �→ tn . On a d’une part :

   1
1
π (fn , fn )  = t2n dt =
1
0
2n + 1
et d’autre part :
 2
 2 1
1
fn  = tn dt = ·
1
0
(n + 1)2
Par conséquent, il n’existe aucune constante C  0 vérifiant :
    
∀n ∈ IN π (fn , fn )   C fn 2 ,
1 1

donc a fortiori il n’existe aucun constante C  0 vérifiant :


      
∀(f, g) ∈ C([0, 1], IK)2 π (f, g)   C f  g  .
1 1 1

L’application bilinéaire π n’est donc pas continue.

6.16 • Si u est continue, alors A est un fermé de E , comme image réciproque du fermé {1}
par l’application continue E −→ IR
x �−→ �u(x)�.
• Réciproquement, supposons que u ne soit pas continue. Alors, u n’est pas bornée sur
la boule Bf (0, 1) (cf. corollaire 22 de la page 264). Cela signifie qu’on peut trouver une
suite (xn )n∈IN à valeurs dans Bf (0, 1) telle que �u(xn )� → +∞ .
En posant alors (pour n assez grand de telle sorte que u(xn ) �= 0 ) :
xn
yn = ,
�u(xn )�
on obtient une suite (yn ) d’éléments de A tendant vers 0 . Comme 0 ∈
/ A , cela prouve
que A n’est pas un fermé de E .

6.17 Si ϕ est l’application nulle, alors elle est continue et son noyau est fermé (car c’est l’espace E
lui-même). Supposons désormais ϕ non nulle.
 
• On a Ker ϕ = ϕ−1 {0} donc, si ϕ est continue, son noyau est fermé, en tant qu’image
réciproque du fermé {0} par ϕ .
• Réciproquement, supposons Ker ϕ fermé et montrons que ϕ est continue en prouvant
qu’il existe C ∈ IR tel que :
∀x ∈ E |ϕ(x)|  C�x�.
L’inégalité précédente étant évidemment vraie pour tout x ∈ Ker ϕ , on peut se limi-
ter à x ∈ E \ Ker ϕ . L’application ϕ étant non nulle, on peut fixer e ∈ E \ Ker ϕ .
Par caractère fermé de Ker ϕ , on a d(e, Ker ϕ) > 0 (cf. exemple 32 de la page 221).
Puisque E = Vect(e) ⊕ Ker ϕ , tout vecteur x ∈ E \ Ker ϕ s’écrit x = λe + x0
avec (λ, x0 ) ∈ IK∗ × Ker ϕ , et alors :
 −x0 
|ϕ(x)| = |λϕ(e)| = |λ| |ϕ(e)| et �x� = |λ| e −   |λ|d(e, Ker ϕ),
λ

∈Ker ϕ

|ϕ(e)|
ce qui donne |ϕ(x)|  C�x� avec C = ·
d(e, Ker ϕ)

284
Solutions des exercices

6.18 1. De manière évidente, on a F ⊂ ℓ1 . Soit x = (xn )n∈IN ∈ ℓ1 . Pour N ∈ IN , notons :


N

u(N) = xn e(n) = (x0 , x1 , . . . , xN , 0, 0, . . . ).
n=0

On a, pour tout N ∈ IN :
 N  +∞
     
x − u(N)  = x − x e (n) 
= |xn | −→ 0.
 n  N→+∞
n=0 n=N+1
 (N)

L’élément x est donc limite de la suite u N∈IN
d’éléments de F .
Cela prouve que F est dense dans ℓ1 .

2. • La suite a étant bornée, on a an xn = O(xn ) , donc la convergence absolue de xn

implique la convergence absolue, donc la convergence, de an xn ; l’application ϕa
est donc bien définie. La linéarité de ϕa quant à elle découle de la linéarité de la
somme d’une série numérique convergente :

+∞

∀(x, y, λ) ∈ (ℓ1 )2 × IR ϕa (λx + y) = an (λxn + yn )


n=0
+∞ +∞
 
=λ an xn + an yn = λϕa (x) + ϕa (y).
n=0 n=0

• Considérons s = sup |an | ∈ IR+ . Pour x ∈ ℓ1 , on a :


n∈IN
 +∞  +∞ +∞
     
ϕa (x) =  a x  |a x |  s|xn | = s�x�.
 n n  n n
n=0 n=0 n=0

On en déduit que ϕa est continue et l’on a |||ϕa |||  s .


• Montrons que �ϕa � = s . Pour cela, fixons ε > 0 et montrons qu’il existe x ∈ ℓ1 telle
que |ϕa (x)| > (s − ε)�x� . Par définition de s , il existe n0 ∈ IN tel que |an0 | > s − ε .
En reprenant la notation e(n) introduite à la question 1, on constate qu’on a alors :
  (n )   
ϕa e 0  = |an0 | > s − ε = (s − ε)e(n0 ) .

3. Soit ϕ une forme linéaire continue sur ℓ1 . Soit x ∈ ℓ1 . On a, d’après la réponse de la


question 1 : N

u(N) −→ x avec u(N) = xn e(n) .


N→+∞
n=0
Comme ϕ est continue, on a donc :
 
ϕ u(N) −→ ϕ(x). (1)
N→+∞
N
 (N)
 
Pour tout n ∈ IN , notons an = ϕ(e(n) ) . On a, par linéarité de ϕ : ϕ u = an xn .
n=0

Comme les suites e(n) sont toutes de norme 1 et que ϕ est continue, la suite (an )n∈IN

est bornée. Donc, par comparaison, la convergence absolue de la série xn donne la

convergence absolue de la série an xn , donc sa convergence. On a ainsi :
N
   +∞

ϕ u(N) = an xn −→ an xn = ϕa (x). (2)
N→+∞
n=0 n=0

D’après (1) et (2) et par unicité de la limite, on obtient ϕ(x) = ϕa (x) .


Cela étant vrai pour tout x ∈ ℓ1 , on a ϕ = ϕa .

285
Chapitre 6. Étude locale d’une application, continuité

6.19 1. Soit f ∈ S(E) . Notons n = dim E .


• Le théorème spectral assure l’existence d’une base orthonormée (e1 , . . . , en ) de E
constituée de vecteurs propres de f . Notons λ1 , . . . , λn les valeurs propres associées.
Quitte à permuter les vecteurs e1 , . . . , en , supposons |λ1 |  · · ·  |λn | .

n
On a alors ρ(f ) = |λn | . Pour x = xk ek ∈ E , on a :
k=1
n n
 
f (x) = xk f (ek ) = λk x k e k .
k=1 k=1

La base B étant orthonormée, on en déduit :


n n
 
�f (x)�2 = λ2k x2k  λ2n x2k = λ2n �x�2 ,
k=1 k=1

ce qui donne :
�f (x)�  |λn | �x� = ρ(f )�x�.
Cela prouve que |||f |||  ρ(f ) .
• Remarquons de plus que :
�f (en )� = �λn en � = |λn | �en � = ρ(f )�en �.
Le vecteur en étant non nul, on en déduit que |||f ||| = ρ(f ) .
2. • Le caractère autoadjoint de u⋆ ◦ u se vérifie ainsi :
(u⋆ ◦ u)⋆ = u⋆ ◦ (u⋆ )⋆ = u⋆ ◦ u,
et son caractère positif ainsi :
     
∀x ∈ E (u⋆ ◦ u)(x)  x = u(x)  u(x) = �u(x)�2  0.
• ∗ Pour x ∈ E , on a :
     
�u(x)�2 = u(x)  u(x) = (u⋆ ◦ u)(x)  x (propriété de l’adjoint)

 �(u ◦ u)(x)� �x� (inégalité de Cauchy-Schwarz)

 |||u⋆ ◦ u||| �x�2 (par définition de |||u⋆ ◦ u|||)

= ρ(u⋆ ◦ u) �x�2 (d’après la première question)


 
d’où �u(x)�  ρ(u⋆ ◦ u) �x� . On en déduit que |||u|||  ρ(u⋆ ◦ u) .
∗ Pour obtenir l’égalité souhaitée, remarquons que, u⋆ ◦ u étant positif, son spectre
est inclus dans IR+ , donc on a ρ(u⋆ ◦ u) ∈ sp(u⋆ ◦ u) . En notant x un vecteur
propre de u associé à ρ(u⋆ ◦ u) , on a :
     
�u(x)�2 = (u⋆ ◦ u)(x)  x = ρ(u⋆ ◦ u)x  x = ρ(u⋆ ◦ u)�x�2 ,
 
d’où �u(x)� = ρ(u⋆ ◦ u)�x� . Cela prouve que |||u||| = ρ(u⋆ ◦ u) .

286
Chapitre 7 : Compacité,
connexité par arcs,
dimension finie

I Compacité . . . . . . . . . . . . . . . . . . . . . . . . . . . 288
1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . 288
2 Applications continues sur une partie compacte . . . . . . 291
II Connexité par arcs . . . . . . . . . . . . . . . . . . . . . . 293
1 Chemins . . . . . . . . . . . . . . . . . . . . . . . . . . . . 293
2 Composantes connexes par arcs . . . . . . . . . . . . . . . 293
3 Parties connexes par arcs de IR . . . . . . . . . . . . . . . 295
4 Image continue d’un connexe par arcs . . . . . . . . . . . 295
III Espaces vectoriels normés de dimension finie . . . . . . 296
1 Équivalence des normes . . . . . . . . . . . . . . . . . . . 296
2 Utilisation des coordonnées dans une base . . . . . . . . . 296
3 Parties compactes en dimension finie . . . . . . . . . . . . 297
4 Continuité des applications (multi)linéaires et polynomiales 298
Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 308
Compacité,
connexité par arcs, 7
dimension finie

Ce chapitre présente les notions de compacité et de connexité par arcs. En particulier,


il propose des généralisations des deux résultats suivants vus en première année :
• le théorème affirmant que l’image d’un segment par une application continue est
un segment (généralisé via la notion de compacité) ;
• le théorème des valeurs intermédiaires (généralisé via la notion de connexité par
arcs).
Dans tout ce chapitre, la lettre IK désigne le corps IR ou C, et E désigne un IK -espace
vectoriel normé.

I Compacité
1 Définition
Définition 1
Une partie A de E est dite compacte si toute suite d’éléments de A possède au
moins une valeur d’adhérence dans A.

Terminologie On dit aussi que A est un compact de E .

Reformulation Une partie A est compacte si toute suite d’éléments de A possède


une sous-suite convergente dont la limite appartient à A.

Remarque La définition d’une partie compacte s’appuie sur la convergence de


suites. Elle dépend donc de la norme utilisée. Cependant, deux normes équivalentes
définissent les mêmes parties compactes.

Ex. 1. L’ensemble vide est compact car il n’existe aucune suite à valeurs dans l’ensemble vide,
et car toute assertion logique de la forme « ∀x ∈ ∅ P (x) » est vraie.
Ex. 2. Tout singleton est compact. Plus généralement, toute partie finie est compacte, car toute
suite à valeurs dans une partie finie possède au moins une sous-suite constante.
I Compacité

Ex. 3. Toute partie fermée bornée de IR ou de C est compacte. En effet, si A est une partie
bornée et si (an ) est une suite d’éléments de A , alors le théorème de Bolzano-Weierstrass assure
que l’on peut extraite de (an ) une sous-suite convergente. Si de plus A est un fermé, alors la
limite de cette sous-suite appartient à A .

Remarque Si F est un sous-espace vectoriel de E et A une partie de F alors A


est un compact de E si, et seulement si, A est un compact de F . En effet, le fait que
toute suite d’éléments de A possède une valeur d’adhérence dans A ne dépend pas
de savoir si l’on considère A comme une partie de E ou comme une partie de F .
La compacité est donc une notion intrinsèque : le caractère compact d’une partie ne
dépend que de la norme utilisée, et non de l’espace vectoriel normé E dans lequel on
se place.
Sur ce point, la notion de compact diffère de la notion d’ouvert et de fermé.

Proposition 1
Toute partie compacte est fermée et bornée.
Démonstration page 302
Principe de démonstration. Par contraposition.

Remarque Dans l’énoncé de la proposition 1, il faudrait en toute rigueur préciser


« fermée dans E », puisque la notion de fermé dépend a priori de l’espace vectoriel
dans lequel on travaille. Cependant, puisque la notion de compact, elle, n’en dépend
pas, la conclusion est valable quel que soit l’espace vectoriel : une partie compacte est
donc un fermé de n’importe quel espace vectoriel normé qui la contient.

Attention La réciproque de la proposition 1 est vraie si E est de dimension finie


(cf. théorème 16 de la page 297), mais fausse dans le cas général (cf. exemple 4).

Point méthode Si une suite (un ) est telle qu’il existe α > 0 vérifiant :
∀(n, p) ∈ IN2 n �= p =⇒ �un − up �  α,
alors (un ) ne possède aucune sous-suite convergente. Ainsi, pour montrer qu’une
partie A n’est pas compacte, il suffit d’exhiber une telle suite d’éléments de A.

Ex. 4. Une partie fermée et bornée mais non compacte



n 
Soit E = IR[X] , muni de la norme  ak X k ∞ = max |ak | . Montrons que la boule unité
k=0 k∈[[0,n]]

fermée A = Bf (0, 1) , bien qu’étant fermée et bornée, n’est pas compacte.


• Tout d’abord, A est une boule fermée, donc A est une partie fermée et bornée.
• Considérons la suite (X n )n∈IN . Tous les termes de cette suite sont de norme 1 , donc
appartiennent à A . En revanche, pour tout (n1 , n2 ) ∈ IN2 tel que n1 �= n2 , on
a �X n1 − X n2 �∞ = 1 . Il est donc impossible d’extraire de la suite (X n )n∈IN une sous-
suite convergente. Donc A n’est pas compacte.

289
Chapitre 7. Compacité, connexité, dimension finie
Proposition 2
Toute fermé relatif d’une partie compacte est compact.

Démonstration. Soit A une partie compacte, et B une partie fermée de A . On peut


trouver F un fermé de E tel que B = A ∩ F . Constatons déjà que B est fermé, comme
intersection de fermés. De plus, si (bn ) est une suite d’éléments de B , alors, puisque B ⊂ A et
 
par compacité de A , on peut extraire de (bn ) une sous-suite bϕ(n) convergeant vers un élément
 
de A . Comme cette sous-suite bϕ(n) est à valeurs dans le fermé B , sa limite appartient aussi
à B . D’où le caractère compact de B .

Reformulation Tout fermé inclus dans un compact est compact.

Proposition 3
Soit E et F deux espaces vectoriels normés. On munit l’espace E × F de la
norme produit. Si A et B sont respectivement des parties compactes de E et F ,
alors A × B est une partie compacte de l’espace produit E × F .
Démonstration page 302
Principe de démonstration. Étant donné une suite à valeurs dans A × B , on procède à
deux extractions successives.
Une récurrence permet de généraliser le résultat précédent à un nombre fini quelconque
de parties compactes.
Corollaire 4
Soit E1 , . . . , Ep des espaces vectoriels normés. On munit l’espace E1 × · · · × Ep
de la norme produit. Si A1 , . . . , Ap sont des parties compactes de E1 , . . . , Ep res-
pectivement, alors le produit A1 × · · · × Ap est une partie compacte de l’espace
produit E1 × · · · × Ep .

 (1)
  (p)

Ex. 5. Si un , . . . , un sont p suites respectivement à valeurs dans des com-
pacts A1 , . . . , Ap , alors le résultat précédent appliqué à la suite (vn ) de terme général :
 
vn = u(1) (p)
n , . . . , un
 
assure l’existence d’une fonction ϕ : IN → IN strictement croissante telle que la suite vϕ(n)
 (1)
  (p)

converge, c’est-à-dire telle que les suites uϕ(n) , . . . , uϕ(n) convergent.
p
Ex. 6. Parties compactes de IK muni de la norme infinie
Une partie de (IKp , �·�∞ ) est compacte si, et seulement si, c’est une partie fermée bornée.
• Un des sens est donné par la proposition 1 de la page précédente : pour qu’une partie soit
compacte, il est nécessaire qu’elle soit fermée et bornée.
• Réciproquement, soit A une partie fermée et bornée de (IKp , �·�∞ ) .
En considérant M un réel vérifiant :
∀a ∈ A �a�∞  M,
et en notant Df (0, M ) = {x ∈ IK : |x|  M } , on a A ⊂ Df (0, M )p .
Comme Df (0, M ) est un compact (en tant que partie fermée et bornée de IK ), le corollaire 4
assure que le produit Df (0, M )p est un compact de (IKp , �·�∞ ) .
On en déduit que A est compacte, en tant que partie fermée incluse dans un compact
(cf. proposition 2).

290
I Compacité

Remarque Cette caractérisation des parties compactes, obtenue ici dans (IKp , �·�∞ ) , est en
fait vraie dans tout espace de dimension finie (cf. théorème 16 de la page 297).

Théorème 5
Une suite à valeurs dans un compact est convergente si, et seulement si, elle admet
une unique valeur d’adhérence. Sa limite est alors son unique valeur d’adhérence.
Démonstration page 302
Principe de démonstration. Pour le sens non trivial : si une suite possède une unique valeur
d’adhérence a mais ne converge pas, alors on peut en extraire une sous-suite ne possédant pas a
comme valeur d’adhérence, et donc qui en possède une autre . . .

Remarques Étant donné une suite (un ), à valeurs dans un compact A, dont on
veut démontrer qu’elle converge :
• on sait déjà que (un ) possède au moins une valeur d’adhérence, il s’agit donc de
prouver qu’elle en possède au plus une ;
• un compact étant fermé, tout valeur d’adhérence de (un ) est dans A.

Point méthode Pour prouver qu’une suite à valeurs dans un compact A converge
Exo vers ℓ , on considère une valeur d’adhérence α ∈ A de cette suite et l’on montre
7.1 que α = ℓ .

Ex. 7. Soit E et F deux IK -espaces vectoriels normés. Soit A une partie compacte de E , B
une partie de F , et f : A → B une application continue et bijective. Montrons que f −1 est
continue.
Soit y ∈ B . Montrons que f −1 est continue en y . Par caractérisation séquentielle : donnons-
 
nous (yn ) ∈ B IN telle que yn → y , et montrons que f −1 (yn ) → f −1 (y) . La suite f −1 (yn )
étant à valeurs dans le compact A , prouver qu’elle converge vers f −1 (y) revient à montrer
que toute valeur d’adhérence vaut f −1 (y) . Soit ℓ ∈ A une telle valeur d’adhérence. Il existe
 
une sous-suite f −1 (yϕ(n) ) telle que f −1 (yϕ(n) ) → ℓ . Par continuité de f , on obtient, en
composant, yϕ(n) → f (ℓ) . Or, comme yn → y , on a aussi yϕ(n) → y . Par unicité de la limite,
on en déduit f (ℓ) = y , i.e. ℓ = f −1 (y) .

2 Applications continues sur une partie compacte


Théorème 6 (Image d’un compact par une application continue)
L’image d’un compact par une application continue est un compact.
Démonstration page 302

Cas des fonctions à valeurs réelles


Exo Corollaire 7 (Théorème des bornes atteintes)
7.2
Soit A une partie compacte non vide. Alors, toute application continue de A dans IR
Exo est bornée et atteint ses bornes.
7.3 Démonstration page 303

291
Chapitre 7. Compacité, connexité, dimension finie

Ex. 8. Soit A une partie compacte non vide de E et f : A → F une application continue.
Alors l’application �f � : A → IR , étant continue, est bornée et atteint ses bornes.
Ex. 9. Distance à un compact
Soit A une partie compacte non vide de E , et x0 ∈ E . L’application x �→ d(x0 , x) est continue,
donc sa restriction à A est bornée et atteint ses bornes ; en particulier cette restriction est minorée
et atteint sa borne inférieure. Cela assure l’existence de a ∈ A tel que la distance de x0 à A
soit atteinte en a , i.e. :
d(x0 , A) = d(x0 , a).

Ex. 10. Distance entre deux compacts


Soit A et B deux compacts non vides de E . Alors A × B est compact, donc l’application :

A×B −→ IR
(x, y) �−→ d(x, y),

étant continue, est bornée et atteint ses bornes. En particulier, cela assure l’existence d’un
couple (a, b) ∈ A × B réalisant la distance entre A et B , c’est-à-dire tel que :

d(a, b) = inf d(x, y) = d(A, B).


(x,y)∈A×B

Uniforme continuité de toute application continue sur un compact


Exo
7.4 Théorème 8 (Théorème de Heine)
Toute application continue sur un compact est uniformément continue.
Exo
7.5 Démonstration page 303

Ex. 11. Munissons IR2 et C([0, 1], IK) de la norme infinie, notées respectivement �·� et �·�∞ .
Soit f ∈ C([0, 1]2 , IK) . Pour x ∈ [0, 1] , notons fx l’application partielle [0, 1] −→ IK
y �−→ f (x, y).
Montrons que l’application ϕ : [0, 1] −→ C([0, 1], IK) est continue.
x �−→ fx
Pour cela, montrons que ϕ est uniformément continue. Soit ε > 0 . L’application f étant
continue sur le compact [0, 1]2 , elle est uniformément continue. Il existe donc η > 0 tel que,
pour tout (x1 , y1 ) ∈ [0, 1]2 et (x2 , y2 ) ∈ [0, 1]2 :
   
(x1 , y1 ) − (x2 , y2 )  η =⇒ f (x1 , y1 ) − f (x2 , y2 )  ε. (⋆)

En particulier, si (x1 , x2 ) ∈ [0, 1]2 vérifie |x1 − x2 |  η , alors, pour tout y ∈ [0, 1] :
     
(x1 , y) − (x2 , y)  η donc fx1 (y) − fx2 (y) = f (x1 , y) − f (x2 , y)  ε,

ce qui offre �fx1 − fx2 �∞  ε . Par conséquent, la fonction ϕ est uniformément continue, donc
a fortiori continue.

292
II Connexité par arcs

II Connexité par arcs


1 Chemins
Définition 2
Soit A une partie d’un espace vectoriel normé, ainsi que (x, y) ∈ A2 .
• Un chemin joignant x à y dans A est une application continue p, définie
sur un segment [a, b] de IR, à valeurs dans A et telle que p(a) = x et p(b) = y .
• Si un tel chemin existe, on dit que les points x et y sont reliés par un chemin
dans A.

Ex. 12. Si A est une partie convexe, alors deux points quelconques x et y de A sont reliés
dans A par le chemin [0, 1] −→ A
t �−→ (1 − t)x + ty.

Remarque Soit x et y deux points d’une partie A. S’il existe un che-


min p : [a, b] → A reliant x à y , alors pour tout segment [c, d] avec c < d, l’applica-
tion p : [c, d] → A définie par :
 t−c 
p(t) = p a + (b − a)
d−c
est un chemin reliant x à y . Ainsi, si deux points sont reliés par un chemin, on peut
considérer un chemin reliant ces deux points défini sur n’importe quelle segment non
réduit à un point. Il est courant de considérer un tel chemin défini sur le segment [0, 1].

2 Composantes connexes par arcs


Proposition 9
Exo Soit A une partie d’un espace vectoriel normé. La relation « être relié par un chemin
7.15 dans A » est une relation d’équivalence sur A.
Démonstration page 303

Terminologie Les classes d’équivalences de cette relation sont appelées les com-
posantes connexes par arcs de A.
Remarques
• Par transitivité, pour montrer que deux points x et y de A sont reliés par un
chemin dans A, il suffit de trouver une suite finie (u0 , . . . , un ) de points de A
avec u0 = x, un = y et telle que pour tout k ∈ [[0, n − 1]], uk et uk+1 sont reliés
par un chemin dans A.
• Toute partie est la réunion de ses composantes connexes par arcs.
• Les composantes connexes par arcs d’une partie sont deux à deux disjointes.

Définition 3
On dit que A est connexe par arcs s’il n’a qu’une seule composante connexe par
arcs, ou, de manière équivalente, si deux éléments quelconques de A sont reliés par
un chemin dans A.

293
Chapitre 7. Compacité, connexité, dimension finie

Ex. 13. Toute composante connexe par arcs est connexe par arcs.
Ex. 14. Toute partie convexe est connexe par arcs.
Ex. 15. Tout sous-espace affine d’un espace vectoriel normé est connexe par arcs.
Ex. 16. Soit a ∈ IR . L’ensemble IR \ {a} n’est pas connexe par arcs, et ses composantes
connexes par arcs sont ]−∞, a[ et ]a, +∞[ . En effet :
• si x ∈ ]−∞, a[ et y ∈ ]a, +∞[ , alors x et y ne sont par reliés par un chemin
dans IR \ {a} ; en effet, le théorème des valeurs intermédiaires assure que toute applica-
tion continue p : [α, β] → IR vérifiant p(α) = x et p(β) = y prend au moins une fois la
valeur a et donc n’est pas à valeurs dans IR \ {a} ;
• les deux intervalles ]−∞, a[ et ]a, +∞[ sont quant à eux connexes par arcs car convexes.
Ex. 17. Soit a ∈ C . Montrons que l’ensemble C \ {a} est connexe par arcs. Soit z1 et z2 deux
éléments de C \ {a} .
Considérons les deux chemins suivants :
γ2
γ1 : [0, 1] −→ C∗
t �−→ (1 − t)z1 + tz2

et 
γ1
z2

γ2 : [0, π] −→C 

z1 + z2 z1 − z2 iθ
θ �−→ + e . z1
2 2
Le chemin γ1 a pour image le segment reliant z1 à z2 , et le chemin γ2 a pour image un
demi-cercle de diamètre [z1 z2 ] .
Comme les seuls points communs à γ1 et γ2 sont z1 et z2 , il est clair qu’au moins l’un de ces
deux chemins ne passe pas par a , et permet donc de relier z1 à z2 dans C \ {a} .
Cela prouve la connexité par arcs de C \ {a} .
Ex. 18. Montrons que si E est de dimension (éventuellement infinie) au moins 2, alors E \ {0}
est connexe par arcs. Pour cela, donnons-nous (x, y) ∈ (E \ {0})2 et montrons que x et y sont
reliés par un chemin dans E \ {0} .
• Si la famille (x, y) est libre, on a :

∀λ ∈ [0, 1] (1 − λ)x + λy �= 0,

et alors l’application [0, 1] −→ E \ {0} est un chemin reliant x à y .


λ �−→ (1 − λ)x + λy
• Sinon, prenons z ∈ E \ Vect(x, y) (un tel z existe car E est de dimension au moins 2).
Alors, les familles (x, z) et (y, z) sont libres. D’après le premier point, x et z d’une part,
et y et z d’autre part, sont reliés par un chemin dans E \ {0} . On conclut par transitivité.

Attention En général, l’intersection de parties connexes par arcs n’est pas connexe
par arcs.
Ex. 19. Dans C , les ensembles IR et U sont connexes par arcs, mais pas leur intersection car :

IR ∩ U = {−1, 1}.

294
II Connexité par arcs
Définition 4
Soit A une partie d’un espace vectoriel normé.
• Étant donné a ∈ A, on dit que A est étoilée par rapport à a si :
∀x ∈ A [a, x] ⊂ A.

• On dit que A est étoilée si A est étoilée par rapport à l’un de ses points.

Ex. 20. Toute partie étoilée est connexe par arcs. En effet, si A est une partie étoilée, il existe
donc a ∈ A tel que A soit étoilée par rapport à a et alors, si x et y sont deux points de A :
• comme [a, x] ⊂ A , a et x sont reliés par un chemin dans A ;
• comme [a, y] ⊂ A , a et y sont reliés par un chemin dans A ;
donc, par transitivité, x et y sont reliés par un chemin dans A .
Remarque La réciproque de ce résultat est fausse ; par exemple, dans C , l’ensemble U des
nombres complexes de module 1 est connexe par arcs mais n’est pas étoilé.

3 Parties connexes par arcs de IR


Exo Proposition 10
7.16 Les parties connexes par arcs de IR sont les intervalles.
Démonstration page 304
Principe de démonstration. Les intervalles de IR sont ses parties convexes. Il reste donc
à montrer qu’une partie de IR est connexe par arcs si, et seulement si, elle est convexe.

4 Image continue d’un connexe par arcs


Théorème 11
Exo L’image d’une partie connexe par arcs par une application continue est connexe par
7.17 arcs.
Démonstration page 304

Ex. 21. Si E est un espace vectoriel normé réel de dimension (éventuellement infinie) au
moins 2 , la sphère unité de E est connexe par arcs. C’est en effet l’image de E \ {0} (qui
est connexe par arcs, d’après l’exemple 18 de la page ci-contre) par l’application continue :
E \ {0} −→ E
x
x �−→ ·
�x�
Ex. 22. Montrons qu’il n’existe pas de bijection continue de C dans IR . Par l’absurde : suppo-
sons qu’une telle bijection continue ϕ : C → IR existe. Alors, l’application :
Ψ : C \ {ϕ−1 (0)} −→ IR∗
z �−→ ϕ(z)

est également bijective et continue. Or, l’ensemble C \ {ϕ−1 (0)} est connexe par arcs
(cf. exemple 17 de la page précédente) alors que IR∗ ne l’est pas. Cela est en contradiction
avec le théorème 11.

295
Chapitre 7. Compacité, connexité, dimension finie
Corollaire 12
Exo Si f est une application continue à valeurs dans IR, alors l’image par f de toute
7.18 partie connexe par arcs est un intervalle.

Démonstration. C’est immédiat d’après le théorème 11 de la page précédente puisque les


parties connexes par arcs de IR sont les intervalles.

Remarque Ce résultat est une généralisation du théorème des valeurs intermédiaires


vu en première année disant que l’image d’un intervalle par une fonction continue est
un intervalle.

III Espaces vectoriels normés de dimension finie


1 Équivalence des normes
Théorème 13
Dans un espace de dimension finie, toutes les normes sont équivalentes.
Démonstration (non exigible) page 304

Remarque Ce résultat entraîne que, dans un espace de dimension finie, beaucoup


de notions sont indépendantes de la norme choisie :
• caractère ouvert, fermé, borné d’une partie ;
• intérieur, adhérence, frontière d’une partie ;
• limites de suites, limites de fonctions, continuité ;
• parties compactes, connexes par arcs.
Pour évoquer ces notions, il n’est pas nécessaire de préciser la norme choisie. Ainsi,
la phrase « Soit E un espace de dimension finie et A une partie bornée de E » a un
sens : le caractère borné de A ne dépend pas de la norme dont E est muni.

2 Utilisation des coordonnées dans une base


Le résultat suivant indique que, dans un espace de dimension finie, la convergence
d’une suite équivaut à celle de ses suites composantes dans une base.
Proposition 14
Soit E un espace vectoriel de dimension finie muni d’une base B = (e1 , . . . , ep ).
 (1)   (p) 
Soit (an ) une suite à valeurs dans E . Notons an , . . . , an les suites compo-
santes (ou coordonnées) de (an ) dans la base B , c’est-à-dire vérifiant :
p

∀n ∈ IN an = an(k) ek .
k=1
p

Étant donné ℓ = ℓk ek appartenant à E , il est équivalent de dire :
k=1

(i) la suite (an ) converge vers ℓ ;


 (k) 
(ii) pour tout k ∈ [[1, p]], la suite an converge vers ℓk .
Démonstration page 305
Principe de démonstration. Utiliser la norme infinie dans la base B .

296
III Espaces vectoriels normés de dimension finie

De la même façon, si f est une application à valeurs dans un espace de dimension


finie, alors l’étude de la limite de f en un point, ou encore l’étude de la continuité
de f , se ramène à celle de ses applications composantes dans une base.

Proposition 15
Soit E un espace vectoriel de dimension finie muni d’une base B = (e1 , . . . , ep ).
Soit f : A → E une application à valeurs dans E (A étant une partie quelconque
 
d’un espace vectoriel normé). Notons f1 , . . . , fp les applications composantes
(ou coordonnées) de f dans la base B , c’est-à-dire vérifiant :
p

∀x ∈ A f (x) = fk (x)ek .
k=1


p
Pour a ∈ A et ℓ = ℓk ek appartenant à E , il est équivalent de dire :
k=1

(i) l’application f admet ℓ comme limite en a ;


(ii) pour tout k ∈ [[1, p]], l’application fk tend vers ℓk en a.
Démonstration page 305
Principe de démonstration. Utiliser la norme infinie dans la base B .

3 Parties compactes en dimension finie


Théorème 16
Dans un espace vectoriel de dimension finie, les compacts sont les fermés bornés.
Démonstration page 305

Théorème 17 (Théorème de Bolzano-Weierstrass)


Dans un espace vectoriel de dimension finie, toute suite bornée possède au moins
une valeur d’adhérence, i.e. admet au moins une sous suite convergente.
Démonstration page 305

Ex. 23. Distance à un fermé en dimension finie


Supposons E de dimension finie. Soit F un fermé non vide de E et x0 ∈ E . Montrons qu’il
existe a ∈ F tel que :
d(x0 , F ) = d(x0 , a).

Cela revient à prouver que l’application f : F −→ IR admet un minimum.


x �−→ d(x0 , x)
Fixons b ∈ F et notons r = d(x0 , b) . L’ensemble F ∩ Bf (x0 , r) est compact, comme inter-
section d’un fermé et d’un compact. L’application f est continue, donc sa restriction au com-
pact F ∩ Bf (x0 , r) , non vide car contenant b , est bornée et atteint ses bornes. En particulier
cette restriction possède un minimum m .
 
Puisque ∀x ∈ F \ Bf (x0 , r) f (x)  f (b) , on en déduit que f est minorée par min f (b), m .
Ce minorant étant atteint par f , c’est un minimum.

297
Chapitre 7. Compacité, connexité, dimension finie

Proposition 18
Dans un espace vectoriel normé, tout sous-espace vectoriel de dimension finie est
fermé.
Démonstration page 305
Principe de démonstration. Par caractérisation séquentielle.

Attention L’exemple suivant illustre l’importance de l’hypothèse « F est de dimen-


sion finie » dans la proposition 18.
Ex. 24. Un sous-espace vectoriel non fermé Soit E le IK -espace vectoriel des suites bornées
à valeurs dans IK , muni de la norme infinie �u�∞ = sup |un | .
n∈IN
Montrons que le sous-espace vectoriel F des suites presque nulles n’est pas un fermé de E .
Pour cela, exhibons une suite d’éléments de F qui converge vers un élément de E \ F .
1
Notons u la suite de terme général un = puis, pour p ∈ IN , notons u(p) la suite de
 n + 1
(p) un si n  p
terme général un =
0 sinon.
Cet exemple prouve le résultat souhaité, car :
1
• pour p ∈ IN , on a �u(p) − u�∞ = −→ 0 , donc u(p) → u ;
p + 2 p→+∞
• pour p ∈ IN , la suite u(p) n’a qu’un nombre fini de termes non nuls, donc appartient à F ;
• la suite u n’appartient pas à F , car possède une infinité de termes non nuls.

4 Continuité des applications (multi)linéaires et polynomiales


Applications linéaires
Théorème 19
Soit E et F deux IK -espaces vectoriels normés. Si E est de dimension finie, alors
toute application linéaire de E dans F est continue.
Démonstration page 306
Principe de démonstration. Utiliser la caractérisation de la continuité d’une application
linéaire donnée par la proposition 21 de la page 264.

Ex. 25. Si E est de dimension finie, alors toute forme linéaire sur E est continue.
En particulier, si B = (e1 , . . . , en ) est une base de E , alors, pour tout k ∈ [[1, n]] , la forme
linéaire « k -ième coordonnée dans la base B » est continue :
E −→ IK

n
x i ei �−→ xk .
i=1

Remarque Si E est de dimension finie non nulle, on a donc Lc (E, F ) = L(E, F ).


De plus, la norme subordonnée de u ∈ L(E, F ) vérifiant :
  
|||u||| = sup �u(x)�  x ∈ Bf (0, 1) ,
la continuité de l’application x �→ �u(x)� et la compacité de la boule Bf (0, 1) de E
assurent, par le théorème des bornes atteintes, l’existence d’un vecteur x unitaire
vérifiant �u(x)� = |||u||| , ou encore d’un vecteur x non nul vérifiant �u(x)� = |||u||| �x� .

298
III Espaces vectoriels normés de dimension finie

Applications polynomiales
On appelle fonction polynomiale sur IKn toute application f : IKn → IK s’écrivant
comme une combinaison linéaire d’applications elles-mêmes produits d’applications
composantes. Plus précisément :

Définition 5
Une application f : IKn → IK est dite polynomiale s’il existe une famille presque
nulle de scalaires (λk1 ,...,kn )(k1 ,...,kn )∈INn telle que :

∀(x1 , . . . , xn ) ∈ IKn f (x1 , . . . , xn ) = λk1 ,...,kn xk11 · · · xknn .
(k1 ,...,kn )∈INn

Ex. 26. L’application f : IR3 −→ IR est polynomiale.


(x, y, z) �−→ xy − x3 z 4 + 4xyz 2

La notion de fonction polynomiale se généralise à tout espace de dimension finie :

Définition 6
Supposons E de dimension finie. Soit B = (e1 , . . . , en ) une base de E . Une appli-
cation f : E → IK est dite polynomiale s’il existe une famille presque nulle de
scalaires (λk1 ,...,kn )(k1 ,...,kn )∈INn telle que :
n
 
∀x = xi ei ∈ E f (x) = λk1 ,...,kn xk11 · · · xknn .
i=1 (k1 ,...,kn )∈INn

Remarque La définition précédente ne dépend pas de la base de E choisie. En effet,


si B ′ est une autre base de E et x un vecteur de E , alors en notant X = MatB (x)
et Y = MatB′ (x), on a X = P Y où P est la matrice de passage de B vers B ′ . Par
conséquent, si l’on peut écrire f (x) sous la forme de la définition précédente à l’aide
de x1 , . . . , xn , on peut aussi le faire à l’aide de y1 , . . . , yn .

Proposition 20
Toute application polynomiale est continue.

Démonstration. Soit f : E → IK une application polynomiale. Alors, si B = (e1 , . . . , en )


est une base de E , f s’obtient par produits et combinaisons linéaires à partir des formes linéaires
coordonnées :
n

πk : xi ei �→ xk ,
i=1

qui sont continues car linéaires avec un espace de départ de dimension finie.

299
Chapitre 7. Compacité, connexité, dimension finie
Corollaire 21
Exo L’application det : Mn (IK) −→ IK est continue.
7.23 M �−→ det(M )

Démonstration. L’application det : Mn (IK) −→ IK est polynomiale car det(M )


M �−→ det(M )
apparaît comme une expression polynomiale des coefficients de M , c’est-à-dire des composantes
de M dans la base canonique. Par conséquent, l’application det est continue.

Ex. 27. Soit n  1 . L’ensemble GLn (IR) n’est pas connexe par arcs. En effet, l’applica-
 
tion det : GLn (IR) → IR∗ est surjective ( ∀x ∈ IR∗ det Diag(x, 1, . . . , 1) = x ) et continue.
Si GLn (IR) était connexe par arcs, alors IR∗ le serait aussi, ce qui n’est pas le cas.
Remarque Sur la connexité par arcs et les ensembles GLn (IR) et GLn (C) , on pourra regarder
les exercices 7.32 et 7.33.

Applications multilinéaires

Théorème 22
Exo Soit E1 , . . . , Ep et F des espaces vectoriels normés. Si E1 , . . . , Ep sont de dimension
7.24 finie, alors toute application p-linéaire de E1 × · · · × Ep dans F est continue.
Démonstration page 306
Principe de démonstration. Si f : E1 × · · · × Ep → F est p -linéaire, alors f s’exprime à
l’aide des applications coordonnées dans une base.

Ex. 28. Étant donné (n, p, q) ∈ IN3 , l’application Mn,p (IK) × Mp,q (IK) −→ Mn,q (IK)
(A, B) �−→ AB
est bilinéaire, donc continue puisque Mn,p (IK) et Mp,q (IK) sont de dimension finie.
Ex. 29. Si E , F et G sont des IK -espaces vectoriels de dimension finie, alors l’application
bilinéaire L(E, F ) × L(F, G) −→ L(E, G) est continue.
(u, v) �−→ v ◦ u
Ex. 30. Si E et F sont des IK -espaces vectoriels de dimension finie, alors l’application bili-
néaire L(E, F ) × E −→ F est continue.
(u, x) �−→ u(x)
Ex. 31. Si E est de dimension finie, et si B est une base de E , alors l’application :

En −→ IK
(u1 , . . . , un ) �−→ detB (u1 , . . . , un )

est continue car n -linéaire.

Remarque Si E1 , . . . , Ep sont de dimension finie et si f est une application p-


linéaire de E1 × · · · × Ep dans F , alors f est continue, donc, par la proposition 27
de la page 268, il existe une constante positive C vérifiant :
 
∀(x1 , . . . , xp ) ∈ E1 × · · · × Ep f (x1 , . . . , xp )  C�x1 � × · · · × �xp �.

300
III Espaces vectoriels normés de dimension finie

 1
Ex. 32. Soit n ∈ IN . Munissons l’espace IKn [X] de la norme définie par �P � = |P (t)|dt .
0
Puisque IKn [X] est de dimension finie, l’application bilinéaire IKn [X]2 −→ IK est
 1
(P, Q) �−→ PQ
0
continue. On en déduit qu’il existe une constante C vérifiant :
   
 1  1 1
∀(P, Q) ∈ IKn [X] 2  P (t)Q(t)dt  C |P (t)|dt |Q(t)|dt.

0 0 0

Remarque Ce résultat est faux sur IK[X] . En effet, si l’on prend Pn = Qn = X n , alors :
 1  1  1
1 1
Pn (t)Qn (t)dt = et |Pn (t)|dt |Qn (t)|dt = ·
0
2n + 1 0 0
(n + 1)2

Ex. 33. Norme sous-multiplicative sur une IK -algèbre de dimension finie


Soit (E, +, · , ×) une IK -algèbre de dimension finie. L’application ϕ : E 2 −→ E
(x, y) �−→ x × y
qui à un couple de deux éléments de E associe leur produit est bilinéaire. Comme E est de
dimension finie, il existe une constante C > 0 telle que :

∀(x, y) ∈ E 2 �x × y�  C �x� × �y�.

L’application N : x �→ C�x� est alors une norme sur E vérifiant :

∀(x, y) ∈ E 2 N (x × y)  N (x) N (y).

301
Chapitre 7. Compacité, connexité, dimension finie

Démonstrations
Proposition 1 Soit A une partie compacte.
• Supposons que A ne soit pas fermée. Alors on peut trouver une suite (an ) d’éléments de A
qui converge mais dont la limite n’appartient pas à A . L’unique valeur d’adhérence d’une
suite convergente étant sa limite, la suite (an ) ne possède pas de valeur d’adhérence dans A .
• Supposons que A ne soit pas bornée. Alors :
∀M ∈ IR ∃a ∈ A �a� > M.
En particulier, pour tout n ∈ IN , on peut trouver un élément an ∈ A vérifiant �an � > n .
On construit ainsi une suite (an ) d’éléments de A vérifiant :
∀n ∈ IN �an � > n donc �an � → +∞.
 
Alors, toute sous-suite aϕ(n) vérifie �aϕ(n) � → +∞ , donc est divergente (car non bornée).
Dans chacun des cas, on a trouvé une suite à valeurs dans A n’ayant aucune valeur d’adhérence
dans A , donc A n’est pas compacte.
 
Proposition 3 Soit (xn , yn ) une suite d’éléments de A × B .
 
• Comme A est compacte, on peut extraire de (xn ) une sous-suite xϕ1 (n) convergeant vers
un élément a de A .
   
• Puis, comme B est compacte, on peut extraire de yϕ1 (n) une sous-suite yϕ1 ◦ϕ2 (n)
convergeant vers un élément b de B .
   
• Comme xϕ1 (n) converge vers a , il en est de même pour sa sous-suite xϕ1 ◦ϕ2 (n) . La suite
   
de terme général xϕ1 ◦ϕ2 (n) , yϕ1 ◦ϕ2 (n) est alors une sous-suite de (xn , yn ) qui converge
vers l’élément (a, b) de A × B .
Cela montre que A × B est une partie compacte.
Théorème 5 Soit A un compact et (an )n∈IN ∈ AIN .
• Un sens est évident : si la suite (an ) est convergente, alors elle possède sa limite comme
unique valeur d’adhérence.
• Montrons l’autre sens. Supposons que la suite (an ) possède une unique valeur d’adhérence α
et montrons que (an ) converge vers α .
Par l’absurde : supposons que (an ) ne converge pas vers α .
Alors il existe ε > 0 tel que :
∀n0 ∈ IN ∃n  n0 �an − α� > ε.
 
Cela permet de construire une sous-suite (bn ) = aϕ(n) vérifiant :
∀n ∈ IN �bn − α� > ε. (⋆)
La suite (bn ) étant à valeurs dans le compact A , elle possède au moins une valeur d’adhé-
rence β . La propriété (⋆) assure �β −α�  ε , donc β �= α . Comme β est valeur d’adhérence
d’une sous-suite de (an ) , β est également valeur d’adhérence de (an ) . La suite (an ) possède
donc au moins deux valeurs d’adhérence, ce qui contredit l’hypothèse initiale.
Théorème 6 Soit A une partie compacte et f : A → F une application continue. Montrons
que f (A) est une partie compacte de F . Soit (bn ) une suite d’éléments de f (A) . Pour
tout n ∈ IN , on peut trouver an ∈ A tel que f (an ) = bn . Puisque A est compacte, on peut
   
extraire de (an ) une sous-suite convergente aϕ(n) . Notons α ∈ A la limite de aϕ(n) ; alors,
 
par continuité de f , on a f aϕ(n) → f (α) , c’est-à-dire bϕ(n) → f (α) . La suite (bn ) possède
donc une valeur d’adhérence dans f (A) . Cela montre que f (A) est compacte.

302
Démonstrations

Corollaire 7 Soit f : A → IR une application continue, où A est une partie compacte non vide.
D’après le théorème 6, l’image de A par f est un compact de IR , donc :
• f (A) est bornée, ce qui assure que f est bornée ;
• f (A) est fermée, ce qui assure que les bornes de f sont atteintes.
Théorème 8 Soit A une partie compacte de E et f : A → F une application continue. Raisonnons
par l’absurde en supposant que f n’est pas uniformément continue. En niant la définition de
l’uniforme continuité, on obtient l’existence de ε > 0 tel que :
 
∀η > 0 ∃(x, y) ∈ A2 �x − y�  η et f (x) − f (y) > ε.

On en déduit que, pour tout n ∈ IN , il existe un couple (xn , yn ) ∈ A2 vérifiant :


 
�xn − yn �  2−n et f (xn ) − f (yn ) > ε. (⋆)
On construit ainsi deux suites (xn ) et (yn ) d’éléments de A . Par compacité de A , on peut ex-
 
traire de (xn ) une sous-suite xϕ(n) convergeant vers un élément α de A . L’inégalité suivante,
valable pour tout n ∈ IN :
     
yϕ(n) − α  xϕ(n) − yϕ(n)  + xϕ(n) − α
     
2−ϕ(n) →0 →0
 
montre alors que la suite yϕ(n) converge également vers α .
   
Par continuité de f , on a alors f xϕ(n) → f (α) et f yϕ(n) → f (α) .
    
Il en résulte que f xϕ(n) − f yϕ(n)  → 0 , ce qui est une contradiction car la propriété (⋆)
impose que :
    
∀n ∈ IN f xϕ(n) − f yϕ(n)  > ε.

Proposition 9
Réflexivité. Soit x ∈ A . La fonction constante [0, 1] −→ A est un chemin reliant x
t �−→ x
à lui-même.
Symétrie. Si p : [a, b] → A est un chemin reliant deux points x à y de A , alors :
p : [a, b] −→ A 
t �−→ p a+b−t
est un chemin reliant y à x .
Transitivité. Soit x , y et z trois points de A tels que :
• il existe un chemin p1 reliant x à y dans A ;
• il existe un chemin p2 reliant y à z dans A .
Quitte à changer de paramétrage (cf. remarque de la page 293), on peut supposer que p1
et p2 sont définis respectivement sur [0, 1] et [1, 2] .
Considérons l’application p : [0, 2] → A définie par :

p1 (t) si t ∈ [0, 1]
p(t) =
p2 (t) si t ∈ [1, 2],

cette définition étant non ambiguë car p1 (1) = p2 (1) . L’application p est continue par
continuité de p1 et p2 ; en particulier, la continuité de p1 (respectivement p2 ) assure la
continuité de p à gauche (respectivement à droite) en 1 . Cette application p constitue donc
un chemin reliant x à z dans A .

303
Chapitre 7. Compacité, connexité, dimension finie

Proposition 10
• Un intervalle de IR est convexe donc connexe par arcs.
• Réciproquement soit I un connexe par arcs de IR . Si x et y sont deux points de I , alors
il existe un chemin joignant x et y dans I ; par le théorème des valeurs intermédiaires,
ce chemin prend alors toutes les valeurs entre x et y . Cela assure que toutes les valeurs
comprises entre x et y appartiennent à I . En conclusion, I est un intervalle.
Théorème 11 Soit A une partie connexe par arcs, F un espace vectoriel normé, ainsi
que f : A → F une application continue. Montrons que f (A) est connexe par arcs.
 2
Soit (y1 , y2 ) ∈ f (A) . Considérons (x1 , x2 ) ∈ A2 tel que f (x1 ) = y1 et f (x2 ) = y2 .
Comme A est connexe par arcs, il existe un chemin γ : [a, b] → A reliant x1 à x2 .
Alors, l’application f ◦ γ :
• est continue, comme composée de deux applications continues ;
• est à valeurs dans f (A) ;
• vérifie (f ◦ γ)(a) = f (x1 ) = y1 et (f ◦ γ)(b) = f (x2 ) = y2 ;
c’est donc un chemin reliant y1 à y2 dans f (A) . Donc f (A) est connexe par arcs.
Théorème 13 Commençons par le lemme suivant :

Lemme
Soit E un espace vectoriel de dimension finie. Donnons-nous une base B de E , et munissons E
de la norme infinie associée. Alors, les compacts de E sont les fermés bornés.

Démonstration du lemme. Notons p = dim E et B = (e1 , . . . , ep ) .


Considérons l’isomorphisme :
ϕ: IKp −→ E

p
(x1 , . . . , xp ) �−→ x k ek .
k=1

En munissant IKp de la norme infinie, on constate que ϕ conserve la norme :


 
∀(x1 , . . . , xp ) ∈ IKp ϕ(x1 , . . . , xp ) = �x�∞ .

Par conséquent, ϕ est continue, et son inverse ϕ−1 conserve aussi la norme et est aussi continu.
On en déduit qu’une partie A de E est compacte (respectivement fermée, bornée) si, et seule-
ment si, ϕ(A) est compacte (respectivement fermée, bornée). Or, dans (IKp , �·�∞ ) , on sait que
les compacts sont les fermés bornés (cf. exemple 6 de la page 290). Par conséquent, on a la
même propriété dans (E, �·�∞ ) .

Démonstration du théorème 13.


Notons p = dim E et considérons B = (e1 , . . . , ep ) une base de E . Notons �·�∞ la norme
infinie associée à la base B . Pour obtenir que sur E toutes les normes sont équivalentes, montrons
que toute norme est équivalente à la norme infinie. Cela conclura par transitivité.
Soit N une norme sur E .

n
• Tout d’abord, pour x = xk ek ∈ E , on a :
k=1

p  p
 p

N (x) = N x k ek  |xk |N (ek )  M �x�∞ avec M= N (ek ).
k=1 k=1 k=1

Par conséquent, N est dominée par la norme infinie.

304
Démonstrations

• D’autre part, la seconde inégalité triangulaire donne, pour tout (x, y) ∈ E 2 :


 
N (x) − N (y)  N (x − y)  M �x − y�∞ .

Il en résulte que l’application N est M -lipschitzienne donc continue sur (E, �·�∞ ) .
La sphère unité S∞ (0, 1) de (E, �·�∞ ) étant fermée et bornée, elle est compacte d’après le
lemme. La restriction de N à S∞ (0, 1) est donc bornée et atteint ses bornes. En particulier,
elle atteint sa borne inférieure m en un point xm de S∞ (0, 1) .
Puisque xm est non nul, la propriété de séparation de N assure que m > 0 .
x
Pour tout vecteur non nul x , on a ∈ S∞ (0, 1) , donc :
�x�∞
 
x N (x) 1
mN = ce qui donne �x�∞  N (x).
�x�∞ �x�∞ m

Cela prouve que la norme infinie est dominée par N , et termine la preuve.

Proposition 14 Comme E est de dimension finie, on peut le munir de la norme que l’on souhaite.
Munissons E de la norme infinie dans la base B , c’est-à-dire la norme N∞ définie par :
p

N∞ (x) = max |xk | où x= x k ek .
k∈[[1,p]]
k=1

L’équivalence souhaitée résulte alors de la relation suivante, valable pour tout k ∈ [[1, p]] :
p
 (k)    (i) 
∀n ∈ IN an − ℓk   N∞ (an − ℓ)  an − ℓi .
i=1

Proposition 15 Comme E est de dimension finie, on peut le munir de la norme que l’on souhaite.
Munissons E de la norme infinie dans la base B :
p

N∞ (x) = max |xk | où x= x k ek .
k∈[[1,p]]
k=1

L’équivalence souhaitée résulte alors de la relation suivante, valable pour tout k ∈ [[1, p]] :
p
      
∀x ∈ A fk (x) − ℓk   N∞ f (x) − ℓ  fi (x) − ℓi .
i=1

Théorème 16 Supposons E de dimension finie. Il a été établi (par le lemme figurant dans la
démonstration du théorème 13, de la page précédente) que si l’on munit E de la norme infinie
associée à une base, alors les compacts sont les fermés bornés. Cela fournit le résultat car, par
équivalence des normes en dimension finie, toutes les normes sur E sont équivalentes, donc
définissent les mêmes parties compactes, fermées, bornées.

Théorème 17 Soit E un espace vectoriel de dimension finie, et (un )n∈IN une suite convergente.
Étant convergente, la suite (un )n∈IN est bornée. Il existe donc R > 0 tel que :
∀n ∈ IN un ∈ Bf (0, R).
L’espace E étant de dimension finie, la boule fermée Bf (0, R) est compacte. Par conséquent, la
suite (un )n∈IN est à valeurs dans un compact, donc possède au moins une sous-suite convergente.

305
Chapitre 7. Compacité, connexité, dimension finie

Proposition 18 Soit E un espace vectoriel normé et F un sous-espace vectoriel de dimension


finie de E . Soit (un ) une suite convergente à valeurs dans F . Notons ℓ la limite de (un ) , et
montrons que ℓ ∈ F .
Comme la suite (un ) converge, elle est bornée. Comme (un ) est une suite bornée à valeurs
dans F et que F est de dimension finie, le théorème de Bolzano-Weierstrass assure que (un )
possède au moins une valeur d’adhérence dans F . Comme la seule valeur d’adhérence d’une
suite convergente est sa limite, on en déduit que ℓ ∈ F .
Théorème 19 Supposons E de dimension finie. Munissons E d’une base B = (e1 , . . . , en ) , et
travaillons avec la norme infinie associée à cette base :
n

N∞ (x) = max |xk | avec x= x k ek .
k∈[[1,n]]
k=1

Soit u : E → F une application linéaire. Pour montrer que u est continue, il suffit, d’après la
proposition 21 de la page 264, de montrer qu’il existe une constante C  0 telle que :
 
∀x ∈ E N∞ u(x)  C × N∞ (x).

n
Pour x = xk ek appartenant à E , on a, par linéarité de u :
k=1

n  n

u(x) = u x k ek = xk u(ek )
k=1 k=1

puis, par inégalité triangulaire :


n
    
N∞ u(x)  |xk | N∞ u(ek )
k=1
n
  
 C × N∞ (x), avec C= N∞ u(ek ) .
k=1

D’où le résultat.
Théorème 22 Soit f : E1 × · · · × Ep → F une application p -linéaire.
(k) (k)
Pour tout k ∈ [[1, p]] , notons nk = dim Ek ainsi que Bk = (e1 , . . . , enk ) une base de Ek . En
notant alors gk,i l’élément de E1 × · · · × Ep :
 (k)

gk,i = 0, . . . , 0, ei , 0, . . . , 0 ,

i-ème place
 
la famille B = gk,i 1kp est une base de E1 × · · · × Ep .
1ink

Soit u = (u1 , . . . , up ) ∈ E1 × · · · × Ep . En écrivant chaque uk dans la base Bk :


nk
 (k) (k)
uk = x i ei ,
i=1

il vient, par p -linéarité de f :


 n1 np
 n1 np
 (1) (1)
 (p) (p)
  (1) (p)
 (1) (p)

f (u) = f xi1 ei1 , . . . , xip eip = ··· xi1 · · · xip f ei1 , . . . , eip .
i1 =1 ip =1 i1 =1 ip =1

306
Démonstrations

Si pour ℓ ∈ [[1, p]] et i ∈ [[1, nℓ ]] , on note πℓ,i l’application :


πℓ,i :  E1 × · · · × 
Ep −→ IK
n k
(k) (k) (ℓ)
x i ei �−→ xi
i=1 1kp

alors f s’écrit à l’aide des πℓ,i :


n1 np
   (1) (p)

f= ··· f ei1 , . . . , eip π1,i1 · · · πp,ip .
i1 =1 ip =1

Comme les πℓ,i sont des formes linéaires sur l’espace de dimension finie E1 × · · · × Ep , elles
sont continues. Par opérations sur les applications continues, l’expression obtenue pour f assure
alors sa continuité.
Remarques
• Les formes linéaires πk,i considérées ici ne sont rien d’autre que les formes linéaires coordon-
nées dans la base B de E1 × · · · × Ep .
• L’expression obtenue pour f lors du calcul précédent permet de montrer que, dans le cas
où F est de dimension finie, si l’on en considère une base, alors les applications composantes
de f sont des fonctions polynomiales.

307
Chapitre 7. Compacité, connexité, dimension finie

S’entraîner et approfondir
Compacité
7.1 Soit f : C \ IR− → C l’application qui à un complexe z ∈ C \ IR− associe son unique
→291  
racine carrée dont l’argument principal appartient à − π2 , π
2
, i.e. de partie réelle strictement
positive. Montrer que f est continue.

7.2 Soit A un compact non vide. Montrer qu’il existe (a1 , a2 ) ∈ A2 tel que le diamètre de A ,
→291
noté δ(A) , soit la distance de a1 à a2 , c’est-à-dire tel que :
d(a1 , a2 ) = sup d(x, y) = δ(A).
(x,y)∈A2

7.3 Considérons la fonction g : IR2 −→ IR


2 2
ex +y
→291

(x, y) �−→ ·
1 + x2 + y 2
1. Montrer que pour tout a ∈ IR , il existe R > 0 tel que :
 
∀(x, y) ∈ IR2 \ Df (0, R) g(x, y) > a.

2. Montrer que g possède un minimum sur IR2 .

7.4 Soit E un espace vectoriel normé, et f : IR → E une fonction continue et périodique.


→292
Montrer que f est uniformément continue.

7.5 Soit E un espace vectoriel normé, et f : IR+ → E une fonction continue admettant une
→292
limite ℓ en +∞ . Montrer que f est uniformément continue.

7.6 Enveloppe convexe d’une famille finie de vecteurs


Soit n ∈ IN∗ .
1. Montrer que l’ensemble suivant est une partie compacte de IRn :
 
K = (λ1 , . . . , λn ) ∈ (IR+ )n : λ1 + · · · + λn = 1 .

2. Soit (x1 , . . . , xn ) une famille finie d’éléments de E . On appelle enveloppe convexe de la


famille (x1 , . . . , xn ) l’ensemble des barycentres à coefficients positifs de x1 , . . . , xn , i.e. les
combinaisons linéaires λ1 x1 + · · · + λn xn où les coefficients λ1 , . . . , λn sont positifs et de
somme 1 . Montrer que l’enveloppe convexe de (x1 , . . . , xn ) est une partie compacte.

⋆ 7.7 Compact/fermé versus fermé/fermé


Soit E un IK -espace vectoriel normé de dimension finie. Étant donné A et B deux parties
non vides de E , on note :
 
A + B = a + b | (a, b) ∈ A × B ,
et l’on appelle distance de A à B la quantité :
d(A, B) = inf d(a, b).
(a,b)∈A×B

1. On suppose dans cette question que A est un compact et B un fermé.


(a) Montrer que A + B est un fermé de E .
(b) Montrer que la distance de A à B est atteinte, i.e. :
∃(a0 , b0 ) ∈ A × B d(A, B) = d(a0 , b0 ).

308
Exercices

2. Montrer que, sous la seule hypothèse que A et B sont des fermés, alors :
• A + B n’est pas nécessairement un fermé ;
• la distance de A à B n’est pas nécessairement atteinte.
Indication. On pourra expliciter deux parties A et B pertinentes, par exemple dans IR2 .

7.8 Soit K un compact non vide, et f : K → K une application vérifiant :


 
∀(x, y) ∈ K 2 x �= y =⇒ f (x) − f (y) < �x − y�. (⋆)
1. Montrer que f possède un unique point fixe.
 
Indication. On pourra introduire la fonction ϕ : x �→ f (x) − x .
2. Soit x ∈ K . Montrer que la suite récurrente (xn ) définie par :
x0 = x et ∀n ∈ IN xn+1 = f (xn )
converge vers l’unique point fixe de f .
7.9 Soit C un compact convexe non vide d’un IR -espace vectoriel normé E et f un endomor-
phisme continu de E laissant stable C .
Le but est de montrer que f possède au moins un point fixe.
1. Pour tout n ∈ IN∗ , on pose :
n−1
1  k
fn = f .
n
k=0
Prouver que fn est un endomorphisme continu de E laissant stable C .
2. Montrer qu’il existe une constante M telle que :
 
∀y ∈ fn (C) f (y) − y   2M ·
n
3. Prouver alors que f possède au moins un point fixe.

7.10 Soit E un IK -espace vectoriel normé. Une suite (un )n∈IN ∈ E IN est dite de Cauchy si :
∀ε > 0 ∃n0 ∈ IN ∀n  n0 ∀p  n0 d(un , up )  ε.
1. Montrer que toute suite convergente est une suite de Cauchy.
2. Montrer que si E est de dimension finie, alors toute suite de Cauchy est convergente.

7.11 On se place dans un espace vectoriel normé E .


1. Théorème des compacts emboîtés
Soit (Kn )n∈IN une suite de compacts non vides emboîtés, c’est-à-dire vérifiant :
∀n ∈ IN Kn �= ∅ et Kn+1 ⊂ Kn .

Montrer que l’intersection Kn est non vide.
n∈IN

2. Premier théorème de Dini (version allégée)


Soit K un compact. Soit (fn )n∈IN une suite à valeurs dans C(K, IR+ )IN . On suppose que
la suite (fn )n∈IN est décroissante, i.e. vérifie :
∀(n, p) ∈ IN2 n  p =⇒ ∀x ∈ K fn (x)  fp (x).
On suppose de plus que pour tout x ∈ K , on a fn (x) −→ 0 . Montrer que �fn �∞ → 0 .
n→+∞
Indication. Pour ε > 0 , on pourra introduire Kn = {x ∈ K : fn (x)  ε} et montrer
que c’est un compact.

309
Chapitre 7. Compacité, connexité, dimension finie

⋆ 7.12 Théorème de Baire


On se place dans un espace vectoriel E de dimension finie.
1. Montrer qu’une partie de E est dense dans E si, et seulement si, elle rencontre tout
ouvert non vide.
2. Soit (Un )n∈IN une suite d’ouverts denses dans E .
(a) Soit O un ouvert non vide de E . Montrer qu’il existe une suite (Bn )n∈IN de boules
ouvertes emboîtées (i.e. ∀n ∈ IN Bn+1 ⊂ Bn ) et non vides vérifiant :

B0 ⊂ O et ∀n ∈ IN∗ Bn ⊂ Un .

(b) En déduire que l’intersection Un est dense dans E .
n∈IN
Indication. On pourra utiliser le théorème des compacts emboîtés (première question
de l’exercice 7.11).

⋆ 7.13 Théorème de Riesz


On souhaite démontrer le théorème de Riesz. Celui-ci affirme qu’un espace vectoriel normé
est de dimension finie si, et seulement si, sa boule unité fermée est compacte.
1. Justifier le sens « facile » du théorème.
2. Réciproquement, supposons que E soit un espace vectoriel normé de dimension infinie,
et montrons que sa boule unité fermée Bf (0, 1) n’est pas compacte.
(a) Soit F un sous-espace de dimension finie de E , et x ∈ E \ F .
i. Justifier l’existence de y ∈ F tel que d(x, F ) = �x − y� .
ii. En déduire qu’il existe un vecteur unitaire u vérifiant :
d(u, F ) = 1.

(b) Conclure alors en construisant une suite d’éléments de Bf (0, 1) ne possédant pas de
valeur d’adhérence.

⋆⋆ 7.14 Procédé diagonal


On note ℓ∞ l’ensemble des suites (un )n∈IN complexes bornées, que l’on munit de la norme :

�u� = sup |un |.


n∈IN


Soit A le sous-ensemble de ℓ formé des suites (un )n∈IN vérifiant :
1
∀n ∈ IN |un |  · (⋆)
2n
 
1. Soit ℓ = (ℓn )n∈IN un élément de A et u(p) p∈IN
une suite d’éléments de A .
(p) (p)
Pour tout p ∈ IN , u est donc un élément de A ; son n -ième terme est noté un .
Montrer que u(p) −→ ℓ si, et seulement si,
p→+∞
 (p) 
∀n ∈ IN un − ℓn  −→ 0.
p→+∞

2. Montrer que A est compact.

310
Exercices

Connexité par arcs


7.15 Soit A1 et A2 deux connexes par arcs d’intersection non vide. Montrer que A1 ∪ A2 est
→293
connexe par arcs.

7.16 1. Montrer que les composantes connexes par arcs d’un ouvert sont des ouverts.
→295
2. Montrer que tout ouvert de IR est une réunion au plus dénombrable d’intervalles ouverts
deux à deux disjoints.
Cet exercice utilise la notion de dénombrabilité (cf. chapitre 14).

7.17 1. Montrer que pour tout a ∈ U , l’ensemble U \ {a} est connexe par arcs.
→295
2. En déduire qu’il n’existe pas de bijection continue de U vers [0, 1] , où U désigne l’en-
semble des nombres complexes de module 1 .

7.18 Soit A une partie connexe par arcs de E .


→296
1. Soit B une partie de A . Montrer que si B est à la fois un ouvert relatif de A et un
fermé relatif de A , alors on a B = ∅ ou B = A .
Indication. Considérer la restriction à A de la fonction indicatrice de B .
2. Montrer que A ne peut pas s’écrire comme la réunion de deux ouverts relatifs non vides
et disjoints.

7.19 Soit X une partie au plus dénombrable de IR2 . Montrer que l’ensemble IR2 \ X est connexe
par arcs.
On pourra se contenter de raisonner géométriquement.
Cet exercice utilise la notion de dénombrabilité (cf. chapitre 14).

7.20 Soit E et F deux IK -espaces vectoriels normés ainsi que A et B deux parties non vides
respectivement de E et F . On munit E × F de la norme produit. Montrer que A × B est
connexe par arcs si, et seulement si, A et B le sont.

7.21 Soit E un espace vectoriel normé, et F un fermé dont la frontière Fr(F ) est connexe par
arcs. Montrer que F est connexe par arcs.

7.22 Soit E un IK -espace vectoriel de dimension finie n  1 , et H un hyperplan de E .


1. Montrer que si IK = IR , alors E \ H n’est pas connexe par arcs.
2. Montrer que si IK = C , alors E \ H est connexe par arcs.
Indication. L’ensemble C∗ est connexe par arcs (cf. exemple 17 de la page 294).

311
Chapitre 7. Compacité, connexité, dimension finie

Topologie des espaces Mn (IR) et Mn (C)


7.23 1. Montrer que l’application Mn (IK) −→ Mn (IK) est continue.
→300
A �−→ Com A
2. En déduire que l’application GLn (IK) −→ GLn (IK) est continue.
A �−→ A−1

7.24 1. Justifier la continuité de l’application ϕ : Mn (IR) −→ Mn (IR)


→300
A �−→ AT A.
2. Montrer que On (IR) est un compact de Mn (IR) .

⋆ 7.25 Soit n ∈ IN∗ et r ∈ [[0, n − 1]] . Montrer que, dans Mn (IK) , l’ensemble des matrices de rang
au plus r est fermé.

7.26 Soit n ∈ IN∗ . Montrer que l’ensemble GLn (IK) est dense dans Mn (IK) .

7.27 Soit n ∈ IN∗ .


1. Montrer la continuité de l’application Ψ : Mn (IK) −→ IKn [X] qui à une matrice
A �−→ χA
associe son polynôme caractéristique.
2. On prend ici n  2 . Montrer que l’application Π : Mn (IK) −→ IKn [X] qui à une
A �−→ πA
matrice associe son polynôme minimal n’est pas continue.

⋆ 7.28 Soit n ∈ IN∗ .


1. Dans Mn (C) , montrer que l’ensemble D des matrices diagonalisables est dense.
Indication. Dans Mn (C) , toute matrice est trigonalisable.
2. On souhaite prouver que, dès que n  2 , ce résultat est faux dans Mn (IR) .
Considérons la matrice d’écriture par blocs :
   
B (0) 0 −1
A= avec B= .
(0) In−2 1 0

(a) Montrer que si (Ap )p∈IN ∈ Mn (IR)IN converge vers A , alors χAp (i) −→ 0 (où i est
p→+∞
le nombre complexe imaginaire pur).
(b) En déduire que A n’appartient pas à l’adhérence de D .
Remarque L’exercice 7.30 de la page ci-contre établit que, dans Mn (IR) , l’adhérence de
l’ensemble des matrices IR -diagonalisables est l’ensemble des matrices IR -trigonalisables.

⋆ 7.29 Intérieur de l’ensemble des matrices diagonalisables.


Soit n ∈ IN∗ . Dans Mn (IK) , on note D l’ensemble des matrices diagonalisables.
1. Soit (Ap )p∈IN ∈ Mn (IK)IN une suite convergeant vers A ∈ Mn (IK) . Soit λ ∈ sp(A) .
(a) Montrer que χAp (λ) −→ 0 .
p→+∞
(b) En déduire que :
 
d λ, spC (Ap ) −→ 0.
p→+∞

2. Montrer que l’intérieur de D est l’ensemble des matrices possédant n valeurs propres
distinctes.

312
Exercices

⋆ 7.30 On note Tn l’ensemble des matrices trigonalisables de Mn (IR) , et Dn l’ensemble des matrices
diagonalisables de Mn (IR) .
Montrer que Tn est un fermé de Mn (IR) puis que c’est l’adhérence de Dn .

⋆ 7.31 Soit A ∈ Mn (C) . On note S(A) la classe de similitude de A , c’est-à-dire l’ensemble des
matrices semblables à A :
 
S(A) = P −1 AP | P ∈ GLn (C) .
1. Montrer que l’adhérence de S(A) contient au moins une matrice diagonale.
Indication. Trigonaliser A .
2. Montrer que S(A) est un fermé de Mn (C) si, et seulement si, A est diagonalisable.

7.32 Soit n ∈ IN∗ . On se place dans Mn (C) .


1. Soit T une matrice triangulaire inversible. Montrer que T peut être reliée à In par un
chemin à valeurs dans GLn (C) .
2. En déduire que GLn (C) est connexe par arcs.

7.33 Composantes connexes par arcs de GLn (IR)


Soit n ∈ IN∗ . On se place dans Mn (IR) . Le but est de démontrer que GLn (IR) possède deux
composantes connexes par arcs :
C+ = det−1 (IR∗+ ) et C− = det−1 (IR∗− ).

Notons C0 la composante connexe par arcs de GLn (IR) contenant In .


1. (a) On note Ei,j l’élément d’indice (i, j) de la base canonique de Mn (IR) .
Soit T une matrice de transvection, i.e. une matrice de la forme :
T = In + λEi,j avec i �= j et λ ∈ IR.
Montrer que T ∈ C0 .
(b) Soit D une matrice de dilatation de déterminant positif, i.e. une matrice de la forme :
D = Diag(1, . . . , 1, µ, 1, . . . , 1) avec i ∈ [[1, n]] et µ > 0.

i-ème place

Montrer que D ∈ C0 .
(c) En déduire que tout élément A ∈ GLn (IR) peut être relié, par un chemin à valeurs
dans GLn (IR) , à une matrice diagonale de diagonale constituée de ±1 .
2. Soit (A, B) ∈ GLn (IR)2 . Montrer que si A et B sont semblables et si B appartient à C0 ,
alors A également.
3. Soit (p, q) ∈ IN2 vérifiant p + 2q = n . On note :
 
Ip 0
Jp,q = .
0 −I2q
Montrer que Jp,q ∈ C0 .
Indication. Utiliser des matrices de rotation de taille 2.
4. Déduire des questions précédentes que si A ∈ GLn (IR) vérifie det A > 0 , alors A ∈ C0 .
5. Conclure.

313
Chapitre 7. Compacité, connexité, dimension finie

Solutions des exercices


7.1 Soit z ∈ C \ IR− . Montrons que f est continue en z par caractérisation séquentielle.
Soit (zn )n∈IN ∈ (C \ IR− )IN telle que zn → z . Montrons que f (zn ) → f (z) .
• Tout d’abord, puisque la suite (zn )n∈IN converge, elle est bornée. Comme f (zn )2 = zn ,
 2   
on a f (zn ) = |zn | , donc la suite f (zn ) n∈IN
est également bornée. Comme on est en
dimension finie, il suffit, pour prouver sa convergence vers f (z) , de prouver qu’elle ne
possède pas d’autre valeur d’adhérence que f (z) .
 
• Soit ℓ ∈ C une valeur d’adhérence de la suite f (zn ) n∈IN
. Montrons que ℓ = f (z) .
 
Soit f (zϕ(n) ) n∈IN
une sous-suite convergente vers ℓ . Puisque f (zϕ(n) ) → ℓ , on
a f (zϕ(n) ) → ℓ , autrement dit zϕ(n) → ℓ2 . Par unicité de la limite, on en déduit ℓ2 = z .
2 2

• Puisque ℓ et f (z) sont des racines carrées de z , on a ℓ = ±f (z) . Pour conclure


que ℓ = f (z) , il reste à prouver que ℓ �= −f (z) . Par définition de f , on a :
∀n ∈ IN Re f (zϕ(n) ) > 0
 
donc par passage à la limite, Re(ℓ)  0 . Ainsi, on a ℓ �= −f (z) car Re −f (z) < 0 .

7.2 La fonction f : A2 −→ IR est continue et définie sur une partie compacte


(x, y) �−→ d(x, y)
(comme A est compacte, A2 l’est aussi) non vide. D’après le théorème des bornes atteintes,
elle est donc bornée et atteint ses bornes. En particulier, elle admet un maximum, ce qui
justifie l’existence d’un couple (x, y) ∈ A2 tel que δ(A) = d(x, y) .

2
  er
7.3 1. Soit a ∈ IR . On remarque que g(x, y) = ϕ �(x, y)�2 avec ϕ : r �→ ·
1 + r2
Par croissances comparées, on a ϕ(r) −→ +∞ .
r→+∞
On en déduit qu’il existe R > 0 tel que :
 
∀r > R ϕ(r) > a,

et donc :  
∀(x, y) ∈ IR2 \ Df (0, R) g(x, y) > a.

2. D’après la question précédente, appliquée pour a = g(0, 0) , il existe R > 0 tel que :
 
∀(x, y) ∈ IR2 \ Df (0, R) g(x, y)  g(0, 0). (⋆)

Comme g est continue et que le disque fermé Df (0, R) est compact (fermé borné en
dimension finie), le théorème des bornes atteintes assure que la restriction de g à Df (0, R)
est bornée et atteint ses bornes ; notons m son minimum.
Comme (0, 0) ∈ Df (0, R) , on a m  g(0, 0) ; la propriété (⋆) donne donc :
 
∀(x, y) ∈ IR2 \ Df (0, R) g(x, y)  m.

Par conséquent, m est le minimum de la fonction g sur IR2 .

314
Solutions des exercices

7.4 Fixons ε > 0 et montrons qu’il existe η > 0 tel que :


 
∀(x, y) ∈ IR2 |x − y|  η =⇒ f (x) − f (y)  ε.
Soit T > 0 une période de f . Puisque f est continue, le théorème de Heine assure que la
restriction de f au segment [−T, 2T ] est uniformément continue. On peut donc trouver η > 0
tel que :
 
∀(x, y) ∈ [−T, 2T ]2 |x − y|  η =⇒ f (x) − f (y)  ε. (⋆)
Quitte à changer η en min(η, T ) , on peut supposer η  T .
 
Soit (x, y) ∈ IR2 tel que |x − y|  η . En posant alors n = Tx , on a x − nT ∈ [0, T ] .
 
Puis, comme (x − nT ) − (y − nT ) = |x − y|  η  T , on a y − nT ∈ [−T, 2T ] . On a ainsi :

(x − nT, y − nT ) ∈ [−T, 2T ]2
donc la propriété (⋆) s’applique et donne :
   
f (x − nT ) − f (y − nT )  ε i.e. f (x) − f (y)  ε.

7.5 Fixons ε > 0 et montrons qu’il existe η > 0 tel que :


 
∀(x, y) ∈ IR2+ |x − y|  η =⇒ f (x) − f (y)  ε.
Puisque f −→ ℓ , il existe R ∈ IR+ tel que :
+∞
 
∀x  R f (x) − ℓ  ε ·
2
Ainsi, par inégalité triangulaire, on a :
 
∀(x, y) ∈ [R, +∞[2 f (x) − f (y)  ε.
En appliquant le théorème de Heine à la restriction de f au segment [0, R + 1] , on peut
considérer η > 0 tel que :
 
∀(x, y) ∈ [0, R + 1]2 |x − y|  η =⇒ f (x) − f (y)  ε.
Quitte à changer η en min(η, 1) , on peut supposer η  1 .
Alors, pour (x, y) ∈ IR2+ vérifiant |x − y|  η , on a soit (x, y) ∈ [0, R + 1]2 ,
 
soit (x, y) ∈ [R, +∞[2 , et dans les deux cas f (x) − f (y)  ε .

7.6 1. Puisque IRn est de dimension finie, montrer que K est compact revient à montrer que
c’est un fermé borné de IRn . Travaillons avec la norme �·�∞ .
• L’ensemble K est borné car pour tout (λ1 , . . . , λn ) ∈ K :
n n
 
�(λ1 , . . . , λn )�∞ = max |λi |  |λi | = λi = 1.
i∈[[1,n]]
i=1 i=1

• D’autre part, K est un fermé relatif de (IR+ )n car il s’écrit ϕ−1 ({1}) où ϕ est
l’application continue (car c’est la restriction d’une application linéaire dont l’espace
de départ est de dimension finie) :
ϕ : (IR+ )n −→ IR
(λ1 , . . . , λn ) �−→ λ1 + · · · + λn .
Comme (IR+ )n est un fermé de IRn (car produit de fermés), il en résulte que K est
un fermé de IRn .

315
Chapitre 7. Compacité, connexité, dimension finie

2. L’enveloppe convexe de (x1 , . . . , xn ) est l’image de K par l’application :


f: IRn −→ E
(λ1 , . . . , λn ) �−→ λ 1 x 1 + · · · + λn x n .
Puisque K est une partie compacte de IRn d’après la première question et que l’applica-
tion f est continue (elle est linéaire et son espace de départ est de dimension finie), on
en déduit que l’enveloppe convexe de (x1 , . . . , xn ) est compacte.

7.7 1. (a) Soit (un ) une suite à valeurs dans A + B . Supposons (un ) convergente et montrons
que sa limite ℓ appartient à A + B .
Puisque (un ) est à valeurs dans A + B , on peut écrire, pour tout n ∈ IN :
un = an + bn avec (an , bn ) ∈ A × B.
La suite (an ) étant à valeurs dans le compact A , on peut en extraire une sous-suite
   
convergente aϕ(n) . Alors, la sous-suite uϕ(n) converge également, en tant que
sous-suite d’une suite convergente. La relation :
∀n ∈ IN bϕ(n) = uϕ(n) − aϕ(n)
 
prouve alors que la suite bϕ(n) converge elle aussi. Alors :
• puisque A est compact donc fermé, en notant ℓ1 = lim aϕ(n) , on a ℓ1 ∈ A ;
• puisque B est fermé, en notant ℓ2 = lim bϕ(n) , on a ℓ2 ∈ B ;
• puisque ℓ = lim un , on a aussi ℓ = lim uϕ(n) .
En passant à la limite dans la relation :
∀n ∈ IN uϕ(n) = aϕ(n) + bϕ(n) ,
on obtient alors ℓ = ℓ1 + ℓ2 , ce qui prouve que ℓ ∈ A + B .
Remarque On constate que l’hypothèse « E de dimension finie » n’a pas été utilisée
dans le raisonnement précédent. Le résultat reste donc vrai sans cette hypothèse.
(b) Fixons α ∈ A et β ∈ B . On a alors d(A, B)  d(α, β) .
Comme A est compact, c’est une partie bornée, donc il existe M tel que :
A ⊂ Bf (α, M ).
 
Par inégalité triangulaire, on a, pour tout y ∈ B \ Bf α, M + d(α, β) :
∀x ∈ A d(x, y)  d(α, y) − d(α, x) > d(α, β)  d(A, B).
     
>M +d(α,β) M
 
 = B ∩ Bf α, M + d(α, β) , on a :
On en déduit qu’en notant B

d(A, B) = d(A, B).
 est fermé (car intersection de deux fermés) et borné, il est compact (car E
Comme B
est de dimension finie). Puisque A et B sont compacts, il en est de même pour A× B
.
Il en résulte que l’application continue :
A×B  −→ IR
(x, y) �−→ d(x, y)
est bornée et atteint ses bornes, donc en particulier possède un minimum. Cela prouve
 tel que :
l’existence d’un couple (a0 , b0 ) ∈ A × B

d(a0 , b0 ) = d(A, B).
 ⊂ B , ce couple (a0 , b0 ) appartient à A × B . D’où le résultat.
Comme B

316
Solutions des exercices

2. Plaçons-nous dans IR2 , et posons :


   
A = (x, y) ∈ IR2 : y = 0 et B = (x, y) ∈ IR2 : xy = 1 .
Les parties A et B sont fermées car sont respectivement les images réciproques du
fermé {0} par les applications continues :
IR2 −→ IR et IR2 −→ IR
(x, y) �−→ y (x, y) �−→ xy − 1.

Les parties A et B s’écrivent également :


 
A = (a, 0) | a ∈ IR
et  

1 ∗
B= b, | b ∈ IR .
b B
On constate que A et B sont disjoints et
bn
que (0, 0) ∈
/ A + B. 
an A 

Pour tout n ∈ IN∗ , posons :  

an
an = (n, 0) ∈ A ;
an = (−n, 0) ∈ A ;

 
1
bn = n, ∈ B.
n
• Comme bn − an → 0 , on a d(A, B) = 0 . Comme A et B sont disjoints, cela prouve
que la distance de A à B n’est pas atteinte.
• De plus, la suite de terme général 
an + bn tend vers (0, 0) . Comme (0, 0) ∈
/ A + B,
cela prouve que A + B n’est pas fermé.

7.8 1. Existence. Soit ϕ : K → IR la fonction définie par ϕ(x) = �f (x) − x� . Étant donné
que ϕ est continue (comme composée des deux applications continues x �→ f (x) − x
et u �→ �u� ) et que K est un compact non vide, ϕ admet un minimum. Notons α
un point de K en lequel ce minimum est atteint. Si f (α) �= α , alors, d’après la
propriété ( ⋆ ) vérifiée par f :
       
ϕ f (α) = f f (α) − f (α) < f (α) − α = ϕ(α),
ce qui est absurde. On a donc f (α) = α , i.e. α est un point fixe de f .
Unicité. Si l’on suppose que α et β sont deux points fixes distincts, alors, d’après la
propriété (⋆) vérifiée par f :
 
�β − α� = f (β) − f (α) < �β − α�,
ce qui est absurde.
2. Notons dn = �xn − α� , où α est le point fixe de f . Pour n ∈ IN , on a :
 
dn+1 = �xn+1 − α� = f (xn ) − f (α)  �xn − α� = dn .

La suite (dn ) , étant décroissante et minorée par 0 , converge vers une limite a  0 .
L’ensemble K est compact. Pour prouver que la suite (xn ) ∈ IKIN converge vers α ,
considérons ℓ ∈ K une valeur d’adhérence de (xn ) et montrons que ℓ = α .

317
Chapitre 7. Compacité, connexité, dimension finie

 
Soit xϕ(n) une sous-suite convergente de (xn ) . En notant ℓ = lim xϕ(n) , on a :
 
dϕ(n) = xϕ(n) − α → �ℓ − α�.
Puisque d’autre part dϕ(n) → a , on a, par unicité de la limite :
a = �ℓ − α�. (1)
Pour tout n ∈ IN , on a f (xϕ(n) ) = x1+ϕ(n) .
 
Ainsi, par continuité de f , la suite f (x1+ϕ(n) ) tend vers f (ℓ) . On a alors :
 
d1+ϕ(n) = x1+ϕ(n) − α → �f (ℓ) − α� = �f (ℓ) − f (α)�.
Puisque d’autre part d1+ϕ(n) → a , on a par unicité de la limite :
a = �f (ℓ) − f (α)�. (2)
 
Les relations (1) et (2) donnent f (ℓ) − f (α) = �ℓ − α� . La propriété (⋆) vérifiée par f
offre alors ℓ = α .

7.9 1. Soit n ∈ IN∗ . L’endomorphisme f est continu par hypothèse, donc ses itérés le sont aussi.
Par conséquent, fn est un endomorphisme continu, car combinaison linéaire d’itérés de f .
Soit x ∈ C . Comme f laisse stable C , il en est de même pour ses itérés :
∀k ∈ [[0, n − 1]] f k (x) ∈ C.
L’ensemble C étant convexe, il est stable par passage au barycentre à coefficients positifs
n−1
1 k
(cf. exercice 5.5 de la page 238). En particulier, on a fn (x) = f (x) ∈ C .
n
k=0

2. Comme C est compact, il est borné donc inclus dans une boule Bf (0, M ) .
Soit y ∈ fn (C) . On a, en notant x un antécédent de y par fn :

n−1 n
 
1 k+1 k 1 n 
f (y) − y = f (x) − f (x) = f (x) − x .
n n
k=0 k=0
 
Comme x et f (x) sont dans C , et par définition de M , on a f n (x) − x  2M , ce
n

qui offre :
 
f (y) − y   2M ·
n
3. Comme C est non vide, les ensembles fn (C) sont tous non vides. On peut donc consi-
dérer (xn )n1 une suite telle que :
∀n ∈ IN∗ xn ∈ fn (C).
Comme C est stable par chaque fn , la suite (xn ) est à valeurs dans C .
 
Comme C est compact, on peut en extraire une sous-suite convergente xϕ(n) .
D’après la question 2, on a :
 
∀n ∈ IN∗ f (xϕ(n) ) − xϕ(n)   2M → 0.
ϕ(n)
 
Notons ℓ = lim xϕ(n) . Comme f est continue, on a f xϕ(n) → f (ℓ) , puis :
 
f (xϕ(n) ) − xϕ(n)  → �f (ℓ) − ℓ�.
Il en résulte que �f (ℓ) − ℓ� = 0 , i.e. f (ℓ) = ℓ .

318
Solutions des exercices

7.10 1. Soit (un ) ∈ E IN une suite convergente. Fixons ε > 0 . En notant ℓ = lim un , il
existe n0 ∈ IN tel que :
ε
∀n  n0 d(un , ℓ)  ·
2
Alors, par inégalité triangulaire, on a :
∀n  n0 ∀p  n0 d(un , up )  ε.

Donc (un ) est une suite de Cauchy.


2. Supposons E de dimension finie. Soit (un ) ∈ E IN une suite de Cauchy.
• En utilisant la définition pour ε = 1 , on peut considérer un rang n0 ∈ IN tel que :
∀n  n0 ∀p  n0 d(un , up )  1.

En particulier, pour tout n  n0 , on a �un − un0 �  1 , c’est-à-dire un ∈ Bf (un0 , 1) .


Il en résulte que la suite (un )nn0 est bornée, donc la suite (un )n∈IN également.
• On peut donc considérer R > 0 tel que la suite (un ) soit à valeurs dans la boule fer-
mée Bf (0, R) qui, puisque E est de dimension finie, est un compact. Par conséquent,
pour prouver que la suite (un ) converge, il suffit de prouver qu’elle ne possède qu’une
seule valeur d’adhérence.
• Soit a1 et a2 deux valeurs d’adhérence de (un ) . Montrons que a1 = a2 .
Soit ε > 0 .
∗ La suite (un ) étant de Cauchy, il existe un rang n0 ∈ IN tel que :

∀n  n0 ∀p  n0 d(un , up )  ε.

∗ Puisque a1 est valeur d’adhérence de (un ) , on peut trouver n1  n0 tel


que d(un1 , a1 )  ε .
∗ De même on peut trouver n2  n0 tel que d(un2 , a2 )  ε .
On a alors, par inégalité triangulaire :
d(a1 , a2 )  d(a1 , un1 ) + d(un1 , un2 ) + d(un2 , a2 )  3ε.

Cela étant vrai pour tout ε > 0 , on en déduit que d(a1 , a2 ) = 0 , i.e. a1 = a2 .

7.11 1. Les Kn étant tous non vides, on peut considérer une suite (un )n∈IN vérifiant :
∀n ∈ IN un ∈ Kn .
Comme le compact K0 contient tous les autres, la suite (un )n∈IN est en particulier
une suite à valeurs dans K0 . Par compacité de K0 , on peut en extraire une sous-suite
 
convergente uϕ(n) n∈IN ; notons x la limite d’une telle sous-suite.
Soit p ∈ IN . Le caractère emboîté de la suite (Kn ) assure que la suite (un )np est à
 
valeurs dans Kp ; il en est alors a fortiori de même pour la suite uϕ(n) np ; le caractère
fermé (car compact) de Kp assure alors que x ∈ Kp .
On a donc :

∀p ∈ IN x ∈ Kp c’est-à-dire x∈ Kn .
n∈IN

D’où le caractère non vide de Kn .
n∈IN

319
Chapitre 7. Compacité, connexité, dimension finie

2. Pour montrer que �fn �∞ → 0 , fixons ε > 0 et montrons qu’il existe n0 ∈ IN tel que :
∀n  n0 �fn �∞  ε.
Pour n ∈ IN , posons :
 
Kn = x ∈ K : fn (x)  ε .
Alors, pour n ∈ IN :
• par continuité de la fonction fn , l’ensemble Kn est un fermé du compact K , donc
est compact ;
• la décroissance de la suite (fn )n∈IN entraîne Kn+1 ⊂ Kn .
Par conséquent, (Kn )n∈IN est une suite de compacts emboîtés. Si ces compacts étaient
tous non vides, la première question offrirait le caractère non vide de l’intersec-

tion Kn , mais alors un élément a appartenant à cette intersection vérifierait :
n∈IN

∀n ∈ IN fn (a)  ε,
ce qui contredirait l’hypothèse initiale imposant fn (a) −→ 0 .
n→+∞

Par conséquent, il existe n0 ∈ IN tel que Kn0 = ∅ . Mais alors, les compacts Kn étant
emboîtés, on a :
∀n  n0 Kn = ∅ autrement dit ∀n  n0 �fn �∞  ε.
D’où le résultat.

7.12 1. Soit A une partie de E .


• Si A rencontre tout ouvert non vide, alors en particulier A est d’intersection non vide
avec toute boule ouverte de rayon strictement positif. Par définition de la densité, cela
prouve que A est dense dans E .
• Réciproquement, supposons A dense dans E . Alors A rencontre toute boule de rayon
strictement positif. Soit U un ouvert non vide. Considérons x ∈ U ; puisque U
est ouvert, il existe r > 0 tel que B(x, r) ⊂ U . On a alors A ∩ B(x, r) �= ∅ ,
donc A ∩ U �= ∅ .
Remarque L’hypothèse « E de dimension finie » n’est pas utile pour cette question.
2. (a) Construisons une telle suite (Bn )n∈IN par récurrence.
• Construction de B0 . Comme U0 est dense, l’ensemble U0 ∩ O est non vide ;
comme c’est un ouvert (car intersection de deux ouverts), il est d’intérieur non
vide, i.e. contient au moins une boule ouverte B0 de rayon non nul.
• Construction de Bn . Soit n ∈ IN∗ ; supposons B0 , . . . , Bn−1 construites.
Comme Un est dense et Bn−1 ouverte, l’ensemble Un ∩ Bn−1 est non vide, donc,
étant ouvert, il contient au moins une boule ouverte Bn de rayon non nul.

La suite de boules (Bn )n∈IN O


ainsi construite vérifie bien les U1
conditions souhaitées. B0

Le dessin ci-contre illustre


la construction des deux pre- B1
mières boules B0 et B1 (bien
sûr, il n’est pas réaliste car
ne retranscrit pas le caractère U0
dense des ouverts U0 et U1 ).

320
Solutions des exercices

(b) Montrons que l’intersection :



A= Un
n∈IN

est dense. D’après la première question, une partie est dense si, et seulement si, elle
rencontre tout ouvert non vide. Considérons donc une partie ouverte non vide O et
montrons que :
A ∩ O �= ∅.
Considérons une suite (Bn )n∈IN de boules ouvertes telle que construite à la question
précédente. Notons alors Fn la boule fermée de même centre que Bn et de rayon deux
fois plus petit. On obtient ainsi une suite (Fn )n∈IN de boules fermées emboîtées et
non vides. Toute boule fermée étant compacte en dimension finie, on peut appliquer
le théorème des compacts emboîtés (cf. première question de l’exercice 7.11 de la

page 309) : l’intersection Fn est non vide.
n∈IN
Si x est un élément de cette intersection, alors x appartient :
• à chacun des ouverts Un puisque ∀n ∈ IN Fn ⊂ Bn ⊂ Un ;
• à O puisque F0 ⊂ B0 ⊂ O .
Cela prouve que A ∩ O �= ∅ .

7.13 1. Il est clair que si E est un espace vectoriel normé de dimension finie, alors sa boule unité
fermée est compacte (cf. théorème 16 de la page 297).

2. (a) Remarque L’existence de x ∈ E \ F vient du fait que, comme F est de dimension


finie et que E ne l’est pas, F est un sous-espace strict de E .

i. Il s’agit de prouver que l’application f : F −→ IR admet un minimum.


u �−→ d(x, u)
Fixons b ∈ F ; notons r = d(x, b) . L’ensemble F ∩ Bf (x, r) est une partie de F ,
fermée comme intersection de fermés ( F est fermé car de dimension finie), et bor-
née, donc c’est un compact, toujours car F est de dimension finie. L’application f
est continue, donc sa restriction au compact F ∩ Bf (x, r) , non vide car conte-
nant b , est bornée et atteint ses bornes. En particulier, cette restriction possède
un minimum m .
Puisque ∀u ∈ F \ Bf (x, r) f (u)  f (b) , on en déduit que f est minorée
 
par min f (b), m . Ce minorant étant atteint par f , c’est un minimum.
x−y
ii. Comme x ∈ / F , on a y �= x . En posant u = , on constate que :
�x − y�
• le vecteur u est unitaire donc d(u, F )  d(u, 0) = �u� = 1 ;
• pour tout z ∈ F , on a :
1   
�u − z� = × x − y + �x − y�z .
�x − y�
Comme y + �x − y�z ∈ F , on a :
  
x − y + �x − y�z   d(x, F ) = �x − y�,

et donc �u − z�  1 ; on a ainsi d(u, F )  1 .


Par double inégalité, on a obtenu d(u, F ) = 1 .

321
Chapitre 7. Compacité, connexité, dimension finie

(b) Construisons une suite (xn )n∈IN à valeurs dans Bf (0, 1) vérifiant :
∀(n, p) ∈ IN2 n �= p =⇒ d(un , up )  1. (⋆)
Cela donnera le résultat car une telle suite ne possède aucune sous-suite convergente.
Construisons-la terme à terme.
• Fixons u0 un élément unitaire quelconque de E .
• Pour n ∈ IN∗ , supposons u0 , . . . , un−1 sont déjà construits. L’espace :
Fn = Vect(u0 , . . . , un−1 )
étant de dimension finie, la question 2(a)ii. assure que l’on peut choisir un un
vecteur unitaire tel que d(un , Fn ) = 1 . Cet élément un vérifie alors :
∀k ∈ [[0, n − 1]] d(un , uk )  1.
La suite (un )n∈IN ainsi construite vérifie la propriété (⋆) .
7.14 1. Pour tout p ∈ IN , on a :
 
�u(p) − ℓ� = sup u(p) 
n − ℓn . (⋆⋆)
n∈IN

• Un sens est évident. En effet, par définition de �u(p) − ℓ� , on a, pour tout n ∈ IN :


 (p) 
un − ℓn   �u(p) − ℓ� ;
∀p ∈ IN
 (p) 
donc, si u(p) −→ ℓ , i.e. si �u(p) − ℓ� −→ 0 , alors un − ℓn  −→ 0 .
p→+∞ p→+∞ p→+∞
 (p) 
• Réciproquement, supposons que ∀n ∈ IN un − ℓn   −→ 0 et montrons
p→+∞
(p)
que �u − ℓ� −→ 0 . Fixons ε > 0 et montrons l’existence de p0 ∈ IN tel que :
p→+∞

∀p  p0 �u(p) − ℓ�  ε. (⋄)
Soit a ∈ IN tel que  ε. 1
2a
∗ On a d’une part, par hypothèse de l’énoncé :
 (p) 
∀n  a + 1 ∀p ∈ IN un − ℓn   2  1  ε.
2n 2a
 (p) 
∗ D’autre part, pour tout n ∈ [[0, a]] , la suite |un − ℓn | tendant vers 0 , on peut
trouver un rang rn tel que :
 (p) 
∀p  rn un − ℓn   ε.
En posant alors p0 = max(r0 , . . . , ra ) , et par disjonction de cas suivant que n  a ou
n  a + 1 , on vérifie que :
 (p) 
∀p  p0 ∀n ∈ IN un − ℓn   ε.
Ce rang p0 satisfait donc la propriété (⋄) , d’où le résultat.
 
2. Pour montrer que A est compact, donnons-nous u(p) p∈IN
une suite d’éléments de A et
montrons qu’on peut en extraire une sous-suite convergeant vers un élément de A .
 
Pour extraire de u(p) p∈IN
une sous-suite convergente, nous allons procéder par extrac-
tions successives ; cette démarche s’appelle le procédé diagonal.
Tout d’abord, on constate que la condition (⋆) d’appartenance à A entraîne que pour
 (p)

tout n ∈ IN , la suite un p∈IN
est bornée.
(p)
• La suite (u0 )p∈IN étant bornée, il est possible d’en extraire une sous-suite conver-
 (ϕ (p))

gente u0 0 p∈IN
.

322
Solutions des exercices

 (ϕ0 (p))

• La suite u1 p∈IN
étant bornée, on peut en extraire une sous-suite conver-
 (ϕ0 ◦ϕ1 (p))
  (ϕ0 ◦ϕ1 (p))

gente u1 p∈IN
. On constate alors que la suite u0 p∈IN
est également
(ϕ (p))

convergente, comme sous-suite de la suite convergente u0 0 p∈IN
.
• On poursuit ainsi de suite : pour chaque n ∈ IN , on dispose ainsi d’une fonction
 (ϕ0 ◦···◦ϕn (p))

extractrice ϕn telle que pour tout k ∈ [[0, n]] , la suite uk p∈IN
converge.
• Considérons alors la fonction ψ définie par :
∀p ∈ IN ψ(p) = ϕ0 ◦ · · · ◦ ϕp (p).
On constate que :
∗ la fonction ψ : IN → IN est strictement croissante ; en effet, pour p ∈ IN , on a :
p  ϕp+1 (p) < ϕp+1 (p + 1),
chacune des deux inégalités étant due au fait que ϕp+1 , en tant que fonction
extractrice, est strictement croissante de IN dans IN ; en composant alors par
l’application ϕ0 ◦ · · · ◦ ϕp , strictement croissante comme composée d’applications
strictement croissantes, il vient :
 
ψ(p) = ϕ0 ◦ · · · ◦ ϕp (p) < ϕ0 ◦ · · · ◦ ϕp ϕp+1 (p) = ψ(p + 1) ;
 (ψ(p))

∗ pour tout n ∈ IN , la suite un pn
est une sous-suite de la suite conver-
 (ϕ0 ◦···◦ϕn (p))
  (ψ(p))

gente un p∈IN
; donc la suite un p∈IN
est convergente.
• Soit alors ℓ la suite définie par :

∀n ∈ IN ℓn = lim u(ψ(p))
n .
p→+∞

(ψ(p))
Prouvons que u −→ ℓ , ce qui donnera le résultat souhaité.
p→+∞
 
∗ Pour tout n ∈ IN , on a un − ℓn  −→ 0 .
(ψ(p))
p→+∞
 
∗ Pour tout n ∈ IN , on a ∀p ∈ IN u(ψ(p))
n
  1 , ce qui donne, en passant à la
n 2
1
limite quand p → +∞ , |ℓn |  , et assure que ℓ ∈ A.
2n  (ψ(p)) 
Le résultat de la question 1 appliqué à la suite u p∈IN
permet alors de conclure.

7.15 Soit (x, y) ∈ (A1 ∪ A2 )2 . Montrons que x et y sont reliés par un chemin dans A1 ∪ A2 .
• Si x et y appartiennent tous les deux à A1 , c’est évident car A1 est connexe par arcs.
De même, si x et y appartiennent tous les deux à A2 , c’est évident.
• Supposons l’un des deux points dans A1 et l’autre dans A2 . Par symétrie en x et y ,
on peut supposer x ∈ A1 et y ∈ A2 . Comme A1 et A2 sont d’intersection non vide, il
existe z ∈ A1 ∩ A2 .
∗ Comme A1 est connexe par arcs, x et z sont reliés par un chemin dans A1 , donc
dans A1 ∪ A2 .
∗ Comme A2 est connexe par arcs, z et y sont reliés par un chemin dans A2 , donc
dans A1 ∪ A2 .
Donc, par transitivité, x et y sont reliés par un chemin dans A1 ∪ A2 .

323
Chapitre 7. Compacité, connexité, dimension finie

7.16 1. Soit A une partie ouverte d’un espace vectoriel normé, et C une composante connexe
par arcs de A . Soit x ∈ C . Montrons qu’il existe r > 0 tel que la boule B(x, r) soit
incluse dans C .
Comme A est ouvert, il existe r > 0 tel que B(x, r) ⊂ A . Soit alors y ∈ B(x, r) .
Le segment [x, y] , étant inclus dans B(x, r) , l’est aussi dans A . Par suite x et y sont
reliés par un chemin dans A , donc appartiennent à la même composante connexe. On a
donc y ∈ C .
Cela montre que B(x, r) ⊂ C , et prouve le résultat souhaité.
2. Soit U un ouvert de IR . Les composantes connexes par arcs de U :
• d’une part, sont connexes par arcs, donc sont des intervalles (d’après la proposition 10
de la page 295) ;
• d’autre part, sont des ouverts de IR (car U est ouvert, et d’après la première question).
On en déduit que U s’écrit comme une réunion d’intervalles ouverts :

U= I,
I∈C

où C désigne l’ensemble des composantes connexes par arcs de U .


Il reste à démontrer que cette réunion est dénombrable, c’est-à-dire que C est au plus
dénombrable. Par densité de Q dans IR , tout intervalle ouvert non vide contient au moins
un rationnel. L’application qui à un rationnel de U associe l’unique composante connexe
par arcs de U à laquelle il appartient constitue donc une application surjective de U ∩ Q
vers C . Comme U ∩ Q est dénombrable, cela assure que C est au plus dénombrable.

7.17 1. Si l’on considère deux points de U \ {a} , ils peuvent s’écrire sous la forme eiθ1 et eiθ2
avec θ1  θ2  θ1 + 2π . Alors, les deux chemins :
[θ1 , θ2 ] −→ U et [θ2 , θ1 + 2π] −→ U
θ �−→ eiθ θ �−→ eiθ
n’ayant en commun que les points eiθ1 et eiθ2 , l’un des deux ne contient pas a .
2. Supposons qu’une telle bijection ϕ : U → [0, 1] existe.
1
Alors, en notant a = ϕ−1 , on constate que :
2
   
1
ϕ U \ {a} = [0, 1] \ .
2
Ceci contredit la continuité de ϕ puisque l’ensemble U \ {a} est connexe par arcs alors
1
que [0, 1] \ ne l’est pas.
2

7.18 1. Considérons la restriction à A de la fonction indicatrice de B :


ϕ : A −→  IR
1 si x ∈ B
x �−→
0 sinon.
• Prouvons que la fonction ϕ est constante au voisinage de tout point, ce qui impliquera
sa continuité. Soit a ∈ A .
∗ Si a ∈ B , alors, B étant un ouvert de A , il existe un voisinage V de a tel
que A ∩ V ⊂ B . La restriction de ϕ à A ∩ V est alors constante (égale à 1 ) donc
continue.
∗ Si a ∈/ B , alors, A \ B étant un ouvert de A (car B est un fermé de A ), il existe
un voisinage V de a tel que A ∩ V ⊂ A \ B . La restriction de ϕ à A ∩ V est alors
constante (égale à 0 ) donc continue.

324
Solutions des exercices

Dans les deux cas, il existe un voisinage V de a tel que la restriction ϕ|A∩V soit
constante, donc continue, ce qui prouve que ϕ est continue en a , par caractère local
de la continuité.
• Comme ϕ est continue et que A est connexe par arcs, le corollaire 12 de la page 296
assure que ϕ(A) est un intervalle. Comme ϕ(A) ⊂ {0, 1} , il en résulte que :
∗ ou bien ϕ est constante égale à 0 , c’est-à-dire B = ∅ ;
∗ ou bien ϕ est constante égale à 1 , c’est-à-dire B = A .
2. Par l’absurde : supposons qu’il existe U1 et U2 deux ouverts relatifs de A , disjoints, non
vides et tels que U1 ∪ U2 = A .
Montrons que U1 est un fermé relatif de A . Pour cela, utilisons le fait que U1 est le
complémentaire dans A de l’ouvert relatif U2 . Comme U2 est un ouvert relatif de A , on
peut trouver O un ouvert de E tel que U2 = A ∩ O , et alors :
 
U1 = A ∩ (E \ U2 ) = A ∩ E \ (A ∩ O)
 
= A ∩ (E \ A) ∪ (E \ O)
   
= A ∩ (E \ A) ∪ A ∩ (E \ O) = A ∩ (E \ O).
  
=∅

Comme O est un ouvert de E , E \ O est un fermé de E . Par suite, U1 est un fermé


relatif de A (car intersection de A avec un fermé).
Ainsi, U1 est à la fois un ouvert relatif de A et un fermé relatif de A . Comme U1 �= ∅
et U1 �= A (car U2 �= ∅ ), cela est en contradiction avec le résultat de la première question.

7.19 Soit A1 et A2 deux points de IR2 \ X . Montrons que l’on peut relier A1 et A2 par un
chemin ne rencontrant pas X .
Raisonnons géométriquement.
• Il y a une infinité non dénombrable de droites passant par le point A1 . Ces droites ne se
rencontrant qu’au point A1 , et comme A1 ∈ / X , il est possible d’en sélectionner une qui
ne rencontre pas X ; soit D1 une telle droite.
• De même, parmi l’infinité non dénombrable de droites passant par le point A2 , il est
possible d’en sélectionner une qui ne rencontre pas X et qui ne soit pas parallèle
à D1 ; soit D2 une telle droite.
Les droites D1 et D2 n’étant pas parallèles, elles se croisent en un point B ; en parcou-
rant alors de manière continue les segments [A1 B] puis [BA2 ] , on passe de A1 à A2 sans
rencontrer X .
7.20 • Supposons A×B connexe par arcs. Comme A et B sont non vides, on les obtient comme
images respectives de A × B par les applications continues :
E×F −→ E et E×F −→ F
(x, y) �−→ x (x, y) �−→ y.
La connexité par arcs de A et B découle donc de celle de A × B .
• Réciproquement, supposons A et B connexes par arcs.
Soit (a1 , b1 ) et (a2 , b2 ) deux éléments de A × B .
Comme A et B sont connexes par arcs, il existe deux chemins γ1 : [0, 1] → A
et γ2 : [0, 1] → B reliant respectivement a1 à a2 et b1 à b2 . L’application :
 
t �→ γ1 (t), γ2 (t)
est alors un chemin reliant (a1 , b1 ) à (a2 , b2 ) dans A × B (la continuité de γ provenant
de celle de γ1 et γ2 ).

325
Chapitre 7. Compacité, connexité, dimension finie

7.21 Si F = E , alors F est connexe par arcs. Supposons désormais F  E .


Remarquons que, F étant fermé, on a Fr(F ) = F \ Int(F ) . En particulier, Fr(F ) est inclus
dans F .
Intéressons-nous aux composantes connexes par arcs de F . Comme Fr(F ) est connexe par
arcs et inclus dans F , tous les points de Fr(F ) appartiennent à la même composante connexe
par arcs de F . Par transitivité, il nous suffit donc de montrer que tous les autres points de F ,
c’est-à-dire ceux de Int(F ) , appartiennent à la même composante connexe par arcs que ceux
de Fr(F ) . Concrètement, montrons que tout point de Int(F ) est relié, par un chemin à
valeurs dans F , à un point de Fr(F ) .

Soit x ∈ Int(F ) . Prenons y ∈ E \ F (un


tel y existe car F  E ). Soit γ : [0, 1] → E y

une application continue vérifiant γ(0) = x 


γ(c)
et γ(1) = y (une telle application existe car
l’espace E est connexe par arcs). Posons :
  

c = inf t ∈ [0, 1] : γ(t) ∈


/F . x
F
Le réel c est bien défini car l’ensemble :
 
t ∈ [0, 1] : γ(t) ∈
/F
est non vide (il contient 1 ) et minoré.
Si l’on montre que γ(c) ∈ Fr(F ) , c’est terminé car alors la restriction de γ à l’intervalle [0, t0 ]
constituera un chemin de F reliant x à un point de Fr(F ) . Montrer que γ(c) ∈ Fr(F )
revient à montrer que :
γ(c) ∈ Adh(F ) ∩ Adh(E \ F ).
• Tout d’abord, par définition de c comme borne inférieure, on peut trouver une suite (tn )
à valeurs dans [c, 1] tendant vers c et telle que :
∀n ∈ IN γ(tn ) ∈
/ F.
Comme γ est continue, on a γ(tn ) → γ(c) , ce qui montre que γ(c) ∈ Adh(E \ F ) .
• Étant donné que γ(c) ∈ Adh(E \ F ) et que x = γ(0) ∈ Int(F ) , on est assuré que c > 0 .
 
Soit (tn ) une suite à valeurs dans [0, c[ tendant vers c . Alors la suite γ(tn ) est à
valeurs dans F et, par continuité de γ , tend vers γ(c) . On a donc γ(c) ∈ Adh(F ) .
D’où le résultat.

7.22 1. Supposons IK = IR . Comme H est un hyperplan, il existe une forme linéaire non nulle f
dont H est le noyau. On a alors, par surjectivité de f :
f (E \ H) = IR∗ .
Comme f est continue (car c’est une application linéaire dont l’espace de départ E est
de dimension finie) et que IR∗ n’est pas connexe par arcs, cela prouve que E \ H ne l’est
pas non plus.
2. Supposons IK = C . Soit u un vecteur de E n’appartenant pas à H . Les sous-espaces H
et Vect(u) sont alors supplémentaires dans E . Soit x et y deux vecteurs appartenant
à E \ H . Ces vecteurs s’écrivent :
x = x1 + αu et y = y1 + βu avec (x1 , y1 ) ∈ H 2 et (α, β) ∈ (C∗ )2 .
• Comme H est un sous-espace vectoriel, il est connexe par arcs. Il existe donc un
chemin γ1 : [0, 1] → H reliant x1 à y1 .

326
Solutions des exercices

• Comme C∗ est connexe par arcs (cf. exemple 17 de la page 294), il existe un che-
min γ2 : [0, 1] → C∗ reliant α à β .
L’application :
γ : [0, 1] −→ E \ H
t �−→ γ1 (t) + γ2 (t)u
est alors un chemin reliant x à y dans E \ H .

7.23 1. Pour prouver que l’application Mn (IK) −→ Mn (IK) est continue, prouvons que ses
A �−→ Com A
applications composantes dans la base canonique de Mn (IK) le sont.
Pour A ∈ Mn (IK) et (i, j) ∈ [[1, n]]2 , le coefficient d’indice (i, j) de Com A vaut :
(−1)i+j ∆i,j
où ∆i,j est le déterminant de la sous-matrice de A obtenue en supprimant la ligne i et
la colonne j : il s’agit donc d’une expression polynomiale en les coefficients de A . Cela
prouve le résultat, puisque toute application polynomiale est continue.
2. Pour A ∈ GLn (IK) , on a :
1
A−1 = (Com A)T .
det(A)
• L’application GLn (IK) −→ IK est continue et ne s’annule pas.
A �−→ det(A)
• D’autre part, l’application Mn (IK) −→ Mn (IK) est continue comme compo-
A �−→ (Com A)T
sée des deux applications continues A �→ Com A et M �→ M T .
Donc, par quotient d’applications continues, l’application :
GLn (IK) −→ GLn (IK)
A �−→ A−1
est continue.

7.24 1. On a ϕ = ϕ1 ◦ ϕ2 avec :
ϕ1 : Mn (IR)2 −→ Mn (IR) et ϕ2 : Mn (IR) −→  nT(IR)
M 2

(M, N ) �−→ MN A �−→ A ,A .


• L’application ϕ1 est bilinéaire donc, comme Mn (IR) est de dimension finie, elle est
continue.
• L’application ϕ2 est linéaire donc, comme Mn (IR) est de dimension finie, elle est
continue.
Donc, comme composée d’applications continues, ϕ est continue.
2. Comme Mn (IR) est de dimension finie, il suffit de montrer que On (IR) est une partie
fermée et bornée de Mn (IR) .
• Tout d’abord, une matrice A est orthogonale si, et seulement si, AT A = In . L’en-
semble On (IR) apparaît donc comme l’image réciproque de {In } par l’application
continue ϕ , donc est un fermé de Mn (IR) .
• D’autre part, On (IR) est une partie bornée de Mn (IR) , par exemple au sens de
la norme infinie, puisque chaque coefficient d’une matrice orthogonale a une valeur
absolue au plus égale à 1 .

327
Chapitre 7. Compacité, connexité, dimension finie

7.25 Procédons par caractérisation séquentielle des fermés. Soit (Ap )p∈IN ∈ Mn (IK)IN une suite
convergeant vers A ∈ Mn (IK) .
Supposons que les matrices Ap soient toutes de rang au plus r et montrons qu’il en est de
même pour A .
Pour cela, montrons qu’aucune sous-matrice carrée de A de taille r + 1 n’est inversible.

Sélectionnons r + 1 indices de lignes et r + 1 indices de colonnes ; notons respectivement A
�p les sous-matrices de A et Ap associées. Puisqu’il y a convergence coefficient par
et A
�p )p∈IN converge vers A� dans Mr+1 (IK) .
coefficient, la suite de matrices (A
�p n’est inversible.
Puisque les matrices Ap sont de rang au plus r , aucune des matrices A
On a donc :
∀p ∈ IN det(A �p ) = 0.
� = 0.
En passant à la limite, et par continuité du déterminant, on obtient det(A)
� n’est pas inversible, d’où le résultat.
Ainsi, la matrice A
7.26 Soit A ∈ Mn (IK) . Montrons qu’il existe une suite (Ap ) de matrices inversibles qui converge
vers A .
L’application IK −→ IK est polynomiale de degré n (c’est la fonction poly-
x �−→ det(xIn + A)
nomiale associée au polynôme caractéristique de −A ) ; elle s’annule donc en un nombre fini
de points. Pour p ∈ IN , notons :
Ap = 2−p In + A.
D’après ce qui précède, les matrices Ap sont inversibles car de déterminant non nul, sauf
éventuellement un nombre fini d’entre elles. On peut donc trouver un rang p0 ∈ IN tel que
pour tout p  p0 , la matrice Ap soit inversible.
La suite (Ap )pp0 est alors une suite de matrices inversibles convergeant vers A .
7.27 1. Munissons IKn [X] de la base (L0 , . . . , Ln ) des polynômes de Lagrange associés à la
liste (0, 1, . . . , n) . Prouver la continuité de l’application Ψ : A �→ χA revient à prouver
celle de ses applications composantes dans la base (L0 , . . . , Ln ) .
Pour tout A ∈ Mn (IK) , on a :

n

Ψ(A) = χA = χA (k)Lk
k=0
n

= det(kIn − A)Lk .
k=0

Les applications composantes de Ψ sont donc les applications A �→ det(kIn − A) ,


pour k ∈ [[0, n]] ; elles sont continues, par continuité des applications A �→ kIn − A
et det .
2. Pour prouver que l’application Π n’est pas continue, exhibons un exemple.
Pour p ∈ IN , posons :
 −p 
2 (0)
 0 
Ap =  .. .

.
(0) 0
Alors :
• la suite (Ap ) converge vers la matrice nulle, dont le polynôme minimal est X ;
• pourtant, pour tout p ∈ IN , on a πAp = X(X − 2−p ) −→ X 2 .
p→+∞

328
Solutions des exercices

7.28 1. Montrons que toute matrice A ∈ Mn (C) est la limite d’une suite (Ap ) de matrices diago-
nalisables. Toute matrice étant trigonalisable dans Mn (C) , on peut écrire A = P T P −1
avec P inversible et T triangulaire supérieure.
Notons λ1 , . . . , λn les coefficients diagonaux de T , i.e. :
 
λ1 (⋆)
 .. 
T = . .
(0) λn

Les λ1 , . . . , λn sont donc les valeurs propres de A comptées avec multiplicité.


Pour p ∈ IN∗ , notons Tp la matrice triangulaire supérieure obtenue à partir de T en
modifiant uniquement sa diagonale, de la manière suivante :
 1

λ1 + p
(⋆)
 .. 
Tp =  . .
(0) λn + n
p

Justifions que, pour p assez grand, les coefficients diagonaux de la matrice Tp sont deux
à deux distincts :
• si les λ1 , . . . , λn sont tous égaux, alors c’est vrai pour tout p ∈ IN∗ ;
• sinon, alors en notant δ l’écart minimal entre deux valeurs propres distinctes
de A , i.e. :
δ= min |λi − λj |,
(i,j)∈[[1,n]]2
λi �=λj

n
la propriété est vérifiée dès que < δ ; en effet, dans ce cas, si l’on considère deux
p
indices distincts i et j dans [[1, n]] , alors :
∗ si λi = λj , on a λi + pi �= λj + pj ;
∗ si λi �= λj , on a |λi − λj |  δ , puis par inégalité triangulaire :
�� � � ��� �� �
� �
� λi + i − λj + j � = �(λi − λj ) + i − j �  |λi − λj | − |i − j| > 0,
� p p � � p � � �� � p

� �� �
n
p

donc λi + i
p
�= λj + pj ·
Ainsi, pour p assez grand, la matrice Ap = P Tp P −1 est diagonalisable.
Enfin, puisque Tp −→ T et comme l’application Mn (C) −→ Mn (C) est conti-
p→+∞
M �−→ P M P −1
nue (car linéaire ayant un espace de départ de dimension finie), on a Ap −→ A .
p→+∞

2. (a) Soit (Ap )n∈IN ∈ Mn (IR) IN


une suite convergeant vers A . Alors on a :
iIn − Ap −→ iIn − A
p→+∞

donc par continuité du déterminant :


det(iIn − Ap ) −→ det(iIn − A) c’est-à-dire χAp (i) −→ χA (i).
p→+∞ p→+∞

Cela prouve le résultat car, i étant valeur propre de A (car i est valeur propre de B ),
on a χA (i) = 0 .

329
Chapitre 7. Compacité, connexité, dimension finie

(b) • Si M ∈ Mn (IR) est une matrice IR -diagonalisable, alors son polynôme caractéris-
tique est scindé dans IR[X] , donc s’écrit :
n

χM = (X − λk ) avec (λ1 , . . . , λn ) ∈ IRn ,
k=1

et l’on a alors :
  
n
  
n
χM (i)2 = i − λk 2 = (λ2k + 1)  1.
k=1 k=1

• Du point précédent il résulte que si (Ap )p∈IN ∈ Mn (IR)IN est une suite de ma-
trices IR -diagonalisables, alors on a :
 
∀p ∈ IN χA (i)  1
p

donc, d’après la question précédente, la suite (Ap ) ne tend pas vers A . Par consé-
quent, la matrice A n’appartient pas à l’adhérence de D . Donc D n’est pas dense
dans Mn (IR) .

7.29 1. (a) Puisque Ap → A , on a :


λIn − Ap −→ λIn − A.
p→+∞

Ainsi, par continuité du déterminant :


det(λIn − Ap ) −→ det(λIn − A) autrement dit χAp (λ) −→ χA (λ).
p→+∞ p→+∞

D’où le résultat car, λ étant valeur propre de A , on a χA (λ) = 0 .


(b) Soit p ∈ IN . Notons λ1 , . . . , λn les valeurs propres complexes de Ap , comptées avec
multiplicités. On a alors :
n n
 
χAp = (X − λk ) donc χAp (λ) = (λ − λk ).
k=1 k=1

En passant au module, on obtient :


n
    n
χA (λ) = |λ − λk |  d λ, sp(Ap ) .
p
k=1
 
Le résultat de la question précédente assure alors que d λ, sp(Ap ) −→ 0 .
p→+∞

2. • Soit A ∈ Mn (IK) possédant n valeurs propres distinctes λ1 , . . . , λn . Montrons


que A ∈ Int(D) . Pour cela, considérons (Ap )p∈IN une suite d’éléments de Mn (IK)
tendant vers A et montrons que pour p assez grand, Ap est diagonalisable.
Puisque λ1 , . . . , λn sont deux à deux distinctes, il existe ε > 0 tel que les
boules B(λ1 , ε), . . . , B(λn , ε) soient deux à deux disjointes ( IK étant naturellement
muni de la valeur absolue ou du module).
Pour k ∈ [[1, n]] , le résultat de la question 1 nous dit que :
 
d λk , sp(Ap ) −→ 0,
p→+∞

ce qui assure l’existence d’un rang rk ∈ IN tel que :


∀p ∈ IN p  rk =⇒ B(λk , ε) ∩ sp(Ap ) �= ∅.

330
Solutions des exercices

Posons r = max{r1 , . . . , rn } et prenons p  r . Il existe au moins une valeur propre


de Ap dans chacune des n boules B(λ1 , ε), . . . , B(λn , ε) . Ces boules étant deux à
deux disjointes, cela nous fournit n valeurs propres deux à deux distinctes pour Ap ,
et assure que la matrice Ap est diagonalisable.
• Considérons maintenant A ∈ Mn (IK) diagonalisable dont les valeurs propres ne sont
pas deux à deux distinctes, et montrons que A ∈ / Int(D) en prouvant que A est la
limite d’une suite (Ap )p∈IN de matrice non diagonalisables.
L’hypothèse faite sur A assure l’existence d’une valeur propre λ au moins double. La
matrice A peut alors s’écrire :
 
λ (0)
 λ 
 λ3

A = P DP −1
avec D = 

.

 .. 
.
(0) λn

Posons alors, pour p ∈ IN :


 
λ 2−p (0)
 0 λ 
 λ3

Ap = P Dp P −1
avec Dp = 

.

 .. 
.
(0) λn

Pour p ∈ IN , la matrice Dp n’est pas diagonalisable. En effet, son endomorphisme


canoniquement associé laisse stable le plan vectoriel engendré par les deux premiers
vecteurs de la base canonique, et l’endomorphisme induit correspondant n’est pas
� �
λ 2−p
diagonalisable car a pour matrice . Par conséquent, les matrices Ap ne
0 λ
sont pas diagonalisables non plus. De plus, on a Dp −→ D et donc Ap −→ A .
p→+∞ p→+∞

7.30 • Procédons par caractérisation séquentielle. Soit (Ap ) une suite d’éléments de Tn conver-
geant vers A ∈ Mn (IR) . Montrons que A ∈ Tn .
Pour cela, montrons que spC (A) ⊂ IR . Soit λ ∈ spC (A) . Comme Ap → A , on a :
λIn − Ap −→ λIn − A
p→+∞

donc par continuité du déterminant :

χAp (λ) −→ χA (λ) = 0.


p→+∞

Or, pour tout p ∈ IN , Ap est trigonalisable dans Mn (IR) , donc son polynôme caractéris-
tique est unitaire et scindé dans IR[X] . En écrivant χAp sous forme scindé dans IR[X] ,
puis en passant au module, on obtient :
� � � �
∀p ∈ IN �χA (λ)�  � Im λ�n .
p

Le fait que χAp (λ) −→ 0 assure alors que Im λ = 0 , autrement dit λ ∈ IR .


p→+∞

331
Chapitre 7. Compacité, connexité, dimension finie

• Prouvons désormais que Tn = Adh(Dn ) . Puisque Tn est un fermé contenant Dn , on


a Adh(Dn ) ⊂ Tn . Il reste à prouver l’autre inclusion.
Soit A ∈ Tn . Montrons que A ∈ Adh(Dn ) en prouvant que A est limite d’une suite (Ap )
à valeurs dans Dn .
Cela se fait par la même méthode que celle utilisée à la première question de l’exer-
cice 7.28. Comme A est trigonalisable dans Mn (IR) , on peut écrire :
 
λ1 (⋆)
 .. 
A = P T P −1 avec P ∈ GLn (IR) et T = . .
(0) λn

Les λ1 , . . . , λn sont donc les valeurs propres de A comptées avec multiplicité.


Pour p ∈ IN∗ , notons Tp la matrice triangulaire supérieure obtenue à partir de T en
modifiant uniquement sa diagonale de la manière suivante :
 
λ1 + 1
p
(⋆)
 .. 
Tp =  . 
n
(0) λn + p

On justifie alors que, pour p assez grand, les coefficients diagonaux de la matrice Tp sont
deux à deux distincts (cf. corrigé de l’exercice 7.28).
On obtient alors, en posant Ap = P Tp P −1 :
� �
∀p ∈ IN∗ Ap ∈ Dn et Ap −→ A.
p→+∞

7.31 1. Travaillant dans Mn (C) , il existe une matrice triangulaire supérieure semblable
à A , donc ayant la même classe de similitude. Sans perte de généralité, supposons
donc A ∈ Tn+ (C) .
Notons u l’endomorphisme de Cn canoniquement as-  
socié à A , ainsi que (e1 , . . . , en ) la base canonique εj−1 a1,j
 .. 
de Cn . Pour ε > 0 , notons Aε la matrice de u dans  . 
la base :
 
 ε2 aj−2,j 
(e1 , εe2 , ε2 e3 , . . . , εn−1 en ).  
 εaj−1,j

 
Pour j ∈ [[1, n]] , la j -ème colonne de la matrice Aε  
 aj,j 
est représentée ci-contre.  
 0 
Remarque En notant Pε = Diag(1, ε, . . . , εn−1 ) ,  
 .. 
on a :  . 
Aε = Pε−1 APε . 0
Il en résulte que la suite (A1/p )p∈IN∗ tend vers la matrice diagonale Diag(a1,1 , . . . , an,n )
(la convergence s’obtenant facilement coefficient par coefficient). Cela prouve le résultat,
puisque chacune des matrices A1/p est semblable à A .

332
Solutions des exercices

2. • Un sens découle de la question précédente. Celle-ci assure en effet l’existence d’une


matrice diagonale dans l’adhérence de S(A) . Or, on sait qu’une partie fermée est égale
à son adhérence. Donc, si S(A) est fermée, il existe une matrice diagonale dans S(A) ,
autrement dit A est diagonalisable.
• Réciproquement, supposons A diagonalisable.
Montrons que S(A) est fermé par caractérisation séquentielle. Soit (Ap )p∈IN ∈ S(A)IN
une suite convergeant vers B ∈ Mn (IK) ; montrons que B ∈ S(A) .
∗ La matrice A étant diagonalisable, il existe un polynôme Q ∈ IK[X] , scindé à
racines simples, annulateur de A . Par continuité de l’application M �→ Q(M )
de Mn (IK) dans lui-même, on a Q(Ap ) → Q(B) . Or, pour tout p ∈ IN , la ma-
trice Ap étant semblable à A , on a Q(Ap ) = 0 . Par passage à la limite, on en
déduit que Q(B) = 0 . Le polynôme Q étant scindé à racines simples, cela prouve
que B est diagonalisable.
∗ Pour conclure que A et B sont semblables, il suffit alors de prouver qu’elles
ont les mêmes valeurs propres comptées avec multiplicités, autrement dit même
polynôme caractéristique. Par continuité de l’application qui à une matrice associe
son polynôme caractéristique (cf. exercice 7.27 de la page 312), on a χAp → χB .
Cela prouve que χB = χA car ∀p ∈ IN χAp = χA .

7.32 1. Notons ti,j les coefficients de T .


• Comme T est triangulaire inversible, ses coefficients diagonaux sont tous non nuls.
Comme C∗ est connexe par arcs (cf. exemple 17 de la page 294), on peut considérer,
pour tout k ∈ [[1, n]] , un chemin γk : [0, 1] → C∗ reliant 1 à tk,k .
• Pour x ∈ [0, 1] , notons M (x) la matrice suivante :
 
γ1 (x) x t1,2 ··· x t1,n
 .. .. .. 
 0 . . . 
M (x) =  .
 .. .. .. 
. . . x tn−1,n
0 ··· 0 γn (x)
∗ Pour tout x ∈ [0, 1] , la matrice M (x) est inversible car triangulaire supérieure à
coefficients diagonaux tous non nuls.
∗ On a M (0) = In et M (1) = T .
∗ Enfin, l’application x �→ M (x) est continue, puisque chacune de ses applications
composantes est continue.
L’application :
[0, 1] −→ GLn (C)
x �−→ M (x)
est donc un chemin reliant In à T dans GLn (C) .
2. Montrons que tout élément de GLn (C) peut être relié à In par un chemin à valeurs
dans GLn (C) .
Soit A ∈ GLn (C) . Toute matrice étant trigonalisable dans Mn (C) , on peut considérer P
inversible et T triangulaire supérieure telles que :
A = P T P −1 .
D’après la question précédente, il existe M : [0, 1] → GLn (C) reliant In à T . Il est alors
facile de constater que l’application :
x �→ P M (x)P −1
est un chemin reliant In à A dans GLn (C) .

333
Chapitre 7. Compacité, connexité, dimension finie

7.33 1. (a) Posons, pour tout t ∈ [0, 1] : γ(t) = In + λtEi,j . Alors γ est un chemin reliant In
à T dans GLn (IR) , car :
• pour tout t ∈ [0, 1] , la matrice γ(t) est inversible, car triangulaire à coefficients
diagonaux tous non nuls ;
• l’application γ est continue, puisque ses applications composantes le sont ;
• on a γ(0) = In et γ(1) = T .
Donc T ∈ C0 .
(b) On a D = In + (µ − 1)Ei,i . En posant alors, pour tout t ∈ [0, 1] :
γ(t) = In + t(µ − 1)Ei,i ,
l’application γ est un chemin reliant In à D dans GLn (IR) . Donc D ∈ C0 .
(c) Soit A ∈ GLn (IR) .
En appliquant l’algorithme du pivot on sait, via des transvections et des échanges
de lignes, transformer A en une matrice diagonale inversible. Dans cet algorithme,
un échange est réalisé à chaque choix de pivot, afin de rendre le coefficient diagonal
non nul si celui-ci l’est initialement. À ce moment précis, un tel échange peut être
remplacé par la transvection Lj ← Lj + Lk où j est l’indice de la colonne considérée
et k > j un indice tel que le coefficient d’indice (j, k) soit non nul.
Par conséquent :
• on sait transformer A en une matrice diagonale inversible, uniquement à l’aide de
transvections sur les lignes ;
• puis, grâce à des dilatations de déterminant positif, transformer A en une matrice
diagonale A� dont la diagonale est constituée de ±1 .
En notant M1 , . . . , MN les matrices d’opérations élémentaires associées à ces trans-
formations, on a :
� = MN · · · M1 A.
A
Les questions précédentes nous permettent alors de considérer des chemins conti-
nus γ1 , . . . , γN , définis sur [0, 1] et à valeurs dans GLn (IR) , reliant In à M1 , . . . , MN
respectivement. L’application continue définie sur [0, 1] :
t �→ γN (t) · · · γ1 (t)A
� dans GLn (C) .
est alors un chemin reliant A et A
2. Supposons A et B semblables. On peut alors écrire :

A = P −1 BP avec P ∈ GLn (IR).


Si B ∈ C0 , on peut considérer γ un chemin reliant B à In dans GLn (IR) .
Alors l’application :
t �→ P −1 γ(t)P
est continue, à valeurs dans GLn (IR) , et relie A à In , d’où A ∈ C0 .
� �
cos θ − sin θ
3. Pour θ ∈ IR , notons Rθ = . Alors l’application définie sur [0, π] :
sin θ cos θ
 
Ip (0)
 Rθ 
θ �→ 
 ..  (avec q blocs Rθ )

.
(0) Rθ

est continue, à valeurs dans GLn (IR) , et relie In à Jp,q .

334
Solutions des exercices

4. Soit A ∈ GLn (IR) vérifiant det A > 0 . D’après la question 1(c), A est reliée dans GLn (IR)
 une telle matrice
à une matrice diagonale avec une diagonale constituée de ±1 ; notons A
et γ un chemin associé.
 
L’application t �→ det γ(t) est alors continue et ne s’annule pas, donc est de signe
 sont de même signe, et donc det A > 0 .
constant. On en déduit que det A et det A
 est constitué par un nombre pair de −1 , donc A
Il en résulte que la diagonale de A  est
semblable à une matrice de la forme Jp,q .
 ∈ C0 , puis, par transitivité, que A ∈ C0 .
Les questions 2 et 3 assurent alors que A
5. • Il résulte de la question précédente que l’ensemble C+ est connexe par arcs : en effet,
deux éléments de C+ sont reliés dans GLn (IR) à In , donc, par transitivité, son reliés
entre eux.
• En notant alors A la matrice diagonale Diag(−1, 1, . . . , 1) , on constate que C− est
l’image de C+ par l’application continue M �→ AM . La connexité par arcs de C+
offre alors celle de C− .
• Puisque GLn (IR) = C+ ∪ C− , cet ensemble apparaît comme la réunion de deux parties
connexes par arcs. Comme il n’est lui-même pas connexe par arcs (car son image par
l’application continue det : Mn (IR) → IR est IR∗ , qui n’est pas connexe par arcs),
on en déduit le résultat souhaité : GLn (IR) possède deux composantes connexes par
arcs, qui sont C+ et C− .

335
Chapitre 8 : Fonctions vectorielles
de la variable réelle

I Dérivation . . . . . . . . . . . . . . . . . . . . . . . . . . . 338
1 Dérivée en un point . . . . . . . . . . . . . . . . . . . . . 338
2 Fonction dérivée . . . . . . . . . . . . . . . . . . . . . . . 340
3 Opérations sur les fonctions dérivables . . . . . . . . . . . 340
4 Fonctions de classe C k . . . . . . . . . . . . . . . . . . . . 343
II Intégration sur un segment . . . . . . . . . . . . . . . . 346
1 Fonctions continues par morceaux sur [a, b] . . . . . . . . 346
2 Intégrale d’une fonction continue par morceaux . . . . . . 347
3 Propriétés de l’intégrale . . . . . . . . . . . . . . . . . . . 347
III Primitives et intégrales . . . . . . . . . . . . . . . . . . . 350
1 Primitives des fonctions continues . . . . . . . . . . . . . 350
2 Théorème fondamental . . . . . . . . . . . . . . . . . . . . 350
3 Inégalité des accroissements finis . . . . . . . . . . . . . . 351
IV Formules de Taylor . . . . . . . . . . . . . . . . . . . . . 351
1 Formule de Taylor avec reste intégral . . . . . . . . . . . . 351
2 Inégalité de Taylor-Lagrange . . . . . . . . . . . . . . . . 352
3 Développements limités . . . . . . . . . . . . . . . . . . . 352
4 Formule de Taylor-Young . . . . . . . . . . . . . . . . . . 353
Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 362
Fonctions vectorielles
de la variable réelle 8
Le but de ce chapitre est de généraliser aux fonctions vectorielles les notions de déri-
vation, d’intégration sur un segment et de primitive déjà vues en première année pour
les fonctions à valeurs réelles ou complexes.
Dans ce chapitre, IK désigne IR ou C, E un IK -espace vectoriel non nul de dimension
finie, et I un intervalle de IR d’intérieur non vide.

I Dérivation
1 Dérivée en un point
On considère ici une fonction f : I → E et a un point de I .
Définition 1
L’application f est dérivable en a si son taux d’accroissement en a :
τa (f ) : I \ {a} −→ E
f (t) − f (a)
t �−→
t−a
admet une limite dans E en a, alors appelée dérivée de f en a et notée :
df
f ′ (a) ou (a).
dt

Remarque La dérivée de f en a est parfois appelée vecteur dérivé de f en a.

Proposition 1
La fonction f est dérivable en a ∈ I si, et seulement s’il existe un vecteur ℓ ∈ E
et une fonction α : I → E tendant vers 0 en a tels que :
∀t ∈ I f (t) = f (a) + (t − a) ℓ + (t − a)α(t).
On a alors f ′ (a) = ℓ .
Démonstration page 354

Interprétation cinématique Lorsque la fonction f représente le mouvement d’un


point matériel en fonction du temps, le vecteur f ′ (t0 ) représente la vitesse instan-
tanée du point à l’instant t0 .
I Dérivation
Proposition 2
Si la fonction f est dérivable en a, alors elle est continue en a.
Démonstration page 354

Rappel : fonctions coordonnées Si l’on munit E d’une base (ei )1in , les fonc-
tions coordonnées de f dans la base B sont les fonctions f1 , . . . , fn , à valeurs
dans IK , définies par :
n

∀t ∈ I f (t) = fi (t) ei .
i=1
Proposition 3
Soit B = (ei )1in une base de E . La fonction f est dérivable en a si, et seulement
si, chacune de ses fonctions coordonnées dans la base B est dérivable en a.
Dans ce cas, si l’on note fi ces fonctions coordonnées, on a :
n

f ′ (a) = fi′ (a) ei .
i=1
Démonstration page 354
Principe de démonstration. Écrire les fonctions coordonnées du taux d’accroissement de f
en a .

Remarque On retrouve ainsi qu’une fonction f : I → C est dérivable en a si, et


seulement si, les fonctions Re f et Im f le sont puisque ces dernières sont les fonctions
coordonnées de f dans la base (1, i) du IR-espace vectoriel C .
 
cos t sin t
Ex. 1. Considérons l’application f : IR → M2 (IR) définie par f (t) = .
cos 2t sin 2t
Les fonctions coordonnées dans la base canonique de M2 (IR) ( t �→ cos t , t �→ sin t , t �→ cos 2t
et t �→ sin 2t ) étant dérivables en tout point, f est dérivable en tout point et l’on a :
 
− sin t cos t
∀t ∈ IR ϕ′ (t) = .
−2 sin 2t 2 cos 2t

Dérivabilité à droite et à gauche


Définition 2
• Si a n’est pas l’extrémité droite de I , on dit que f est dérivable à droite
en a si la restriction f|I∩[a,+∞[ est dérivable en a. Par définition, la dérivée à
 ′
droite de f en a est f|I∩[a,+∞[ (a). Elle est notée fd′ (a).
• On définit de même la dérivabilité à gauche et la dérivée à gauche en a
lorsque a n’est pas l’extrémité gauche de I . La dérivée à gauche se note fg′ (a).

Remarques
• Si I admet un maximum a, la notion de dérivabilité à droite en a n’a pas de sens,
puisque I ∩ [a, +∞[ = {a} . Dans ce cas, la dérivabilité à gauche de f en a est
équivalente à sa dérivabilité en a et, sous réserve d’existence, fg′ (a) = f ′ (a).
• De la même façon, si I admet un minimum a, seule la dérivabilité à droite a un
sens et elle est alors équivalente à la dérivabilité en a.

339
Chapitre 8. Fonctions vectorielles de la variable réelle

Résultats Soit a un point intérieur à I .


• La fonction f est dérivable en a si, et seulement si, elle est dérivable à droite et
à gauche en a et fg′ (a) = fd′ (a).
• Une fonction dérivable à droite et à gauche en a est continue en a, car elle est
continue à droite et à gauche en a.

2 Fonction dérivée
Définition 3
On dit que f est dérivable sur I si elle est dérivable en tout point de I . On note
df
alors f ′ ou , l’application qui à tout t ∈ I associe le vecteur dérivé de f en t.
dt
On l’appelle l’application dérivée de f , ou plus simplement la dérivée de f .

Notation L’ensemble des fonctions dérivables sur I dans E se note D(I, E).

Proposition 4
Soit B une base de E . La fonction f : I → E est dérivable sur I si, et seulement
si, ses fonctions coordonnées dans B sont dérivables sur I .
Exo Les fonctions coordonnées de f ′ sont alors les dérivées des fonctions coordonnées
8.1 de f .

Démonstration. C’est la version globale de la proposition 3.

Caractérisation des fonctions constantes

Théorème 5
Une application est constante sur l’intervalle I si, et seulement si, elle est dérivable
et de dérivée nulle en tout point de I .

Démonstration. Utilisons, en passant par les fonctions coordonnées, le résultat déjà connu
pour les fonctions numériques. Puisque E est de dimension finie, la fonction f est constante
si, et seulement si, ses fonctions coordonnées le sont. Puisque l’on travaille sur un intervalle,
cela revient à dire que les fonctions coordonnées ont une dérivée nulle, ce qui, en utilisant la
proposition 3, revient à dire que f ′ est nulle.

3 Opérations sur les fonctions dérivables


Proposition 6
Soit f : I → E et g : I → E deux fonctions dérivables en a ∈ I et (λ, µ) ∈ IK2 .
Alors λf + µg est dérivable en a et :
 ′
λf + µg (a) = λf ′ (a) + µg ′ (a).

Démonstration. Il suffit de considérer les fonctions coordonnées et d’utiliser le résultat


analogue vu pour les fonctions à valeurs dans IK .

340
I Dérivation
Corollaire 7 (Linéarité de la dérivation)
Soit f : I → E et g : I → E deux fonctions dérivables sur I et (λ, µ) ∈ IK2 .
Alors λf + µg est dérivable sur I et :
 ′
λf + µg = λf ′ + µg ′ .

Remarque Il s’ensuit que D(I, E) est un sous-espace vectoriel de F(I, E) et que


� f ′ définie sur D(I, E) à valeurs dans F (I, E) est linéaire.
l’application f →

Proposition 8
Soit L une application linéaire de E dans un espace vectoriel F de dimension finie.
Si f est dérivable en a ∈ I alors L ◦ f est dérivable en a et :
 
(L ◦ f )′ (a) = L f ′ (a) .

Démonstration. Comme E est de dimension finie, l’application linéaire L est continue.


Si τa (f ) est le taux d’accroissement de f en a , alors, puisque L est linéaire, L ◦ τa (f ) est le
taux d’accroissement de L ◦ f en a . Puisque τa (f ) −→ f ′ (a) , on a, par continuité de L :
a
 
L ◦ τa (f ) −→ L f ′ (a) .
a
 
Cela prouve la dérivabilité de L ◦ f en a et donne (L ◦ f )′ (a) = L f ′ (a) .

Corollaire 9
Soit L une application linéaire de E dans un espace vectoriel F de dimension finie.
Si f est dérivable sur I alors L ◦ f est dérivable sur I et :
(L ◦ f )′ = L ◦ f ′ .

Notation La fonction L ◦ f se note également L(f ).


Plus généralement, si M : E1 × · · · × Ep → F est une application multilinéaire et
si f1 , . . . , fp sont des fonctions de I dans E1 , . . . , Ep respectivement, alors on note :

M (f1 , . . . , fp ) : I −→ F  
t �−→ M f1 (t), . . . , fp (t) .

Proposition 10
Soit E , F et G des espaces vectoriels de dimension finie et B une application
bilinéaire de E × F dans G.
Si f : I → E et g : I → F sont dérivables en a ∈ I , alors B(f, g) est dérivable
en a et :    
B(f, g)′ (a) = B f ′ (a), g(a) + B f (a), g ′ (a) .
Démonstration page 354

341
Chapitre 8. Fonctions vectorielles de la variable réelle
Corollaire 11
Soit E , F et G des espaces vectoriels de dimension finie et B une application
bilinéaire de E × F dans G.
Si f : I → E et g : I → F sont dérivables sur I , alors B(f, g) est dérivable
Exo sur I et :
8.2 B(f, g)′ = B(f ′ , g) + B(f, g ′ ).

Ex. 2. Si ϕ est dérivable sur I à valeurs dans IK et si f est dérivable sur I à valeurs dans E ,
alors ϕf est dérivable sur I et :
(ϕf )′ = ϕ′ f + ϕf ′ .
Ex. 3. Soit E un espace euclidien.
• Si f et g sont dérivables sur I , alors ( f | g ) est dérivable sur I et :
( f | g )′ = ( f ′ | g ) + ( f | g ′ ).

• En particulier, si f est dérivable sur I , l’application �f �2 est dérivable sur I et l’on a :


 ′
�f �2 = 2 ( f | f ′ ). (∗)
√ 
• Si de plus f ne s’annule pas, la fonction étant dérivable sur IR∗+ et �f � = �f �2 , on
déduit de (∗) :
( f | f′ )
�f �′ = ·
�f �
• On déduit également de (∗) que si f est dérivable et l’application �f � constante, alors, pour
tout t ∈ I , les vecteurs f (t) et f ′ (t) sont orthogonaux.

Proposition 12
Soit E1 , . . . , Ep et F des espaces vectoriels de dimension finie, avec p  1 , ainsi
que M une application multilinéaire de E1 × · · · × Ep dans F .
Si f1 , . . . , fp sont des fonctions de I dans E1 , . . . , Ep respectivement, dérivables
en a ∈ I , alors M (f1 , . . . , fp ) est dérivable en a et :

M (f1 , . . . , fp )′ (a) = M (f1′ , f2 , . . . , fp )(a) +M (f1 , f2′ , . . . , fp )(a)


+ · · · + M (f1 , f2 , . . . , fp′ )(a).
Démonstration page 355
Principe de démonstration. Adapter la démonstration de la proposition 10 de la page
précédente.

Corollaire 13
Soit E1 , . . . , Ep et F des espaces vectoriels de dimension finie, avec p  1 , ainsi
que M une application multilinéaire de E1 × · · · × Ep dans F .
Si f1 , . . . , fp sont des fonctions dérivables de I dans E1 , . . . , Ep respectivement,
alors M (f1 , . . . , fp ) est dérivable et :
Exo
8.3 M (f1 , . . . , fp )′ = M (f1′ , f2 , . . . , fp ) + M (f1 , f2′ , . . . , fp ) + · · · + M (f1 , f2 , . . . , fp′ ).

342
I Dérivation

Ex. 4. En particulier, si B est une base de E de dimension p et si f1 , . . . , fp sont des fonctions


dérivables définies sur I à valeurs dans E , alors detB (f1 , . . . , fp ) est dérivable sur I et :
 ′
detB (f1 , . . . , fp ) = detB (f1′ , f2 , . . . , fp ) + detB (f1 , f2′ , . . . , fp ) + · · · + detB (f1 , f2 , . . . , fp′ ).

Proposition 14
Soit I et J deux intervalles, ainsi que f : I → E et ϕ : J → IR deux fonctions
telles que ϕ(J) ⊂ I . Si ϕ est dérivable en a ∈ J et f est dérivable en b = ϕ(a),
alors f ◦ ϕ est dérivable en a et l’on a :
 
(f ◦ ϕ)′ (a) = ϕ′ (a) f ′ ϕ(a) .

Démonstration. En fixant une base (ei )1in de E , les fonctions coordonnées de f ◦ ϕ


vérifient (f ◦ ϕ)i = fi ◦ ϕ . Le résultat découle alors du résultat vu pour les fonctions à valeurs
dans IK .

Corollaire 15
Étant donné deux intervalles I et J , ainsi que deux fonctions dérivables f : I → E
et ϕ : J → IR telles que ϕ(J) ⊂ I , la fonction f ◦ ϕ est dérivable sur I et l’on a :
(f ◦ ϕ)′ = ϕ′ · (f ′ ◦ ϕ).

Ex. 5. Soit f : IR → E une fonction dérivable. La fonction g définie sur IR+ par g(t) = f (t2 )
est alors dérivable et g ′ (t) = 2tf ′ (t2 ) pour tout t ∈ IR+ .

Attention Bien écrire (f ◦ ϕ)′ = ϕ′ ·(f ′ ◦ ϕ) lorsque f est une fonction vectorielle, le
point désignant la multiplication d’un vecteur par un scalaire. Le produit (f ′ ◦ ϕ) · ϕ′
n’a de sens que lorsque f est à valeurs dans IK (scalaires devant les vecteurs).

4 Fonctions de classe C k
Définition 4
Soit k ∈ IN et f : I → E .
On dit que f est k fois dérivable s’il existe (ϕ0 , . . . , ϕk ) ∈ F(I, E)k+1 tel que :
f = ϕ0 et ∀i ∈ [[0, p − 1]] ϕ′i = ϕi+1 .
Une telle suite est alors unique. On note f (k) = ϕk la dérivée k -ième de f .

Notations
dk f
• La dérivée k -ième se note également ·
dtk
• Dk (I, E) désigne l’ensemble des fonctions k fois dérivables de I dans E .
Interprétation cinématique Lorsque la fonction f représente le mouvement
d’un point matériel en fonction du temps, le vecteur f ′′ (t0 ) représente le vecteur
accélération du point à l’instant t0 .

343
Chapitre 8. Fonctions vectorielles de la variable réelle

Remarque Soit (i, j) ∈ IN2 et f : I → E . La fonction f est i + j fois dérivable si,


et seulement si, elle est i fois dérivable et f (i) est j fois dérivable. Dans ce cas :
 (j)
f (i+j) = f (i) .

En particulier, f est i + 1 fois dérivable si, et seulement si, elle est dérivable et f ′
est i fois dérivable.

Définition 5
Soit f : I → E .
• Soit k ∈ IN. La fonction f est de classe C k si elle est k fois dérivable et f (k)
est continue.
• La fonction f est de classe C ∞ si elle est de classe C k , pour tout k ∈ IN.

Notation Pour k ∈ IN∪{∞} , on note C k (I, E) l’ensemble des fonctions de classe C k


sur I dans E .

Remarques
• Les fonctions de classe C 0 sont les fonctions continues.
• On a l’inclusion C 1 (I, E) ⊂ C 0 (I, E), car toute fonction dérivable est continue.

• Plus généralement, pour tout k ∈ IN on a C k+1 (I, E) ⊂ C k (I, E).

• Pour tout k ∈ IN et f ∈ F(I, E), la fonction f est de classe C k+1 si, et seulement
si, f est dérivable et f ′ est de classe C k ou encore si, et seulement si, f est de
classe C k et f (k) est de classe C 1 .
Lorsque l’on procède par récurrence, c’est en général en utilisant l’une de ces deux
propriétés que l’on montre qu’une fonction est de classe C k .
 k  k
• On a C ∞ (I, E) = C (I, E) = D (I, E).
k∈IN k∈IN

Proposition 16 (Linéarité de la dérivation)


Pour k ∈ IN, C k (I, E) est un espace vectoriel et l’application f �→ f (k) est linéaire.
Démonstration page 355
Principe de démonstration. Procéder par récurrence.

Corollaire 17
C ∞ (I, E) est un espace vectoriel et l’application f �→ f ′ est un endomorphisme.

Remarque Si l’on note ∆ l’endomorphisme de C ∞ (I, E) définie par ∆(f ) = f ′ , on


a f (k) = ∆k (f ), pour f ∈ C ∞ (I, E) et k ∈ IN.

344
I Dérivation

Opérations sur les fonctions de classe C k


Dans cette section, k ∈ IN ∪ {∞} .
Proposition 18
Soit L une application linéaire de E dans un espace vectoriel de dimension finie F .
Si f ∈ C k (I, E) alors L ◦ f ∈ C k (I, F ). De plus, si k est entier, on a :
 (k)
L◦f = L ◦ f (k) .
Démonstration page 356

Corollaire 19
Soit B = (ei )1in une base de E . La fonction f : I → E est de classe C k si, et
seulement si, toutes ses fonctions coordonnées dans la base B le sont. En notant
alors fi ces fonctions coordonnées, lorsque k est entier, on a :
n
 (k)
f (k) = fi ei .
i=1
Démonstration page 356

Proposition 20 (Formule de Leibniz)


Soit E , F et G trois espaces vectoriels de dimension finie et B une application
bilinéaire de E × F dans G.
Si f ∈ C k (I, E) et g ∈ C k (I, F ), alors B(f, g) ∈ C k (I, G). De plus, si k est un
entier, la dérivée d’ordre k de B(f, g) est donnée par la formule de Leibniz :
 k  
k  
B(f, g)(k) = B f (j) , g (k−j) .
j=0
j
Démonstration page 356
Principe de démonstration. Procéder par récurrence et utiliser la relation de Pascal sur les
coefficients binomiaux.

Proposition 21
Soit E1 , . . . , Ep , F des espaces vectoriels de dimension finie, avec p  1 , et M une
application multilinéaire de E1 × · · · × Ep dans F . Si f1 , . . . , fp sont des fonctions
de classe C k de I dans E1 , . . . , Ep , alors M (f1 , . . . , fp ) est de classe C k .
Démonstration page 357
Principe de démonstration. On procède par récurrence. Pour montrer que M (f1 , . . . , fp )
est de classe C k+1 , on prouve que sa dérivée est de classe C k en utilisant le corollaire 13.

Proposition 22
Soit I et J deux intervalles, ainsi que deux fonctions f ∈ C k (I, E) et ϕ ∈ C k (J, IR)
telles que ϕ(J) ⊂ I . La fonction f ◦ ϕ est élément de C k (J, E).
Démonstration page 358
Principe de démonstration. Pour établir le résultat pour k ∈ IN , procéder par récurrence,
en appliquant la proposition 20.

345
Chapitre 8. Fonctions vectorielles de la variable réelle

II Intégration sur un segment


Dans cette section, les fonctions sont définies sur un segment [a, b] (avec a < b ) et à
valeurs dans E .
1 Fonctions continues par morceaux sur [a, b]
Définition 6
On dit que f : [a, b] → E est continue par morceaux s’il existe une sub-
division σ = (a0 , . . . , ap ) de [a, b] telle que pour tout i ∈ [[0, p − 1]], on puisse
prolonger f|]ai ,ai+1 [ en une fonction continue sur [ai , ai+1 ].
Une telle subdivision est dite adaptée à f .

Reformulation La fonction f est continue par morceaux s’il existe une subdivi-
sion σ = (a0 , . . . , ap ) de [a, b] telle que :
• pour tout i ∈ [[0, p − 1]], la fonction f|]ai ,ai+1 [ soit continue,

• pour tout i ∈ [[0, p − 1]], la fonction f|]ai ,ai+1 [ admette des limites finies en ai
et ai+1 .

 
Notation On note CM [a, b], E l’ensemble des fonctions continues par morceaux
sur le segment [a, b] à valeurs dans E .

Ex. 6. Toute fonction continue est continue par morceaux.


Ex. 7. On dit que f : [a, b] → E est en escalier s’il existe une subdivision σ = (a0 , . . . , ap )
de [a, b] telle que, pour tout i ∈ [[0, p − 1]] , la fonction f|]a ,a [ soit constante. Une telle
i i+1

fonction est continue par morceaux sur [a, b] .

Proposition 23
Une fonction définie sur [a, b] à valeurs dans E est continue par morceaux si, et
seulement si, chacune de ses fonctions coordonnées l’est.
Démonstration page 358
Principe de démonstration. Utiliser les caractérisations de la limite et de la continuité
d’une fonction à l’aide de ses fonctions coordonnées.

Proposition 24
Toute fonction continue par morceaux définie sur [a, b] à valeurs dans E est bornée.
Démonstration page 358

Proposition 25
   
L’ensemble CM [a, b], E est un sous-espace vectoriel de F [a, b], E .
Démonstration page 358

346
II Intégration sur un segment

2 Intégrale d’une fonction continue par morceaux


Proposition 26
 
Soit f ∈ CM [a, b], E et B = (e1 , . . . , en ) une base de E . On note f1 , . . . , fn les
fonctions coordonnées de f dans la base B .
n  b 

Le vecteur fi ei ne dépend alors pas de la base de E choisie.
i=1 a

Ce vecteur est l’intégrale de f sur [a, b] .


Démonstration page 359
Principe de démonstration. Utiliser la linéarité de l’intégrale des fonctions scalaires et
n  
 b
utiliser la formule de changement de base pour donner les coordonnées du vecteur fi ei
i=1 a

dans une nouvelle base B′ .


  b  b
Notation L’intégrale sur [a, b] est notée f ou f ou f (t) dt.
[a,b] a a

Ex. 8. Soit f : [a, b] → E une fonction en escalier et σ = (a0 , . . . , ap ) une subdivision adaptée.
En notant ui la valeur de f sur ]ai , ai+1 [ , pour i ∈ [[0, p − 1]] , on a :

 b p−1

f (t) dt = (ai+1 − ai ) ui .
a i=0

Point méthode Une fois une base de E fixée, pour établir des propriétés de l’in-
tégrale d’une fonction f : [a, b] → E , on peut souvent se ramener aux fonctions
coordonnées.

3 Propriétés de l’intégrale
Linéarité

Proposition 27
 b  
L’application f �→ f définie sur CM [a, b], E à valeurs dans E est linéaire.
a

Démonstration. Conséquence immédiate de la linéarité de l’intégrale des fonctions continues


par morceaux sur un segment à valeurs dans IK , appliquée aux fonctions coordonnées.

Corollaire 28
Deux fonctions continues par morceaux coïncidant sauf sur une partie finie de [a, b]
ont des intégrales égales.
Démonstration page 359

347
Chapitre 8. Fonctions vectorielles de la variable réelle

Image par une application linéaire


Proposition 29
Soit L une application linéaire de E dans un espace vectoriel de dimension finie F .
   
Si f ∈ CM [a, b], E , alors L ◦ f ∈ CM [a, b], F et :
 b   b
L f = L ◦ f.
a a
Démonstration page 359

Ex. 9. Soit u ∈ E , ainsi que ϕ : [a, b] → IK une fonction continue. L’application L : x �→ xu


définie sur IR étant linéaire, on obtient :
 b
 b

ϕ(t) u dt = ϕ(t) dt u.
a a

Ex. 10. Si (u, v) ∈ E 2 , alors la fonction t �→ u + t v définie sur [a, b] est continue et :
 b  b  b
b2 − a 2
(u + tv) dt = u dt + tv dt = (b − a) u + v.
a a a
2

Relation de Chasles
Soit I un intervalle de IR d’intérieur non vide. Comme pour les fonctions scalaires,
on dit que f : I → E est continue par morceaux sur I si la restriction de f à
tout segment de I est continue par morceaux.
Notation Soit f continue par morceaux sur I . Pour tout couple (a, b) ∈ I 2 , on
 b
étend la notation f au cas où a  b , de la manière suivante :
a
 b  a  b
f =− f si a > b et f = 0 si a = b.
a b a
 b   b
 
Attention La relation 
 f (t) dt
 �f (t)� dt n’est valable que si a  b .
a a
Sans hypothèse sur a et b , on peut écrire :
 b  
   
 f (t) dt f (t)dt,
 
a [a,b]

où [a, b] est le segment d’extrémités a et b .


Avec les notations précédentes, on obtient la proposition suivante.
Proposition 30 (Relation de Chasles)
Soit f : I → E une fonction continue par morceaux et (a, b, c) ∈ I 3 . On a :
 b  c  c
f (t) dt + f (t) dt = f (t) dt.
a b a

Démonstration. On applique la relation de Chasles aux fonctions coordonnées.

348
II Intégration sur un segment

Sommes de Riemann

Définition 7
 
Soit f ∈ CM [a, b], E . Pour tout entier n ∈ IN∗ , on appelle somme de Riemann
d’ordre n associée à f le vecteur :

b−a   b − a
n−1
f a+k .
n n
k=0

 
Rappel Soit f ∈ CM [a, b], IK . Alors :
 b
b−a   b − a
n−1
f a+k −→ f.
n n n→+∞ a
k=0

En appliquant ce résultat à chacune des fonctions coordonnées d’une fonction continue


par morceaux, on obtient le théorème suivant.

Théorème 31 (Convergence des sommes de Riemann)


 
Soit f ∈ CM [a, b], E . Alors :
 b
b−a   b − a
n−1
f a+k −→ f.
n n n→+∞ a
k=0

Inégalités

Proposition 32 (Inégalité triangulaire)


On a pour toute fonction f ∈ CM([a, b], E) :

 b   b
 
Exo  f  �f �.
8.9  
a a
Démonstration page 360
Principe de démonstration. D’abord démontrer le résultat pour les fonctions en escalier.
Étendre ensuite le résultat aux fonctions continues par morceaux à l’aide de sommes de Riemann.

 
Rappelons qu’une fonction f ∈ CM [a, b], E est bornée, donc �f �∞ est définie.

Corollaire 33
 
Soit f ∈ CM [a, b], E . Alors :
 b 
 
 f 
   (b − a) �f �∞ .
a

Démonstration. En effet :
 b   b  b
   
 f  f   �f �∞ dt = (b − a) �f �∞ .
 
a a a

349
Chapitre 8. Fonctions vectorielles de la variable réelle

III Primitives et intégrales


1 Primitives des fonctions continues
Définition 8
Soit f ∈ C(I, E). Une application g de I dans E est une primitive de f si g est
dérivable sur I avec g ′ = f .

Proposition 34
Soit f ∈ C(I, E). Deux primitives sur I de f diffèrent d’une constante.

Démonstration. En effet, la dérivée de leur différence est nulle sur l’intervalle I .

Remarque La réciproque est immédiate : si F est une primitive de f et G = F + a,


où a ∈ E , alors G est une primitive de f .

2 Théorème fondamental
Théorème 35
Soit f ∈ C(I, E) et a ∈ I .
1. L’application :
ga : I −→ E
 t
t �−→ f (s) ds
a
est l’unique primitive de f qui s’annule en a.
2. Pour toute primitive g de f et tout couple (α, β) de I 2 , on a :
 β
f (t) dt = g(β) − g(α).
α
Démonstration page 360
Principe de démonstration. Raisonner sur les fonctions coordonnées.

Remarque Si la fonction f est seulement continue par morceaux sur I , l’applica-


tion ga du théorème précédent est encore continue puisque localement lipschitzienne,
comme on peut le prouver en utilisant l’inégalité :
�ga (x) − ga (y)�  |x − y| sup�f �,
J
où J est un segment contenant a, x et y .
De plus on a la dérivabilité de ga en tout point x de continuité de f
avec ga′ (x) = f (x).

Corollaire 36
Soit f ∈ C 1 (I, E). Pour tout (a, b) ∈ I 2 , on a :

 b
f (b) − f (a) = f ′ (t) dt.
a

350
IV Formules de Taylor
Corollaire 37 (Changement de variable)
Soit f : I → E une fonction continue et ϕ : J → IR de classe C 1 telles que ϕ(J) ⊂ I .
Pour tout (a, b) ∈ J 2 , on a :
 ϕ(b)  b
 
f (t) dt = ϕ′ (s) f ϕ(s) ds.
ϕ(a) a

Démonstration. Si g est une primitive de f , alors g ◦ ϕ est une primitive de ϕ′ · (f ◦ ϕ) .


Par suite :
 ϕ(b)  b
     
f (t) dt = g ϕ(b) − g ϕ(a) = ϕ′ (s) f ϕ(s) ds.
ϕ(a) a

3 Inégalité des accroissements finis


Théorème 38 (Inégalité des accroissements finis)
Soit f ∈ C(I, E) de classe C 1 sur l’intérieur de I .

S’il existe λ ∈ IR tel que ∀t ∈ I �f ′ (t)�  λ, alors on a :
∀(a, b) ∈ I 2 �f (b) − f (a)�  λ |b − a|.

Démonstration. Il s’agit d’une conséquence immédiate du corollaire 36 de la page précédente


et de l’inégalité triangulaire pour les intégrales.

Interprétation cinématique Un mobile qui se déplace à une vitesse instantanée de


norme inférieure à v pendant un temps t, se trouve au maximum à une distance v t
de son point de départ.

IV Formules de Taylor
Dans cette section, p est un entier naturel.
1 Formule de Taylor avec reste intégral
Théorème 39 (Formule de Taylor avec reste intégral)
Étant donné une fonction f ∈ C p+1 (I, E), on a pour tout (a, b) ∈ I 2 :
p
 (b − a)k
f (b) = f (k) (a) + Rp
k!
k=0
avec :
 b
(b − x)p (p+1)
Rp = f (x) dx.
a p!

Démonstration. La formule s’obtient en appliquant la formule de Taylor avec reste intégral


des fonctions à valeurs dans IK aux fonctions coordonnées de f .

Remarque Avec le changement de variable [x = a+t (b−a)], on obtient l’expression


suivante du reste intégral :
 1
(1 − t)p (p+1)  
Rp = (b − a)p+1 f a + t (b − a) dt,
0 p!
qui peut être utile lors de majorations de normes.

351
Chapitre 8. Fonctions vectorielles de la variable réelle

Ex. 11. Si f est une fonction continue sur IR et a ∈ IR , alors la fonction :


 x
(x − t)p
g : x �→ f (t) dt
a
p!

est de classe C p+1 sur IR et l’on a g (p+1) = f . En effet, on a :

p
 (x − a)k
g : x �→ F (x) − F (k) (a),
k!
k=0

où F est une primitive (p + 1) -ième de f , ce qui démontre, par opérations sur les fonctions de
classe C p+1 , que g est une fonction de classe C p+1 . La relation g (p+1) = f vient de ce que la
dérivée p + 1 -ième d’une fonction polynomiale de degré au plus p est la fonction nulle.

2 Inégalité de Taylor-Lagrange
Théorème 40 (Inégalité de Taylor-Lagrange)
Étant donné une fonction f ∈ C p+1 (I, E), on a pour tout (a, b) ∈ I 2 :
 
 p
 (b − a)k (k) 
  |b − a|p+1
f (b) − f (a)  Mp+1
 k!  (p + 1)!
k=0

où Mp+1 est un majorant de �f (p+1) � entre a et b .


Démonstration page 360

3 Développements limités
Proposition 41
Si f ∈ C(I, E) admet un développement limité à l’ordre p en a ∈ I :
 
f (x) = α0 + (x − a) α1 + · · · + (x − a)p αp + o (x − a)p ,
alors toute primitive g de f admet un développement limité à l’ordre p + 1 en a,
obtenu en primitivant terme à terme le développement limité de f :
(x − a)2 (x − a)p+1  
g(x) = g(a) + (x − a) α0 + α1 + · · · + αp + o (x − a)p+1 .
2 p+1
Démonstration page 361

 
Convention Dans ce contexte, la notation o (x − a)p signifie une certaine fonc-
 
tion ϕ : I → E telle que �ϕ(x)� = o (x − a)p .
Le développement limité de f de la proposition 41 ci-dessus peut donc aussi s’écrire :
f (x) = α0 + (x − a) α1 + · · · + (x − a)p αp + (x − a)p ε(x),
où ε : I → E est une fonction tendant vers 0 en a.

352
IV Formules de Taylor

4 Formule de Taylor-Young
Théorème 42 (Formule de Taylor-Young)
Toute fonction f ∈ C p (I, E) admet un développement limité à l’ordre p en a ∈ I
donné par la formule de Taylor–Young :
p
 (x − a)k  
f (x) = f (k) (a) + o (x − a)p .
k!
k=0
Démonstration page 361

Ex. 12. On peut dériver terme à terme le développement limité à l’ordre p d’une fonction de
classe C p .
En effet, d’après l’unicité du développement limité, il s’agit du développement de Taylor–Young
de f , dont la dérivée est le développement de f ′ .

Remarque On notera bien la différence entre d’un côté la formule de Taylor avec
reste intégral et l’inégalité de Taylor-Lagrange et de l’autre la formule de Taylor-
Young. Cette dernière donne un résultat local sur le comportement de la fonction au
voisinage de a. Les deux premières sont des résultats globaux, donnant des informa-
tions sur les valeurs prises par la fonction sur la totalité de l’intervalle.

353
Chapitre 8. Fonctions vectorielles de la variable réelle

Démonstrations
Proposition 1
• Supposons qu’il existe ℓ ∈ E et α : I → E tels que α(t) −→ 0 et :
t→a

∀t ∈ I f (t) = f (a) + (t − a) ℓ + (t − a)α(t).


f (t)−f (a)
Alors, pour tout t ∈ I \ {a} , on a α(t) = t−a
− ℓ et, puisque α −→ 0 :
a

f (t) − f (a)
−→ ℓ.
t−a t→a

• Réciproquement, supposons f dérivable en a . Posons α : I → E l’application définie par :


 f (t)−f (a)
− f ′ (a) si t �= a ;
α(t) = t−a
0 sinon.
Soit ε > 0 . Par définition du vecteur dérivé, il existe un réel η > 0 tel que :
 
∀t ∈ I \ {a} |t − a|  η =⇒ α(t)  ε,
donc, puisque α(a) = 0 , on a :
 
∀t ∈ I |t − a|  η =⇒ α(t)  ε.
La fonction α a bien pour limite 0 en a .
Proposition 2 On prolonge la fonction τa (f ) en a en posant τa (f )(a) = f ′ (a) . Puisque f est
dérivable en a , ce prolongement est continu en a et l’on a :
∀t ∈ I f (t) = f (a) + (t − a) τa (f )(t),
ce qui prouve la continuité de f en a .
Proposition 3 Soit t ∈ I \ {a} . On a :
n n
f (t) − f (a)  fi (t) − fi (a) 
τf (a)(t) = = ei = τfi (a)(t)ei .
t−a t−a
i=1 i=1

Le résultat attendu découle du fait que l’existence d’une limite pour une fonction équivaut à
l’existence d’une limite pour chacune de ses fonctions coordonnées.
De plus, si f est dérivable en a , on a en passant à la limite dans la relation précédente :
n

f ′ (a) = fi′ (a) ei .
i=1

354
Démonstrations

Proposition 10 Si a ∈ I .
Pour tout t ∈ I \ {a} on a, en utilisant la bilinéarité de B :
   
  B f (t), g(t) − B f (a), g(a)
τa B(f, g) (t) =
t−a
       
B f (t), g(t) − B f (a), g(t) + B f (a), g(t) − B f (a), g(a)
=
t−a
 f (t) − f (a)   g(t) − g(a)

=B , g(t) + B f (a), ·
t−a t−a
Puisque les espaces E et F sont de dimension finie, l’application bilinéaire B est continue. De
plus, la fonction g étant dérivable en a , elle est continue. Enfin, puisque les taux d’accroisse-
 
ment τa (f ) et τa (g) ont des limites en a , on déduit de l’expression ci-dessus que τa B(f, g)
a une limite finie en a et :
     
τa B(f, g) (t) −→ B f ′ (a), g(a) + B f (a), g ′ (a) ,
t→a

ce qui prouve la dérivabilité de B(f, g) en a et l’égalité :


   
B(f, g)′ (a) = B f ′ (a), g(a) + B f (a), g ′ (a) .

Proposition 12 Soit a ∈ I .
Pour tout t ∈ I , on a par « télescopage » et multilinéarité de M :
   
M f1 (t), . . . , fp (t) − M f1 (a), . . . , fp (a) =
p 
    
M f1 (a), . . . , fi−1 (a), fi (t), . . . , fp (t) − M f1 (a), . . . , fi (a), fi+1 (t), . . . , fp (t)
i=1
p
  
= M f1 (a), . . . , fi−1 (a), fi (a) − fi (t), fi+1 (t), . . . , fp (t)
i=1

Ainsi, si t et a sont distincts, toujours par multilinéarité de M , on a :


   
  M f1 (t), . . . , fp (t) − M f1 (a), . . . , fp (a)
τa M (f1 , . . . , fp ) (t) =
t−a
p
  fi (t) − fi (a)

= M f1 (a), . . . , fi−1 (a), , fi+1 (t), . . . , fp (t) .
t−a
i=1

Puisque les espaces E1 , . . . , Ep sont de dimension finie, l’application multilinéaire M est conti-
nue. De plus, les fonctions fi étant dérivables en a , elles sont continues en a . Enfin, puisque les
 
taux d’accroissement τa (fi ) ont des limites en a , le taux d’accroissement τa M (f1 , . . . , fp ) a
une limite finie en a d’après l’expression ci-dessus et :
     
τa M (f1 , . . . , fp ) (t) −→ M f1′ (a), f2 (a), . . . , fp (a) + · · · + M f1 (a), . . . , fp−1 (a), fp′ (a) ,
t→a

ce qui prouve la dérivabilité de M (f1 , . . . , fp ) en a et l’égalité :


p
  
M (f1 , . . . , fp )′ (a) = M f1 , . . . , fi−1 , fi′ , fi+1 , . . . , fp (a).
i=1

355
Chapitre 8. Fonctions vectorielles de la variable réelle

Proposition 16 Notons D : f �→ f ′ l’application définie sur D(I, E) , espace des fonctions déri-
vables sur I et à valeurs dans E , à valeurs dans F(I, E) . D’après le corollaire 7 de la page 341,
l’application D est linéaire.

Montrons par récurrence que C k (I, E) est un espace vectoriel et que l’application Dk : f �→ f (k)
est linéaire sur C k (I, E) à valeurs dans C(I, E) .

• On sait que C 0 (I, E) est un espace vectoriel. De plus, D0 est l’identité de C 0 (I, E) , donc
linéaire.

• Supposons le résultat vrai pour un k ∈ IN .


 
On a C k+1 (I, E) = D−1 C k (I, E) , donc par linéarité de D et l’hypothèse de récurrence,
on conclut que C k+1 (I, E) est un espace vectoriel.

Par ailleurs, Dk+1 = Dk ◦ ∆k+1 , où ∆k+1 est la restriction de D à C k+1 (I, E) , donc
linéaire. Ainsi, par composition, Dk+1 est linéaire, à valeurs dans C(I, E) .

Proposition 18 Démontrons ce résultat par récurrence pour k ∈ IN , le cas des fonctions de


classe C ∞ s’en déduisant immédiatement.

• Pour k = 0 , c’est le résultat sur la composition d’une application linéaire et d’une application
continue.

• Supposons le résultat vrai pour un certain k ∈ IN et considérons f ∈ C k+1 (I, E) . Alors f


est dérivable et, par le corollaire 9 de la page 341, L ◦ f est dérivable avec (L ◦ f )′ = L ◦ f ′ .
D’après l’hypothèse de récurrence appliquée à f ′ , qui est de classe C k , la fonction L ◦ f ′ est
de classe C k et :

(L ◦ f ′ )(k) = L ◦ (f ′ )(k) = L ◦ f (k+1) .

Cela prouve que L ◦ f est de classe C k+1 et l’égalité (L ◦ f )(k+1) = L ◦ f (k+1) .

Corollaire 19 Pour i ∈ [ 1, n]] , notons e∗i la forme linéaire coordonnée d’indice i relativement à la
base B et εi : IK −→ E Ces applications sont linéaires.
t �−→ tei .

Soit f : I → E une fonction.

• Supposons f de classe C k . Pour tout i ∈ [ 1, n]] , les fonctions coordonnées fi = e∗i ◦ f sont
alors de classe C k , d’après la proposition 18.

• Supposons que les fonctions coordonnées soient toutes de classe C k . Alors, pour
tout i ∈ [[1, n]] , la fonction εi ◦ fi est de classe C k , d’après la proposition 18. Comme on

n
a f= εi ◦ fi , la fonction f est de classe C k , comme somme de fonctions de classe C k .
i=1

356
Démonstrations

Proposition 20 Soit f : I → E et g : I → F deux fonctions.


Pour k ∈ IN , posons Hk : « Si f et g sont de classe C k , alors la fonction B(f, g) est de
k  
  
k
classe C k et B(f, g)(k) = j
B f (j) , g (k−j) » et montrons Hk par récurrence.
j=0

• La propriété H0 est évidente.

• Supposons Hk vraie pour un certain k ∈ IN et supposons que f et g soient de classe C k+1 .

Puisque f et g sont de classe C k+1 , elles sont de classe C k et d’après l’hypothèse de


récurrence :
k  
 k  
B(f, g)(k) = B f (j) , g (k−j) .
j
j=0

Pour j ∈ [ 0, k]] , les fonctions f (j) et g (k−j) sont respectivement de classe k + 1 − j > 0
et j + 1 > 0 . Il vient alors du corollaire 11 de la page 342 par linéarité que B(f, g)(k) est
dérivable et :

k  
(k+1)
 
(k) ′
 k  ′
B(f, g) = B(f, g) = B f (j) , g (k−j) ,
j
j=0

donc, toujours à l’aide du corollaire 11 de la page 342 :

k  
 k    
B(f, g)(k+1) = B f (j+1) , g (k−j) + B f (j) , g (k+1−j)
j
j=0

k+1   k  
 k    k  
= B f (j) , g (k+1−j) + B f (j) , g (k+1−j)
j−1 j
j=1 j=0
(réindexation)
k+1   k+1  
 k    k  
= B f (j) , g (k+1−j) + B f (j) , g (k+1−j)
j−1 j
j=1 j=0
k

(car k+1
= 0)
  k+1 
   
k   k k  
= B f, g (k+1) + + B f (j) , g (k+1−j)
0 j−1 j
j=1

k+1  
 k+1  
= B f (j) , g (k+1−j) . (relation de Pascal)
j
j=0

Cette dernière expression de B(f, g)(k+1) montre, par opérations sur les fonctions continues,
que B(f, g)(k+1) est une fonction continue. La propriété est ainsi démontrée.

On en déduit que si f ∈ C ∞ (I, E) et g ∈ C ∞ (I, F ) , alors B(f, g) ∈ C ∞ (I, G) .

357
Chapitre 8. Fonctions vectorielles de la variable réelle

Proposition 21 Montrons par récurrence sur k ∈ IN que si les fonctions f1 , . . . , fp sont de


classe C k , alors M (f1 , . . . , fp ) est également de classe C k .
 
• Le cas k = 0 . Les fonctions f1 , . . . , fp étant continues, la fonction t �→ f1 (t), . . . , fp (t)
est continue. Les espaces E1 . . . , Ep étant de dimension finie, l’application multilinéaire M
est continue. Ainsi, par composition, M (f1 , . . . , fp ) est continue.
• Supposons la propriété vraie pour un k ∈ IN . Soit f1 , . . . , fp des fonctions de classe C k+1
de I dans E1 , . . . , Ep . Comme elles sont dérivables, le corollaire 13 de la page 342 assure
que M (f1 , . . . , fp ) est dérivable et :
M (f1 , . . . , fp )′ = M (f1′ , f2 , . . . , fp ) + M (f1 , f2′ , . . . , fp ) + · · · + M (f1 , f2 , . . . , fp′ ).
En appliquant l’hypothèse de récurrence à f1′ et f2 , . . . , fp qui sont de classe C k , on obtient
que M (f1′ , f2 , . . . , fp ) est de classe C k . De même pour les autres termes, ce qui prouve
que M (f1 , . . . , fp )′ est de classe C k , i.e. M (f1 , . . . , fp ) est de classe C k+1 . La conclusion
suit.
On en déduit que si f1 , . . . , fp sont des fonctions de classe C ∞ , alors M (f1 , . . . , fp ) est de
classe C ∞ .
Proposition 22 Pour k ∈ IN , posons Hk : « Pour f ∈ C k (I, E) et ϕ ∈ C k (J, IR) telles
que ϕ(J) ⊂ I , la fonction f ◦ ϕ est de classe C k ».
• La propriété est immédiate pour k = 0 (composition de fonctions continues).
• Supposons le résultat vrai pour un entier k ∈ IN . Considérons deux fonctions f ∈ C k+1 (I, E)
et ϕ ∈ C k+1 (J, IR) telles que ϕ(J) ⊂ I . Ces deux fonctions sont dérivables, donc, d’après le
corollaire 15 de la page 343, f ◦ ϕ est dérivable et :
(f ◦ ϕ)′ = ϕ′ · (f ′ ◦ ϕ).
L’application (λ, x) �→ λx définie sur IK×E est bilinéaire. Puisque E et IK sont de dimension
finie et que ϕ′ et f ′ ◦ ϕ sont de classe C k (d’après l’hypothèse de récurrence), on en déduit
que ϕ′ · (f ′ ◦ ϕ) est de classe C k , c’est-à-dire que (f ◦ ϕ)′ est de classe C k , i.e. f ◦ ϕ est
de classe C k+1 .
Proposition 23 Munissons E d’une base B = (ei )1in . On note fi les fonctions coordonnées
de f dans cette base.
• Soit f : [a, b] → E une fonction continue par morceaux et σ = (a0 , . . . , ap ) une subdivision
adaptée.
Par caractérisation de la continuité et de la limite en termes de fonctions coordonnées, pour
tout j ∈ [ 0, p − 1]] et i ∈ [ 1, n]] , la fonction fi |]a ,a [ est continue et a des limites finies
j j+1

en aj et aj+1 . Par suite, toutes les fonctions coordonnées sont continues par morceaux.
• Soit f : [a, b] → E une fonction dont les fonctions coordonnées fi sont continues par
morceaux. Pour chacune de ces fonctions fi il existe une subdivision qui lui est adaptée. En
prenant une subdivision σ plus fine que chacune d’entre elles, celle-ci est adaptée à toutes
les applications fi . Toujours en utilisant la caractérisation de la limite et de la continuité en
termes de fonctions coordonnées, il vient que f est une fonction continue par morceaux et
que σ lui est adaptée.
Proposition 24 Cela résulte immédiatement du fait que toutes les fonctions coordonnées dans une
base de E donnée, étant des fonctions continues par morceaux sur [a, b] , sont bornées.
Proposition 25 Le fait qu’une combinaison linéaire de fonctions continues par morceaux reste
une fonction continue par morceaux repose sur la propriété analogue vérifiée par les fonctions
coordonnées. On conclut en remarquant que la fonction nulle est continue par morceaux.

358
Démonstrations

Proposition 26 Soit f : [a, b] → E une fonction continue par morceaux et B = (e1 , . . . , en ) une
base de E . On note (f1 , . . . , fn ) les fonctions coordonnées de f dans la base B et l’on pose :
n 
 b

I= fi ei .
i=1 a

Soit B′ = (e′1 , . . . , e′n ) une autre base de E . Posons P = (ai,j )1i,jn la matrice de passage
de B à B′ . On note également (g1 , . . . , gn ) les fonctions coordonnées de f dans la base B′ .
Montrons que :
n  
 b
I= gi e′i .
i=1 a

La formule de changement de bases donne :


n n
 
∀i ∈ [[1, n]] fi = ai,j gj et ∀j ∈ [ 1, n]] e′j = ai,j ei .
j=1 i=1

Par conséquent, par linéarité de l’intégrale (des fonctions scalaires) :


n   n  b n 
 b  
I= fi ei = ai,j gj ei
i=1 a i=1 a j=1
n  n  
  b
= ai,j g j ei
i=1 j=1 a

n 
 b

n  n 
 b

= gj ai,j ei = gj e′j ,
j=1 a i=1 j=1 a

ce qui démontre la formule annoncée.


Corollaire 28 Leur différence est une fonction en escalier nulle sauf en un nombre fini de points,
donc, en revenant à la définition, est d’intégrale nulle.
Proposition 29 On munit E et F des bases B = (ei )1in et B′ = (e′i )1ip .
Notons (ai,j ) 1ip la matrice de L dans les bases B et B′ .
1jn
 
Soit f ∈ CM [a, b], E . En notant f1 , . . . , fn les fonctions coordonnées de f dans la base B ,
par linéarité de L , on a :
 b  
n  b   n 
 b 
L f =L fj ej = fj L(ej ).
a j=1 a j=1 a

Par ailleurs, toujours par linéarité :


n
 n
 
p  p  n
  
L◦f = fj L(ej ) = fj ai,j e′i = ai,j fj e′i ,
j=1 j=1 i=1 i=1 j=1

donc L ◦ f est continue par morceaux, puisque chaque fonction coordonnée est une combinaison
linéaire de fonctions continues par morceaux. Par linéarité de l’intégrale scalaire, on a :
 p  n   n   
p  n  
b   b  b  b
L◦f = ai,j fj e′i = fj ai,j e′i = fj L(ej ).
a i=1 j=1 a j=1 a i=1 j=1 a

La conclusion suit.

359
Chapitre 8. Fonctions vectorielles de la variable réelle

Proposition 32
• Pour une fonction en escalier ϕ , le résultat découle de l’inégalité triangulaire :
  
 p−1  p−1
 (ai+1 − ai ) ci   (ai+1 − ai ) �ci �,
 
i=0 i=0

où σ = (a0 , . . . , ap ) est une subdivision adaptée à ϕ et, pour i ∈ [ 0, p − 1]] , on note ci la


valeur prise par ϕ sur ]ai , ai+1 [ .
 
• Démontrons le résultat dans le cas général. Soit donc f ∈ CM [a, b], E . Pour n ∈ IN∗ ,
posons ϕn la fonction définie sur [a, b] par :
    
f a + k b−a si t ∈ a + k b−a , a + (k + 1) b−a
ϕn (t) = n n n
f (b) si t = b.
La fonction ϕn est en escalier et :
 n−1  
b−a 
b
b−a
ϕn (t) dt = f a+i
a
n n
i=0

est une somme de Riemann de la fonction f . De même, �ϕn � est une fonction en escalier
 b
et �ϕn � est une somme de Riemann pour la fonction �f � . On a donc d’après le premier
a
point, pour tout n ∈ IN∗ :
 b   b
   
 ϕ (t) dt  ϕn (t) dt, (∗)
 n 
a a

et d’après le théorème de convergence des sommes de Riemann :


   
b b b   b  
ϕn (t) dt −→ f (t) dt et ϕn (t) dt −→ f (t) dt.
n→+∞ n→+∞
a a a a

Ainsi, par passage à la limite dans l’inégalité (∗) , en utilisant la continuité de la norme, on
obtient :  b   b
   
 f (t) dt f (t) dt. (∗)
 
a a

Théorème 35
1. L’unicité est une conséquence de la proposition 34 de la page 350. En fixant une base de E
 t
et notant fi les fonctions coordonnées, qui sont continues, les fonctions t �→ fi (s) ds en
a
sont des primitives qui s’annulent en 0 , donc ga est une primitive de f s’annulant en a ,
d’après la proposition 3 de la page 339.
2. Le résultat est évident pour l’application ga d’après la relation de Chasles. Il est vrai pour
toute primitive, puisque les primitives de f diffèrent toutes de ga d’une constante.
Théorème 40 Puisque la fonction f est de classe C p+1 , la fonction f (p+1) est continue sur
 
le segment d’extrémités a et b , et donc la fonction f (p+1)  l’est également. Cela justifie
l’existence de Mp+1 .
Pour établir le résultat, utilisant l’expression du reste donnée en remarque page 351, il suffit de
remarquer :
 1
(1 − t)p |b − a|p+1
�Rp �  |b − a|p+1 Mp+1 dt = Mp+1 .
0
p! (p + 1)!

360
Démonstrations

Proposition 41
 
• Commençons par montrer que si h ∈ C(I, E) vérifie h(x) = o (x − a)p , alors :
 x
 
h(t) dt = o (x − a)p+1 .
a

Soit ε > 0 . Prenons η > 0 tel que :


∀t ∈ I |t − a|  η =⇒ �h(t)�  ε |t − a|p .
Pour x ∈ I tel que |x − a|  η , on a :
 
 x 
 h(t) dt sup �h�  ε |x − a|p+1 ,
   |x − a| [a,x]
a

ce qui prouve le résultat.


• Comme :  x
g(x) = g(a) + f (t) dt,
a
on obtient le résultat par linéarité de l’intégrale, en appliquant le premier point à la fonction :
p

h : x �→ f (x) − αk (x − a)k .
k=0

Théorème 42 Démontrons le résultat par récurrence.


• Si p = 0 , la continuité de f donne f (x) = f (a) + o(1) .
• Soit p ∈ IN∗ . Supposons le résultat vrai pour toute fonction de classe C p−1 .
Soit f ∈ C p (I, E) . On a f ′ ∈ C p−1 (I, E) et :
p−1

 (x − a)k  
f (x) = f (k+1) (a) + o (x − a)p−1 ,
k!
k=0

puis par primitivation :


p
 (x − a)k  
f (x) = f (k) (a) + o (x − a)p .
k!
k=0

361
Chapitre 8. Fonctions vectorielles de la variable réelle

S’entraîner et approfondir
Dérivation
8.1 Hélices
→340
Soit E un espace euclidien et v ∈ E non nul.
Déterminer les fonctions dérivables f : IR → E telles que ( f ′ | v ) soit une fonction constante.

8.2 Soit M : IR −→ Mn (IK) une application dérivable.


→342
t �−→ M (t)

1. Montrer que la fonction t �→ M (t)M (t)T est dérivable.


2. On suppose que IK = IR et que pour tout t ∈ IR la matrice M (t) est orthogonale. Montrer
alors que :
∀t ∈ IR M ′ (t)M (t)T ∈ An (IR).

8.3 Si M ∈ Mn (C) , on note χM l’application IR −→ Cn [X]


→342
t �−→ det(tIn − M ).
Soit A ∈ Mn (C) et i ∈ [[1, n]] , on note Ai la matrice extraite de A obtenue en supprimant
la ligne et la colonne d’indice i .
1. Exprimer χ′A en fonction des χAi .
2. En déduire le coefficient en X dans le polynôme caractéristique de A .

8.4 Soit E un espace euclidien et f : [a, b] → E une fonction continue sur [a, b] , dérivable
sur ]a, b[ . Montrer qu’il existe c ∈ ]a, b[ tel que :
   
f (b) − f (a)  (b − a)f ′ (c)
  
Indication. On pourra considérer t �→ f (t)  f (b) − f (a) .

⋆ 8.5 Soit E un IK -espace vectoriel de dimension finie et a < b deux réels. Soit f : [a, b] → E
et g = [a, b] → IR+ deux fonctions dérivables vérifiant �f ′ �  g ′ . On souhaite montrer que :

�f (b) − f (a)�  g(b) − g(a).

1. Prouver le résultat en supposant que les fonctions f et g soient de classe C 1 .


2. Montrer le résultat sans l’hypothèse « classe C 1 ».
Indication. Pour ε > 0 , on pourra considérer l’ensemble :
  
A = x ∈ [a, b]  �f (x) − f (a)�  g(x) − g(a) + ε (x − a) ,

et montrer que sup A = b .

362
Exercices

8.6 Pour n  1 et x ∈ IR , calculer :


 
 x 1 (0) 
 x2 /2 x 1

 
 .. 
 . 
Dn (x) =  x3 /3! x2 /2! x ·
 .. .. ..

 . .

 . 1 
 xn /n! ··· ··· x2 /2! x 
Indication. Calculer Dn′ (x) .

8.7 Spirales logarithmiques


On se place dans le plan complexe, orienté par la base (1, i) .
Déterminer les fonctions f ∈ C 1 (IR, C∗ ) telles f ′ (t) �= 0 pour tout t ∈ IR et que l’angle entre
les vecteurs f (t) et f ′ (t) soit constant.

8.8 Soit t �→ X(t) une application de classe C 1 de IR dans Mn (IR) telle que X(0) soit une
matrice de rotation. Montrer que les assertions suivantes sont équivalentes :
(i) pour tout t , X(t) est une matrice de rotation ;
(ii) il existe une application continue A de IR dans l’ensemble des matrices antisymétriques
de taille n telle que : ∀t ∈ IR X ′ (t) = A(t) X(t) .

Intégration et formules de Taylor


8.9 Soit E un espace vectoriel de dimension finie muni d’une norme � � et f : [a, b] → E une
fonction de classe C 1 telle que f (a) = 0 .
→349

 b 
  (b − a)2

Montrer que  f (t) dt sup �f ′ (t)� .
 2 t∈[a,b]
a

8.10 Soit E un espace euclidien de dimension n  1 et [a, b] un segment d’intérieur non vide
de IR . On considère une fonction continue f : [a, b] → E , non nulle, telle que :
 b   b
   
 f (t) dt= f (t) dt.
 
a a

On pose :
 b
f (t) dt
a
e1 =  ·
b  
f (t) dt
a
1. Montrer que e1 est bien défini.
En déduire l’existence d’une base orthonormée B = (e1 , . . . , en ) de E .
2. On note f1 , . . . , fn les fonctions coordonnées de f dans la base B .
Montrer que f1  0 et f = f1 e1 .

⋆ 8.11 Soit E un espace vectoriel de dimension finie muni d’une norme � � .


Montrer que pour toute fonction f de classe C 1 de [0, 1] dans E , on a :
 
1  ′  1  
sup �f �  f (t) dt + f (t) dt.
[0,1] 0 0

363
Chapitre 8. Fonctions vectorielles de la variable réelle

 
8.12 Soit a et b deux réels, avec a < b , et f ∈ C [a, b], IR à valeurs positives et dont l’ensemble
des zéros est d’intérieur vide.
 x
1. Montrer que l’application F : x �→ f (t) dt induit une bijection de [a, b] sur [0, F (b)] .
a
En déduire, pour tout entier n  1 , une subdivision (a0 , . . . , an ) de [a, b] telle que :
 ai+1  b
1
∀i ∈ [ 0, n − 1]] f (t) dt = f (t) dt.
ai
n a
 
2. Soit g ∈ C [a, b], E , où E est un IK -espace vectoriel de dimension finie.
n−1
1
Calculer lim g(ai ) .
n→+∞ n
i=0

⋆ 8.13 Soit [a, b] un segment de IR d’intérieur non vide, ainsi que ϕ : [a, b] → IR+ une fonction
continue et f : [a, b] → IR une fonction de classe C 2 non nulle.
On suppose que f ′′ + ϕ f = 0 et f (a) = f (b) = 0 .
 b
4
Montrer que  ϕ(t) dt .
b−a a
Indication. On pourra introduire un c ∈ ]a, b[ où |f | atteint son maximum et utiliser une
formule de Taylor entre a et c , ainsi qu’entre c et b .

8.14 Soit E un IR -espace vectoriel de dimension finie.


1. (a) Soit f une fonction de classe C 2 sur IR+ à valeurs dans E telle que les fonctions �f �
et �f ′′ � soient majorées respectivement par M0 et M2 .
2M0 hM2
Montrer que pour tout h > 0 , la fonction �f ′ � est majorée par + ·
√ h 2

(b) En déduire que la fonction �f � est majorée par 2 M0 M2 .
2. Soit f définie sur [0, 1] par :
∀x ∈ [0, 1] f (x) = 2(x − 1)2 − 1.
Quelles sont les bornes de f , f ′ et f ′′ sur [[0, 1]] ?
En utilisant la fonction cosinus, prolonger f en une fonction de classe C 2 sur IR+ pour
laquelle la majoration de la question précédente est optimale.

364
Solutions des exercices

Solutions des exercices


v
8.1 Puisque v �= 0 , on a n  1 , où n est la dimension de E . Complétons e1 = �v�
en une base
orthonormée (e1 , . . . , en ) de E . Soit f : IR → E une fonction dérivable. Notons f1 , . . . , fn
les fonctions coordonnées de f dans la base (e1 , . . . , en ) .

n
Pour t ∈ IR , on a f (t) = fk (t)ek , donc par caractère orthonormé de la base (e1 , . . . , en ) :
k=1
  
( f ′ (t) | v ) = f ′ (t)  �v�e1 = �v�f1′ (t).
Ainsi, comme �v� = � 0 , la fonction t �→ ( f ′ (t) | v ) est constante si, et seulement si, la

fonction f1 est constante, i.e. la fonction f1 est affine.

8.2 1. L’application B �→ B T définie sur Mn (IK) étant linéaire et le produit matriciel étant
� AB T est bilinéaire sur Mn (IK) . On déduit donc du
bilinéaire, l’application (A, B) →
corollaire 11 de la page 342 que ϕ : t �→ M (t)M (t)T est dérivable sur IR et :
T
∀t ∈ IR ϕ′ (t) = M ′ (t)M (t)T + M (t)M ′ (t) .
2. Si pour tout t ∈ IR la matrice M (t) est orthogonale, alors la fonction ϕ est la fonction
constante In et donc ϕ′ = 0 . Ainsi :
T
∀t ∈ IR M ′ (t)M (t)T + M (t)M ′ (t) = 0. (∗)
D’autre part, pour tout t ∈ IR :
 T  T T T
M ′ (t)M (t)T = M (t)T M ′ (t) = M (t)M ′ (t) .
Ainsi, d’après (∗) :
 T
M ′ (t)M (t)T = −M ′ (t)M (t)T ,
donc M ′ (t)M (t)T est une matrice antisymétrique.

 
8.3 Considérons l’écriture en colonnes A = C1 ··· Cn et notons B = (E1 , . . . , En ) la
base canonique de Cn .
1. Par définition, on a :
 
∀t ∈ IR χA (t) = detB tE1 − C1 , . . . , tEn − Cn .
Pour i ∈ [ 1, n]] , la fonction t �→ tEi − Ci est dérivable, de dérivée t �→ Ei . On en déduit,
grâce à la multilinéarité de la fonction det , que pour t ∈ IR :
   
 1 −a1,2 ··· −a1,n   t − a1,1 ··· −a1,n−1 0 
 ..   .. .. ..
   
′  0 t − a2,2 .   . . .
χA (t) =  + ··· +  .
 .. .. ..   .. 
 . . .   . t − an−1n−1 0 
 0 −an,2 ··· t − an,n
  −a ··· −an,n−1 1

n,1

En développant le i -ème déterminant par rapport à la i -ème colonne, il vient :


∀t ∈ IR χ′A (t) = χA1 (t) + · · · + χAn (t).
Ainsi :
n

χ′A = χAi . (⋆)
i=1

365
Chapitre 8. Fonctions vectorielles de la variable réelle

2. Le coefficient en X du polynôme caractéristique de A vaut χ′A (0) . En évaluant en 0


dans l’égalité (⋆) , il vient :
n n
 
χ′A (0) = χAi (0) = (−1)n−1 ∆i,i (A),
i=1 i=1

où ∆i,i (A) est le mineur d’indice (i, i) de A . On a donc :


 
χ′A (0) = (−1)n−1 tr Com(A) .

8.4 Considérons g : [a, b] −→ IR


  
t �−→ f (t)  f (b) − f (a) .
       2
• On a g(b) − g(a) = f (b)  f (b) − f (a) − f (a)  f (b) − f (a) = f (b) − f (a) .
  
• Par ailleurs, g est dérivable sur ]a, b[ et g ′ (t) = f ′ (t)  f (b)−f (a) . D’après le théorème
des accroissements finis, il existe c ∈ ]a, b[ tel que g(b) − g(a) = (b − a)g ′ (c) , i.e. :
  
g(b) − g(a) = (b − a) f ′ (c)  f (b) − f (a) .
Ainsi, d’après l’inégalité de Cauchy-Schwarz, sachant que b − a  0 :
  
g(b) − g(a)  (b − a)f ′ (c) f (b) − f (a).
   
• L’inégalité f (b) − f (a)  (b − a)f ′ (c) est immédiate lorsque f (b) = f (a) . Sinon, on
a d’après les deux points précédents :
    
f (b) − f (a)2 = g(b) − g(a)  (b − a)f ′ (c) f (b) − f (a),
donc :    
f (b) − f (a)  (b − a)f ′ (c).

8.5 1. Les fonctions f et g étant de classe C 1 , on a :


 b  b
f (b) − f (a) = f ′ (t) dt et g(b) − g(a) = g(t) dt.
a a

On obtient alors le résultat souhaité en exploitant les propriétés de l’intégrale :


   b
   b ′ 
f (b) − f (a) = 
 f (t) dt

 f ′ (t) dt (inégalité triangulaire)
a a
 b
 g ′ (t) dt (croissance de l’intégrale)
a

= g(b) − g(a).

2. Soit ε > 0 . Posons :


  
A = x ∈ [a, b]  �f (x) − f (a)�  g(x) − g(a) + ε (x − a) .
L’ensemble A est non vide, puisqu’il contient a , et majoré par b . Par continuité de f
et g , il est fermé, donc contient sa borne supérieure, notée c .
Supposons c < b . Comme :
  
 f (t) − f (c)  g(t) − g(c)
lim  − = �f ′ (c)� − g ′ (c)  0,
t→c t−c t−c

366
Solutions des exercices

on a, au voisinage de c l’inégalité :
 
 f (t) − f (c)  g(t) − g(c)
 −  ε.
t−c t−c
Pour t > c suffisamment proche de c , on en déduit :

�f (t) − f (a)�  �f (t) − f (c)� + �f (c) − f (a)�


 g(t) − g(c) + ε (t − c) + g(c) − g(a) + ε (c − a)
= g(t) − g(a) + ε (t − a),

ce qui contredit le fait que c soit la borne supérieure de A .


Donc c = b et :
�f (b) − f (a)�  g(b) − g(a) + ε (b − a).
En passant à la limite quand ε tend vers 0 , on en déduit :

�f (b) − f (a)�  g(b) − g(a).

8.6 On convient que D0 = 1 .


Pour n ∈ IN∗ , notons B la base canonique de IRn et Cn l’application définie sur IR
 
x2 xn
par Cn (x) = x, , . . . , . On a donc :
2 n!
 
∀x ∈ IR Dn (x) = detB Cn (x), Cn′ (x), . . . , Cn(n−1) (x) .

L’application Cn est de classe C n , donc Dn est de classe C 1 .


Soit x ∈ IR . Par multilinéarité de l’application detB , on a :
   
Dn′ (x) = detB Cn′ (x), Cn′ (x), . . . , Cn(n−1) (x) + detB Cn (x), Cn′′ (x), Cn′′ (x), . . . , Cn(n−1) (x) +
   
· · · + detB Cn (x), . . . , Cn(n−1) (x), Cn(n−1) (x) + detB Cn (x), . . . , C (n−2) (x), Cn(n) (x) .

Dans tous ces déterminants, à l’exception du dernier, on a deux colonnes (consécutives)


égales. Par suite :
 
 x 1 (0) 
 x2 /2 x 1

 
 .. 
 3 . 
 x /3! x2 /2! x 
Dn′ (x) =  .. .. ..  = Dn−1 (x).

 . . . 1 
 .. ..

 .

 . x 0 
 xn /n! ··· ··· ... x2 /2! 1


Il est clair que Dn (0) = 0 (il s’agit du déterminant d’une matrice triangulaire supérieure
stricte). On en déduit alors par récurrence :

xn
∀n ∈ IN ∀x ∈ IR Dn (x) = ·
n!

367
Chapitre 8. Fonctions vectorielles de la variable réelle

8.7 Procédons par analyse-synthèse.


Analyse. Supposons que f soit une solution du problème. Notons α ∈ IR une mesure de
l’angle entre f (t) et f ′ (t) (par hypothèse, cet angle ne dépend pas de t ). Alors, pour
tout t ∈ IR , on peut écrire (rappelons que, par hypothèse, f ne s’annule pas) :
f ′ (t)
= λ(t)eiα avec λ(t) > 0.
f (t)
f ′ (t) −iα
On a alors λ(t) = f (t)
e , donc la fonc- f ′ (t)
tion λ est continue. Ainsi f est solution de
α
l’équation différentielle :
y ′ = λ(t)eiα y.
f (t)
Par conséquent il existe a ∈ C∗ tel que :
 
∀t ∈ IR f (t) = a exp Λ(t)eiα
où Λ est une primitive de λ . On remarque
que l’application Λ est de classe C 1 , stric-
tement croissante et sa dérivée ne s’annule
pas.
Synthèse. Réciproquement, si Λ : IR → IR est strictement croissante, de classe C 1 et que
sa dérivée ne s’annule pas alors, pour a ∈ C∗ , il est facile de vérifier que l’application f
définie par :
 
f (t) = a exp Λ(t)eiα
est une solution du problème.

8.8 Par linéarité de la transposition, si t �→ M (t) est une fonction dérivable à valeurs
dans Mn (IR) définie sur I , alors t �→ M (t)T est dérivable et :
 ′ T
∀t ∈ I M T (t) = M ′ (t) .

• Supposons que pour tout t ∈ I , X(t) soit une matrice de rotation.


Soit t ∈ I . Puisque X(t) est une matrice orthogonale, on a :

X ′ (t) = X ′ (t) X(t)T X(t) = A(t) X(t),

où l’on a posé A(t) = X ′ (t) X(t)T .


Les règles de calcul de la transposée donnent :
T
A(t)T = X(t)X ′ (t) . (∗)

Par ailleurs, toujours du fait que X(t) est une matrice orthogonale, on a :

X(t) X(t)T = In .
En dérivant cette relation (valable pour tout t ∈ IR ), il vient : :
T
∀t ∈ IR X ′ (t) X(t)T + X(t) X ′ (t) = 0.
ou encore :
T
∀t ∈ IR X(t) X ′ (t) = −X ′ (t) X(t)T = −A(t).
De la relation (∗) on obtient alors : ∀t ∈ IR A(t) ∈ An (IR) .

368
Solutions des exercices

• Supposons qu’il existe une fonction continue t �→ A(t) à valeurs dans An (IR) telle
que X ′ (t) = A(t)X(t) pour tout t .
Posons f (t) = X(t)T X(t) pour t réel. Les règles de dérivation donnent, pour t ∈ IR :
T
f ′ (t) = X ′ (t) X(t) + X(t)T X ′ (t)
 T
= A(t)X(t) X(t) + X(t)T A(t)X(t)

= X(t)T A(t)T X(t) + X(t)T A(t)X(t)


 
= X(t)T A(t)T + A(t) X(t).

Puisque A(t) est antisymétrique, il vient que f ′ (t) = 0 . Il s’ensuit que f est une fonction
constante. Puisque X(0) est une matrice de rotation, il vient :
∀t ∈ IR f (t) = X(t)T X(t) = In .
En d’autres termes, X(t) est une matrice orthogonale pour tout t . Par conséquent,
 
l’application g : t �→ det X(t) est à valeurs dans {−1, 1} . Par ailleurs, par continuité du
déterminant, la fonction g est continue. En vertu du théorème des valeurs intermédiaires,
la fonction g est constante et, puisque g(0) = 1 , on en conclut que X(t) est une matrice
de rotation, pour tout t ∈ IR .

8.9 • Puisque f ′ , et donc �f ′ � , est continue sur le segment [a, b] , la fonction �f ′ � est bornée.
Notons M = sup �f ′ (t)� .
t∈[a,b]

• Du fait que f (a) = 0 , on a :


 t
∀t ∈ [a, b] f (t) = f ′ (s) ds,
a

donc, pour tout t ∈ [a, b] :


 
  t  ′  t
f (t)  f (s) ds  M ds = M (t − a).
a a

• On en déduit par inégalité triangulaire, puis croissance de l’intégrale :


 b   b  b
    (b − a)2
 f (t) dt f (t) dt  M (t − a) dt = M ·
  2
a a a

8.10 1. • Puisque f n’est pas nulle, la fonction �f � est continue, positive, non nulle. Par
 b  
théorème f (t) dt > 0 . Par suite e1 est bien définit.
a
• Par homogénéité de la norme et par hypothèse sur f :
  b 
 
 f (t) dt   b 
 a  1  
�e1 � =  
 b
= 


 f (t) dt = 1.

   b  
  
f (t) dt   
f (t) dt
a

a a

• Par le théorème de la base orthonormée incomplète, on peut compléter (e1 ) en une


base orthonormée (e1 , . . . , en ) de E .

369
Chapitre 8. Fonctions vectorielles de la variable réelle

2. • On a d’une part :
 n  
b  b
f (t) dt = fi (t) dt ei ,
a i=1 a

d’autre part, par définition de e1 :


  
b b  
f (t) dt = f (t) dt e1 .
a a

Par unicité de la décomposition dans une base, il vient :


 
b b  
f1 (t) dt = f (t) dt.
a a

• Puisque B est une base orthonormée :



n 1/2
|f1 | = (f12 )1/2  fi2 = �f �. (∗)
i=1

Par croissance de l’intégrale, on en déduit :


  
b   b   b
f1 (t) dt  f (t) dt = f1 (t) dt,
a a a

l’égalité provenant du point précédent. Par conséquent, par double inégalité :


 
b   b
f1 (t) dt = f1 (t) dt, (1)
a a

c’est-à-dire :
 
b   b  
f1 (t) dt = f (t) dt. (2)
a a

∗ Il vient de (1) que f1 = |f1 |  0 (car |f1 | − f1 est positive, continue, d’intégrale
nulle).
∗ De même, (2) et (∗) montrent que |f1 | = �f � . Cela implique :
n

fi2 = 0 et donc ∀i ∈ [ 2, n]] fi = 0.
i=2

Par suite f = f1 e1 .

 
8.11 Puisque la fonction g : x �→ f (x) est continue sur le segment [0, 1] , elle est bornée et
admet un maximum d’après le théorème des bornes atteintes. Fixons un x0 ∈ [0, 1] où elle
atteint son maximum.
 x
Pour tout x ∈ [0, 1] , on a f (x0 ) = f (x) − f ′ (t) dt . Ainsi :
x0
 1  1  1
 x


f (x0 ) = f (x0 ) dx = f (x) dx − f (t) dt dx,
0 0 0 x0

370
Solutions des exercices

donc :
   1   x  
   1   
f (x0 )   f (x) dx+ f ′
(t) dt dx
   
0 0 x0
 1  1  x 
   
 f (x) dx +  f ′
(t) dt  dx
 
0 0 x0
 1 
 x0  x0    
   ′  1 x  ′ 
  
f (x) dx +  
f (t) dt dx + f (t) dt dx
0 0 x x0 x0
(relation de Chasles)
      
1   x0 1  ′  1 1  ′ 
 f (x) dx + f (t) dt dx + f (t) dt dx
0 0 0 x0 0
(fonctions positives)
 
1   1  ′ 
= f (t) dt + f (t) dt.
0 0

Cela prouve l’inégalité demandée.

8.12 1. • Posons pour x ∈ [a, b] :


 x
F (x) = f (t) dt.
a

On définit ainsi une fonction de classe C 1 sur [a, b] , car f est continue, et croissante,
du fait que f est à valeurs positives.
Par ailleurs, puisque F ′ = f , l’ensemble des zéros de F ′ est d’intérieur vide. Par
suite, la fonction F est strictement croissante. Étant de plus strictement croissante
 
et continue sur l’intervalle [a, b] , elle définit une bijection de [a, b] sur 0, F (b) .
Remarquons que F (b) > 0 .
• Raisonnons par analyse/synthèse.
Analyse. Supposons que (a0 , . . . , an ) soit une subdivision de [a, b] telle que :
 ai+1  b
1
∀i ∈ [ 0, n − 1]] f (t) dt = f (t) dt.
ai
n a

Alors :
 b
1
∀i ∈ [ 0, n − 1]] F (ai+1 ) − F (ai ) = f (t) dt.
n a

En sommant et en remarquant que F (a0 ) = 0 , on obtient, pour tout i ∈ [[1, n]] :


 b i 
i i
F (ai ) = f (t) dt = F (b) i.e. ai = F −1 F (b) .
n a
n n

On en déduit l’unicité d’une telle subdivision.


Synthèse. Il s’agit de vérifier que les ai définis ci-dessus forment bien une subdivison
de [a, b] . C’est le cas car, comme F −1 est strictement croissante, les points ai sont
ordonnés de manière strictement croissante, et l’on a de plus a0 = F −1 (0) = 0
 
et an = F −1 F (b) = b .

371
Chapitre 8. Fonctions vectorielles de la variable réelle

2. • Soit n ∈ IN∗ . D’après l’expression établie à la question précédente :


n−1 n−1   
1 1 i
g(ai ) = g F −1 F (b)
n n n
i=0 i=0
n−1
1
i  1 F (b) 
n−1
i
 
= (g ◦ F −1 ) F (b) = (g ◦ F −1 ) F (b) .
n n F (b) n n
i=0 i=0

On remarque alors que :

F (b) 
n−1  
i
(g ◦ F −1 ) F (b)
n n
i=0
 
est une somme de Riemann pour la fonction (g ◦ F −1 ) qui est continue sur 0, F (b) .
Par suite, on a :
n−1   
F (b) 
F (b)
i  
(g ◦ F −1 ) F (b) −→ g ◦ F −1 (x) dx,
n n n→+∞
0
i=0

donc :
n−1  F (b)
1 1
g(ai ) −→ (g ◦ F −1 )(x) dx. (⋆)
n n→+∞ F (b)
i=0 0

• La fonction F étant de classe C 1 , on peut poser le changement de variable [x = F (t)]


dans l’intégrale :
 F (b)  b
−1
I= (g ◦ F )(x) dx ce qui donne I= g(t)f (t) dt.
0 a

Par conséquent, d’après (⋆) :


 b
n−1  g(t)f (t) dt
1
b
1
g(ai ) −→ g(t)f (t) dt = a
 ·
n n→+∞ F (b) b
a
i=0 f (t) dt
a

8.13 La fonction |f | étant continue sur le segment [a, b] , elle atteint son maximum en un c ∈ [a, b] ,
d’après le théorème des bornes atteintes. Puisque |f | est non nulle, la valeur du maximum
est strictement positive. Comme f (a) = f (b) = 0 , cela implique que c ∈ ]a, b[ .
Quitte à remplacer f par −f , fonction qui vérifie les mêmes hypothèses que f , on peut
 
supposer que f (c) > 0 . On en déduit que f (t)  f (t)  f (c) pour tout t ∈ [a, b] , donc
que f atteint son maximum en c . Comme c est un point intérieur de l’intervalle [a, b] , on
a f ′ (c) = 0 .
Puisque f ′′ = −ϕ f , la formule de Taylor avec reste intégral à l’ordre 1 appliquée à f entre c
et a , ainsi qu’entre c et b donne :

 a
0 = f (a) = f (c) − (a − t)ϕ(t)f (t) dt
c
 b
0 = f (b) = f (c) − (b − t)ϕ(t)f (t) dt,
c

372
Solutions des exercices

donc :
 c  b
f (c) = (t − a)ϕ(t)f (t) dt et f (c) = (b − t)ϕ(t)f (t) dt,
a c

puis, du fait que f (c) > 0 est la valeur maximale de |f | :


 c   c  c
   

f (c) =  (t − a)ϕ(t)f (t) dt  (t − a)ϕ(t)f (t) dt  (c − a)f (c) ϕ(t) dt
a a a
 b   b  b
   

f (c) =  
(b − t)ϕ(t)f (t) dt   
(b − t))ϕ(t) f (t) dt  (b − c)f (c) ϕ(t) dt.
c c c

En divisant la première inégalité par (c − a)f (c) > 0 , et la seconde par (b − c)f (c) > 0 , on
obtient :
 c  b
1 1
 ϕ(t) dt et  ϕ(t) dt,
c−a a
b−c c
donc en sommant, en vertu de la relation de Chasles :
 b
1 1
+  ϕ(t) dt.
c−a b−c a

Une brève étude de la fonction t �→ 1


t−a
+ b−t
1
sur ]a, b[ montre qu’elle atteint son minimum
a+b 4
en 2
et que celui-ci vaut b−a
. Par suite :
 b
4 1 1
 +  ϕ(t) dt.
b−a c−a b−c a

8.14 1. Soit h > 0 et x ∈ IR+ .


(a) L’inégalité de Taylor-Lagrange donne :
  2
f (x + h) − f (x) − h f ′ (x)  h M2 . (1)
2
Il vient de l’inégalité triangulaire :
 ′       
f (x + h)   f (x)   f (x + h) − f (x) − hf ′ (x) 
f (x) = 
 + + ,
h h h
donc, à l’aide de l’inégalité (1) :
2M0 hM2
�f ′ (x)�  + ·
h 2
2M0 hM2  √
(b) Le minimum de h �→ + est atteint pour h = 2 M0 /M2 et vaut 2 M0 M2 .
h 2
L’inégalité ci-dessus donne alors :

�f ′ (x)�  2 M0 M2 .
2. On a immédiatement :
M0 = max |f | = 1 M1 = max |f ′ | = 4 et M2 = max |f ′′ | = 4.
[0,1] [0,1] [0,1]

On remarque que l’on a M1 = 2 M0 M2 . Il suffit donc prolonger f en une fonction de
classe C 2 sur IR+ de façon à conserver ces bornes, ce que l’on peut réaliser en posant :
 
∀x > 1 f (x) = − cos 2(x − 1) .

373
Chapitre 9 : Intégration sur un intervalle quelconque

I Intégrale généralisée . . . . . . . . . . . . . . . . . . . . . 376


1 Fonction continue par morceaux . . . . . . . . . . . . . . 376
2 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . 377
3 Cas des fonctions à valeurs réelles positives . . . . . . . . 383
4 Intégrales de référence . . . . . . . . . . . . . . . . . . . . 385
II Propriétés de l’intégrale . . . . . . . . . . . . . . . . . . 385
1 Linéarité . . . . . . . . . . . . . . . . . . . . . . . . . . . 385
2 Positivité, croissance . . . . . . . . . . . . . . . . . . . . . 386
3 Relation de Chasles . . . . . . . . . . . . . . . . . . . . . 386
4 Intégrabilité . . . . . . . . . . . . . . . . . . . . . . . . . . 387
III Calcul d’intégrales . . . . . . . . . . . . . . . . . . . . . . 390
1 Intégration par parties . . . . . . . . . . . . . . . . . . . . 390
2 Changement de variable . . . . . . . . . . . . . . . . . . . 393
3 Semi-convergence . . . . . . . . . . . . . . . . . . . . . . . 394
IV Intégration des relations de comparaison . . . . . . . . 396
1 Cas convergent : comparaison des restes . . . . . . . . . . 396
2 Cas divergent : comparaison des intégrales partielles . . . 398
Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 406
Intégration sur un
intervalle quelconque 9

Dans ce chapitre, on étend la notion d’intégrale, déjà connue pour les fonctions conti-
nues par morceaux sur un segment, à certaines fonctions continues par morceaux sur
un intervalle I quelconque de IR et à valeurs dans IK = IR ou IK = C.
Les intervalles de IR considérés dans ce chapitre sont tous d’intérieur non vide.

I Intégrale généralisée
1 Fonction continue par morceaux
Rappelons la définition d’une fonction continue par morceaux sur un segment et
étendons-la à un intervalle quelconque.
Définition 1
• Une fonction f : [a, b] −→ IK est dite continue par morceaux sur le seg-
ment [a, b] de IR s’il existe une subdivision (a0 , . . . , an ) de ce segment telle que,
pour tout i ∈ [[0, n − 1]], la restriction de f à ]ai , ai+1 [ possède un prolongement
continu sur le segment [ai , ai+1 ].
• Une fonction f : I −→ IK est dite continue par morceaux sur l’intervalle I
si sa restriction à tout segment inclus dans I est continue par morceaux.

Notation On note CM(I, IK) l’ensemble des fonctions continues par morceaux sur
l’intervalle I à valeurs dans IK.

Remarque L’ensemble CM (I, IK) contient les fonctions constantes sur I , est stable
par combinaison linéaire et par produit : c’est une sous-algèbre de IKI . On a immé-
diatement l’inclusion C(I, IK) ⊂ CM(I, IK).

Ex. 1. La fonction partie entière est une fonction continue par morceaux sur IR .
Ex. 2. La fonction inverse est continue par morceaux sur ]0, +∞[ mais ne possède pas de
prolongement continu par morceaux sur [0, +∞[ puisqu’elle n’est pas bornée au voisinage de 0 .
I Intégrale généralisée

2 Définitions
Cas où I = [a, b[
Dans cette section, on considère a ∈ IR et b ∈ IR tels que a < b  +∞.

Définition 2
 
Soit f ∈ CM [a, b[, IK .
 
On dit que l’intégrale f converge si la fonction x �→ f (t) dt admet
[a,b[ [a,x]
 
une limite finie en b . Dans ce cas, on note f ou f (t) dt cette limite.
[a,b[ [a,b[

Dans le cas contraire, on dit que l’intégrale f diverge.


[a,b[

Terminologie
• Une telle intégrale est appelée intégrale généralisée. On parle aussi d’intégrale
impropre.
• Pour une intégrale généralisée, son caractère convergent ou divergent est appelé
sa nature.

Proposition 1 (Caractère local de la nature d’une intégrale)


Soit f ∈ CM([a, b[, IK). Soit c ∈ [a, b[ .
 
Les intégrales f et f sont de même nature et, si elles convergent, on a :
[a,b[ [c,b[
  
f= f+ f.
[a,b[ [a,c] [c,b[
Démonstration page 399
Principe de démonstration. On utilise la relation de Chasles et la définition de la conver-
gence d’une intégrale.

Corollaire 2
 
Soit f ∈ CM([a, b[, IK). Si l’intégrale f converge, alors f −→ 0 .
[a,b[ [x,b[ x→b

Remarque On peut noter une analogie entre l’étude des intégrales généralisées sur
un intervalle [a, +∞[ et celle des séries numériques.

Terminologie Par analogie avec les séries, l’intégrale f est appelée intégrale
[a,x]

partielle et, en cas de convergence, l’intégrale f est appelée reste de l’inté-
[x,b[

grale f.
[a,b[

377
Chapitre 9. Intégration sur un intervalle quelconque

Le résultat suivant assure que, pour une fonction f continue par morceaux sur le
segment [a, b], il n’y a pas de différence entre son intégrale sur le segment [a, b] (au
sens de la première année) et son intégrale sur l’intervalle semi-ouvert [a, b[ (au sens
que nous venons de définir).

Proposition 3

Soit f ∈ CM([a, b], IK). Alors l’intégrale généralisée f converge et l’on a :
[a,b[
 
f= f.
[a,b[ [a,b]
Démonstration page 399

  b
Notation Dans la suite, l’intégrale f est notée f . Dans le cas où f est
[a,b[ a
continue par morceaux sur le segment [a, b], le résultat précédent assure la cohérence
de cette notation avec celle déjà utilisée en première année.

Proposition 4
 b
Soit f ∈ C([a, b[, IK) et F une primitive de f . L’intégrale f converge si, et
a
seulement si, F possède une limite finie en b . Dans ce cas, on a :
 b
f = lim F − F (a)
a b
 b
et la fonction définie sur [a, b[ par x �→ f est dérivable, de dérivée −f .
x
Démonstration page 399

 b
Notation Si lim F existe, on note F a l’expression lim F − F (a).
b b

 +∞
Ex. 3. Montrons que l’intégrale e−t dt converge et calculons sa valeur.
0

La fonction f : t �→ e−t est continue sur IR+ et l’une de ses primitives est F : t �→ −e−t .
 +∞
Comme F −→ 0 , l’intégrale e−t dt converge et l’on a :
+∞
0

 +∞
 +∞
e−t dt = −e−t 0
= 1.
0

378
I Intégrale généralisée
 +∞
dt
Ex. 4. Montrons que l’intégrale converge et calculons sa valeur.
1
t(1 + t2 )
1
• La fonction f : t �→ t(1+t2 )
et continue sur [1, +∞[ .

• Une décomposition en éléments simples donne f (t) = 1


− t
1+t2
; une primitive de f
 t
ln(1+t2 )
sur [1, +∞[ est donc F : t �→ ln t − 2
= ln √ t
·
1+t2

• On a, au voisinage de +∞ , 1 + t2 ∼ t , donc √ t
→ 1 . Par conséquent, F −→ 0 .
1+t2 +∞
 +∞
Puisque F admet une limite finie en +∞ , l’intégrale f converge et :
1

 +∞
 +∞ 1 ln 2
f= F = lim F − F (1) = − ln √ = ·
1
1 +∞ 2 2

 +∞
Ex. 5. Montrons que l’intégrale cos t dt diverge.
0

La fonction cos est continue sur [0, +∞[ et l’une de ses primitives est la fonction sin , qui ne
possède pas de limite en +∞ ; d’où la conclusion.

Attention À l’instar des séries numériques, la condition f −→ 0 n’est pas suffisante


 +∞ +∞

pour que l’intégrale f converge, comme le prouve l’exemple suivant.


a

 +∞
1
Ex. 6. Considérons f : t �→ sur [1, +∞[ . On a f −→ 0 , mais l’intégrale f diverge car :
t +∞
1

 x
dt
∀x  1 = ln x −→ +∞.
1
t x→+∞

Attention En revanche, contrairement au cas des séries numériques, la convergence


 +∞
de l’intégrale f n’entraîne pas que f −→ 0 , ni même que f est bornée au
a +∞
voisinage de +∞, comme on le verra dans l’exemple 14 de la page 384.

N 
 (n+1)a  (N +1)a
Point méthode Pour N ∈ IN et a > 0 , on a f = f . Par
n=1 na a
 +∞  (n+1)a
conséquent, si l’intégrale f converge alors la série f converge.
a na
Ainsi, on peut utiliser la divergence d’une série pour prouver la divergence d’une
intégrale.

379
Chapitre 9. Intégration sur un intervalle quelconque
 +∞  
 sin t 
Ex. 7. Montrons que l’intégrale   dt diverge. Pour cela, considérons la série de terme
π
t
 (n+1)π  
 sin t  1
général   dt . La fonction t �→ est décroissante sur [1, +∞[ , donc :

t t
 (n+1)π    (n+1)π
∗  sin t  1 2
∀n ∈ IN   dt  |sin t| dt = ·

t (n + 1) π nπ
(n + 1) π
 (n+1)π  
 sin t 
Ainsi, par comparaison aux séries de Riemann, la série de terme général   dt

t
 +∞  
 sin t 
diverge, donc l’intégrale   dt diverge.
π
t

  (n+1)a
Attention La réciproque est fausse : la convergence de la série f n’im-
na
 +∞
plique pas la convergence de l’intégrale f , comme le montre l’exemple suivant.
a
 +∞  2(n+1)π
Ex. 8. L’intégrale cos t dt diverge mais cos t dt est convergente, car son
0 2nπ
terme général est nul.

Cas où I = ]a, b]
Dans cette section, on considère a ∈ IR et b ∈ IR tels que −∞  a < b .
Définition 3
 
Soit f ∈ CM ]a, b], IK .
  b
On dit que l’intégrale f converge, si la fonction x �→ f (t) dt admet une
]a,b] x
 
limite finie en a. Dans ce cas, on note f ou f (t) dt cette limite.
]a,b]  ]a,b]

Dans le cas contraire, on dit que l’intégrale f diverge.


]a,b]


Exo Ex. 9. Montrons que l’intégrale ln t dt converge et calculons sa valeur.
9.1 ]0,1]
La fonction ln est continue sur ]0, 1] et l’une de ses primitives est F : x �→ x ln x − x .
 1
Comme F −→ 0 par croissances comparées, l’intégrale ln t dt converge et l’on a :
0
0

 1
 1
ln t dt = F (t) 0
= −1.
0

380
I Intégrale généralisée

Remarque On adapte sans difficulté au cas d’un intervalle semi-ouvert ]a, b] les
propositions 1, 3 et 4 énoncées dans le cas d’un intervalle du type [a, b[ .
  b
Notation L’intégrale f est aussi notée f.
]a,b] a

Cas d’un intervalle ouvert I = ]a, b[


2
Dans cette section, on considère (a, b) ∈ IR tel que −∞  a < b  +∞ .
Lemme 5
 
Soit f ∈ CM ]a, b[, IK .
 
S’il existe c ∈ ]a, b[ tel que les deux intégrales f et f convergent, alors,
]a,c] [c,b[
 
pour tout réel c′ ∈ ]a, b[ , les intégrales f et f convergent aussi, et :
]a,c′ ] [c′ ,b[
   
f+ f= f+ f.
]a,c′ ] [c′ ,b[ ]a,c] [c,b[
Démonstration page 399
Principe de démonstration. Conséquence de la proposition 1 de la page 377 et son ana-
logue dans le cas d’un intervalle ouvert à gauche.

Définition 4

 
Soit f ∈ CM ]a, b[, IK . On dit que l’intégrale f converge s’il existe un
]a,b[
 
réel c ∈ ]a, b[ tel que les deux intégrales f et f convergent. On pose
]a,c] [c,b[
alors :   
f= f+ f.
]a,b[ ]a,c] [c,b[

Dans le cas contraire, on dit que l’intégrale f diverge.
]a,b[

Remarque Le lemme 5 assure que la notion de convergence et éventuellement de


valeur d’une intégrale sur un ouvert ne dépend pas du choix de c.

Compatibilité avec les définitions déjà données


 
• Si f ∈ CM ]a, b], IK , il découle de la définition précédente et la proposition 1 de
 
la page 377 que les deux intégrales f et f ont même nature et, en cas
]a,b[ ]a,b]
 
de convergence, sont égales. On a le même résultat si f ∈ CM [a, b[, IK .
• De même, lerésultat de la proposition 3 de la page
 378
 
s’étend : si f ∈ CM [a, b], IK , l’intégrale f converge et f= f.
]a,b[ ]a,b[ [a,b]

381
Chapitre 9. Intégration sur un intervalle quelconque

 b
Notation La discussion précédente justifie la notation f utilisée pour désigner
a
cette intégrale.

 +∞  x  +∞
Ex. 10. Supposons que l’intégrale f converge. Montrons que f −→ f.
x→+∞
−∞ −x −∞
 +∞  0  +∞
Comme l’intégrale f converge, les deux intégrales f et f convergent. Par
−∞ −∞ 0
définition de l’intégrale sur un intervalle semi-ouvert, on a :

 0  0  x  +∞
f −→ f et f −→ f.
x→+∞ x→+∞
−x −∞ 0 0

En faisant la somme de ces deux limites et par la relation de Chasles, on obtient :

 x  0  +∞  +∞
f −→ f+ f= f,
x→+∞
−x −∞ 0 −∞

la dernière égalité venant de la définition de l’intégrale sur un intervalle ouvert.

Attention La réciproque du résultat obtenu par l’exemple précédent est


 x
fausse : comme le montre l’exemple suivant, l’existence de lim f (t) dt n’im-
x→+∞ −x
 +∞
plique pas la convergence de l’intégrale f.
−∞

 x  x  +∞
Ex. 11. Pour tout x ∈ IR , on a t dt = 0 , donc t dt −→ 0 , mais l’intégrale t dt
x→+∞
−x −x −∞
 x
n’est pas convergente puisque t dt −→ +∞ .
x→+∞
0

Point méthode Si f est continue sur ]a, b[ , et si F est une primitive de f , alors
 b
l’intégrable f converge si, et seulement si, F admet des limites finies en a et b ,
a
 b
 b
et l’on a alors f = lim F − lim F , quantité notée F (t) a .
a b a

382
I Intégrale généralisée
 +∞
dt
Ex. 12. Montrons que l’intégrale converge et calculons sa valeur.
−∞
1 + t2
1
La fonction f : t �→ est continue sur IR et l’une de ses primitives est Arctan .
1 + t2
 +∞
π π dt
Comme Arctan −→ et Arctan −→ − , l’intégrale converge et l’on a :
+∞ 2 −∞ 2 1 + t2
−∞
 +∞  
dt  +∞ π π
= Arctan(t) −∞ = − − = π.
−∞
1+t 2 2 2

3 Cas des fonctions à valeurs réelles positives


De la même façon que pour les séries numériques, on étudie le cas des fonctions
positives. La notion d’intégrabilité permettra ensuite de se ramener à ce cas.
On traite dans ce paragraphe le cas des intégrales généralisées sur l’intervalle semi-
ouvert [a, b[ , le cas ]a, b] étant analogue et le cas ]a, b[ se ramenant aux deux précé-
dents.
Proposition 6
Soit a ∈ IR et b ∈ IR tels que a < b  +∞, et f ∈ CM([a, b[, IR) à valeurs positives.
 b  x
1. L’intégrale f converge si, et seulement si, la fonction x �→ f est majorée
a a
sur [a, b[ .
 b  x
2. L’intégrale f diverge si, et seulement si f −→ +∞.
a a x→b
 b
On pose alors f = +∞.
a
Démonstration
 page 400
x
Principe de démonstration. On utilise la croissance de la fonction x �→ f.
a

Remarques
• Les conclusions sur la nature de l’intégrale subsistent si f n’est positive qu’au
 x
voisinage de b , car x �→ f est alors croissante au voisinage de b .
a

• L’adaptation de la proposition 6 au cas d’une fonction f ∈ CM ]a, b], IR) positive
 b  b
est la suivante : l’intégrale f converge si, et seulement si, la fonction x �→ f
a x
 b
est majorée, et si ce n’est pas le cas alors f −→ +∞.
x x→a

1
Ex. 13. La fonction t �→ est continue et positive sur [1, +∞[ , et admet la fonction ln pour
t  +∞  +∞
dt dt
primitive. Comme ln −→ +∞ , l’intégrale est divergente, et l’on a = +∞ .
+∞
1
t 1
t

383
Chapitre 9. Intégration sur un intervalle quelconque
Proposition 7 (Comparaison d’intégrales de fonctions positives)
 2
Soit (a, b) ∈ IR × IR tel que a < b  +∞, et (f, g) ∈ CM [a, b[, IR à valeurs
positives. Si f  g sur [a, b[ , alors on a l’inégalité suivante dans IR+ :
 b  b
f g.
a a

 b  b
En particulier, si l’intégrale g converge, alors l’intégrale f converge.
a a
Démonstration page 400
Principe de démonstration. On utilise la caractérisation de la convergence de l’intégrale
d’une fonction positive (proposition 6 de la page précédente).

 
Point méthode Soit a > 0 et f ∈ CM [a, +∞[, IR+ . Puisque pour tout N ∈ IN,
N  (n+1)a  (N +1)a
on a f = f , on obtient dans IR+ , par passage à la limite et
n=1 na a
positivité :
+∞ 
 (n+1)a  +∞
f= f.
n=1 na a

 (n+1)a  +∞
Exo En particulier, la série f et l’intégrale f ont même nature.
9.2 na a

Ex. 14. Soit f définie sur [1, +∞[ de la manière suivante :

∀n ∈ IN∗ ∀t ∈ [n, n + 1[ f (t) = n1  (t).


n,n+ 13
n

La fonction f est continue par morceaux et à valeurs


positives. On a de plus :
n
 +∞ +∞ 
 n+1 +∞
 1
f (t) dt = f (t) dt = < +∞.
1 n
n2
n=1 n=1

 +∞
Par conséquent, l’intégrale f (t) dt converge.
1

Remarque La fonction ici considérée est d’intégrale


convergente sur [1, +∞[ , mais ne tend pas vers 0 en +∞ 1
(en fait, elle n’est même pas bornée au voisinage de +∞ ). n3

384
II Propriétés de l’intégrale

4 Intégrales de référence
Comme pour les séries numériques, nous disposons d’un certain nombre d’exemples
de référence permettant, grâce au théorème de comparaison, de déterminer la nature
de beaucoup d’autres intégrales.
Proposition 8
 +∞
Soit α un réel. L’intégrale e−αt dt converge si, et seulement si, α > 0 .
0
Démonstration page 400

Proposition 9 (Intégrales de Riemann)


Soit α ∈ IR.
 +∞
dt
• L’intégrale converge si, et seulement si, α > 1 .
1 tα
 1
dt
• L’intégrale α
converge si, et seulement si, α < 1 .
0 t
• Plus généralement, étant donné (a, b) ∈ IR2 tel que a < b , les deux inté-
 b  b
dt dt
grales et convergent si, et seulement si, α < 1 .
a (b − t)α
a (t − a)α
Démonstration page 400

 +∞  1  1
dt dt dt
Ex. 15. Les intégrales , √ et √ convergent.
1
t2 0 t 0 1−t
 +∞  1  3
dt dt dt
Ex. 16. Les intégrales , et divergent.
1
t 0
t 1
(3 − t)2

II Propriétés de l’intégrale
Les propositions suivantes étendent à un intervalle I quelconque des propriétés déjà
connues sur un segment. Rappelons I désigne un intervalle de IR d’intérieur non vide.
Convention Par extension, lorsque I est  un segment et que f continue par mor-
ceaux sur I , on dit encore que l’intégrale f converge.
I

1 Linéarité
Proposition 10 (Linéarité)

L’ensemble des fonctions f ∈ CM(I, IK) telles que f converge est un sous-espace
 I

vectoriel de CM(I, IK) et l’application f �→ f est une forme linéaire.


I

Démonstration. Cela résulte de la définition de la convergence d’une intégrale, de la linéarité


de l’intégrale sur un segment et des théorèmes d’opérations sur les limites.

385
Chapitre 9. Intégration sur un intervalle quelconque
Proposition 11 (Fonctions à valeurs complexes)

Étant donné f ∈ CM(I, C), l’intégrale f converge si, et seulement si, les deux
  I

intégrales Re f et Im f convergent, et l’on a alors :


I I
  
f= Re f + i Im f.
I I I

Démonstration. Cela résulte de la définition de la convergence d’une intégrale et des pro-


priétés des limites des fonctions à valeurs complexes.

2 Positivité, croissance
On considère ici des fonctions à valeurs réelles.
Proposition 12 (Positivité)
 
Soit f ∈ CM(I, IR) telle que f converge. Si f est positive sur I , alors f  0.
I I
Démonstration page 401

Corollaire 13 (Croissance)
 
Soit (f, g) ∈ CM(I, IR)2 tel que f et g convergent.
I I
 
Si f  g sur I , on a f g.
I I

Démonstration. On applique la proposition précédente à la fonction g − f en utilisant la


linéarité de l’intégrale.

Proposition 14 (Fonction continue, positive et d’intégrale nulle)


Soit f : I → IR une fonction continue et positive.

Si f = 0 alors f est la fonction nulle.
I
Démonstration page 401
Principe de démonstration. On se ramène à l’énoncé analogue dans le cas d’un segment.

Remarque On déduit de cette proposition que si f est une fonction continue posi-

tive et non nulle sur I , alors f > 0.
I

3 Relation de Chasles
Proposition 15

Soit f ∈ CM(I, IK) telle que f converge.
I 
Si J est un sous-intervalle d’intérieur non vide de I , alors f converge.
J
Démonstration page 401

386
II Propriétés de l’intégrale

Conséquence Supposons que f converge. Si x < y sont des points ou extrémi-
I   y
tés de I , alors on a ]x, y[ ⊂ I , donc l’intégrale f , notée aussi f , converge.
]x,y[ x

  y
Notation Plus généralement, si f converge, la notation f , déjà définie dans
I x
le cas où x < y , est étendue au cas général ainsi :
 y  x  y
f =− f si x > y et f = 0 si x = y.
x y x

Proposition 16 (Relation de Chasles)



Soit f ∈ CM(I, IK) telle que f converge. Si x, y et z sont trois points ou
I  y  z  y
extrémités de I , alors les intégrales f, f et f convergent et l’on a :
x x z
 y  z  y
f= f+ f.
x x z
Démonstration page 402

4 Intégrabilité
Dans cette section, I désigne un intervalle de IR d’intérieur non vide.
Définition 5

On dit que f ∈ CM(I, IK) est intégrable sur I , ou que l’intégrale f converge
 I

absolument, si l’intégrale |f | converge.


I

Notation On note L1 (I, IK) l’ensemble des fonctions intégrables sur I .

Proposition 17
L1 (I, IK) est un sous-espace vectoriel de CM(I, IK).
Démonstration page 402
Principe de démonstration. Utiliser l’inégalité triangulaire et le théorème de comparaison
pour les fonctions à valeurs positives.

Remarques
• Si f ∈ CM(I, IK) est une fonction positive, alors l’intégrabilité de f équivaut à la

convergence de l’intégrale f.
I

• En particulier les fonctions des exemples de référence de la section I.4 de la


page 385 étant toutes positives, leur convergence équivaut à leur intégrabilité.

387
Chapitre 9. Intégration sur un intervalle quelconque
Théorème 18

 
Si f ∈ L1 I, IK alors f converge.
I
Démonstration page 402
Principe de démonstration. On étudie d’abord le cas des fonctions f à valeurs réelles,
en utilisant les fonctions f + = |f |+f
2
et f − = |f |−f
2
, puis on en déduit le cas des fonctions à
valeurs complexes en écrivant f = Re f + i Im f .

Théorème 19 (Inégalité triangulaire)


  
 
Pour tout f ∈ L1 (I, IK), on a  f   |f |.
I I
Démonstration page 403

Proposition 20 (Caractère local de l’intégrabilité)


Soit a ∈ IR et b ∈ IR tels que a < b . Soit f ∈ CM([a, b[, IK).
Alors, pour tout c ∈ [a, b[ , la fonction f est intégrable sur [a, b[ si, et seulement
si, elle l’est sur [c, b[ .

Démonstration. C’est une conséquence immédiate du caractère local de la nature d’une


intégrale (cf. proposition 1 de la page 377).

Conséquence et terminologie
• L’intégrabilité de f sur [a, b[ ne dépend que du comportement local de f au
voisinage de b .
• Pour f ∈ CM([a, b[, IK), on dira que f est intégrable en b si f est intégrable
sur [a, b[ .

Théorème 21 (Théorème de comparaison)


Soit (a, b) ∈ IR × IR tel que a < b  +∞ et (f, g) ∈ CM([a, b[, IK)2 .
• Si f = O (g) et si g est intégrable sur [a, b[ , alors f est intégrable sur [a, b[ .
b

• Si f ∼ g , alors l’intégrabilité de f sur [a, b[ équivaut à celle de g .


b
Démonstration page 403
Principe de démonstration. Cela résulte de la définition de l’intégrabilité et du théorème
de comparaison pour les fonctions à valeurs positives (proposition 7 de la page 384).

Attention Le théorème de comparaison énoncé ici concerne l’intégrabilité des fonc-


tions, c’est-à-dire la convergence absolue de leurs intégrales. On peut très bien
 b  b
avoir f ∼ g sans que les intégrales f et g soient de même nature (cf. exer-
b a a
cice 9.5).
Remarque Ce qui précède (en particulier le théorème de comparaison) a été énoncé
dans le cas I = [a, b[ , mais s’adapte naturellement au cas I = ]a, b].

388
II Propriétés de l’intégrale

Exo
Point méthode Pour étudier l’intégrabilité d’une fonction continue par morceaux
9.3 sur un intervalle I , on peut s’intéresser au comportement asymptotique de f au
voisinage des « bornes ouvertes » de I , puis utiliser le théorème de comparaison.
En particulier, si l’intervalle I est ouvert, il faut étudier séparément les deux bornes.

 +∞
Ex. 17. Soit x > 0 . Montrons la convergence de l’intégrale tx−1 e−t dt.
x−1 −t 0
La fonction f : t �→ t e est continue sur ]0, +∞[ .
Étude en 0 . Quand t tend vers 0 , on a f (t) ∼ tx−1 = 1
t1−x
. Comme 1 − x < 1 , la fonc-
1
tion t �→ t1−x est intégrable en 0 (intégrale de Riemann), donc, par théorème de comparai-
son, f aussi.
Étude en +∞ . Par croissances comparées, on a :
1
tx+1 e−t −→ 0 donc tx−1 e−t = O .
t→+∞ +∞ t2
Comme 2 > 1 , la fonction t �→ t12 est intégrable en +∞ , donc, par théorème de comparai-
son, f aussi.
En conclusion, la fonction f est intégrable sur ]0, +∞[ , donc son intégrale converge.
 +∞  
t2 + 2
Ex. 18. Déterminons la nature de l’intégrale sin (t) ln dt .
0
t2 + 1
 
t2 +2
La fonction f : t �→ sin (t) ln t2 +1
est continue sur [0, +∞[ . On a :
  2   2 
 
∀t  0 sin(t) ln t + 2   ln t + 2 ·
 t2 + 1  t2 + 1
t2 +2
Comme −→
t2 +1 t→+∞
1 et ln x ∼ x − 1 , on a :
x→1
  1
t2 + 2 t2 + 2 1 1
ln ∼ −1= 2 ∼ donc f (t) = O .
t2 + 1 t→+∞ t2 + 1 t +1 t→+∞ t2 t→+∞ t2

Comme 2 > 1 , la fonction t �→ t12 est intégrable en +∞ , donc, par théorème de comparaison, f
aussi. Par conséquent, f est intégrable sur [0, +∞[ , donc son intégrale converge.
 +∞
cos x
Ex. 19. Déterminons la nature de l’intégrale √ dx .
0 x + x2
cos x
La fonction f : x �→ √ est continue sur l’intervalle ]0, +∞[ .
x + x2
Étude en 0 . On a f (x) ∼ √1 . Comme 1
< 1 , la fonction x �→ √1 est intégrable en 0 ,
x 2 x
x→0
donc f aussi par théorème de comparaison.
 
Étude en +∞ On a f (x) = O 1
x2
. Comme 2 > 1 , la fonction x �→ 1
x2
est intégrable
x→+∞
en +∞ , donc f aussi par théorème de comparaison.
Conclusion : f est intégrable sur ]0, +∞[ et donc son intégrale est convergente.

389
Chapitre 9. Intégration sur un intervalle quelconque

Point méthode
• Les fonctions constantes étant intégrables sur n’importe quel intervalle borné, si
une fonction f est bornée au voisinage d’un point b ∈ IR, alors on a f = O(1)
b
et donc f est intégrable en b .
• En particulier, si f ∈ CM([a, b[, IK) admet une limite finie en b ∈ IR, alors f
est intégrable.

Attention Le caractère fini de b est essentiel, comme le montre l’exemple de la


fonction t �→ 1t , bornée et non intégrable sur [1, +∞[ .
1
Ex. 20. La fonction f : t �→ sin t2
est continue sur ]0, +∞[ .
Étude en 0 . La fonction f est bornée au voisinage de 0 , donc intégrable en 0 .
Étude en +∞ . Lorsque t tend vers +∞ , on a :

1 1
sin ∼ 2·
t2 t

Comme la fonction t �→ t12 est intégrable en +∞ , f l’est aussi.


Par conséquent, la fonction f est intégrable sur ]0, +∞[ .

Attention Une comparaison ne pourra jamais montrer une divergence, mais seule-
ment une non intégrabilité. On conclut alors souvent par positivité.
Ex. 21. Suite de l’exemple 17.
 +∞
Soit x  0 . Montrons la divergence de l’intégrale tx−1 e−t dt .
0
La fonction t �→ tx−1 e−t est continue par morceaux sur ]0, +∞[ . Comme elle est de plus positive,
la convergence de son intégrale équivaut à son intégrabilité. L’équivalent :

tx−1 e−t ∼ tx−1 ,


t→0

prouve, par comparaison avec un exemple de Riemann divergent, que la fonction t �→ tx−1 e−t
n’est pas intégrable en 0 .
 +∞
Conclusion : l’intégrale tx−1 e−t dt diverge.
0

III Calcul d’intégrales


1 Intégration par parties
Convention Si h est une fonction continue sur un intervalle d’extrémités a et b ,
 b
avec −∞  a < b  +∞, on dit que le crochet h a converge si h possède des
 b
limites finies en a et en b , et l’on pose alors h a = lim h − lim h.
b a

390
III Calcul d’intégrales

Remarques
• Dans le cas d’un segment [a, b], alors par continuité de h, on a lim h = h(a)
a
 b
et lim h = h(b), et donc simplement h a = h(b) − h(a).
b
 b
• Dans le cas d’un intervalle semi-ouvert, par exemple [a, b[ , alors le crochet h a
converge si, et seulement si, h possède une limite finie en b , et l’on a
 b
alors h a = lim h − f (a).
b

Proposition 22 (Théorème d’intégration par parties)


Soit f et g deux fonctions de classe C 1 sur un intervalle d’extrémités a et b ,
avec −∞  a < b  +∞.
 b  b
 b ′
Si le crochet f g a converge, alors les deux intégrales f g et f g ′ sont de
a a
même nature et, en cas de convergence, on a :
 b  b

 b
f g = fg a − f g′.
a a
Démonstration page 403
Principe de démonstration. Si, par exemple, I = [a, b[ , on intègre par parties sur [a, x] ,
avec a < x < b , puis l’on fait tendre x vers b .
 +∞
Arctan t
Ex. 22. Considérons l’intégrale dt .
1
t2
• La fonction t �→ Arctan t
t2
est continue par morceaux sur [1, +∞[ , et, puisque Arctan est
 
bornée, on Arctan t
t2
= O 1
2 . Par comparaison avec un exemple de Riemann convergent,
t→+∞ t
 +∞
Arctan t
on en déduit que l’intégrale dt converge absolument, donc converge.
1
t2
• Posons u : t �→ − 1t et v �→ Arctan t .
∗ Les fonctions u et v sont de classe C 1 sur [1, +∞[ .
 +∞
∗ On a u(t)v(t) = − Arctan
t
t
−→ 0 , donc le crochet uv 1
converge et l’on a :
t→+∞
 +∞ π
uv = −u(1)v(1) = ·
1 4
 +∞
• Puisque, d’après le premier point, l’intégrale u′ v converge, le théorème d’intégration
1
 +∞
par parties assure que l’intégrale uv ′ converge aussi, et l’on a :
1
 +∞  +∞  +∞  +∞
 +∞ Arctan t π dt
u′ v = uv − uv ′ i.e. dt = + ·
1
1
1 1
t2 4 1
t(1 + t2 )
 +∞
dt ln 2
• Il a été vu à l’exemple 4 de la page 379 que = ·
1
t(1 + t2 ) 2
 +∞
Arctan t π ln 2
On a donc obtenu dt = + ·
1
t2 4 2

391
Chapitre 9. Intégration sur un intervalle quelconque

Point méthode En pratique, on peut commencer par intégrer par parties sur les
primitives, puis passer à la limite. Il y a deux buts possibles :
• justifier une convergence,
Exo
9.4 • effectuer un calcul.

  
1
ln 1 − t2
Ex. 23. Étudions la convergence de I = dt et calculons son éventuelle valeur.
0
t2
ln(1−t2 )
• La fonction f : t �→ t2
est continue sur ]0, 1[ .
Étude en 0 . On a ln(1 − t2 ) ∼ −t2 donc f (t) −→ −1 . Ayant une limite finie en 0 , f
t→0
est intégrable en 0 .
Étude en 1 . Au voisinage de 1 , on a :

f (t) ∼ ln(1 − t2 ) = ln(1 − t) + ln(1 + t) ∼ ln(1 − t).


     
−→−∞ =O(1)

 
Par croissances comparées, on obtient f (t) = o √1
1−t
, donc par comparaison avec
t→1
un exemple de Riemann convergent, f est intégrable en 1 .
Par conséquent, la fonction f est intégrable sur ]0, 1[ , donc l’intégrale I est convergente.
1
• Pour l’intégration par parties, choisissons comme primitive de t �→ t2
celle qui est nulle en 1 ,
c’est-à-dire t �→ 1 − 1
t
, ce qui donne :
 x   x  x  
ln(1 − t2 ) 1 1 −2t
dt = 1− ln(1 − t2 ) − 1− dt.
t2 t t 1 − t2
  
2
= 1+t

 1
ln(1 − t2 )
∗ L’intégrale dt converge, d’après ce qui précède.
0
t2
 
∗ On a 1 − 1
t
ln(1 − t2 ) ∼ t , de limite nulle en 0 .
0
 
On a aussi 1− 1
t
ln(1 − t2 ) ∼ (t − 1) ln(1 − t) , de limite nulle en 1 par croissances
1
comparées.
  1
Ainsi, le crochet 1− 1
t
ln(1 − t2 ) converge (et il est nul).
0
D’après le théorème d’intégration par parties, on a :
 1  1  1
ln(1 − t2 ) 1 2 dt
dt = 1 − ln(1 − t ) −2 = −2 ln 2.
0
t2 t 0 0
1+t

Remarque Pour mener ce calcul, il a fallu choisir une primitive de t �→ t12 pour que le
crochet converge. Comme toutes les primitives d’une fonction continue sont égales à une
constante près, il sera assez courant d’avoir à réfléchir au choix de cette constante.

392
III Calcul d’intégrales

2 Changement de variable
4
Soit (a, b, α, β) ∈ IR tel que −∞  a < b  +∞ et −∞  α < β  +∞.

Proposition 23 (Théorème de changement de variable)


Soit f ∈ C(]a, b[, IK) et ϕ : ]α, β[ → ]a, b[ , une fonction de classe C 1 , strictement
 b  β
 
croissante et bijective. Alors les intégrales f (t) dt et f ϕ(u) ϕ′ (u) du sont
a α
de même nature et, en cas de convergence :
 b  β
 
f (t) dt = f ϕ(u) ϕ′ (u) du.
a α
Démonstration page 403
Principe de démonstration. Remarquer qu’en notant F une primitive de f , alors F ◦ ϕ
est une primitive de ϕ′ × f ◦ ϕ , et utiliser le point méthode de la page 382.

Remarque Dans le cas d’un intervalle [a, b[ , on pourra se ramener à la situation


 
de la proposition 23, puisque si f converge, il en de même de f et les deux
[a,b[ ]a,b[
intégrales sont égales. Même principe pour un intervalle ]a, b].
 +∞  +∞
2 1 e−u
Ex. 24. Montrons l’égalité e−t dt = √ du .
0
2 0
u
2
La fonction t �→ e−t est continue sur [0, +∞[ .
2 1
Par croissances comparées, on a e−t = o t2
. On en déduit, par comparaison à un exemple de
2
Riemann convergent, que t �→ e−t est intégrable sur [0, +∞[ , donc d’intégrale convergente.
Appliquons le théorème de changement de variable sur ]0, +∞[ , en utilisant le changement de
 √  √
variable t = u . La fonction ϕ : u �→ u est de classe C 1 , strictement croissante et bijective
2
de ]0, +∞[ sur lui-même et la fonction t �→ e−t est continue sur ]0, +∞[ .
 +∞
e−u
On en déduit la convergence de √ du et l’égalité annoncée.
0
2 u

Proposition 24 (Théorème de changement de variable, cas décroissant)


Soit f ∈ C(]a, b[, IK) et ϕ : ]α, β[ → ]a, b[ , une fonction de classe C 1 , strictement
 b  β
 
décroissante et bijective. Alors les intégrales f (t) dt et f ϕ(u) ϕ′ (u) du sont
a α
de même nature et, en cas de convergence :
 b  β
 
f (t) dt = − f ϕ(u) ϕ′ (u) du.
a α

Démonstration. Le principe est le même que pour la proposition 23, en notant bien que
cette fois on a lim ϕ = b et lim ϕ = a .
α β

393
Chapitre 9. Intégration sur un intervalle quelconque

Remarques
 b  β  
• Dans chacun des deux cas, on a f (t) dt = f ϕ(u) |ϕ′ (u)| du.
a α

• Comme ϕ′ est de signe constant, en appliquant le théorème de changement de


variable à |f |, on obtient que l’intégrabilité de f sur ]a, b[ équivaut à celle
de (f ◦ ϕ) × ϕ′ sur ]α, β[ .

 +∞
ln t
Ex. 25. Montrons la convergence de l’intégrale I = dt et calculons sa valeur.
0
(1 + t)2

ln t
• La fonction f : t �→ (1+t)2
est continue sur ]0, +∞[ .
 
1
Étude en 0 . Par croissances comparées, on a f (t) = o √
t
, donc f est intégrable en 0 .
 
Étude en +∞ . On a ln t
(1+t)2
∼ ln t
t2
donc, par croissances comparées, f (t) = o 1
t3/2
,
donc f est intégrable en +∞ .
Ainsi, f est intégrable sur ]0, +∞[ , donc d’intégrale convergente.

• Effectuons le changement de variable [u = 1t ] :

 +∞  +∞
ln t ln(1/u) −1
I= dt = − du
0
(1 + t)2 0 (1 + u1 )2 u2
 +∞
ln u
=− du = −I donc I = 0.
0
(1 + u)2

3 Semi-convergence
Il se peut qu’une fonction f ∈ CM(I, C) ne soit pas intégrable, mais que l’inté-

grale f converge. On dit alors que cette dernière intégrale est semi-convergente.
I

Comme pour les séries semi-convergentes, l’étude de la convergence d’une intégrale


non absolument convergente ne peut pas se faire complètement à l’aide des théorèmes
de comparaison, puisque ces derniers ne concernent que des fonctions intégrables.
Il va donc falloir transformer l’intégrale pour pouvoir étudier sa convergence. Un
changement de variable ne sert à rien en général, puisque, d’après la remarque de la
page 394, on ne pourra pas obtenir une intégrale absolument convergente en partant
d’une intégrale semi-convergente.
L’outil principal est l’intégration par parties avec en général comme objectif de trans-
former l’intégrale en faisant apparaître une intégrale absolument convergente.

394
III Calcul d’intégrales

 +∞
eit
Ex. 26. Soit α ∈ ]0, 1] . Étudions la convergence de l’intégrale dt .
1

eit
• La fonction t �→ tα
est continue sur [1, +∞[ .
   
 it   it 
• Remarquons que  etα  = 1

, donc, comme α  1 , la fonction t �→  etα  n’est pas intégrable
sur [1, +∞[ .
• Effectuons une intégration par parties en remarquant que :

eit eit 1
= u′ (t)v(t) avec u(t) = et v(t) = ·
tα i tα

∗ Les fonctions u et v sont de classe C 1 sur [1, +∞[ .


eit
 +∞
∗ On a u(t)v(t) = itα
−→ 0 , donc le crochet uv 1
converge. Le théorème d’in-
t→+∞
 +∞  +∞

tégration par parties assure alors que les intégrales u v et uv ′ ont même
1 1
nature.  
it
∗ On a u(t)v ′ (t) = − itαe
α+1 = O
1
tα+1
, donc, comme α + 1 > 1 , on en déduit, par
 +∞
comparaison avec un exemple de Riemann convergent, que l’intégrale uv ′ converge
1
absolument, donc converge.
 +∞  +∞
eit
Conclusion : l’intégrale u′ v , c’est-à-dire dt , est convergente.
1 1

 it
  
cos t e sin t eit
Ex. 27. En remarquant que = Re et = Im , la convergence de
tα tα tα tα
 +∞
eit
l’intégrale dt , obtenue par l’exemple précédent dans le cas α ∈ ]0, 1] , implique la
1

 +∞  +∞
cos t sin t
convergence des deux intégrales dt et dt .
1
tα 1

Remarque La convergence de ces deux intégrales aurait pu s’obtenir directement par intégra-
tion par parties, en suivant le même schéma qu’à l’exemple 26.

Remarque Pour l’étude de certaines intégrales non absolument convergentes, on


Exo
pourra, comme pour les séries, effectuer un développement asymptotique de la fonc-
9.5 tion, le dernier terme écrit étant :
• ou bien une fonction intégrable,

• ou bien de signe constant (dans le cas où la fonction est à valeurs réelles).

395
Chapitre 9. Intégration sur un intervalle quelconque
 +∞  
sin t
Ex. 28. Montrons la convergence de l’intégrale sin √ dt
1 t
 
La fonction f : t �→ sin sin
√t
t
est continue sur [1, +∞[ .
sin
√t
Quand t tend vers +∞ , on a t
→ 0.
Le développement limité sin x = x + O(x3 ) donne alors, quand t → +∞ :
x→0

   
sin t sin3 t sin t 1
f (t) = √ + O = √ + O 3/2 .
t t3/2 t t

Par comparaison à un exemple de Riemann, la fonction t �→ f (t)− sin


√ t est intégrable sur [1, +∞[ .
t
 +∞  +∞
sin t
Ainsi, les intégrales f (t) dt et √ ont même nature. Or, d’après l’exemple 27
1 1 t
 +∞
sin t
de la page précédente, l’intégrale √ dt est convergente. Par conséquent, l’inté-
1 t
 +∞
grale f (t) dt est également convergente.
1

IV Intégration des relations de comparaison


Dans ce qui suit, les fonctions sont définies sur un intervalle [a, b[ ,
avec −∞ < a < b  +∞, et l’on fait une étude locale au voisinage de b .
On procéderait de la même façon dans le cas d’un intervalle ]a, b], pour une étude au
voisinage de a.
Comme dans le chapitre sur les séries, dans lequel ont été donnés deux théo-
rèmes de sommation des relations de comparaison, nous donnons-ici deux théorèmes
d’intégration des relations de comparaison :
• un dans le cas convergent, qui donne alors une information sur le reste ;
• un dans le cas divergent, qui donne alors une information sur l’intégrale partielle.

1 Cas convergent : comparaison des restes

Proposition 25 (Intégration des relations de comparaison, cas convergent)


Soit f ∈ CM([a, b[, IK), ainsi que ϕ ∈ CM([a, b[, IR) de signe constant et intégrable.
 b  b 
• Si f = O(ϕ), alors f est intégrable sur [a, b[ et f = O ϕ .
b x x→b x
 b  b 
• Si f = o(ϕ), alors f est intégrable sur [a, b[ et f = o ϕ .
b x x→b x
 b  b
Exo • Si f ∼ ϕ, alors f est intégrable sur [a, b[ et f ∼ ϕ.
9.6 b x x→b x
Démonstration page 404

396
IV Intégration des relations de comparaison

Remarque L’énoncé précédent, donnant un résultat au voisinage de b , reste valable


si la fonction ϕ n’est positive qu’au voisinage de b .

Arctan t
Ex. 29. Considérons la fonction f : t �→ √ , définie et continue sur [1, +∞[ .
t t
Arctan t π 3
• On a √ ∼ √ . Comme > 1 , on déduit par comparaison à un exemple
t t t→+∞ 2t t 2
de Riemann que la fonction f est intégrable sur [1, +∞[ ; cela justifie la convergence de
 +∞
l’intégrale f (t) dt pour tout x  1 .
x
 +∞
• Déterminons un équivalent simple du reste f (t) dt quand x tend vers +∞ .
x
Comme on a :
π 3
f (t) ∼ √ avec > 1,
t→+∞ 2t t 2
  
0

on en déduit, par intégration des relations de comparaison (cas convergent) :


 +∞  +∞
π π
f (t) dt ∼ √ dt = √ ·
x
x→+∞
x 2t t x

Ex. 30. Déterminons un équivalent simple de Arccos en 1 en utilisant l’intégration des relations
de comparaison (cas convergent).
 1
dt  1
• Pour tout x ∈ [0, 1] , on a = − Arccos t x = Arccos x .

x 1−t 2

• D’autre part, on a l’équivalent simple suivant :

1 1 1
√ = √ √ ∼ √ √ ·
1 − t2 1 + t 1 − t t→1 2 1 − t
  
0

Par intégration des relations de comparaison (cas convergent), on en déduit :


 1  1 
dt dt
Arccos x = √ ∼ √ √ = 2(1 − x).
x 1 − t2 x→1 x 2 1−t

397
Chapitre 9. Intégration sur un intervalle quelconque

2 Cas divergent : comparaison des intégrales partielles


Proposition 26 (Intégration des relations de comparaison, cas divergent)
Soit f ∈ CM([a, b[, IK), ainsi que ϕ ∈ CM ([a, b[, IR) positive et non intégrable.
 x  x 
• Si f = O(ϕ), alors f = O ϕ .
b a x→b a
 x  x 
• Si f = o(ϕ), alors f = o ϕ .
b a x→b a
 x  x
Exo • Si f ∼ ϕ, alors f ∼ ϕ.
9.7 b a x→b a
Démonstration page 404

Ex. 31. Soit f ∈ CM(IR+ , IK) et ℓ ∈ IK . On suppose que f (x) −→ ℓ .


x→+∞

Alors on a f (x) − ℓ = o(1) et la fonction constante égale à 1 est positive et non intégrable
x→+∞
sur [0, +∞[ . Par intégration des relations de comparaison (cas divergent), on en déduit :
 x
 x
  x
(f (t) − ℓ) dt = o 1 dt donc f (t) dt = ℓx + o(x).
x→+∞ x→+∞
0 0 0

 x
dt
Ex. 32. Déterminons, à l’aide d’une intégration par parties, un équivalent simple de
2
ln t
quand x tend vers +∞ .
t 1
 1

• Tout d’abord, on a ln t
→ +∞ , donc t
=o ln t
. Ainsi, par comparaison à un exemple de
Riemann divergent, la fonction t �→ 1
ln t
n’est pas intégrable sur [2, +∞[ .
• Par intégration par parties, on a, pour tout x  2 :
 x  x  x
dt t dt
= +
2
ln t ln t 2 2 ln2 t
 x
x 2 dt
= − + · (⋆)
ln x ln 2 2 ln2 t

• Quand t tend vers +∞ , on a :


1 1
 
=o .
ln2 t ln t
La fonction t �→ ln1 t étant continue, positive et non intégrable sur [2, +∞[ , on a par inté-
gration des relations de comparaison (cas divergent) :
 x
 x

dt dt
= o .
2 ln2 t x→+∞
2
ln t

La relation (⋆) donne alors :


 x
dt x
∼ ·
2
ln t x→+∞ ln x

398
Démonstrations

Démonstrations
Proposition 1 En utilisant la relation de Chasles pour l’intégrale des fonctions continues par mor-
ceaux sur un segment, on obtient :
 x  c  x
∀x ∈ [a, b[ f= f+ f.
a a c
 x  x
Les fonctions x �→ f et x �→ f diffèrent donc d’une constante. L’existence d’une limite
a c
finie en b pour l’une équivaut donc à l’existence d’une limite finie en b pour l’autre. Les deux
 
intégrales f et f sont donc de même nature, et en cas de convergence, on obtient,
[a,b[ [c,b[
en faisant tendre x vers b dans la relation précédente :
  
f= f+ f.
[a,b[ [a,c] [c,b[

Proposition 3 Pour x ∈ [a, b] , on a, par la relation de Chasles pour l’intégrale des fonctions
continues par morceaux sur un segment :
  
f− f= f.
[a,b] [a,x] [x,b]

La fonction f étant continue par morceaux sur un segment, elle est bornée. Par inégalité trian-
gulaire, on a donc :
  
 
 f− f   (b − x)�f �∞ .

[a,b] [a,x]
  
Par conséquent, on a f −→ f . Cela prouve, par définition, que l’intégrale f
x→b
[a,x] [a,b] [a,b[
converge et donne l’égalité :
 
f= f.
[a,b[ [a,b]

 x
 x
Proposition 4 Pour x ∈ [a, b[ , on a f = F (t) a
= F (x) − F (a) donc, par définition, la
a
 b
convergence de l’intégrale f équivaut à l’existence dans IK de lim F et, dans ce cas, on a :
b
a
 b
f = lim F − F (a).
b
a
 b
De, plus, en cas de convergence, la fonction g définie sur [a, b[ par x �→ f vérifie :
x

∀x ∈ [a, b[ g(x) = lim F − F (x),


b

et par conséquent est dérivable, de dérivée −f .

399
Chapitre 9. Intégration sur un intervalle quelconque

Lemme 5 D’après la proposition 1 de la page 377 et son analogue dans le cas d’un intervalle ouvert
 
à gauche, les convergences des intégrales f et de f entraînent les convergences des
]a,c] [c,b[
 
intégrales f et f et l’on a :
]a,c′ ] [c′ ,b[
     
f= f+ f et f =− f+ f.
]a,c′ ] ]a,c] [c,c′ ] [c′ ,b[ [c,c′ ] [c,b[

En combinant ces deux égalités, on obtient l’égalité annoncée.


 x
Proposition 6 Comme f est positive, la fonction F : x �→ f est croissante sur [a, b[ , puisque,
a
d’après la relation de Chasles :
 y  x  y
∀(x, y) ∈ [a, b[2 x  y =⇒ f− f= f  0.
a a x

D’après le théorème de la limite monotone, deux cas peuvent se présenter :


• soit F est majorée et alors lim F (x) existe dans IR ;
x→b

• soit F n’est pas majorée et alors F (x) −→ +∞ .


x→b
 x  x
Proposition 7 Pour x ∈ [a, b[ , posons F (x) = f et G(x) = g . La majoration f  g
a a
sur [a, b[ et la croissance de l’intégrale (sur un segment) entraînent F  G sur [a, b[ . On
conclut alors en passant à la limite en b puisque, d’après la proposition 6 de la page 383, F
et G admettent toutes deux des limites dans [0, +∞] .
 b  b  b
Si g < +∞ , alors f < +∞ donc f est convergente.
a a a

Proposition 8 La fonction t �→ e−αt est continue et positive sur [0, +∞[ .


 +∞
 +∞
Cas α = 0 . On a 1 dt = t 0
= +∞ .
0
 +∞
 +∞ 1
e−αt si α > 0
Cas α �= 0 . On a e−αt dt = − = α

0
α 0
+∞ si α < 0.
D’où la conclusion.
Proposition 9
• La fonction t �→ 1

est continue et positive sur [1, +∞[ .
Cas α �= 1 . On a :
 +∞  +∞
 +∞  1
dt −α t1−α si α > 1
= t dt = = α−1

1
tα 1
1−α 1
+∞ si α < 1.
 +∞
dt  +∞
Cas α = 1 . On a = ln(t) 1 = +∞ .
1
t
 +∞
dt
Donc l’intégrale converge si, et seulement si, α > 1 .
1

400
Démonstrations

1
• La fonction t �→ tα
est continue et positive sur ]0, 1] .
Cas α �= 1 . On a :
 1  1
 1  1
dt t1−α si α < 1
= t−α dt = = 1−α

0
tα 0
1−α 0
+∞ si α > 1.
 1
dt  1
Cas α = 1 . On a = ln(t) 0 = +∞ .
0
t
 1
dt
Donc l’intégrale converge si, et seulement si, α < 1 .
0

1 1
• Les fonctions t �→ (b−t)α
et t �→ (t−a)α
sont continues et positives sur [a, b[ et ]a, b]
respectivement.
Cas α �= 1 . On a :
  b 
b (b−a)1−α
dt −(b − t)1−α si α < 1
= = 1−α

a
(b − t)α 1−α a +∞ si α > 1

et
  b 
b (b−a)1−α
dt (t − a)1−α si α < 1
= = 1−α

a
(t − a)α 1−α a +∞ si α > 1.

Cas α = 1 . On a :
 b  b
dt  b dt  b
= − ln(b − t) a = +∞ et = ln(t − a) a = +∞.
a
(b − t) a
(t − a)
 b  b
dt dt
Donc les intégrales et convergent si, et seulement si, α < 1 .
a
(b − t)α a
(t − a)α

Proposition 12 Supposons f positive sur I . Le résultat est déjà connu si I est un segment.
 b  x
Si I est de la forme [a, b[ , alors f est la limite en b de la fonction x �→ f (t) dt qui est
a a
une fonction positive, donc est un réel positif.
On procède de même si I est de la forme ]a, b] , et l’on se ramène à ces deux cas si I est de la
forme ]a, b[ .

Proposition 14 Le résultat est connu si I est un segment. On s’y ramène dans les autres cas.
 x
En effet, dans le cas où I est de la forme [a, b[ , on considère la fonction F : x �→ f (t) dt qui
a
 b
est une fonction croissante et positive sur [a, b[ . L’hypothèse f (t) dt = 0 signifie que F −→ 0
x→b
a
et ainsi, F est nulle sur [a, b[ . D’après le résultat dans le cas d’un segment, on en déduit que f
est nulle sur [a, x] , pour tout x ∈ ]a, b[ , c’est-à-dire sur [a, b[ .
On raisonne de façon analogue dans le cas où I est de la forme ]a, b] et l’on se ramène à ces
deux cas si I est ouvert.

401
Chapitre 9. Intégration sur un intervalle quelconque

Proposition 15 Le cas J = I étant trivial, supposons J  I .


Si aucune des extrémités de J n’est une extrémité ouverte de I , la fonction f est définie et

continue par morceaux sur le segment Adh(J) , et il a déjà été indiqué qu’alors l’intégrale f
J
converge. Supposons donc qu’au moins l’une des extrémités de J soit une extrémité ouverte
de I . 
Cas I = [a, b[ . Dans ce cas, on a J = [c, b[ avec a  c < b , et la convergence de f résulte
J
du caractère local de la convergence d’une intégrale (cf. proposition 1 de la page 377).
Cas I = ]a, b] . Se traite de manière analogue au cas précédent.
Cas I = ]a, b[ . Dans ce cas, J = [c, b[ ou J = ]a, c] avec a < c < b ; la convergence de

l’intégrale f provient alors de la définition de la convergence de l’intégrale de f sur
J
l’intervalle ouvert ]a, b[ (cf. lemme 5 et définition 4 de la page 381).
Proposition 16 La relation de Chasles est déjà connue pour l’intégrale sur un segment. Ici, le
résultat est donc immédiat si x , y et z ne sont pas des extrémités ouvertes de I .
Il reste à traiter les cas où au moins l’un des réels x , y et z est une extrémité ouverte de I .
Par disjonction de cas, on se ramène à utiliser ou la proposition 1 de la page 377 ou le lemme 5
de la page 381.
Proposition 17
• Par définition, on a L1 (I, IK) ⊂ CM(I, IK) .
• La fonction nulle sur I est intégrable sur I .
• Soit (f, g) ∈ L1 (I, IK)2 et λ ∈ IK . Par inégalité triangulaire, on a |λf + g|  |λ| |f | + |g| .
  
Or |f | et |g| convergent donc |λ| |f | + |g| converge. Ainsi, d’après le théorème de
I I I

comparaison des intégrales de fonctions à valeurs positives, l’intégrale |λf + g| converge,
I
c’est-à-dire λf + g ∈ L1 (I, IK) .
Théorème 18
Cas des fonctions à valeurs réelles. Soit f ∈ L1 (I, IR) . Introduisons les deux fonctions :
|f | + f |f | − f
f+ = et f− = ·
2 2
Ces deux fonctions sont continues par morceaux et positives et, comme |f | = f + + f − , on
a les deux inégalités f +  |f | et f −  |f | .

D’après le théorème de comparaison d’intégrales de fonctions positives, les intégrales f+
I
 
− + −
et f sont donc convergentes ; comme f = f − f , la convergence de f en résulte.
I I

Cas des fonctions à valeurs complexes. Soit f ∈ L1 (I, C) . On a f = Re f + i Im f .


Grâce aux inégalités :
   
 Re f   |f | et  Im f   |f |,
on déduit du théorème de comparaison que les fonctions Re f et Im f sont intégrables, donc

leurs intégrales convergent d’après le premier cas. La convergence de f résulte alors de la
I
proposition 11 de la page 386.

402
Démonstrations

Théorème 19 On effectue la démonstration dans le cas I = [a, b[ , le cas I = ]a, b] étant analogue
et le cas I = ]a, b[ s’y ramenant. Par inégalité triangulaire de l’intégrale sur un segment, on a :
  
 x  x
∀x ∈ [a, b[  f   |f |.

a a

On conclut alors en passant à la limite lorsque x tend vers b , puisque les deux intégrales
convergent.
Théorème 21
• Supposons f = O(g) et g intégrable sur [a, b[ .
b

Par définition, il existe k  0 et c ∈ [a, b[ tels que :


∀t ∈ [c, b[ |f (t)|  k|g(t)|.
 b
Comme g est intégrable sur [a, b[ , donc sur [c, b[ , l’intégrale k|g| est convergente. Les
c
fonctions |f | et k|g| étant positives, le théorème de comparaison pour les fonctions à valeurs
 b
positives (cf. proposition 7 de la page 384) assure alors que l’intégrale |f | converge. Par
c
 b
suite, l’intégrale |f | converge, donc f est intégrable sur [a, b[ .
a
• Si f ∼ g , alors f = O(g) et g = O(f ) . On conclut alors à l’aide du premier point.
b b b

Proposition 22 Traitons le cas où I = [a, b[ ; le cas I = ]a, b] se traite de la même manière, et le


cas I = ]a, b[ se ramène aux deux précédents.
Pour x ∈ [a, b[ , une intégration par parties sur le segment [a, x] donne :
 x  x
 x
f ′g = f g a
− f g′. (⋆)
a a
 b  x
Si le crochet f g a
converge, alors f g a
possède une limite (finie) quand x tend vers b . Dans
 x  x
ce cas, si l’un des deux termes f ′ g et f g ′ possède une limite finie quand x tend vers b ,
a a
 b  b

alors l’autre aussi : les deux intégrales f g et f g ′ ont donc même nature.
a a
Si elles convergent, on obtient alors la formule d’intégration par parties souhaitée en passant à
la limite quand x tend vers b dans la relation (⋆) précédente.

403
Chapitre 9. Intégration sur un intervalle quelconque

Proposition 23 Notons F une primitive de la fonction continue f sur ]a, b[ .


 b
• On sait (cf. point méthode de la page 382) que l’intégrale f converge si, et seulement
a
 b
si, F admet des limites finies en a et b , et dans cas f = lim F − lim F .
b a
a

• Remarquons d’autre part que la fonction F ◦ ϕ est une primitive de ϕ × f ◦ ϕ sur l’inter-
 β
valle ]α, β[ . Ainsi, l’intégrale f ◦ϕ converge si, et seulement si, F ◦ϕ possède des limites
α
 β
finies en α et β , et dans ce cas f ◦ ϕ = lim F ◦ ϕ − lim F ◦ ϕ .
β α
α
Cela donne le résultat souhaité, car d’après les hypothèses sur ϕ et le théorème de composition
des limites, la fonction F ◦ ϕ admet une limite finie en α (respectivement β ) si, et seulement
si, la fonction F admet une limite finie en a (respectivement b ), et ces limites sont alors égales.
Proposition 25 Dans les trois cas, l’intégrabilité de f se déduit du théorème de comparaison.
• Si f = O(ϕ) au voisinage de b , il existe K > 0 et b′ ∈ [a, b[ tels que :
∀t ∈ [b′ , b[ |f (t)|  Kϕ(t).

On en déduit, pour x ∈ [b , b[ :
 b   b  b
 
 f  |f |  K ϕ.
 
x x x
 b  b 
On a donc établi que f =O ϕ , quand x tend vers b .
x x

• Supposons f = o(ϕ) au voisinage de b . Soit ε > 0 ; il existe b′ ∈ [a, b[ tel que :


∀t ∈ [b′ , b[ |f (t)|  εϕ(t).

On en déduit, pour x ∈ [b , b[ :
 b   b  b
 
 f  |f |  ε ϕ.
 
x x x
 b
 b 
On a donc établi que f =o ϕ quand x tend vers b .
x x

• Supposons f ∼ ϕ . Alors on a f −ϕ = o(ϕ) et l’on conclut par application du point précédent.


b b

404
Démonstrations
 x
Proposition 26 Comme ϕ est positive et n’est pas intégrable sur [a, b[ , on a lim ϕ = +∞ .
x→b
a

• Si f = O(ϕ) au voisinage de b , il existe K > 0 et b′ ∈ [a, b[ tels que :


∀t ∈ [b′ , b[ |f (t)|  Kϕ(t).

On en déduit, pour x ∈ [b , b[ :
    b′   b′ 
 x  x x x
 f   |f |  |f | + K ϕ |f | + K ϕ.

a a a b′ a a
 x
Comme lim ϕ = +∞ , il existe b′′ ∈ [b′ , b[ tel que :
x→b
a
 b′  x
∀x ∈ [b′′ , b[ |f |  K ϕ.
a a

On a donc :   
 x  x
∀x ∈ [b′′ , b[  f   2K ϕ,

a a
 x  x 
ce qui prouve que f =O ϕ , quand x tend vers b .
a a

• Supposons f = o(ϕ) au voisinage de b . Soit ε > 0 ; il existe b′ ∈ [a, b[ tel que :


ε
∀t ∈ [b′ , b[ |f (t)|  ϕ(t).
2
On en déduit, pour x ∈ [b′ , b[ :
    b′   b′ 
 x  x
ε
x
ε
x
 f   |f |  |f | + ϕ |f | + ϕ.
 2 2
a a a b′ a a
 x
Comme lim ϕ = +∞ , il existe b′′ ∈ [b′ , b[ tel que :
x→b
a
 b′  x
ε
∀x ∈ [b′′ , b[ |f |  ϕ.
a
2 a

On a donc :   
 x  x
∀x ∈ [b , b[ ′′  f   ε ϕ,

a a
 x
 x

ce qui prouve que f =o ϕ , quand x tend vers b .
a a

• Supposons f ∼ ϕ . Alors on a f − ϕ = o(ϕ) et l’on conclut grâce au point précédent.


b b

405
Chapitre 9. Intégration sur un intervalle quelconque

S’entraîner et approfondir
 π
2
cos u
9.1 Déterminer la nature et la valeur éventuelle de l’intégrale √ du .
→380 0 sin u


n
t − ⌊t⌋
9.2 Pour tout n ∈ IN∗ , on pose un = 1
k
− ln n . On définit f sur ]0, +∞[ par f (t) = ·
→384 k=1 t2
 +∞
1. Montrer que f (t) dt est bien définie dans [0, +∞] et :
1
 +∞ +∞ 
 
1
f (t) dt = ln(j + 1) − ln j − < +∞·
1
j+1
j=1

 +∞
2. Montrer que la suite (un ) converge vers 1 − f (t) dt .
1

9.3 Intégrales de Bertrand


On étudie ici, en fonction de (α, β) ∈ IR2 la nature de l’intégrale de Bertrand :
→389

 +∞
dt
Bα,β = ·
2 tα (ln t)β

1. Établir la convergence de Bα,β pour α > 1 .


2. Établir la divergence de Bα,β pour α < 1 .
3. Faire l’étude de Bα,β pour α = 1 .

 +∞
dt
9.4 1. Montrer que pour tout n ∈ IN∗ , l’intégrale In = converge.
→392 0
(1 + t2 )n
2. À l’aide d’une intégration par parties, exprimer In+1 à l’aide de In .
3. Calculer In .

 +∞
   +∞
sin t sin t
9.5 Déterminer la nature des intégrales ln 1 + √ dt et √ dt .
→395 1 t 1 t

 +∞
2
9.6 Pour tout n ∈ IN∗ , on pose un = e−t dt .
→396 n
1. Montrer pour tout n ∈ IN∗ la convergence de l’intégrale définissant un .
2. Déterminer un équivalent simple de la suite (un ) .
Indication. On pourra effectuer une intégration par parties.

 +∞
e−t
9.7 Pour tout x > 0 , on pose f (x) = dt.
→398 0
t+x
1. Montrer que pour tout x > 0 , l’intégrale f (x) est convergente.
2. Déterminer un équivalent simple de f (x) quand x tend vers 0 .

406
Exercices

9.8 Déterminer la nature des intégrales suivantes :


 1 √
sh( t) ln t
1. √ dt ;
0 t − sin t
 +∞
ln(t2 − t)
2. dt ;
1
(1 + t)2
 1  β
1
3. tα ln dt (on discutera suivant les réels α et β) .
0
t
 +∞  
1
9.9 Déterminer la nature et la valeur éventuelle de l’intégrale ln 1 + dt .
1
t2
 +∞  
sin t t+1
9.10 Déterminer, en fonction du réel α , la nature de l’intégrale ln dt .
1
tα t−1
 +∞
9.11 Montrer que l’intégrale cos(t2 + t) dt est convergente.
0

 +∞  +∞
⋆ 9.12 Soit f ∈ C 1 (IR+ , IR) telle que les intégrales f (t) dt et f ′ (t)2 dt convergent.
0 0
Montrer que f −→ 0 .
+∞

 +∞
9.13 Soit f ∈ CM([0, +∞[, IK) telle que f (t) dt converge.
0
 x
1. Déterminer lim f (t) dt .
x→+∞
x/2
2. On suppose de plus que f est à valeurs réelles positives et décroissante.
1
Montrer que f (x) = o x
au voisinage de +∞ .
α
sin2 x
⋆ 9.14 Soit α > 0 . On pose f : x �→ xe−x .
 nπ+ π
 2
1. Donner la nature, selon α , de la série un , avec un = f.
nπ− π
2

2. Donner une condition nécessaire et suffisante sur α pour que f soit intégrable sur IR+ .

⋆ 9.15 Soit f continue et intégrable sur IR .


 
+∞   +∞
1. Montrer que f (t − x) − f (t + x) dt −→ |f | .
x→+∞
0 −∞
 +∞  
2. Pour a ∈ IR , on pose F (a) = f (t − a) − f (t) dt .
−∞
(a) Montrer que pour tout a ∈ IR , on a :
 +∞     
 a a 
F (a) = f t − −f t+  dt.
−∞
2 2
(b) En déduire que :
 +∞
F (a) −→ 2 |f |.
a→+∞
−∞

407
Chapitre 9. Intégration sur un intervalle quelconque
 x
1
⋆ 9.16 Soit f ∈ C([1, +∞[, IR) . Montrer que la fonction x �→ f (t) dt admet une limite finie
x 1
 +∞
f (t)
en +∞ si, et seulement si, la fonction x �→ x dt admet une limite finie en +∞ ,
x
t2
et qu’alors ces limites sont égales.
Indication. On pourra effectuer des intégrations par parties.

 3x
sin t
⋆ 9.17 1. Déterminer lim dt .
x→0+ x
t2
 +∞
sin3 t
2. Justifier la convergence de l’intégrale I = dt .
0
t2
3. Linéariser sin3 t , puis calculer I à l’aide de la première question.

⋆ 9.18 Intégrale de Dirichlet.


1. Montrer que la fonction f : ]0, π] → IR , définie par :
1 1
f (x) = −
x 2 sin( x2 )

se prolonge en une fonction de classe C 1 sur [0, π] .


  2n+1 
π
sin t
2. Pour tout n ∈ IN , on pose In = 2t  dt .
0 sin 2
Justifier l’existence de In . Calculer In+1 − In puis In .
3. Soit g une fonction de classe C 1 sur un segment [a, b] de IR .
 b
Montrer que lim g(x) sin(λx) dx = 0 .
λ→+∞
a
 +∞
sin t
4. Montrer que l’intégrale I = dt est convergente et déduire des questions pré-
0
t
cédentes la valeur de I .

408
Solutions des exercices

Solutions des exercices


cos u  π

9.1 La fonction u �→ √ est continue sur 0, 2
et l’une de ses primitives
sin u
 π
√ 2
cos u
est F : u �→ 2 sin u . Comme F −→ 0 , l’intégrale √ du converge et l’on a :
0
0 sin u
 π
2 cos u  π/2
√ du = F (u) 0 = 2.
0 sin u

 +∞
9.2 1. La fonction f est continue par morceaux et positive sur [1, +∞[ , donc l’intégrale f
1
est bien définie dans [0, +∞] et l’on a (cf. point méthode de la page 384) :
 +∞ +∞ 
 j+1
f (t) dt = f
1 j=1 j

+∞  +∞  
 j+1
t−j  1
= dt = ln(j + 1) − ln j − ·
j
t 2 j+1
j=1 j=1

D’autre part, on a :
 
1 1 1
ln(j + 1) − ln j − = ln 1 + −
j+1 j j+1
   
1 1 1 1
= − +O 2 =O 2 ,
j j+1 j j
ce qui prouve que :
+∞  
 1
ln(j + 1) − ln j − < +∞.
j +1
j=1

2. On reprend le calcul précédent :


 +∞ n−1
  1 
f (t) dt = lim ln(j + 1) − ln j −
1
n→+∞ j+1
j=1


n−1
1
= lim ln n −
n→+∞ j+1
j=1
 
= lim 1 − un .
n→+∞

 +∞
Par convergence de l’intégrale f (t) dt , on en déduit que la suite (un ) est conver-
1
gente et :
 +∞
un −→ 1 − f (t) dt.
n→+∞
1

409
Chapitre 9. Intégration sur un intervalle quelconque

1
9.3 1. Soit α > 1 et β ∈ IR . La fonction f : t �→ tα (ln t)β
est continue sur [2, +∞[ .
Fixons γ ∈ ]1, α[ . Pour t  2 , on a :
1
tγ f (t) = ·
tα−γ (ln t)β
Puisque α − γ > 0 , on a, par croissances comparées :
 
1
lim tγ f (t) = 0 autrement dit f (t) = O ·
t→+∞ t→+∞ tγ
Comme γ > 1 , on en déduit, par comparaison à un exemple de Riemann, l’intégrabilité
de la fonction f sur [2, +∞[ , donc la convergence de son intégrale.
 +∞
dt
2. Soit α < 1 et β ∈ IR . Montrons la divergence de l’intégrale Bα,β = ·
2
tα (ln t)β
1
La fonction f : t �→ tα (ln t)β
est continue sur [2, +∞[ .
Comme α < 1 , on a 1−α > 0 , donc par croissances comparées (ou directement si β < 0 ) :
(ln t)β 1  
−→ 0 autrement dit = o f (t) .
t1−α t→+∞ t
Il en résulte, par comparaison à un exemple de Riemann divergent, que la fonction f n’est
pas intégrable. Par positivité de f , on en déduit que l’intégrale Bα,β est divergente.
3. Soit β ∈ IR . Par positivité de l’intégrande, on peut écrire :
 +∞  +∞
dt
B1,β = = ln′ (t)(ln t)−β dt.
2
t(ln t)β 2
 +∞
Cas β = 1 . On a B1,1 = ln(ln t) 2
= +∞ .
Cas β =
� 1 . On a :
 +∞ 
(ln t)−β+1 +∞ si β < 1
B1,β = = (ln 2)1−β
−β + 1 2 β−1
< +∞ si β > 1.

En conclusion, l’intégrale B1,β converge si, et seulement si, β > 1 .

9.4 1. Pour n ∈ IN∗ , la fonction fn : t �→ 1


est continue sur [0, +∞[ .
(1+t2 )n
Pour tout n ∈ IN∗ , on a fn (t) ∼ t2n
1
·
Par comparaison à un exemple de Riemann convergent, on en déduit que fn est inté-
grable, donc que In converge.
2. Pour n  1 , on a :
 x  x  x
1 + t2 t2
fn+1 (t) dt = dt − dt,
(1 + t2 )n+1 (1 + t2 )n+1
puis on intègre par parties la troisième intégrale :
 x  x
 x  x
t 1
fn+1 (t) dt = fn (t) dt + − fn (t) dt.
2n(1 + t2 )n 2n
x 1
Puisque ∼ −→ 0 , on en déduit :
2n(1 + x2 )n x→+∞ 2nx2n−1 x→+∞

2n − 1
∀n ∈ IN∗ In+1 = In .
2n

410
Solutions des exercices

π
3. On a I1 = et l’on déduit de la question précédente, par récurrence :
2
(2n − 2)!
∀n ∈ IN∗ In =  2 π .
22n−1 (n − 1)!
  
=un

En effet, pour tout n ∈ IN∗ , on a :

2n − 1 2n − 1 (2n − 2)!
un = π
2n 2n 22n−1 ((n − 1)!)2
(2n)(2n − 1)(2n − 2)! (2n)!
= π = 2n+1 π = un+1 ,
22n+1 (n!)2 2 (n!)2

et l’égalité I1 = u1 est évidemment vérifiée.

 
9.5 La fonction f : t �→ ln 1 + sin
√t
t
est continue sur [1, +∞[ ; effectuons un développement
de f au voisinage de +∞ :

sin t sin2 t
f (t) = √ + g (t) avec g (t) ∼ − ·
t 2t
 +∞
sin t
• D’après l’exemple 27 de la page 395, l’intégrale √ dt converge.
1 t
• On peut écrire :
sin2 t 1 cos (2t)
∀t  1 = − ·
2t 4t 4t
 +∞
cos(2t)
Par intégration par parties, on montre que l’intégrale dt converge.
1
4t
 +∞
dt
Puisque l’intégrale diverge (c’est, à un facteur près, une intégrale de Riemann
1
4t
 +∞
sin2 t
divergente), on en déduit que l’intégrale dt diverge.
1
2t
2
Comme g(t) ∼ − sin2t t , on en déduit que g n’est pas intégrable. L’équivalent obtenu
t→+∞
montrant de plus que g est de signe fixe au voisinage de +∞ , la non intégrabilité de g
entraîne la divergence de son intégrale.
 +∞
En conclusion, l’intégrale f diverge, puisque f est la somme de deux fonctions, l’une
1
dont l’intégrale est convergente, l’autre dont l’intégrale est divergente.

Remarque Remarquons que nous avons ainsi obtenu deux fonctions continues par mor-
ceaux sur [1, +∞[ , équivalentes en +∞ , mais dont les intégrales sont de nature différentes.

411
Chapitre 9. Intégration sur un intervalle quelconque

2
9.6 1. Soit n ∈ IN∗ . La fonction f : t �→ e−t est continue sur [n, +∞[ .
2  
Par croissances comparées, on a e−t = o t12 . Par comparaison à un exemple de Rie-
mann, f est intégrable sur [n, +∞[ , donc un est défini.
2 2
2. Effectuons une intégration par parties en écrivant e−t = 1
2t
× 2te−t :
 x
 x  x
−t2 1 2 1 −t2
e dt = − e−t − e dt.
2t 2t2
2
e−x
L’intégrale définissant un converge et l’on a x
−→ 0 , donc :
x→+∞
 +∞  +∞
2 1 −n2 1 −t2
un = e−t dt = e − e dt .
n
2n 2t2
n  
=vn

2 2 2
On a 2t12 e−t = o(e−t ) et la fonction t �→ e−t sur [1, +∞[ est intégrable donc par
intégration des relations de comparaison (cas convergent), on a :
1 −n2
vn = o(un ) donc un ∼ e .
2n

e−t
9.7 1. Soit x > 0 . La fonction ϕ : t �→ t+x
est continue sur [0, +∞[ .
 
Par croissances comparées, on a ϕ(t) = o t12 . Comme 2 > 1 , on en déduit, par com-
paraison à un exemple de Riemann, que ϕ est intégrable sur [0, +∞[ , donc d’intégrale
convergente.
2. Soit x ∈ ]0, 1[ . Effectuons le changement de variable [u = t + x] :
 +∞  +∞  +∞
e−u+x e−u e−u
f (x) = du = ex du ∼ du. (⋆)
x
u x
u x→0
x
u
Or, par la relation de Chasles, on a :
 +∞  1  +∞
e−u e−u e−u
du = du + du . (⋄)
x
u x
u 1
u
  
∈IR (intégrale cv)

 1
e−u 1 du
On a l’équivalent simple ∼ , et l’intégrale diverge. Donc par intégra-
u u→0 
u 0
u
0
tion des relations de comparaison (cas divergent), on en déduit :
 1  1
e−u du
du ∼ = − ln x.
x
u x→0
x
u

Comme ln x −→ +∞ , la relation (⋄) donne :


x→+∞
 +∞
e−u
du ∼ − ln x donc finalement f (x) ∼ − ln x.
x
u x→0 x→0

412
Solutions des exercices

9.8 Dans cet exercice, la fonction dont nous étudions l’intégrale sera toujours notée f .

1. Pour t ∈ ]0, 1] , on a t  t et l’inégalité classique sin t < t , vraie pour tout t > 0 ,

donne t > sin t . On déduit de cela que f est définie et continue sur ]0, 1] .
√ √ √
Comme sin t ∼ t = o( t) et sh( t) ∼ t , on a, au voisinage de 0 :
√ √  
t ln t t ln t 1
f (t) ∼ √ ∼ √ = ln t = o √ ·
t − sin t t t
Ainsi, comme 12 < 1 , on obtient, par comparaison avec un exemple de Riemann
convergent, que f est intégrable sur ]0, 1] , donc d’intégrale convergente.
2. La fonction f est continue sur ]1, +∞[ .
Étude en 1 . Pour t > 1 , on a ln(t2 − t) = 
ln t + ln(t − 1) donc :
  
→0 →−∞

ln(t − 1)
ln(t2 − t) ∼ ln(t − 1) puis f (t) ∼ ·
4
 
Par croissances comparées, on en déduit f (t) = o √1
t−1
, avec 1
2
< 1.
Par comparaison à un exemple de Riemann, la fonction f est intégrable en 1 .
 
Étude en +∞ . Pour t > 1 , on a ln(t2 − t) = 2 ln t + ln 1 − 1t donc :
2 ln t
ln(t2 − t) ∼ 2 ln t puis f (t) ∼ ·
t2
1
 
Par croissances comparées, on en déduit f (t) = o t3/2 avec 23 > 1 .
Par comparaison à un exemple de Riemann, la fonction f est intégrable en +∞ .
En conclusion, f est intégrable sur ]1, +∞[ , donc d’intégrale convergente.
3. La fonction f est continue sur ]0, 1[ .
 
1 β
Étude en 1 . Comme ln x ∼ x − 1 , on a f (t) ∼ −1 ∼ (1 − t)β . Par compa-
x→1 t
raison à un exemple de Riemann, la fonction f est intégrable en 1 si, et seulement
 1
si, β > −1 . Par positivité de f , l’intégrale f (t) dt est divergente dès que β  −1 .
0
On suppose donc β > −1 dans la suite de l’étude.
Étude en 0 . On ne peut pas trouver d’équivalent simple de f (t) en 0 . Procédons par
disjonction de cas.
• Supposons α > −1 et fixons γ ∈ ]−1, α[ .
Par croissances comparées, on a t−γ f (t) −→ 0 car α − γ > 0 , donc :
t→0

f (t) = o(tγ ) avec γ > −1.


Par comparaison à un exemple de Riemann, f est intégrable en 0 .
• Supposons α < −1 et fixons γ ∈ ]α, −1[ .

Par croissances comparées, on a −→
f (t) t→0
0 car γ − α > 0 , donc :
 
tγ = o f (t) .
Si f était intégrable en 0 , alors t �→ tγ serait intégrable en 0 ce qui n’est pas le
cas car γ < −1 .
Donc f n’est pas intégrable en 0 et, par positivité de f , on en déduit que l’inté-
 1
grale f (t) dt est divergente.
0

413
Chapitre 9. Intégration sur un intervalle quelconque

• Supposons α = 1 . Par positivité de f , on a :


 1  1
 1
1 −(− ln t)β+1
f (t) dt = (− ln t)β dt = = +∞ car β + 1 > 0.
0 0
t β+1 0
 1
En conclusion, l’intégrale f (t) dt converge si, et seulement si, β > −1 et α > −1 .
0

 
9.9 La fonction f : t �→ ln 1 + 1
t2
est continue sur [1, +∞[ . On f (t) ∼ 12 ·
t→+∞ t
Par comparaison avec un exemple de Riemann convergent, f est intégrable sur [1, +∞[ ,
donc son intégrale converge.
Déterminons une primitive de f à l’aide d’une intégration par parties :
 x  x      x
1 1 2
f (t) dt = 1 × ln 1 + dt = x ln 1 + + dt
t2 x2 1 + t2
 1

= x ln 1 + + 2 Arctan x + c avec c ∈ IR.
x2
Notons F la primitive obtenue en prenant c = 0 .
 +∞  
 1
 1 1
Comme x ln 1 + x2
∼ , on a F −→ π ; par suite ln 1 + dt converge et
x→+∞ x +∞ t2
1
l’on a :
 +∞  
1  +∞ π π
ln 1 + dt = F (t) = π − ln 2 − = − ln 2.
1
t2 1 2 2

sin t t+1
9.10 La fonction f : t �→ tα
ln t−1
est continue sur ]1, +∞[ .
t+1
Étude en 1 . On a ln t−1
= ln(t + 1) − ln(t − 1) ∼ − ln(t − 1) donc :
t→1

f (t) ∼ − sin(1) ln(t − 1).


 
Par croissances comparées, on en déduit f (t) = o √1
t−1
. Par comparaison avec un
exemple de Riemann convergent, cela prouve que f est intégrable en 1 .
Étude en +∞ . Comme ln x ∼ x − 1 , on a :
x→1

t+1 t+1 2 2 2 sin t


ln ∼ −1= ∼ donc f (t) ∼ ·
t−1 t−1 t−1 t tα+1
1
 
• Supposons α > 0 . Alors on a f (t) = O tα+1 . Comme α + 1 > 1 , on en déduit, par
comparaison à un exemple de Riemann convergent, que f est intégrable en +∞ .
• Supposons α ∈ ]−1, 0] et précisons le développement asymptotique de f (t) .
Pour t > 1 , on a :
     
t+1 1 1 2 1
ln = ln 1 + − ln 1 − = +O 3 .
t−1 t t t t
On a donc :
   
2 sin t 1 2 sin t 1
f (t) = + O α+3 ou encore f (t) − = O α+3 .
tα+1 t tα+1 t

414
Solutions des exercices

2 sin t
Par comparaison à un exemple de Riemann, la fonction t �→ f (t)− est intégrable
tα+1
car α + 3 > 1 .
 +∞
2 sin t
Par intégration par parties (cf. exemple 27 de la page 395), l’intégrale dt
2
tα+1
est convergente, puisque α + 1 > 0 .
 +∞
Ainsi, f (t) dt est une intégrale convergente.
2
1 t+1 2
• Supposons α  −1 . On a ln ∼ α+1 , donc il existe n0 ∈ IN∗ tel que :
tα t−1 t
1 t+1
∀t  2n0 π ln  1.
tα t−1
On peut donc écrire, pour tout entier n  n0 :
 (2n+1)π  (2n+1)π
sin t t + 1
ln dt  sin t dt = 2.
2nπ
tα t−1 2nπ
 +∞
Si l’intégrale f (t) dt convergeait et valait ℓ , on aurait :
2
 2nπ  (2n+1)π
lim f (t) dt = ℓ et lim f (t) dt = ℓ,
n→+∞ n→+∞
2 2
 (2n+1)π
d’où lim f (t) dt = 0 . Cela contredirait la minoration précédente.
n→+∞
2nπ
 +∞
L’intégrale f (t) dt est donc divergente.
2
 +∞
Conclusion : l’intégrale f (t) dt est convergente si, et seulement si, α > −1 .
1

9.11 La fonction t �→ cos(t2 + t) est continue sur [0, +∞[ . Écrivons :


1
cos(t2 + t) = (2t + 1) cos(t2 + t) ·
2t + 1
Effectuons une intégration par parties en posant u(t) = sin(t2 + t) et v(t) = 1
2t+1
·
1
• Les fonctions u et v sont de classe C sur [0, +∞[ .
 +∞
• On a uv −→ 0 , donc le crochet uv 0
converge. Le théorème d’intégration par parties
+∞
 +∞  +∞

assure alors que les deux intégrales u v et uv ′ ont même nature.
0 0
• On a :
−2 sin(t2 + t)
 
1
u(t)v ′ (t) = = O
(2t + 1)2 t→+∞ t2
 +∞
donc, par comparaison à un exemple de Riemann convergent, l’intégrale uv ′
0
converge absolument, donc converge.
 +∞  +∞
Conclusion : l’intégrale u′ v , autrement dit cos(t2 + t) dt , est convergente.
0 0

415
Chapitre 9. Intégration sur un intervalle quelconque
 x
9.12 Posons F : x �→ f (t) dt .
0

L’intégrande f est de classe C 1 donc, d’après le théorème fondamental de l’analyse, F est


de classe C 2 et, par la formule de Taylor reste intégral, on a :
 x+1
∀x ∈ IR+ F (x + 1) = F (x) + f (x) + (x + 1 − t)f ′ (t) dt.
x

Par l’inégalité triangulaire, puis l’inégalité de Cauchy-Schwarz, on en déduit :


  x+1 
 
∀x ∈ IR+ 
|f (x)|  |F (x + 1) − F (x)| +  (x + 1 − t)f (t) dt

x
 
x+1 x+1
 |F (x + 1) − F (x)| + (x + 1 − t)2 dt f ′ (t)2 dt. (⋆)
x x
  
= √1
3

 +∞
La convergence de l’intégrale f (t) dt assure que :
0
 x+1  +∞  +∞
F (x + 1) − F (x) = f= f− f −→ 0.
x→+∞
x x x+1
     
−→ 0 −→ 0
x→+∞ x→+∞

 +∞  x+1
′ 2
De même, comme l’intégrale f (t) dt converge, on a f ′ (t)2 dt −→ 0 .
x→+∞
0 x
Finalement, on conclut de l’inégalité (⋆) que f −→ 0 .
+∞

9.13 1. Pour tout x ∈ IR+ , on a, par la relation de Chasles :


 x  x  x/2
f (t) dt = f (t) dt − f (t) dt.
x/2 0 0
 +∞  x
Comme l’intégrale f (t) dt converge, lim f (t) dt existe dans IK .
x→+∞
0 0
 x
Notant ℓ cette limite, on en déduit que lim f (t) dt = ℓ − ℓ = 0 .
x→+∞
x/2

2. Comme f est positive et décroissante, on peut écrire :


 x
x
∀x  0 0  f (x)  f (t) dt.
2 x/2

On déduit de la première question que lim x


2
f (x) = 0 , d’où :
x→+∞
 
1
lim xf (x) = 0 c’est-à-dire f (x) = o ·
x→+∞ x

Remarque La fonction donnée à l’exemple 14 de la page 384 montre que le résultat ne


subsiste pas si l’on enlève l’hypothèse de décroissance. L’exercice 9.14 fournit un autre
exemple.

416
Solutions des exercices

9.14 1. On a, pour tout n ∈ IN∗ :


 π +nπ  π
2 2
−xα sin2 x α
sin2 t
un = xe dx = (t + nπ)e−(t+nπ) dt.
−π
2
+nπ −π
2

Par concavité de la fonction sin sur [0, π2 ] , on a :


 
π 2
∀t ∈ 0, t  sin t  t.
2 π
 
Par imparité de la même fonction, il vient, pour tout t ∈ − π2 , π
2
:

2 4 2
|t|  | sin t|  |t| donc t  sin2 t  t2 .
π π2
On en déduit, pour tout n ∈ IN∗ :
 π/2  α  π/2  α
− (n+1)π t2 − (n−1)π 4 t2
(n − 1)π e dt  un  (n + 1)π e π2 dt .
−π/2 −π/2
     
=mn =Mn

Or, pour a > 0 , on a :


 π/2  π

a/2  +∞
−at2 1 2 I 2
e dt = √ e−u du ∼ √ avec I= e−u du > 0.
−π/2 a −π

a/2
a→+∞ a −∞

On en déduit que :
α α
I Iπ 1− 2 Iπ 2− 2
mn ∼ (n − 1)π  α/2 ∼ α2 −1 et de même Mn ∼ α ·
(n + 1)π n 2n 2 −1


Par comparaison aux séries de Riemann, la série à termes positifs un converge si, et
α
seulement si, − 1 > 1 , c’est-à-dire α > 4 .
2
2. La fonction f étant à valeurs positives, on a l’égalité suivante dans IR+ (cf. point méthode
de la page 384) :
 +∞ +∞

f= un .
π/2 n=1
 +∞  +∞
Par conséquent, l’intégrale f , qui a même nature que f , a aussi même nature
0 π/2

que la série un .
 +∞
Conclusion : l’intégrale f converge si, et seulement si, α > 4 .
0

417
Chapitre 9. Intégration sur un intervalle quelconque
 +∞  
9.15 1. Notons G(x) = f (t − x) − f (t + x) dt . Par inégalité triangulaire et croissance de
0
l’intégrale, puis par linéarité de l’intégrale, on a :
   
+∞   +∞   +∞   +∞  
f (t − x) dt − f (t + x) dt  G(x)  f (t − x) dt + f (t + x) dt.
0 0 0 0

Les changements de variables [u = t − x] et [u = t + x] , effectués là où c’est pertinent,


donnent alors :
   
+∞   +∞   +∞   +∞  
f  − f   G(x)  f  + f .
−x x −x x
 +∞
Cela prouve par encadrement que G(x) −→ |f | , car :
x→+∞
−∞
  
+∞ +∞ +∞  
|f | −→ |f | et f  −→ 0.
x→+∞ x→+∞
−x −∞ x
 a

2. (a) Soit a ∈ IR . Le changement de variable u = t − 2
donne :
 +∞     
 a a 
F (a) = f u − −f u+ du.
−∞
2 2
(b) En posant :
 
+∞   0  
G(x) = f (t − x) − f (t + x) dt et H(x) = f (t − x) − f (t + x) dt,
0 −∞
a a
on a, d’après la question précédente, F (a) = H 2
+G 2
. D’après la première
 +∞
a
question, on a G 2
−→ |f | . Avec un raisonnement analogue, on montre
a→+∞
−∞
 +∞
a
que H 2
−→ |f | . Par somme de limites, on obtient alors le résultat :
a→+∞
−∞
 +∞
F (a) −→ 2 |f |.
a→+∞
−∞
 x
9.16 La fonction F : x �→ f (t) dt est de classe C 1 sur [1, +∞[ , car f est continue.
1
F (x)
• Supposons qu’il existe ℓ ∈ IR tel que lim = ℓ.
x→+∞ x
 +∞
f (t)
Commençons par prouver que l’intégrale dt converge. Pour cela, montrons,
1
t2
par une intégration par parties, que les primitives admettent une limite en +∞ :
 x
 x  x
f (t) F (t) F (t)
dt = +2 dt. (⋆)
t2 t2 t3
F (t) F (t)
Puisque t �→ admet une limite finie, d’une part lim = 0 et d’autre
t t→+∞ t2
F (t)  1  F (t)
part = O 2 , donc t �→ 3 est intégrable sur [1, +∞[ , ce qui prouve la conver-
t3 t  t
+∞
f (t)
gence de l’intégrale dt .
1
t2

418
Solutions des exercices

De la relation (⋆) , on déduit :


 +∞  +∞
f (t) F (x) F (t)
∀x  1 x dt = − + 2x dt.
x
t2 x x
t3
  
=A(x)

F (t)
Comme lim = ℓ , on a :
t→+∞ t
F (t)
 
ℓ 1
− 2 =o 2
t3 t t
puis par intégration des relations de comparaison (cas convergent) :
 +∞  +∞    +∞  1
F (t) ℓ F (t) ℓ dt
dt − = − 2 dt = o =o
x
t3 x x
t3 t x
t2 x
ce qui prouve :
 +∞
F (t)
lim x dt = ℓ et donc lim A(x) = ℓ.
x→+∞
x
t3 x→+∞

• Supposons qu’il existe ℓ ∈ IR tel que :


 +∞
f (t)
lim x G(x) = ℓ avec G(x) = dt.
x→+∞
x
t2
2 ′
Alors f (x) = −x G (x) et, par une intégration par parties, on a :
 x  x
1 1 2 x 2
B(x) = f (t) dt = −t G(t) 1 + tG(t) dt
x 1
x x 1
 x
G(1) 2
= − xG(x) + tG(t) dt.
x x 1

Comme tG(t) −→ ℓ , on a tG(t) − ℓ = o(1) puis, par intégration des relations de


t→+∞
comparaison (cas divergent) :
 x  x
 
t G(t) dt − ℓ (x − 1) = t G(t) − ℓ dt = o(x),
1 1

ce qui donne lim B(x) = ℓ .


x→+∞

9.17 1. On a, au voisinage de 0 , sintt−t


2 ∼ − 6t · La fonction t �→ sin t−t
t2
possède donc un prolon-
gement continu sur IR , que nous noterons f .
On peut écrire, pour tout x > 0 :
 3x  3x  3x  3x
sin t dt
dt = + f (t) dt = ln 3 + f (t) dt.
x
t2 x
t x x
 3x
D’après les propriétés de l’intégrale des fonctions continues, x �→ f (t) dt est continue
x
 3x
sur IR ; on en déduit, en particulier, lim f (t) dt = 0 .
x→0+ x
 3x
sin t
En conclusion, on a lim dt = ln 3 .
x→0+ x
t2

419
Chapitre 9. Intégration sur un intervalle quelconque

3 3
2. La fonction t �→ sint2 t est continue sur ]0, +∞[ et l’on a sint2 t ∼ t , au voisinage de 0 .
Cette fonction possède donc un prolongement continu sur IR+ .
 
 3 
Comme pour tout t > 0 , on a  sint2 t   1
t2
, on en déduit, par comparaison aux intégrales
 +∞
sin3 t
de Riemann, la convergence absolue de l’intégrale dt et donc la convergence
1
t2
 +∞
sin3 t
de l’intégrale dt .
0
t2
3. On a :
 3
eit − e−it e3it − 3eit + 3e−it − e−3it
sin3 t = =−
2i 8i
3 eit − e−it 1 e3it − e−3it 3 sin t − sin 3t
= − = ·
4 2i 4 2i 4
Pour 0 < x < y , on peut écrire :
 y  y  y
sin3 t 3 sin t sin 3t
dt = dt − dt.
x
t2 x
4t2 x
4t2
u
Le changement de variable [t = 3
] dans la deuxième intégrale donne :
 y  y  3y
sin3 t 3 sin t 3 sin u
dt = dt − du
x
t2 x
4t2 3x
4u2
 3x  3y  y  3y
3 sin t 3 sin t 3 sin t 3 sin u
= dt + dt + dt − du
x
4t2 3x
4t2 3y
4t2 3x
4u2
 3x  3y
3 sin t 3 sin t
= dt − dt.
x
4t2 y
4t2
On a, pour tout y > 0 :
       3y
 3y
3 sin t 
3y
 3 sin t 
3y
3 3
 dt   2  dt  dt = − .
 4t2 4t 4t2 4t y
y y y
 3y
3 sin t
On en déduit lim dt = 0 , d’où :
y→+∞
y
4t2
 +∞  3x
sin3 t 3 sin t
dt = dt.
x
t2 4 x
t2
En faisant tendre x vers 0 , on obtient, avec le résultat de la première question :
 +∞
sin3 t 3 ln 3
dt = ·
0
t2 4

9.18 1. La fonction f est de classe C 1 sur ]0, π] . Pour conclure, il suffit de montrer que f et f ′
possèdent des limites finies en 0 .
2 sin(x/2)−x
• On a f (x) = 2x sin(x/2)
. Au voisinage de 0 , on a :
     
x x x
2 sin −x=2 + O(x3 ) − x = O(x3 ) et 2x sin ∼ x2 ,
2 2 2
donc f (x) = O(x) . On en déduit lim f (x) = 0 .
x→0+

420
Solutions des exercices

• On a, pour tout x ∈ ]0, π] :

1 cos(x/2) x2 cos(x/2) − 4 sin2 (x/2)


f ′ (x) = − + = ·
x2 4 sin (x/2)
2
4x2 sin2 (x/2)
Par développements limités, on obtient :
 x2
 x x3
2

x2 1 − 8
+ o(x2 ) − 4 2
− 48
+ o(x3 )
f (x) =
4x2 sin2 (x/2)
 x2
  x2 x4
 4 4
x2 1 − 8
+ o(x2 ) − 4 4
− 48
+ o(x4 ) − x24 + o(x4 ) −x
= = ∼ 24 ·
4x2 sin2 (x/2) 4x sin (x/2)
2 2
x4

On en déduit lim f ′ (x) = − 24


1
·
x→0+

Le prolongement de classe C 1 de f ainsi obtenu sera encore noté f .


sin( 2n+1 t)
2. La fonction t �→ 2
t)
sin( 2
est continue sur ]0, π] et, au voisinage de 0 , on a :

sin( 2n+1 t) 2n+1


t sin( 2n+1 t)
2
t ∼ 2
t donc lim 2
t = 2n + 1.
sin( 2 ) 2
t→0+ sin( 2 )

Cette fonction a donc un prolongement continu sur [0, π] , d’où l’existence de In pour
tout n ∈ IN . On a, pour tout n ∈ IN :
 π  π
sin( 2n+3 t) − sin( 2n+1 t) 2 sin( 2t ) cos(n + 1)t
In+1 − In = 2 2
dt = dt
0 sin( 2t ) 0 sin( 2t )
 π
=2 cos(n + 1)t dt
0
 sin(n + 1)t π
=2 = 0.
n+1 0

Ainsi la suite (In )n∈IN est constante et :


 π
sin( 2t )
∀n ∈ IN In = I0 = dt = π.
0 sin( 2t )

3. Une intégration par parties avec λ > 0 donne :


 b  b  b
cos(λx) 1
g(x) sin(λx) dx = − g(x) + cos(λx)g ′ (x)dx.
a
λ a λ a

On en déduit :
 b  
  |g(b)| + |g(a)| 1 b  
 g(x) sin(λx) dx  +  cos(λx)g ′(x) dx
  λ λ a
a
 b
|g(b)| + |g(a)| 1  ′ 
 + g (x) dx,
λ λ a
 b
d’où lim g(x) sin(λx) dx = 0 , puisque le majorant tend vers zéro.
λ→+∞
a

421
Chapitre 9. Intégration sur un intervalle quelconque

sin t
4. La fonction t �→ est continue sur ]0, +∞[ .
t
sin t
Étude en 0 . La fonction t �→ admet une limite finie en 0 , donc y est intégrable.
t
Étude en +∞ . Par intégration par parties, on a :
 x  x  x
sin t cos t cos t
dt = − − dt.
t t t2
 
cos x cos t 1
Comme −→ 0 et =O 2 avec 2 > 1 , on en déduit la convergence
x x→+∞ t2 t
+∞
sin t
de l’intégrale dt.
1
t
 +∞
sin t
En conclusion, l’intégrale dt est convergente.
0
t
En appliquant à la fonction f de la première question le résultat de la question précédente,
on obtient :  π  
2n + 1
lim f (t) sin t dt = 0.
n→+∞
0
2
Vu la définition de f , on peut écrire, pour tout n ∈ IN :
     2n+1 
π
2n + 1
π
sin 2
t In
f (t) sin t dt = dt −
0
2 0
t 2
  2n+1 
π
sin 2
t π
= dt − ·
0
t 2

Le changement de variable [t = 2u
2n+1
] donne :
  2n+1   (2n+1)π
π
sin 2
t 2
sin u
dt = du.
0
t 0
u
 (2n+1)π
2
sin u π
On a donc lim du = et l’on peut conclure que :
n→+∞
0
u 2
 +∞
sin u π
du = ·
0
u 2

422
Chapitre 10 : Séries numériques
et vectorielles

I Séries à valeurs dans un espace de dimension finie . . 424


1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . 424
2 Propriétés immédiates . . . . . . . . . . . . . . . . . . . . 426
3 Séries absolument convergentes . . . . . . . . . . . . . . . 427
II Compléments sur les séries numériques . . . . . . . . . 429
1 Règle de d’Alembert . . . . . . . . . . . . . . . . . . . . . 429
2 Technique de comparaison série-intégrale . . . . . . . . . 429
3 Sommation des relations de comparaison . . . . . . . . . . 434
Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 440
Séries numériques
et vectorielles 10

Le but de ce chapitre est de consolider les acquis de première année relatifs aux séries
numériques et d’étendre la notion de série convergente au cadre des espaces vectoriels
de dimension finie.
Dans tout ce chapitre, IK désigne le corps des réels ou le corps des complexes.

I Séries à valeurs dans un espace de dimension finie


Dans cette partie, E désigne un espace vectoriel sur IK de dimension finie.
L’espace vectoriel E est muni d’une norme que l’on notera � � .

1 Généralités
Les définitions et notations sont les mêmes que celles introduites en première année
pour les séries à termes réels ou complexes. Rappelons-les brièvement.

• Si (un )n∈IN est une suite à termes dans E , on note un la série de terme géné-

n
ral un . Sa somme partielle d’ordre n est Sn = up .
p=0

• Lorsque la série un converge, c’est-à-dire lorsque la suite (Sn ) a une limite
Exo 
+∞
10.1 dans E , le vecteur lim Sn est appelé somme de la série et est noté un .
n→+∞ n=0

• Si le terme général n’est défini qu’à partir du rang n0 , la série peut être no-
 n
tée un . Sa somme partielle d’ordre n, avec n  n0 , est Sn = up .
nn0 p=n0

 
+∞
La somme d’une série convergente un est notée un .
nn0 n=n0
I Séries à valeurs dans un espace de dimension finie

Proposition 1 (Condition nécessaire de convergence)



Si la série un converge, alors la suite (un )n∈IN tend vers 0 .


Démonstration. Supposons la série un convergente. Pour tout n ∈ IN∗ , un = Sn −Sn−1 .
La suite (un )n1 est la différence de deux suites ayant la même limite dans E .
Donc lim un = 0 .
n→+∞


Remarque Si l’on n’a pas lim un = 0 , alors un est divergente ; on dit alors
n→+∞
que la série est grossièrement divergente et l’on parle de divergence grossière.

Attention Comme dans le cas des séries numériques, la convergence vers 0 du terme
général est une condition nécessaire mais non suffisante de convergence.

Définition 1
 
Si la série un converge, alors pour tout n ∈ IN, la série up converge ; on
pn+1

appelle alors reste d’ordre n de la série un le vecteur de E suivant :
+∞

Rn = up .
p=n+1

Attention
• On ne peut parler de reste que pour une série convergente.

+∞
• On notera bien que, pour n ∈ IN, le reste d’ordre n est la somme up , et
p=n+1

+∞
non up , afin que l’on dispose pour toute série convergente de la relation :
p=n
+∞

∀n ∈ IN S = Sn + Rn avec S = un .
n=0

Proposition 2
La suite des restes d’une série convergente tend vers zéro.

Démonstration. Pour tout n ∈ IN , on a Rn = S−Sn et lim Sn = S , d’où le résultat.


n→+∞

425
Chapitre 10. Séries numériques et vectorielles

La convergence d’une série n’est rien d’autre que la convergence d’une suite. Récipro-
quement, dans certains cas, on ramène l’étude de la convergence d’une suite à l’étude
de la convergence d’une série en utilisant la proposition suivante.

Proposition 3 (Lien suite-série)


Soit (vn )n∈IN une suite à valeurs dans E . La suite (vn )n∈IN converge si, et seulement
si, la série de terme général vn+1 − vn est convergente.

+∞
On a alors (vn+1 − vn ) = lim vn − v0 .
n=0 n→+∞

Démonstration. Les sommes partielles d’une série de terme général un = vn+1 −vn vérifiant
par télescopage :
n

∀n ∈ IN uk = vn+1 − v0 ,
k=0

on obtient immédiatement le résultat annoncé.

 
Terminologie Soit v ∈ E IN . La série vn+1 −vn est appelée série télescopique
associée à la suite v .

2 Propriétés immédiates
Le résultat qui suit n’est qu’une reformulation, dans le langage des séries, du résultat
correspondant sur les suites.

Proposition 4
 
Soit un et vn deux séries convergentes. Soit (λ, µ) ∈ IK2 .

Alors (λun + µvn ) est une série convergente et :
+∞
 +∞
 +∞

(λun + µvn ) = λ un + µ vn .
Exo
10.2 n=0 n=0 n=0

 
Attention Comme pour des séries numériques, si un et vn sont des séries
 
convergentes, alors (un + vn ) l’est aussi. Mais (un + vn ) peut très bien être une
 
série convergente lorsque un et vn sont divergentes.

+∞ 
+∞ 
+∞
On ne peut donc pas écrire (un + vn ) = un + vn sans s’être préalablement
n=0 n=0 n=0
assuré de l’existence d’au moins deux de ces trois sommes.

426
I Séries à valeurs dans un espace de dimension finie
Proposition 5
Soient E et F deux espaces vectoriels normés de dimension finie et L ∈ L(E, F ).
 
Soit un une série convergente à termes dans E . Alors L(un ) est une série
convergente et :
+∞
 +∞ 
 
Exo L(un ) = L un .
10.3 n=0 n=0


Démonstration. Notons (Sn ) la suite des sommes partielles de la série convergente un
et S sa somme. Par linéarité puis continuité de l’application linéaire L (l’espace E est de
dimension finie), on a :
n

L(uk ) = L(Sn ) −→ L(S).
n→+∞
k=0

Proposition 6 (Utilisation d’une base)


Soit B = (e1 , . . . , ep ) une base de E . Soit (un )n∈IN une suite d’éléments de E . On
(j) 
lui associe les suites composantes (un )n∈IN pour tout j ∈ [[1, p]]. La série un
 (j)
converge si, et seulement si, les séries un convergent pour tout j ∈ [[1, p]] et l’on
a alors :  +∞ 
+∞
  p 
un = un(j) ej .
n=0 j=1 n=0

Démonstration. Ce résultat découle immédiatement de la proposition 14 de la page 296


appliqué à la suite des sommes partielles.


Ex. 1. On retrouve ici le lien entre la convergence d’une série un à termes complexes et celle
 
des séries réelles Re(un ) et Im(un ) .
Ex. 2. Une série matricielle de terme général An ∈ Mp (IK) est convergente si, et seulement si,
les p2 séries de termes généraux les coefficients de la matrice An sont convergentes.

3 Séries absolument convergentes


Définition 2

On dit que la série un est absolument convergente, ou converge absolu-

ment, si la série à termes réels positifs �un � est convergente.

Remarque Les normes d’un espace de dimension finie étant toutes équivalentes, on
déduit du critère de majoration des séries à termes positifs que la notion de conver-
gence absolue d’une série ne dépend pas de la norme choisie.

Théorème 7
Toute série absolument convergente d’un espace de dimension finie est convergente.
Démonstration page 438
Principe de démonstration. Utiliser les séries composantes et se ramener au cas scalaire.

427
Chapitre 10. Séries numériques et vectorielles
Proposition 8 (Inégalité triangulaire)

Soit un une série absolument convergente à termes dans E . Alors, on a :
n0
 +∞  +∞
  
 
 un   �un �.
 
n=0 n=0

Démonstration. Soit N ∈ IN . L’inégalité triangulaire nous permet d’écrire :


 
N   N
 
  un .
 un  
 
n=0 n=0

La série un étant absolument convergente est aussi convergente. Un passage à la limite
n0
lorsque N tend vers +∞ dans l’inégalité précédente donne alors la relation cherchée.

Point méthode Comme �un � ∈ IR+ , on peut utiliser tous les résultats sur les
séries à termes réels positifs pour démontrer la convergence absolue d’une série.
En particulier, la comparaison de �un � ( , O , o , ∼ ) avec une série absolument

convergente permet de montrer la convergence absolue de un , donc sa conver-
gence.
En revanche, la comparaison avec des séries à termes positifs divergentes pourra
uniquement montrer que la série n’est pas absolument convergente.

On munit Mp (IK) d’une norme subordonnée à une norme sur IKp . Soit A ∈ Mp (IK) . On a
alors :
∀n ∈ IN |||An |||  |||A|||n .
Ex. 3. On suppose |||A||| < 1 . Alors, par comparaison à une série géométrique conver-
 n
gente, A est une série absolument convergente, donc convergente.

La série An étant convergente, on a lim An = 0 . L’égalité :
n→+∞
 
∀n ∈ IN (Ip − A) A0 + · · · + An = Ip − An+1

prouve, par passage à la limite (par continuité du produit matriciel), la relation :


 +∞ 

(Ip − A) An = Ip .
n=0


+∞
On en déduit que les matrices Ip − A et An sont inversibles et inverses l’une de l’autre.
n=0

Ex. 4. On a aussi :
 n 
 A  |||A|||n
∀n ∈ IN    ,
n! n!
A
 n
ce qui, par comparaison à une série exponentielle, montre que la série n!
converge absolu-
ment.
On montre de même, en munissant L(E) de la norme subordonnée à la norme sur E , que pour
 an
tout a ∈ L(E) , la série n!
est (absolument) convergente.

428
II Compléments sur les séries numériques

II Compléments sur les séries numériques


1 Règle de d’Alembert
Théorème 9 (Règle de d’Alembert)
Soit (un ) une suite à valeurs strictement positives (à partir d’un certain rang) telle
que ℓ = lim uun+1 n
existe dans IR+ ∪ {+∞} .
n→+∞

• Si ℓ < 1 alors un est une série convergente.
Exo 
10.6
• Si ℓ > 1 alors un −→ +∞ et un est une série (grossièrement) divergente.
n→+∞
Démonstration page 438

Pointméthode La règle de d’Alembert est parfois utilisée pour prouver qu’une


série vn de terme général non nul (à partir d’un certain rang) est absolument
|vn+1 |
convergente. On étudiera alors le quotient |vn | ·

Attention Dans le cas où ℓ = 1 , on ne peut pas conclure directement, comme on


le voit dans l’exemple qui suit.
 1

Ex. 5. La série n2
est une série convergente, tandis que la série n est une série grossiè-
rement divergente. Pourtant, dans les deux cas, on a :
un+1
−→ 1.
un n→+∞

Ex. 6. Dans le cas où z ∈ C∗ , on peut retrouver la convergence absolue de la série exponen-


 zn
tielle n!
:
|z|n+1 n! |z|
= −→ 0 < 1,
(n + 1)! |z|n n + 1 n→+∞
 zn
donc n!
est une série absolument convergente.

2 Technique de comparaison série-intégrale


La technique de comparaison série-intégrale a déjà été vue en première année. Nous
donnons ici des approfondissements.
Utilisation de la monotonie
Proposition 10
Soit f ∈ CM([0, +∞[, IR+ ) une fonction décroissante et intégrable.
 +∞

Alors la série f (n) est convergente et, en posant I = f (t) dt, on a :
0
 
+∞
  +∞
 
 
Exo I f (n)  I + f (0) et donc I − f (n)  f (0).
10.7  
n=0 n=0

429
Chapitre 10. Séries numériques et vectorielles

Démonstration. Par comparaison série-intégrale et décroissance de la fonction f , on a :


 n n
  n
∀n ∈ IN f (n) + f (t) dt  f (k)  f (0) + f (t)dt. (⋆)
0 k=0 0

Par intégrabilité de la fonction f , la suite des sommes partielles de la série à termes posi-
 
tifs f (n) est majorée. On en déduit que f (n) est une série convergente, et en particulier,
son terme général converge vers 0 .
Par passage à la limite quand n tend vers +∞ dans l’encadrement (⋆) , on obtient :
 +∞ +∞
  +∞
f (t) dt  f (k)  f (0) + f (t) dt,
0 k=0 0

ce qui conclut.

Remarque On peut sans difficulté adapter le résultat précédent pour encadrer les
restes de certaines séries convergentes. En effet, si f ∈ CM([n0 , +∞[, IR+ ) est une

fonction décroissante et intégrable, alors la série f (n) est convergente et :
 +∞ +∞
  +∞
∀n  n0 f (t) dt  f (k)  f (n) + f (t) dt.
n k=n n

Interprétation géométrique   
 n+1 
Pour tout n ∈ IN, la quantité f (n) − f (t) dt re- f (0)
n
présente l’aire géométrique de la portion de graphe située
entre la droite d’équation y = f (n) et la courbe d’équa-
tion y = f (x) pour des abscisses x décrivant [n, n + 1]
(parties hachurées situées au dessus de la courbe sur la
figure ci-contre).
  f (n)
 +∞ +∞
 
  0 1
La quantité positive  f (t) dt − f (n) est la n n+1
 0 
n=0
somme de ces aires, que l’on majore par f (0), aire d’un
rectangle (grisé ici) de largeur 1 et de hauteur f (0) (dans
lequel les parties hachurées ont été translatées).
Ex. 7. Soit α > 1 . La fonction t �→ 1

est positive, décroissante et intégrable sur [1, +∞[ .
On en déduit :
 +∞ 
dt  1
+∞ +∞
1 dt
∀n ∈ IN∗   α + ·
n
tα kα n n

k=n

Comme on a :
 +∞  
dt 1 1 1
∀n ∈ IN∗ = et =o ,
n
tα (α − 1)nα−1 nα nα−1
on en déduit, par théorème d’encadrement, l’équivalent simple suivant :
+∞
 1 1
∼ ·
kα n→+∞ (α − 1)nα−1
k=n

430
II Compléments sur les séries numériques

La propriété suivante traite le cas d’une fonction continue par morceaux, positive,
décroissante et intégrable sur l’intervalle ouvert ]0, +∞[ . On se donne donc une telle
fonction f .

Proposition 11

La série f (n) est convergente et l’on a :
  
 +∞ +∞
  1
 
 f (t) dt − f (n)  f (t) dt.
 0  0 n=1

Démonstration. La fonction f est continue par morceaux sur [1, +∞[ , positive, décroissante

et intégrable sur ce même intervalle donc f (n) est une série convergente et :

 +∞ +∞
  +∞
f (t) dt  f (n)  f (1) + f (t) dt.
1 n=1 1

 +∞
On soustrait les termes de cette inégalité à f (t) dt et l’on obtient :
0

 1  +∞ +∞
  1
f (t) dt − f (1)  f (t) dt − f (n)  f (t) dt.
0 0 n=1 0

 1
Par décroissance de la fonction f , on a f (t) dt − f (1)  0 , ce qui conclut.
0

Interprétation géométrique
  n 
 
Pour tout n ∈ IN∗ , la quantité f (n) − f (t)dt
n−1
représente l’aire géométrique de la portion de
graphe située entre la droite d’équation y = f (n) et
la courbe d’équation y = f (x) pour des abscisses x
décrivant [n − 1, n].
  +∞ +∞ 
  
La quantité positive  f (t)dt− f (n) est la
0 n=1
 1
0 1
somme de ces aires, que l’on majore par f (t)dt.
0

431
Chapitre 10. Séries numériques et vectorielles

Approfondissement : comparaison série-intégrale sans monotonie


Exo
10.8 Dans l’exemple qui suit, on traite le cas d’une fonction positive croissante puis dé-
croissante. Cette situation peut se généraliser.

√ √ 
+∞
Ex. 8. Soit x > 0 , un (x) = ne−x n
et f (x) = un (x) .
n=0

Cherchons un équivalent simple de f en 0+ . Posons g : IR+ −→ IR


√ √
t �−→ te−x t
.
La fonction g est dérivable sur IR∗+ , continue en 0 , intégrable, et l’on a :
 

1 x
∀t > 0 g ′ (t) = e−x t
√ − ·
2 t 2

On en déduit le tableau de variation de g :

t 0 1/x2 +∞

g + 0 −
1
ex
g
0 0
     
Posons nx = 1
x2
; par croissance de g sur 0, 1
x2
et décroissance sur 1
x2
, +∞ , on a :
 n  nx 
 x   
  1
 un (x) − g(t) dt  g(nx )  g 2
 n=0 0  x
  +∞ 
 +∞
   
  1
 un (x) − g(t) dt  g(nx + 1)  g 2
·
 nx +1  x
n=nx +1

 
 nx +1   
Enfin, on a  g(t) dt  g x12 donc, par somme et inégalité triangulaire :
nx

    
 +∞  1 3
f (x) − g(t)dt  3g  ·
 x2 x
0

Comme on a :
 +∞  +∞  +∞
√ √
2 √
g(t) dt = te−x t
dt = u2 e−u du (changement de variable [u = x t])
0 0
x2 0
4
= 2, (deux intégrations par parties)
x

on en déduit que :

4 1
  4
f (x) = +O et en particulier, f (x) ∼ ·
x→0+ x2 x x→0+ x2

432
II Compléments sur les séries numériques

Utilisation de la dérivée
Soit f ∈ C 1 (IR+ , IK) dont la dérivée f ′ est intégrable. On suppose également que
 +∞
l’intégrale f est convergente.
0
Soit n ∈ IN∗ . Par intégration par parties, on a :
 n+1  n+1  n+1
 
f (t) dt − f (n) = f (t) − f (n) dt = (n + 1 − t)f ′ (t) dt.
n n n
Par inégalité triangulaire et croissance de l’intégrale, on obtient :
    n+1
 n+1  n+1
  ′
 f (t) dt − f (n)  |n + 1 − t||f (t)| dt  |f ′ (t)| dt.
 n  n n
  n+1
Comme f ′ est intégrable, la série n |f ′ | est convergente (cf. point méthode de
la page 384).
 n+1
Par comparaison, la série de terme général f (t) dt−f (n) est absolument conver-
n
gente, donc convergente.
 +∞

Par convergence de l’intégrale f (t) dt, on en déduit que f (n) est une série
1
convergente et l’on a :
  
 +∞ +∞
  +∞  
  f ′ (t) dt.
 f (t) dt − f (n) 
 0  0 n=0

En adaptant ce qui précède à une demi-droite fermée [p, +∞[ , on obtient :


  
 +∞ +∞
  +∞  
  f ′ (t) dt.
∀p ∈ IN  f (t) dt − f (n) 
 p  p n=p


Ex. 9. Soit f : t �→ sin t
t
·

Les fonctions u : t �→ cos t et v : t �→ − √2t sont de classe C 1 sur [1, +∞[ et par intégration
par parties, on a :
 x √  x  x √
sin t ′ 2 √ cos t
dt = u (t)v(t) dt = − √ cos x − 3/2
dt.
t x  t 
  
=g(x) =h(t)

 +∞ √
  sin t
Comme g(x) −→ 0 et h(t) = O t3/2
1
, l’intégrale dt est convergente.
x→+∞
1
t
Par ailleurs, f est de classe C 1 sur [1, +∞[ et :
√ √
′ cos t sin t
∀t  1 f (t) = √ − ·
2t t t2
 
Comme f ′ (t) = O 1
t3/2
, la fonction f ′ est intégrable sur [1, +∞[ . On en déduit ainsi la
 sin √n
convergence de la série n
·

433
Chapitre 10. Séries numériques et vectorielles

Ex. 10. Reprenons les notations de l’exemple 8 de la page 432. On a :


 

1 x
∀t > 0 g ′ (t) = e−x t
√ − ·
2 t 2

Comme on a :
√ 1
t g ′ (t) −→ et t2 g ′ (t) −→ 0,
t→0+ 2 t→+∞


la fonction g est intégrable sur IR∗+ et :
  1/x2 
+∞  ′  +∞
g (t) dt = ′
g (t) dt − g ′ (t) dt
0 0 1/x2
        
1 1 1
= g − g(0) − lim g − g = 2g ·
x2 +∞ x2 x2

On a donc :
    
 +∞  1
f (x) − g(t) dt  2g ,
 x2
0

ce qui améliore la majoration obtenue dans l’exemple susmentionné.

3 Sommation des relations de comparaison


n


Si un est une série, on note Sn (u) = uk sa somme partielle partielle d’ordre n
k=0

+∞
et, lorsque la série est convergente, Rn (u) = uk son reste d’ordre n.
k=n+1

Cas convergent
Proposition 12 (Sommation des relations de comparaison, cas convergent)
  
Soit un et vn deux séries numériques. On suppose que la série vn est
convergente et à termes réels de signe constant.
  
• Si un = O(vn ), alors un converge et Rn (u) = O Rn (v) .
  
• Si un = o(vn ), alors un converge et Rn (u) = o Rn (v) .
Exo 
10.9 • Si un ∼ vn , alors un converge et Rn (u) ∼ Rn (v).
Démonstration page 438

Ex. 11. On a l’équivalent simple suivant, entre séries convergentes à termes positifs :
1 1 1 1
∼ = − ·
n2 n(n + 1) n n+1
On en déduit :
+∞ +∞  
 1  1 1 1
∼ − = ·
k2 k k+1 n
k=n k=n

434
II Compléments sur les séries numériques

 
Remarque Quitte à considérer les séries un et vn on voit que les résultats
nn0 nn0
restent vrais si (vn ) est de signe constant seulement à partir d’un certain rang.

Point méthode Dans la pratique (et comme on le voit sur l’exemple précédent), il

est agréable, dans l’utilisation de ce résultat, de disposer d’une série vn dont on
sait calculer les restes, par exemple une série télescopique.

 

n
Ex. 12. Pour tout n ∈ IN∗ , on pose un = 1
k
− ln n et l’on a :
k=1

   
1 1 1 1 1 1 1
un − un−1 = + ln 1 − = − − 2 +o ∼− ·
n n n n 2n n2 2n 2
  
<0

 
Par comparaison à un exemple de Riemann, la série télescopique un −un−1 est convergente,
donc la suite (un ) est convergente. Notons γ sa limite et déterminons un équivalent simple
de un − γ . On a :
1
un − un−1 ∼ − 2 ,
2n
  
<0

donc par sommation des relations de comparaison (cas convergent), on en déduit :


+∞ +∞
   1  1
uk − uk−1 ∼ −
2 k2
k=n+1 k=n+1

1 1
γ − un ∼ − (cf. exemple précédent)
2n+1
1
∼− ·
2n

n
1 1
1
On dispose donc du développement asymptotique suivant : k
= ln n + γ + 2n
+o n
·
k=1
Le réel γ est appelé constante d’Euler.
 √k 
+∞ √
k
Ex. 13. La série 2k
est convergente. Notons Rn = 2k
son reste d’ordre n .
k=n+1

On a alors :
√ √ +∞ √
 +∞ √ √
k+1 1 k k+1 1 k 1 n
∼ donc Rn = ∼ = Rn + ·
2k+1 2 
2k 2k+1 2 2k 2 2n+1
k=n k=n
>0

On en déduit :
√ √ √
n 1 n n
+ Rn = Rn + o(Rn ) donc = Rn + o(Rn ) et enfin Rn ∼ ·
2n+1 2 2n 2n

435
Chapitre 10. Séries numériques et vectorielles

Cas divergent
Proposition 13 (Sommation des relations de comparaison, cas divergent)
  
Soit un et vn deux séries numériques. On suppose que la série vn est
divergente et à termes réels de signe constant.
Exo  
10.10 • Si un = O(vn ), alors Sn (u) = O Sn (v) .
 
• Si un = o(vn ), alors Sn (u) = o Sn (v) .
Exo
10.11 • Si un ∼ vn , alors Sn (u) ∼ Sn (v).
Démonstration page 439

Le théorème de Cesàro constitue une application du théorème de sommation des


relations de comparaison (cas divergent).
Proposition 14 (Théorème de Cesàro - cas fini)
Soit u ∈ IKIN une suite convergente, de limite ℓ . Alors on a :
n
1 
uk −→ ℓ.
n+1 n→+∞
k=0


Démonstration. On a un − ℓ = o(1) et 1 est une série divergente à termes positifs. Par
sommation des relations de comparaison (cas divergent), on en déduit :
n n
 1 
(uk − ℓ) = o(n + 1) c’est-à-dire uk = ℓ + o(1).
n+1
k=0 k=0

Proposition 15 (Théorème de Cesàro - cas infini)


Soit u ∈ IRIN une suite réelle qui diverge vers +∞. Alors on a :
n
1 
uk −→ +∞.
n+1 n→+∞
k=0

Démonstration. Puisque la suite (un ) diverge vers +∞ , elle est à termes positifs à partir
d’un certain rang et l’on a 1 = o(un ) .
Par sommation des relations de comparaison (cas divergent), on en déduit :
n
 
n 
n+1
1=o uk c’est-à-dire −→ 0.
Sn n→+∞
k=0 k=0
  
=Sn


Comme la série un est grossièrement divergente et à termes positifs à partir d’un certain
rang, on a Sn −→ +∞ donc n+1 Sn
> 0 à partir d’un certain rang.
n→+∞

Sn
Par passage à l’inverse, on en déduit −→ +∞.
n + 1 n→+∞

Remarque En remplaçant un par −un , on obtient un résultat similaire pour une


suite qui diverge vers −∞.

436
II Compléments sur les séries numériques

L’exemple qui suit montre l’utilisation des sommations de relations de comparaisons


pour l’étude de suites définies par récurrence.
Ex. 14. Soit (un )n1 une suite réelle vérifiant :

e−un
∀n ∈ IN∗ un+1 = un + ·
n
La suite u est clairement croissante. Si l’on suppose que cette suite est convergente, alors, en
notant ℓ sa limite, on a :
e−ℓ
un+1 − un ∼ ,
n

donc la série télescopique associée (un+1 − un ) est une série divergente par comparaison à
une série divergente à termes positifs. D’après le lien suite-série, on en déduit que u est une suite
divergente, ce qui est absurde.
Par le théorème de limite monotone, la suite u diverge vers +∞ .
Par un équivalent simple au premier ordre de la fonction exp, on a :
   
un+1 un un e−un e−un 1
e −e =e exp −1 ∼ eun × = ∼ ln(n + 1) − ln(n).
n n n
 
La série ln(n + 1) − ln(n) est divergente et à termes positifs, donc par sommation des
relations de comparaison (cas divergent), il vient :

n−1 n−1
     
euk+1 − euk ∼ ln(k + 1) − ln(k) .
k=1 k=1
     
=eun −eu1 =ln n

On en déduit :  
eun = ln n + o(ln n) = ln n × 1 + o(1)
puis par passage au logarithme :
 
un = ln ln n + o(1).

437
Chapitre 10. Séries numériques et vectorielles

Démonstrations
Théorème 7 Notons p la dimension de E et B une base de E . Soit (un )n∈IN une suite d’éléments
(j)
de E . Pour tout entier n ∈ IN , notons (un )1jp les coordonnées de la suite (un )n∈IN dans la
base B .
En utilisant la norme infinie dans la base B , on a :
 (j)   
∀n ∈ IN un   un  .


La convergence absolue de la série un entraîne alors la convergence absolue des séries numé-
 (j)
riques un pour tout j ∈ [[1, p]] . On en déduit alors que chacune des séries composantes est

convergente ; donc la série un converge.

Théorème 9 Par caractère asymptotique de la notion de limite, on peut sans perte de généralité
supposer que un > 0 pour tout n ∈ IN .
• Supposons ℓ < 1 et fixons ρ ∈ ]ℓ, 1[ . On peut alors choisir un rang n0 tel que :
un+1
∀n  n0  ρ.
un
Par récurrence immédiate, on a :
∀n  n0 0  un  un0 ρn−n0 .

Par comparaison à une série géométrique convergente, on en déduit que un est une série
convergente.
• Supposons ℓ > 1 et fixons ρ ∈ ]1, ℓ[ . On peut alors choisir un rang n0 tel que :
un+1
∀n  n0  ρ.
un
Par récurrence immédiate, on a :
∀n  n0 un  un0 ρn−n0 .
Comme ρ > 1 , la suite géométrique (ρn ) diverge vers +∞ . Ayant de plus un0 > 0 , on en

déduit un −→ +∞ , puis la divergence grossière de la série un .
n→+∞

Proposition 12 Quitte à changer un et vn par leurs opposés, on peut supposer que la suite (vn )
est à termes positifs.

Dans chacun des trois cas, la série un converge absolument, d’après la comparaison avec une
série convergente à termes positifs.
• Si (un ) est dominée par (vn ) , il existe un rang n0 et une constante K tels que, pour
tout n  n0 , on ait |un |  Kvn d’où la majoration pour n  n0 :
+∞
  
Rn (u)  |uk |  KRn (v).
k=n+1
 
Cela donne Rn (u) = O Rn (v) .
• Si (un ) est négligeable devant (vn ) , il suffit de remplacer la constante K ci-dessus par
 
n’importe quel ε > 0 pour aboutir à Rn (u)  εRn (v) pour n assez grand.
• Si (un ) est équivalente à (vn ) , on applique le point précédent à un − vn = o(vn ) .

438
Démonstrations

Proposition 13 Quitte à changer un et vn par leurs opposés, on peut supposer que la suite (vn )
est à termes positifs.

La série vn étant divergente et à termes positifs, la suite (Sn (v))n∈IN tend vers +∞ en
croissant.
• Si (un ) est dominée par (vn ) , il existe un rang n0 et une constante K > 0 tels que,
pour tout n  n0 , on ait |un |  Kvn ; il existe ensuite un rang n1  n0 tel que, pour
 
tout n  n1 , on ait Sn0 (u)  KSn (v) , puisque lim Sn (v) = +∞ .
n→+∞

On a alors pour tout n  n1 :


 n
 
   
Sn (u) = Sn0 (u) + u 
 k
k=n0 +1
n
  
 Sn0 (u) + |uk |
k=n0 +1


n
 
 KSn (v) + K vk  KSn (v) + K Sn (v) − Sn0 (v)  2KSn (v).
k=n0 +1

On en déduit la domination annoncée.


• Si (un ) est négligeable devant (vn ) , il suffit de remplacer la constante K ci-dessus par
 
n’importe quel ε > 0 pour aboutir à Sn (u)  2εSn (v) pour n assez grand.
• Si (un ) est équivalente à (vn ) , on applique le point précédent à un − vn = o(vn ) .

439
Chapitre 10. Séries numériques et vectorielles

S’entraîner et approfondir
Séries à valeurs dans un espace vectoriel de dimension finie
 
 0 1 2
n
10.1 Prouver la convergence et déterminer la somme de la série A , où A = 0 0 1 .
→424
0 0 0
 
1 1 a
10.2 Soit a ∈ C . Étudier la convergence de la série de terme général An , où A = ·
→426 2 0 1

10.3 Soit α ∈ IR et A ∈ Mn (IK) une matrice diagonalisable telle que :


→427
∀λ ∈ sp(A) |λ| < 1.
 α k
Montrer la convergence de la série k A .

10.4 Soit A ∈ Mn (IK) une matrice trigonalisable. On suppose que :


 
∀λ ∈ sp(A) λ < 1.

Montrer que la série Ak est convergente.

⋆ 10.5 Soit E un espace vectoriel normé de dimension finie non nulle. Soit (an ) une suite d’éléments
de E ainsi que (rn ) une suite de réels positifs ou nuls. On suppose que :
∀n ∈ IN Bf (an+1 , rn+1 ) ⊂ Bf (an , rn ).
1. Montrer que :
∀n ∈ IN �an+1 − an �  rn − rn+1 .
2. Montrer que la suite (an ) est convergente.

3. Montrer que Bf (an , rn ) est une boule fermée.
n∈IN

Séries numériques
 xn
10.6 Déterminer la nature, selon x ∈ C , de la série ·
→429
(2n
n)

10.7 Soit α ∈ IR∗+ \ {1} .


→429  1
En utilisant une comparaison série intégrale, étudier la nature de la série n(ln n)α
·

n−1
 1
10.8 Pour tout n  2 , on pose un =  ·
→432
k=1
k(n − k)
 n
dt
En effectuant une comparaison avec l’intégrale  , montrer que la suite (un )
0 t(n − t)
est convergente et préciser sa limite.


+∞
ln(k + 1) − ln(k)
10.9 Pour tout n ∈ IN∗ , on pose Rn = ·
→434 k
k=n
Déterminer un développement asymptotique à deux termes de Rn .

440
Exercices

10.10 Soit (un )n∈IN une suite de réels strictement positifs.


→436

n
On pose Sn = uk et l’on suppose que :
k=0

un Sn −→ 1.
n→+∞

1. Montrer que Sn −→ +∞ et un −→ 0 .
n→+∞ n→+∞

2. Déterminer un équivalent simple de la suite (un ) .


Indication. On pourra s’intéresser à la suite télescopique Sn2 − Sn−1
2
.

10.11 Soit u ∈ IRIN définie par u0 = 1 et :


→436
∀n ∈ IN un+1 = sin un .
Déterminer un développement asymptotique à deux termes de un .
1 1
Indication. On pourra étudier la suite auxiliaire u2
− u2
·
n+1 n

10.12 Soit (un )n∈IN une suite définie par son premier terme u0 > 0 et la relation de récurrence :
1
∀n ∈ IN un+1 = Arctan (un ) .
2
Pour tout n ∈ IN , on pose vn = 2n un .
1. Montrer l’existence d’un réel ℓ > 0 , que l’on ne cherchera pas à calculer, tel que un ∼ ℓ
2n
·
 
Indication. On pourra étudier la série télescopique ln(vn+1 ) − ln(vn ) .
2. Déterminer un développement à deux termes de un .
Indication. On pourra étudier le terme télescopique vn+1 − vn .

10.13 Soit u ∈ IRIN vérifiant :


∀n ∈ IN un+1 = un + e−un .
Montrer que un −→ +∞ et déterminer un développement asymptotique de un à une
n→+∞
 ln n 
précision o n
·

10.14 Soit (un )n0 une suite définie par :

u0 > 0 et ∀n ∈ IN un+1 = un + u2n .


1. Déterminer lim un .
n→+∞
 
ln un+1 ln un 1
2. Montrer que − n =o n ·
2n+1 2 2
n
3. En déduire qu’il existe K > 1 tel que un ∼ K 2 .
10.15 Soit (un )n∈IN une suite décroissante de réels strictement positifs telle que :
un+1
lim un = 0 et lim = 1.
n→+∞ n→+∞ un


n−1
uk −uk+1
Montrer que uk
∼ − ln un .
k=1

10.16 Soit α > 1 . Soit un une série divergente à termes strictement positifs. On note Sn sa
 un
somme partielle d’ordre n . Montrer que la série Sα
est convergente.
n

441
Chapitre 10. Séries numériques et vectorielles

Solutions des exercices



10.1 On vérifie facilement que An = 0 , pour n  3 . On en déduit la convergence de la série An .
 
0 0 1
2
Comme A = 0 0 0 , on a :
0 0 0
 
+∞
 1 1 3
n 2
A = I3 + A + A = 0 1 1 .
n=0 0 0 1

10.2 En décomposant la matrice A sous la forme :


 
1 a 0 1
A= I2 + J avec J= ,
2 2 0 0

1
on calcule An pour tout n ∈ IN , en utilisant la formule du binôme (les deux matrices I2
2
a
et J commutent). On obtient alors :
2
1 n
An = I2 + n (aJ) .
2n 2
1  1
La série géométrique de raison est convergente donc I2 est une série convergente.
2 2n
n
 3 n  3
Par croissances comparées, on a n = o ; comme la série géométrique de raison
2 4 4
 n
converge absolument, on en déduit, par comparaison, la convergence de la série puis
 n 2n
de la série (aJ) .
2n

La série An est donc convergente, comme somme de deux séries convergentes.

10.3 Fixons P ∈ GLn (IK) et (λ1 , . . . , λn ) ∈ IKn tels que A = P Diag (λ1 , . . . , λn ) P −1 .
On a alors :
∀k ∈ IN Ak = P Diag(λk1 , . . . , λkn )P −1 .
 
Soit i ∈ [[1, n]] . Comme |λi | < 1 , on a, par croissances comparées, kα λki = o 1
k2
. On en

déduit, par comparaison, la convergence absolue, donc la convergence, de la série kα λki
 α
puis celle de la série k Diag(λk1 , . . . , λkn ) .

Par linéarité de l’application M �→ P M P −1 , on en déduit la convergence de la série k α Ak .

442
Solutions des exercices

10.4 Un cas particulier. Commençons par traiter le cas où le spectre de A est réduit à un
élément λ . Dans ce cas, la matrice N = A − λIn est nilpotente et, d’après la formule du
binôme de Newton :
k  
 k
∀k  n Ak = λk−j N j (λIn et N commutent)
j
j=0

n−1  
 k
= λk−j N j . (N n = 0)
j
j=0

Pour tout j ∈ [[0, n − 1]] , on a l’équivalent simple suivant :


 
k k−j kj k−j
λ ∼ λ
j k→+∞ j!
   
k k−j 1
qui montre, par croissances comparées, que λ =o , puisque |λ| < 1 .
j k2
 
 k
Par comparaison, pour tout j ∈ [[0, n − 1]] , la série λk−j N j est (absolument)
j

convergente donc, par somme de séries convergentes, la série Ak est convergente.
Le cas général. Notons λ1 , . . . , λp les valeurs propres de A , de multiplicités n1 , . . . , np .
Par hypothèse, le polynôme caractéristique de A est scindé et, en utilisant la dé-
composition de IKn comme somme directe des sous-espaces caractéristiques de A , il
existe P ∈ GLn (IK) tel que :

P −1 AP = Diag(λ1 In1 + N1 , . . . , λp Inp + Np ),


     
=B1 =Bp

où N1 , . . . , Np sont des matrices nilpotentes.


Un calcul par blocs donne alors, pour tout k ∈ IN :

P −1 Ak P = Diag(B1k , . . . , Bpk ) ou encore Ak = P Diag(B1k , . . . , Bpk )P −1 ,

ce qui s’écrit encore Ak = L(B1k , . . . , Bpk ) , où L est l’application linéaire :


p
L : Mnj (IK) −→ Mn (IK)
j=1
(M1 , . . . , Mp ) �−→ P Diag(M1 , . . . , Mp )P −1 .

On en déduit (cf. proposition 5 de la page 427) que la série Ak converge, et sa somme
est donnée par :
+∞
 
+∞ +∞
 
Ak = P Diag B1k , . . . , Bpk P −1 .
k=0 k=0 k=0

443
Chapitre 10. Séries numériques et vectorielles

10.5 1. Soit n ∈ IN . Notons u ∈ E un vecteur unitaire tel que an+1 − an = �an+1 − an �u .

Posons x = an+1 + rn+1 u . Par construction,


on a x ∈ Bf (an+1 , rn+1 ) , donc par hypothèse :

x
x ∈ Bf (an , rn ) puis �x − an �  rn .
u
an an+1
On en déduit �an+1 − an + rn+1 u�  rn et par
conséquent :

  
 �an+1 − an � + rn+1 u  rn
  
0

donc �an+1 − an � + rn+1  rn , ce qui conclut.

2. La suite (rn ) est positive et décroissante (d’après la question précédente) donc conver-
 
gente. Par le lien suite-série, la série rn − rn+1 est convergente. Par comparaison,
 
la série an+1 − an est absolument convergente donc convergente, ce qui montre que
la suite (an ) est convergente.

3. Notons ℓ ∈ E la limite de la suite (an ) et R ∈ IR+ la limite de la suite (rn ) .



Montrons que Bf (an , rn ) = Bf (ℓ, R) .
n∈IN

Inclusion directe. Soit x ∈ E tel que : ∀n ∈ IN �x − an �  rn .


Par passage à la limite quand n tend vers +∞ , il vient :

�x − ℓ�  R donc x ∈ Bf (ℓ, R).

Inclusion réciproque. Soit x ∈ Bf (ℓ, R) . Soit n ∈ IN . Montrons que �x − an �  rn .



+∞ 
On a x − an = x − ℓ + ℓ − an = x − ℓ + ak+1 − ak .
k=n
Par l’inégalité triangulaire, on a :

+∞

�x − an �  �x − ℓ� + �ak+1 − ak �
k=n
+∞
    
R+ rk − rk+1 = R + rn − R = rn . (question 1)
k=n

444
Solutions des exercices

xn
10.6 Pour tout n ∈ IN , posons un = ; pour x �= 0 , on a :
(2n
n)

|un | (n!)2 (2n − 2)! n2 n


∀n ∈ IN∗ =  2 |x| = |x| = |x| .
|un−1 | (2n)! (n − 1)! 2n(2n − 1) 4n − 2

|un | 
• Pour |x| < 4 , on a lim = |x| < 1 . D’après la règle de d’Alembert, la série un
n→+∞ |un−1 |
4

est absolument convergente, donc convergente.


• Pour |x|  4 , on a :
|un | n 4n
∀n ∈ IN∗ = |x|   1.
|un−1 | 4n − 2 4n − 2
  
La suite strictement positive |un | étant croissante, on en déduit que la série un
diverge grossièrement.
 xn
La convergence pour x = 0 étant évidente, on peut conclure que la série converge
(2n
n)

si, et seulement si, |x| < 4 .

10.7 Posons f : [2, +∞[ −→ IR


1
x �−→ x(ln x)α
·
La fonction f est dérivable sur [2, +∞[ et :
1 1
∀x  2 f ′ (x) = − −α 2  0.
x2 (ln x)α x (ln x)α+1
Donc f est décroissante sur [2, +∞[ et est aussi positive et continue sur ce même intervalle.
Par ailleurs, puisque α �= 1 , on a :
 x
(ln x)−α+1
f (t) dt = +µ avec µ ∈ IR.
−α + 1
Cas α ∈ ]0, 1[ . Par comparaison série intégrale, pour tout n  2 , on a :
n
  n
(ln n)1−α (ln 2)1−α
f (k)  f (n) + f (t) dt  − ·
 1−α 1−α
k=2
0
2   
=un

Comme 1−α > 0 , la suite (un ) diverge vers +∞ et, par minoration, la suite des sommes
 1  1
partielles de la série n(ln n)α
diverge vers +∞ , ce qui montre que la série n(ln n)α
est divergente.
Cas α > 1 . On a alors :
(ln x)−α+1 1 1
= −→ 0 car α − 1 > 0,
−α + 1 1 − α (ln x)α−1 x→+∞
 +∞
donc l’intégrale f (t) dt converge et, comme f est positive, elle est intégrable
2

sur [2, +∞[ . Par comparaison série-intégrale, la série 1
n(ln n)α
est convergente.

445
Chapitre 10. Séries numériques et vectorielles

1
10.8 Soit n  2 . La fonction f : t �→ √ est positive, intégrable sur ]0, n[ (par comparaison
t(n−t)

aux intégrales de Riemann), décroissante puis croissante et admet un minimum en n


2
·

t 0 n/2 n

f − 0 +
+∞ +∞
f
f ( n2 )

Posons p = ⌊n/2⌋ . On a alors, par décroissance de f sur ]0, p] et croissance de f


sur [p + 1, n[ :
 p  p  
  1
 1 1  1
  −  dt   dt
 k(n − k) 0 t(n − t)  0 t(n − t)
k=1
  n    1
 n−1  n
 1 dt  dt du
  −    =  ·
 k(n − k) p+1 t(n − t)  n−1 t(n − t) [u=n−t]
0 u(n − u)
k=p+1

0 1 p p+1 n−1 n

Par disjonction de cas sur la parité de n , le réel f (p + 1) majore |f | sur [p, p + 1]


   
 p+1  p+1   1
donc  f (t) dt  f (t) dt  f (p + 1)  f (t) dt .
p p 0

Par somme et inégalité triangulaire, on a :


  n   1  1
 
 1  1 3 dt
un −  dt  3 √ dt  √ √ ·
 0 t(n − t)  0 t (n − t) n − 1 t
       0  
=I n−1 =2

 
Pour calculer I , on effectue le changement de variable t = n
2
(1 + u) :
 1
1  1
I= √ du = Arcsin u −1 = π.
−1 1−u2

On obtient ainsi :
 
un − π   √ 6 ·
n−1
Par théorème d’encadrement, la suite (un ) converge vers π .

446
Solutions des exercices

ln(k+1)−ln(k)
10.9 En posant uk = k
, on a l’équivalent suivant :
 
ln 1 + 1
k 1 1 1 1
uk = ∼ ∼ = − ·
k k2 k (k + 1) k k+1
  
>0

Par sommation des équivalents (cas convergent), il vient :


+∞ +∞  
  1 1 1
Rn = uk ∼ − = ·
k k+1 n
k=n k=n

 +∞  
1 1
Cherchons maintenant un équivalent de Rn − = uk − ·
n k(k + 1)
k=n

On s’intéresse pour cela au terme général uk − 1


k(k+1)
:
 1

1 ln 1 + k 1
uk − = −  
k (k + 1) k k2 1 + k1
   
1 1 1 1 1 1 1 1
= − 3 − 2 + 3 +o = +o ∼ · (⋆)
k2 2k k k k3 2k3 k3 2k3
La fonction t �→ 1
t3
est décroissante, positive et intégrable sur [1, +∞[ donc pour
tout n ∈ IN∗ , on a :
 +∞ 
dt  1
+∞ +∞
dt 1
  + 3·
n
t3 k3 n
t3 n
k=n

 +∞ dt 1 1
 1
 
+∞
1 1
Comme n t3
= 2n2
et n3
=o n2
, on en déduit par encadrement que k3
∼ 2n2
·
k=n

Par sommation de la relation (⋆) (cas convergent), il vient :


+∞ +∞ +∞
  1 1 1
uk − ∼
k(k + 1) 2 k3
k=n k=n k=n
 
1 1 1 1 1
Rn − ∼ · = −
n 4n2 k(k + 1) k k+1
 
On peut conclure : Rn = 1
n
+ 1
4n2
+o 1
n2
·

10.10 1. La suite (Sn ) est croissante et à termes strictement positifs. Si elle converge, en no-
tant ℓ > 0 sa limite, on a :
1
un −→ ·
n→+∞ ℓ

Or un = Sn − Sn−1 −→ 0 , ce qui fournit une absurdité.


n→+∞

D’après le théorème de limite monotone, on peut conclure :


Sn −→ +∞.
n→+∞

1
Comme un ∼ Sn
par hypothèse, on a un −→ 0 .
n→+∞

447
Chapitre 10. Séries numériques et vectorielles

2. Soit n ∈ IN∗ . On a :
  
Sn2 − Sn−1
2
= Sn − Sn−1 Sn + Sn−1

= un 2Sn − un ) = 2un Sn − u2n .

Par opérations sur les limites, on en déduit :


Sn2 − Sn−1
2
−→ 2 puis Sn2 − Sn−1
2
∼ 2.
n→+∞

Comme 2 est le terme général positif d’une série divergente, par sommation des relations de
comparaison (cas divergent), on a :
n
  
Sk2 − Sk−1
2
∼ 2n donc Sn2 − S02 = 2n + o(n).
k=1

Ainsi, on a Sn2 ∼ 2n puis, par positivité de Sn :


√ 1
Sn ∼ 2n donc un ∼ √ ·
2n

10.11 L’intervalle ]0, 1] est stable par la fonction sin et contient u0 donc :
∀n ∈ IN un ∈ ]0, 1].
Par inégalité de convexité, on a :
∀x ∈ [0, 1] sin x  x.
Par ailleurs, il y a égalité si, et seulement si, x = 0 .
Ainsi, la suite u est décroissante, minorée par 0 , donc convergente vers ℓ ∈ [0, 1] véri-
fiant sin ℓ = ℓ par continuité de la fonction sin , donc ℓ = 0 .
Pour x au voisinage de 0 , on a :
x3
x − sin x ∼ , x + sin x ∼ 2x et sin x ∼ x.
6
Comme la suite (un ) tend vers 0 , on a :
1 1 (un − sin un )(un + sin un ) 2u4n 1 1
− = ∼ × 4 = ·
u2n+1 u2n (sin un )2 u2n 6 un 3
1
La série 3
est une série divergente à termes positifs donc, par sommation des relations
de comparaison (cas divergent), on a :

1 1 n 3
− 2 ∼ puis un ∼ ·
u2n u0 3 n
Ensuite, on a le développement limité suivant en 0 :
 −2
x2 x2 x4
= 1− + + o(x4 )
sin2 x 6 120
x2

2 3

=1+ + − + x4 + o(x4 )
3 120 36
x2 x4
=1+ + + o(x4 )
3 15
1 1 1 x2
puis = + + + o(x2 ).
sin2 x x2 3 15

448
Solutions des exercices

Puisque (un ) tend vers 0 , on en déduit :


1 1 1 1 u2n
= = + + + o(u2n )
u2n+1 sin2 un u2n 3 15
1 1 1 u2
− − = n + o(u2n ),
u2n+1 un2
3 15
puis :
1 1 1 u2 1 1 
− − ∼ n ∼ ∼ ln(n + 1) − ln(n) .
u2n+1 un2
3 15 5n 5  
>0

Par sommation des relations de comparaisons (cas divergent), on obtient :


1 1 n ln n
− 2 − ∼ ·
u2n u0 3 5
On en déduit :
  
1 n ln n 3 3 ln n  ln n  −1/2
= + + o(ln n) donc un = 1+ +o
u2n 3 5 n 5 n n
√ √  
3 3 3 ln n ln n
= √ − √ +o √ ·
n 10 n n n n

10.12 1. Par concavité sur IR+ de la fonction Arctan , on a l’encadrement suivant :


∀x > 0 0 < Arctan (x)  x.
On en déduit, par récurrence immédiate :
u0
∀n ∈ IN 0 < un  ·
2n
 1

Par suite, un = O 2n
et en particulier, un −→ 0 .
n→+∞

Arctan un
Comme Arctan x ∼ x , on a −→ 1 .
x→0 un n→+∞

t3
Ensuite, on a ln x ∼ x − 1 et Arctan t − t ∼ − donc :
x→1 t→0 3
vn+1 Arctan un Arctan un Arctan un − un u2
ln = ln ∼ −1= ∼ − n·
vn un un un 3
 1

On en déduit que ln(vn+1 ) − ln(vn ) = O 4n
. Par comparaison, la série télesco-
 
pique ln(vn+1 ) − ln(vn ) est convergente, donc la suite (ln vn ) converge. Notons λ
 
sa limite. Par continuité de la fonction exp en λ , la suite vn converge vers le réel

strictement positif eλ et l’on a un ∼ n , en posant ℓ = eλ .
2
 
ℓ3 1
2. D’après la question précédente, on a u3n = n + o n puis :
8 8
 
vn+1 − vn = 2n Arctan un − un
 
1
= 2n − u3n + o(u3n )
3
 
ℓ3 1 1
=− +o n ·
3 4n 4

449
Chapitre 10. Séries numériques et vectorielles

Par théorème de sommation des relations de comparaisons (cas convergent), on a :


+∞ +∞
 +∞ 
   ℓ3  1  1
vk+1 − vk =− +o
3 4k 4k
k=n k=n k=n
 
ℓ3 1 1 1
ℓ − 2n un = − +o n
3 1− 1
4
4n 4
 
ℓ 4ℓ3 1 1
un = + +o n ·
2n 9 8n 8

10.13 Divergence vers +∞ . Pour tout n ∈ IN , on a :


un+1 − un = e−un  0 (⋆)
donc la suite (un ) est croissante.
Supposons qu’elle converge et notons ℓ sa limite. Par passage à la limite dans la rela-
tion (⋆) et continuité de la fonction exp , on a 0 = e−ℓ : absurde.
Par le théorème de limite monotone, on a un −→ +∞ .
n→+∞

Équivalent simple. Pour tout n ∈ IN , on pose vn = eun+1 − eun et l’on a :


   
vn = eun exp e−un − 1

∼ eun × e−un = 1. (e−un −→ 0)


n→+∞

Par sommation des relations de comparaison (cas divergent), on a :


n−1 n−1
 
vk ∼ 1 c’est-à-dire eun − eu0 ∼ n.
k=0 k=0
un
 
On en déduit e = n + o(n) puis un = ln n + ln 1 + o(1) = ln n + o(1) .
Développement asymptotique. Pour tout n ∈ IN∗ , on a :
 
vn − 1 = eun exp e−un − eun − 1
   
1 −2un
= eun 1 + e−un +e + o e−2un − eun − 1
2
1 1 1 1 
∼ e−un = u ∼ ∼ ln(n + 1) − ln(n) .
2 2e n 2n 2
Par sommation des relations de comparaison (cas divergent), on a :
n−1 n−1
 1  
(vk − 1) ∼ ln(k + 1) − ln(k)
2
k=1 k=1

ln n
eun − eu1 − (n − 1) ∼
2
ln n
eun = n + + o(ln n).
2
Par passage au logarithme, on en déduit :
ln n
 ln n
 
un = ln n + ln 1 + +o
2n n
 
ln n ln n
= ln n + +o ·
2n n

450
Solutions des exercices

10.14 1. La suite (un )n0 est croissante. Supposons-la majorée. Alors elle converge et, si l’on
note ℓ = lim un , en passant à la limite dans la relation de récurrence, on ob-
n→+∞

tient ℓ = ℓ + ℓ2 , c’est-à-dire ℓ = 0 ; c’est impossible, puisque ℓ  u0 > 0 . Ainsi,


par théorème de la limite monotone, on a lim un = +∞ .
n→+∞

2. On a :
     
ln un+1 ln un 1 un+1 1 1 1
− n = n+1 ln = ln 1 + =o ·
2n+1 2 2 u2n 2n+1 un 2n+1
  ln un+1 ln un

3. Par comparaison à une série géométrique convergente, la série 2n+1
− 2n
est
 ln un 
convergente, donc la suite 2n
est convergente. Notons ℓ sa limite.
Par théorème de sommation des relations de comparaison (cas convergent), on a :
+∞ 
 +∞ 
 ln uk+1 ln uk
  1
− k =o
2k+1 2 2k
k=n k=n
 
ln un 1
ℓ− =o n
2n 2
ln un = ℓ 2n + o(1)
n
un ∼ K 2 en posant K = eℓ .

Comme la suite (un ) diverge vers +∞ , on a nécessairement K > 1 .

uk+1 uk+1 uk+1 uk+1 −uk


10.15 Comme lim uk
= 1 , on a ln uk
∼ uk
−1= uk
·
k→+∞
 uk+1  uk+1 −uk
Par comparaison, les séries à termes négatifs ln uk
et uk
sont de même nature.
Or :
n−1 n−1
 uk+1  
ln = ln uk+1 − ln uk = ln un − ln u1 .
uk
k=1 k=1

+
 uk+1
Comme lim un = 0 , on en déduit ln un −→ −∞ , donc la série ln diverge.
n→+∞ n→+∞ uk
  
<0
Par sommation des relations de comparaison (cas divergent), on en déduit :
n−1 n−1
 uk+1 − uk  uk+1
∼ ln = ln un − ln u0 .
uk uk
k=1 k=1

On a ln un − ln u0 ∼ ln un , puisque lim ln un = −∞ .
n→+∞


n−1
uk −uk+1
On peut donc conclure que uk
∼ − ln un .
k=1

451
Chapitre 10. Séries numériques et vectorielles

1
10.16 Pour tout t  u0 , on pose f (t) = tα
·
∗ un
Soit n ∈ IN . Encadrons α
Sn
à l’aide d’une comparaison avec une intégrale.
Par décroissance de la fonction f , on a :
 
∀t ∈ Sn−1 , Sn f (Sn )  f (t).
Par croissance de l’intégrale, on en déduit :
 Sn  Sn
f (Sn ) dt  f (t) dt
Sn−1 Sn−1
 
un 1 1 1
 − ·
Snα α−1 α−1
Sn−1 Snα−1
1
Comme la suite (Sn ) diverge vers +∞ et α−1 > 0 , la suite de terme général α−1 converge
Sn
 
(vers 0 ) et donc la série télescopique associée 1
α−1 − 1
α−1 est convergente.
Sn−1 Sn
 un
Par comparaison de séries à termes généraux positifs, on peut conclure : α
Sn
est une série
convergente.

452
Chapitre 11 : Suites et séries
de fonctions

I Modes de convergence des suites de fonctions . . . . . 454


1 Convergence simple . . . . . . . . . . . . . . . . . . . . . 454
2 Convergence uniforme . . . . . . . . . . . . . . . . . . . . 456
II Convergence uniforme et limites . . . . . . . . . . . . . 460
1 Convergence uniforme et continuité . . . . . . . . . . . . . 460
2 Théorème de la double limite . . . . . . . . . . . . . . . . 460
III Intégration, dérivation d’une limite . . . . . . . . . . . 461
1 Intégration et primitivation d’une limite . . . . . . . . . . 461
2 Dérivation d’une limite . . . . . . . . . . . . . . . . . . . 462
IV Séries de fonctions . . . . . . . . . . . . . . . . . . . . . . 463
1 Modes de convergence . . . . . . . . . . . . . . . . . . . . 463
2 Théorèmes sur les séries de fonctions . . . . . . . . . . . . 466
3 Comportement asymptotique . . . . . . . . . . . . . . . . 470
V Approximation uniforme . . . . . . . . . . . . . . . . . . 471
1 Approximation par des fonctions en escalier . . . . . . . . 471
2 Approximation par des polynômes . . . . . . . . . . . . . 471
Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 479
Suites et séries
de fonctions 11

Dans tout ce qui suit, E et F sont deux IK -espaces vectoriels de dimension finie,
munis de normes notées � � et A est une partie non vide de E . Dans de nombreux
cas pratiques, on aura E = IR (parfois A = IN) et F = IK .
On s’intéresse dans ce chapitre aux suites et séries de fonctions, c’est-à-dire aux suites
et séries à valeurs dans F (A, F ).

I Modes de convergence des suites de fonctions


Au chapitre 6, nous avons défini la convergence d’une suite dans un espace vectoriel
normé. En ce qui concerne les suites de fonctions, il existe plusieurs manières « natu-
relles » de définir la convergence. Ces modes de convergence ne sont pas en général
définis directement en termes de normes et sont fondamentalement différents entre
eux.
Dans toute cette section, (fn )n∈IN est une suite de fonctions définies sur A à valeurs
dans F .

1 Convergence simple

Définition 1
• On dit que la suite (fn )n∈IN converge simplement vers f ∈ F (A, F ) si, pour
tout x ∈ A, on a fn (x) −→ f (x).
n→+∞

• On dit que la suite (fn )n∈IN converge simplement s’il existe f ∈ F(A, F )
Exo
11.1 telle que la suite (fn )n∈IN converge simplement vers f .
I Modes de convergence des suites de fonctions

Remarques
• La suite (fn )n∈IN converge simplement si, et seulement si, pour tout x ∈ A, la
 
suite fn (x) n∈IN est convergente.
• On dit que la suite (fn )n∈IN converge simplement sur B ⊂ A si la
 
suite fn |B n∈IN converge simplement.
• Par unicité de la limite dans F , il y a unicité de la limite simple.
• Même si a priori ces définitions dépendent de la norme sur F , en fait cela n’en
dépend pas car F étant de dimension finie, ses normes sont équivalentes.
• Soit B = (e1 , . . . , ep ) une base de F . Pour f : A → F , on note f (1) , . . . , f (p) les
applications composantes de f dans cette base.
La suite (fn )n∈IN de fonctions définies sur A à valeurs dans F converge simple-
 (i) 
ment vers une fonction g si, et seulement si, pour tout i ∈ [[1, p]] la suite fn n∈IN
converge simplement vers une fonction gi . Il s’agit d’une conséquence du fait
qu’une suite à valeurs dans F converge si, et seulement si, toutes ses suites com-
posantes convergent, ce qui est une propriété des espaces de dimension finie.

Ex. 1. Étudions la convergence simple de (fn )n∈IN∗ , avec :


fn : [0, 1] −→ IR
x �−→ xn .
Pour tout x ∈ [0, 1] , on a :

n 0 si x ∈ [0, 1[ ;
lim fn (x) = lim x =
n→+∞ n→+∞ 1 si x = 1.

Ainsi, la suite (fn )n∈IN∗ converge simplement vers la fonction indicatrice du singleton {1} définie
sur [0, 1] .

Remarques
• Certaines propriétés algébriques « passent à la limite simple ».
Par exemple, si des suites de fonctions à valeurs scalaires (fn )n∈IN et (gn )n∈IN
convergent simplement vers f et g , alors la suite (fn + gn )n∈IN converge simple-
ment vers f + g et la suite (fn gn )n∈IN converge simplement vers f g .
• Beaucoup de propriétés analytiques « ne passent pas à la limite simple ». Ainsi,
comme le montre l’exemple précédent, la limite simple d’une suite de fonctions
Exo continues n’est pas nécessairement continue.
11.2
• Certaines propriétés liées à l’ordre « passent à la limite simple ».

Ex. 2. La limite simple d’une suite de fonctions croissante est une fonction croissante. En effet,
si (fn )n∈IN ∈ F(I, IR)IN est une suite de fonctions croissantes qui converge simplement vers une
fonction f , pour tout (x, y) ∈ I 2 tel que x  y , on a :
∀n ∈ IN fn (x)  fn (y),
puis, par passage à la limite, f (x)  f (y) .

455
Chapitre 11. Suites et séries de fonctions

2 Convergence uniforme
Définitions, premiers exemples
Dire que la suite de fonctions (fn )n∈IN converge simplement vers f signifie :
 
∀x ∈ A ∀ε > 0 ∃n0 ∈ IN ∀n  n0 fn (x) − f (x)  ε.
Il faut bien garder en mémoire que dans l’assertion précédente, l’entier n0 dépend non
seulement de ε, mais également de x. Lorsque l’on peut choisir n0 indépendamment
de x, on parle de convergence uniforme.
Définition 2
• On dit que la suite (fn )n∈IN converge uniformément vers f ∈ F(A, F ) si :
 
∀ε > 0 ∃n0 ∈ IN ∀n  n0 ∀x ∈ A fn (x) − f (x)  ε.

Exo
• On dit que la suite (fn )n∈IN converge uniformément s’il existe f ∈ F(A, F )
11.3 telle que (fn )n∈IN converge uniformément vers f .

Terminologie Lorsque B est une partie de A, on dit que la suite (fn )n∈IN
 
converge uniformément vers f sur B si la suite des restrictions fn |B converge
uniformément vers f|B . Pour bien préciser, on dira donc de préférence « converge uni-
formément sur A ».

Remarques
• La suite (fn )n∈IN converge uniformément vers f si la fonction fn − f est bornée
à partir d’un certain rang et si �fn − f �∞ → 0 .
• La suite (fn )n∈IN converge uniformément vers la fonction f si, et seulement si, la
suite (fn − f )n∈IN converge uniformément vers la fonction nulle.
• Si les fonctions (fn )n∈IN ainsi que la fonction f sont bornées, la convergence
uniforme de (fn )n∈IN vers f équivaut à la convergence de la suite (fn )n∈IN vers f
dans l’espace vectoriel B(A, F ) muni de la norme de la convergence uniforme
 
(cf. page 208). Dans ce cas, l’inégalité �fn �∞ − �f �∞   �fn − f �∞ montre que
 
la suite �fn �∞ n∈IN converge vers �f �∞ .
y
• Si F = IR et A est un intervalle de IR, la
convergence uniforme de la suite (fn )n∈IN
vers f sur A signifie que pour tout ε > 0 , il
existe un rang n0 à partir duquel le graphe
de fn est contenu dans la partie du plan ε
définie par :
 
x ∈ A et y ∈ f (x) − ε, f (x) + ε .  

O A x

456
I Modes de convergence des suites de fonctions
Proposition 1
Si la suite (fn )n∈IN converge uniformément vers f , alors elle converge simplement
vers f .

Démonstration. Si la suite (fn )n∈IN converge uniformément vers f , on a :


 
∀ε > 0 ∃n0 ∈ IN ∀x ∈ A ∀n  n0 fn (x) − f (x)  ε,
donc a fortiori :
 
∀x ∈ A ∀ε > 0 ∃n0 ∈ IN ∀n  n0 fn (x) − f (x)  ε,

ce qui traduit précisément que fn (x) −→ f (x) pour tout x ∈ A .


n→+∞

Conséquence Ce résultat montre en particulier l’unicité de la limite uniforme.

Pour établir une convergence uniforme


S’il existe une suite réelle (αn )n∈IN tendant vers 0 et vérifiant, à partir d’un certain
rang n0 :
 
∀n  n0 ∀x ∈ A fn (x) − f (x)  αn ,
alors on montre aisément, en revenant à la définition, que la suite (fn )n∈IN converge
uniformément vers f sur A.

Point méthode Pour établir la convergence uniforme de la suite (fn )n∈IN , on peut :
• commencer par déterminer une fonction f vers laquelle (fn )n∈IN converge sim-
Exo
11.4 plement ;
• chercher ensuite à établir une majoration de la forme �fn (x) − f (x)�  αn ,
Exo
11.5 valable à partir d’un certain rang, où (αn ) est une suite tendant vers 0 .

Attention Lorsque l’on applique la méthode ci-dessus, ni le majorant αn , ni le rang


trouvé à partir duquel l’inégalité est vérifiée, ne doivent dépendre de x !

Ex. 3. La suite (fn )n∈IN∗ de fonctions définies sur IR+ par fn (x) = x + n1 converge unifor-

mément vers la fonction f : x →
� x sur IR+ . En effet, pour n ∈ IN∗ , on a :

√ x + n1 − x 1 1 1
∀x ∈ IR+ 0  fn (x) − x=  √  n 1 = √ ·
x + n1 + x n
n

Puisque √1 −→ 0 , la suite (fn )n∈IN∗ converge uniformément vers la fonction f sur IR+ .
n n→+∞

Ex. 4. Étudions la convergence uniforme de la suite (fn )n∈IN , où fn est la fonction définie
sur [0, 1] par fn (x) = xn (1 − x) .
Il est facile de vérifier que la suite (fn )n∈IN converge simplement vers la fonction nulle (en traitant
à part le cas x = 1 ).
Soit n  2 . La fonction fn est de classe C 1 et :
 
n+1
∀x ∈ [0, 1] fn′ (x) = nxn−1 1 − x .
n

457
Chapitre 11. Suites et séries de fonctions

On obtient le tableau de variations suivant :


n
x 0 n+1
1
fn′ (x) 0 +
0 n  −
fn n+1
f
0 0

n
En posant αn = n+1
, on a :

∀x ∈ [0, 1] 0  fn (x)  fn (αn ).


 n 
Puisque 0  n
n+1
 1 , on a n
n+1
 1 et donc :
 n
1 n 1
fn (αn ) =  −→ 0.
n+1 n+1 n + 1 n→+∞

Par conséquent, la suite (fn )n∈IN converge uniformément vers la fonction nulle sur [0, 1] .

Pour montrer qu’il n’y a pas convergence uniforme


Si la suite (fn )n∈IN converge uniformément vers f sur A, alors pour toute
suite (xn ) ∈ AIN , on a, d’après la définition de la convergence uniforme :
 
∀ε > 0 ∃n0 ∈ IN ∀n  n0 fn (xn ) − f (xn )  ε
donc :
fn (xn ) − f (xn ) −→ 0.
n→+∞

Point méthode Pour montrer qu’une suite (fn )n∈IN ne converge pas uniformément
vers une fonction f , on peut chercher à exhiber une suite (xn )n∈IN à valeurs dans A
 
telle que la suite fn (xn ) − f (xn ) n∈IN ne tende pas vers 0 .


x+ n
Ex. 5. La suite (fn )n∈IN∗ de fonctions définies sur IR+ par fn (x) = x+n
converge simplement
vers la fonction nulle. La suite (xn ) n∈IN∗ définie par xn = n vérifie :

n+ n 1
∀n ∈ IN∗ fn (xn ) − 0 = −→ �= 0.
n + n n→+∞ 2

Ainsi, la suite (fn )n∈IN ne converge pas uniformément vers la fonction nulle sur IR+ .

458
I Modes de convergence des suites de fonctions

Convergence uniforme locale


Comme on le verra par la suite, la convergence uniforme permet de montrer des
propriétés locales : limites, continuité, dérivabilité. . .
Il est alors clairement inutile d’avoir une convergence uniforme sur tout l’ensemble de
définition. D’où les définitions suivantes.
Définition 3
Soit (fn )n∈IN une suite de fonctions de A dans F et a (fini ou infini) adhérent à A.
On dit que (fn )n∈IN converge uniformément au voisinage de a
vers f ∈ F(A, F ) s’il existe un voisinage V de a dans E tel que (fn )n∈IN converge
uniformément vers f sur V ∩ A.

Reformulation La convergence uniforme au voisinage de a ∈ A peut s’exprimer


ainsi : il existe un voisinage V de a relatif à A tel qu’il y ait convergence uniforme
sur V .

Point méthode Pour établir la convergence uniforme au voisinage de tout point


de A, il suffit, si l’on dispose d’un recouvrement de A par des ouverts, de montrer
la convergence uniforme sur chacun de ces ouverts.

Ex. 6. Si A = C , la famille des boules ouvertes B(0, r) , avec r > 0 , constitue un recouvrement
d’ouverts.
Ex. 7. Si A = {z ∈ C : Re z > 0} , la famille des demi-plans ouverts {z ∈ C : Re z > a} ,
avec a > 0 , constitue un recouvrement d’ouverts.

Cas où A est un intervalle de IR


On suppose ici que A est un intervalle non vide de IR. Alors on sait (cf. exemple 40
de la page 224) que tout point de A admet un voisinage relatif qui est un segment.

Point méthode Pour établir la convergence uniforme de la suite (fn )n∈IN au voisi-
nage de tout point de A, il suffit montrer que la suite (fn )n∈IN converge uniformé-
ment sur tout segment de A.
Plus généralement, selon la forme de l’intervalle A, on peut se contenter de montrer
qu’il y a convergence uniforme sur une famille d’intervalles adaptée à la situation.

Ex. 8. Si A = IR , il suffit de prouver qu’il y a convergence uniforme sur tout segment de la


forme [−a, a] avec a > 0 .
Ex. 9. Si A = ]0, +∞[ , il suffit de prouver qu’il y a convergence uniforme sur tout intervalle de
la forme [a, +∞[ avec a > 0 .
Ex. 10. Si A = ]0, 1[ , il suffit de prouver qu’il y a convergence uniforme sur tout segment de la
forme [a, 1 − a] avec 0 < a  21 ·

459
Chapitre 11. Suites et séries de fonctions

II Convergence uniforme et limites


Dans toute cette section, (fn )n∈IN est une suite de fonctions définies sur A à valeurs
dans F .
1 Convergence uniforme et continuité
On sait que la limite simple d’une suite de fonctions continues n’est pas en général
une fonction continue (cf. exemple 1 de la page 455). Si la convergence est uniforme
au voisinage de tout point, alors f « hérite » de la continuité des fonctions fn .
Proposition 2
Si la suite (fn )n∈IN converge uniformément au voisinage de a vers f et si les fonc-
tions fn sont continues en a, alors f est continue en a.
Démonstration page 473
Principe de démonstration. Commencer par remarquer que :
     
f (x) − f (a) = f (x) − fn (x) + fn (x) − fn (a) + fn (a) − f (a)
puis majorer �f (x) − fn (x)� et �fn (a) − f (a)� à l’aide de la convergence uniforme et conclure
à l’aide de la continuité de fn en a .

Proposition 3
Si (fn )n∈IN est une suite de fonctions continues qui converge uniformément au voi-
sinage de tout point vers f , alors la fonction f est continue.

Démonstration. C’est une conséquence immédiate de la proposition 2.

Point méthode Dans la pratique, avant de chercher à montrer une convergence


uniforme locale, on commence par regarder s’il y a convergence uniforme sur A
tout entier.

2 Théorème de la double limite


Soit a (fini ou infini) adhérent à A. On rappelle que l’espace vectoriel normé F est
de dimension finie.
Théorème 4 (Théorème de la double limite)
Soit (fn )n∈IN une suite de fonctions qui converge uniformément sur A vers f et
telle que ∀n ∈ IN lim fn (x) = ℓn ∈ F .
x→a

Alors la suite (ℓn )n∈IN converge, f admet une limite en a et ces deux limites sont
égales, soit :
Exo lim lim fn (x) = lim lim fn (x).
11.6 n→+∞ x→a x→a n→+∞
Démonstration (non exigible) page 473
Remarque Pour ce résultat, une convergence uniforme au voisinage de a suffit, par
caractère local de la limite.

460
III Intégration, dérivation d’une limite
n → +∞
On peut illustrer la situation à l’aide du fn (x) f (x)
schéma ci-contre. Les flèches pleines corres-
pondent aux hypothèses et les flèches poin- x→a x→a
tillées aux conséquences du théorème, ℓ ∈ F
étant la limite commune de la suite (ℓn )n∈IN
ℓn ℓ
et de la fonction f en a. n → +∞

III Intégration, dérivation d’une limite


Dans cette section, I est un intervalle d’intérieur non vide de IR et (fn )n∈IN est une
suite de fonctions définies sur I à valeurs dans F .
1 Intégration et primitivation d’une limite
Théorème 5
On suppose que I = [a, b] avec a < b et que les fonctions fn sont continues. Si la
suite (fn )n∈IN converge uniformément vers f , alors :
 
Exo fn −→ f.
11.7 [a,b] n→+∞ [a,b]
Démonstration page 474
Principe de démonstration. Pour tout entier n , on a :
  
 
 (fn − f )  �fn − f �.
 
[a,b] [a,b]

Ex. 11. La suite de fonctions (fn )n∈IN définie par fn : [0, 1] −→ IR converge
x �−→ n2 (1 − x)xn
simplement vers la fonction nulle (par croissances comparées pour x ∈ ]0, 1[ ).
De plus, on a :
 1  
1 1 n2
∀n ∈ IN n2 (1 − x)xn dx = n2 − = −→ 1.
0
n+1 n+2 (n + 1)(n + 2) n→+∞

On en déduit que la suite (fn )n∈IN ne converge pas uniformément sur [0, 1] , sinon on au-

rait 1 = 0 = 0.
[0,1]

Ex. 12. Soit (fn )n∈IN ∈ C([0, 1], IR)IN une suite de fonctions qui converge uniformément vers f .
La majoration :
       
∀x ∈ [0, 1] fn (x)2 − f (x)2  = fn (x) − f (x) × fn (x) − f (x)  �f �∞ + �fn �∞ �fn − f �∞
  
−→ 2�f �∞
n→+∞

montre que la suite (fn2 )n∈IN converge uniformément vers f 2 , donc :


 1  1
fn2 −→ f 2.
n→+∞
0 0

461
Chapitre 11. Suites et séries de fonctions
Proposition 6
Supposons que la suite (fn )n∈IN converge uniformément sur tout segment de I
vers f . Soit a ∈ I . On note ϕ et ϕn , pour tout n ∈ IN, les primitives respectivement
de f et de fn qui s’annulent en a :
 x  x
ϕ(x) = f (t) dt et ϕn (x) = fn (t) dt.
a a
Alors la suite (ϕn )n∈IN converge uniformément vers ϕ sur tout segment de I .
Démonstration page 475
Principe de démonstration. Pour tout segment [α, β] ⊂ I , que l’on peut supposer conte-
nir a , et pour x ∈ [α, β] , majorer �ϕn (x)−ϕ(x)� en fonction de la norme infinie de la restriction
de fn − f à [α, β] .

2 Dérivation d’une limite

Théorème 7
Supposons que les fonctions fn soient de classe C 1 .
Si la suite (fn )n∈IN converge simplement vers f et si la suite (fn′ )n∈IN converge
uniformément sur tout segment de I vers une fonction g , alors :
• la fonction f est de classe C 1 et f ′ = g ;
• la suite (fn )n∈IN converge uniformément sur tout segment de I .
Démonstration page 475
Principe de démonstration. Appliquer la proposition 6 à la suite (fn′ )n∈IN .

Attention L’hypothèse de convergence uniforme porte sur la suite (fn′ )n∈IN et non
sur la suite (fn )n∈IN .

Ex. 13. La suite (fn )n∈IN∗ de fonctions définies sur IR+ par fn (x) = x+ 1
n
converge unifor-

mément vers la fonction f : x →� x (cf. exemple 3 de la page 457).
Cet exemple montre que la limite uniforme d’une suite de fonctions de classe C 1 peut ne pas
être dérivable.

On établit par récurrence le théorème suivant.

Théorème 8
Soit p ∈ IN∗ . Supposons que les fonctions fn soient de classe C p . Si
 (k) 
• pour tout k ∈ [[0, p − 1]], la suite fn n∈IN converge simplement ;
 (p) 
• la suite fn n∈IN converge uniformément sur tout segment de I ;
alors la limite simple f de la suite (fn )n∈IN est de classe C p et, pour tout k ∈ [[0, p]] :

∀x ∈ I f (k) (x) = lim fn(k) (x).


n→+∞
Démonstration page 475

462
IV Séries de fonctions

Point méthode Pour montrer que la limite d’une suite (fn )n∈IN de fonctions de
classe C ∞ est de classe C ∞ , on pourra montrer la convergence uniforme (sur tout
 (p) 
segment) des suites fn n∈IN pour tout p ∈ IN.
En notant f la limite de la suite (fn )n∈IN , on a alors, pour tout p ∈ IN :
∀x ∈ I f (p) (x) = lim fn(p) (x).
n→+∞

IV Séries de fonctions
1 Modes de convergence
Dans cette section, (un )n∈IN est une suite de fonctions définies sur A à valeurs dans F .
Convergence simple

On dit que la série de fonctions un converge simplement si pour tout x ∈ A,
 
+∞
la série un (x) converge. Dans ce cas, on note un : A −→ F
n=0 
+∞
x �−→ un (x).
n=0
Somme partielle, reste

Soit un une série de fonctions, et n ∈ IN.

• On appelle somme partielle d’ordre n de un la fonction définie sur A

n
par Sn (x) = uk (x).
k=0
 
• Si un converge simplement, on appelle reste d’ordre n de un la fonction

+∞
définie sur A par Rn (x) = uk (x). On a alors :
k=n+1
+∞

∀n ∈ IN ∀x ∈ A Sn (x) + Rn (x) = uk (x).
k=0

Convergence uniforme

Notons (Sn )n∈IN la suite des sommes partielles de la série un . En appliquant à
la suite (Sn )n∈IN les définitions vues plus haut, on obtient les mêmes notions de

convergence uniforme et de convergence uniforme locale de la série de fonctions un .
Proposition 9

La série un converge uniformément si, et seulement si :
• la série converge simplement ;
• la suite des restes (Rn )n∈IN converge uniformément vers la fonction nulle.
Démonstration page 476
Principe de démonstration. En cas de convergence de la série un , on a :
+∞ n +∞
  
S − Sn = Rn avec S= uk , Sn = uk et Rn = uk .
k=0 k=0 k=n+1

463
Chapitre 11. Suites et séries de fonctions

 (−1)n
Ex. 14. La série n
xn converge uniformément sur [0, 1] . En effet, pour x ∈ [0, 1] , la
1 n

suite n
x n∈IN∗
est décroissante et de limite nulle. D’après le théorème des séries alternées,
 (−1)n n
la série n
x est convergente. Toujours d’après ce théorème, en notant Rn (x) le reste
d’ordre n de la série, on a :
  1 1
∀x ∈ [0, 1] Rn (x)  xn+1  ·
n+1 n+1

La convergence uniforme est ainsi démontrée.


On verra plus tard (cf. proposition 21 de la page 518) que :

+∞
 (−1)n−1
∀x ∈ ]−1, 1[ ln(1 + x) = xn .
n
n=1


+∞
(−1)n−1 n
Ainsi, par convergence uniforme sur [0, 1] , la fonction x �→ n
x est continue en 1 ,
n=1

+∞
(−1)n−1
donc il vient n
= ln 2 puisque ln(1 + x) −→ ln 2 .
n=1 x→1−

Convergence normale
La convergence normale, lorsqu’elle est vérifiée, fournit un moyen simple et efficace
pour établir la convergence uniforme d’une série.
Définition 4

La série de fonctions un converge normalement si :
1. pour tout n ∈ IN, la fonction un est bornée ;

2. la série �un �∞ est convergente.

Terminologie On définit naturellement les notions de convergence normale sur une


partie de A, au voisinage d’un point de A ou sur tout segment de A si A est un
intervalle de IR.

Point méthode Pour établir que la série de fonctions un converge normalement,
IN
il suffit d’exhiber une suite sommable (αn )n∈IN ∈ IR+ telle que :
∀n ∈ IN ∀x ∈ A �un (x)�  αn .

 e−nx
Ex. 15. La série n2
sin(nx) converge normalement sur IR+ .
n1
e−nx
En effet, en notant un la fonction définie sur IR+ par un (x) = n2
sin(nx) , cela pour tout
entier n ∈ IN∗ , on a immédiatement :
 
∀x ∈ IR+ un (x)  1 ·
2 n
 1

Puisque la série numérique n2
converge, la série un converge normalement sur IR+ .

464
IV Séries de fonctions


Ex. 16. La série géométrique complexe z n converge simplement sur le disque ou-
vert DO (0, 1) . Pour tout r ∈ ]0, 1[ , on a :
∀z ∈ DO (0, r) |z n |  r n
 
et r n est une série convergente. Ainsi, la série de fonctions z n converge normalement
sur DO (0, r) , donc au voisinage de tout point de DO (0, 1) car les ouverts DO (0, r) re-
couvrent DO (0, 1) quand r décrit ]0, 1[ .

Convergence normale et convergence uniforme


Proposition 10

Si la série un converge normalement, alors, pour tout a ∈ A, la série numé-

rique un (a) est absolument convergente.

Démonstration. Supposons que la série de fonctions un converge normalement sur A .
Alors, pour tout n ∈ IN et a ∈ A on a :
   
un (a)  un 


et puisque la série numérique de terme général positif �un �∞ est convergente, par théorème

de comparaison, la série un (a) est absolument convergente.

Théorème 11

Exo Si la série un converge normalement sur A, alors elle converge uniformément
11.13
sur A.
Démonstration page 476
Exo
11.14
Point méthode Pour démontrer la convergence uniforme d’une série de fonctions,
on commence par examiner la convergence normale.

Attention Comme le prouve l’exemple suivant, une série de fonctions peut converger
uniformément sans pour autant converger normalement.
 (−1) n
Ex. 17. La série n
x converge uniformément sur [0, 1[ (cf. exemple 14 de la page ci-
contre), mais elle ne converge pas normalement sur [0, 1[ . En effet, en notant, pour n ∈ IN∗ ,
(−1)n n
la fonction un : x �→ n
x définie sur [0, 1[ , on a �un �∞ = 1
n
et la série harmonique est
divergente.

Point méthode Pour démontrer qu’une suite (fn )n∈IN converge uniformément, il

est parfois utile d’étudier la série télescopique (fn+1 − fn ).

Ex. 18. Montrons que la suite de fonctions (fn )n∈IN définie sur [0, 1] par :
 x
1
f0 = 1 et ∀n ∈ IN ∀x ∈ [0, 1] fn+1 (x) = 1 + fn (t2 )dt
2 0

converge uniformément sur [0, 1] .

465
Chapitre 11. Suites et séries de fonctions

Soit n ∈ IN et x ∈ [0, 1] . On a :
  
   x
   1 x  
fn+2 (x) − fn+1 (x) = 1  fn+1 (t ) − fn (t ) dt 
2 2 fn+1 (t2 ) − fn (t2 )dt
2 0
2 0

1 
 fn+1 − fn ∞ .
2
On en déduit �fn+2 − fn+1 �∞  21 �fn+1 − fn �∞ puis :
  1  
∀n ∈ IN fn+1 − fn   f1 − f0  .
∞ 2n ∞

La série télescopique (fn+1 − fn ) converge normalement, donc uniformément, sur [0, 1] . On
en déduit que la suite (fn )n∈IN converge uniformément sur [0, 1] .

2 Théorèmes sur les séries de fonctions


Les résultats énoncés dans cette partie sont les adaptations, aux séries de fonctions,
des théorèmes déjà obtenus sur les suites de fonctions.
Continuité
Proposition 12

Si la série de fonctions un converge uniformément au voisinage de a ∈ A et si

+∞
pour tout n ∈ IN, la fonction un est continue en a, alors la somme un est
n=0
continue en a.

Théorème 13

Supposons les fonctions un continues. Si la série de fonctions un converge uni-

+∞
formément au voisinage de tout point de A, alors la somme un est continue.
n=0

Remarques
• Dans la pratique, on commence par regarder s’il y a convergence uniforme sur A
tout entier.
• Rappelons la discussion de la page 459 concernant la convergence uniforme au
voisinage de tout point.



Ex. 19. La fonction ζ : x �→ 1
nx
est continue sur I = ]1, +∞[ .
n=1
1
En effet, en notant un la fonction définie sur I par un (x) = nx
, on a, pour tout a > 1 :

1 1
∀n ∈ IN∗ ∀x ∈ [a, +∞[ |un (x)| =  a·
nx n
 1

Comme la série na
est convergente, la série de fonctions un converge normalement sur
toute demi-droite [a, +∞[ incluse dans I donc sur tout segment de I . Puisque les fonctions un
sont continues, le théorème 13 permet d’affirmer que ζ est continue.

466
IV Séries de fonctions

Interversion somme / limite


Soit a (fini ou infini) adhérent à A.
Théorème 14

Si la série un converge uniformément et si pour tout n ∈ IN la fonction un a

une limite finie ℓn en a ∈ A ou a = ±∞, alors, la série ℓn converge et :
+∞  +∞ 
 
lim un (x) = lim un (x) .
x→a x→a
n=0 n=0


+∞
1
Ex. 20. Déterminons lim ·
x→+∞ n=0 x2 + n2
1
Posons, pour n ∈ IN , la fonction fn : x �→ x2 +n2
définie sur [1, +∞[ .
Tout d’abord, on a :
1
∀x ∈ [1, +∞[ ∀n ∈ IN 0  fn (x)  ·
n2 + 1
 1

On déduit de la convergence de la série n2 +1
que la série fn converge normalement
sur [1, +∞[ . Par ailleurs, pour tout n ∈ IN , il est immédiat que fn (x) −→ 0 . D’après le
x→+∞
théorème de double limite, on a :

+∞
1
lim = 0.
x→+∞ n2 + x2
n=0

Ex. 21. Soit a ∈ C . Pour tout k ∈ IN , on définit sur IN∗ la fonction uk :


 
n ak n(n − 1) · · · (n − k + 1) ak
∀n ∈ IN∗ uk (n) = k
= ·
k n nk k!

Pour tout n ∈ IN∗ et k ∈ [[0, n]] , on a :


 
k n nk
n(n − 1) · · · (n − k + 1)  n donc  ·
k k!
 
n
Pour k > n , on a = 0 donc cette inégalité reste vraie et l’on a donc :
k
  k
∀k ∈ IN ∀n ∈ IN∗ uk (n)  |a| ·
k!
 |a|k 
La série k!
est une série convergente donc la série uk converge normalement sur IN∗ .
Soit k ∈ IN . On a :
ak ak
uk (n) ∼ donc uk (n) −→ ·
n→+∞ k! n→+∞ k!

Par théorème de double limite, on obtient :


 a
n +∞
 +∞ k
 a
1+ = uk (n) −→ = ea .
Exo n n→+∞ k!
11.15 k=0 k=0

467
Chapitre 11. Suites et séries de fonctions

Intégration terme à terme sur un segment


Dans la suite de cette section, I est un intervalle d’intérieur non vide et (un )n∈IN est
une suite de fonctions définies sur I à valeurs dans F .
Théorème 15
Supposons que  les fonctions un soient continues.
Si la série un converge uniformément sur le segment [a, b], alors la sé-

rie [a,b]
u n converge et l’on a :
 +∞
 +∞ 

Exo un = un .
11.16 [a,b] n=0 n=0 [a,b]

Dérivation terme à terme

Théorème 16 (Théorème de dérivation terme à terme)


Supposons que les fonctions un soient de classe C 1 . Si :

• la série un converge simplement,
 ′
• la série un converge uniformément sur tout segment de I ,

+∞
alors la fonction un est de classe C 1 et :
n=0

+∞ ′ +∞

un = u′n .
n=0 n=0


+∞
Ex. 22. Pour tout x > 1 , on pose ζ(x) = 1
nx
. La fonction ζ est de classe C 1 et l’on a :
n=1

+∞
 ln n
∀x > 1 ζ ′ (x) = − ·
nx
n=1

1

En effet, posons un : x �→ nx
. Nous savons que la série de fonctions un converge simplement
sur ]1, +∞[ . De plus, les fonctions un sont de classe C 1 sur ]1, +∞[ . Pour tout réel a > 1 ,
 ′
démontrons la convergence normale de la série un sur [a, +∞[ . Pour tout x ∈ [a, +∞[

et n ∈ IN , on a :

ln n ln n  ′ 
0  −u′n (x) =  a donc un (x)  ln n ·
nx n na

 
De plus, on a ln n
na
=O 1
nb
pour tout b < a . En choisissant b ∈ ]1, a[ , cela montre, par com-
ln n

paraison aux séries de Riemann, que la série numérique na
est convergente. Cela démontre
 ′
la convergence normale de la série un sur tout intervalle de la forme [a, +∞[ avec a > 1 et
donc la convergence uniforme sur tout segment de ]1, +∞[ . La conclusion suit.

468
IV Séries de fonctions
Théorème 17 (Théorème de dérivation terme à terme)
Supposons que les fonctions un soient de classe C p avec p  1 . Si :
 (k)
• pour tout k ∈ [[0, p − 1]], la série un converge simplement,
 (p)
• la série un converge uniformément sur tout segment de I ,

+∞
alors un est de classe C p et, pour tout k ∈ [[0, p]], on a :
n=0
 +∞ (k) +∞
 
Exo un = un(k) .
11.17 n=0 n=0


+∞
Point méthode Pour démontrer que la fonction un est de classe C ∞ , on peut
n=0
chercher à démontrer que :
• toutes les fonctions un sont de classe C ∞ ;
 (p)
• pour tout p ∈ IN, la série un converge uniformément sur tout segment.
Dans ce cas, on a pour tout p ∈ IN :
 +∞ (p) +∞
 
un = u(p)
n .
n=0 n=0

+∞ 
Ex. 23. La fonction ζ : x �→ 1
nx
est de classe C ∞ sur ]1, +∞[ .
n=1
En effet, pour n ∈ IN∗ , notons un la fonction définie sur ]1, +∞[ par un (x) = 1
nx
·
Les fonctions un sont de classe C ∞ et, pour tout p ∈ IN , on a :

lnp n
∀x > 1 u(p)
n (x) = (−1)
p
·
nx

Soit a > 1 et b ∈ ]1, a[ . On a pour tout p ∈ IN :

 (p)  lnp n lnp n


∀x  a un (x) =  ·
x a n n

lnp n
 1

Par ailleurs, par croissances comparées, na
=O nb
·
 lnp n
Par comparaison, on obtient la convergence de la série na
·
 (p)
Ainsi, la série unconverge normalement sur [a, +∞[ , donc sur tout segment de ]1, +∞[ .
En conclusion, la fonction ζ est de classe C ∞ et :
+∞
 lnp n
∀p ∈ IN ∀x ∈ ]1, +∞[ ζ (p) (x) = (−1)p ·
nx
n=1

469
Chapitre 11. Suites et séries de fonctions

3 Comportement asymptotique
Dans cette section, les fonctions un sont définies sur un intervalle I d’intérieur non
vide et à valeurs réelles.

+∞
Il est fréquent de chercher le comportement asymptotique de f = un aux ex-
n=0
trémités de I (limites, équivalents. . .). Il s’agit là de problèmes qui peuvent être
extrêmement délicats. Il existe cependant quelques situations « typiques ».
Équivalent à l’aide d’une autre série
Une première méthode consiste à chercher un équivalent sous la forme de somme de
séries.
Point méthode Pour déterminer un équivalent de la somme d’une série en une
borne de son intervalle de définition, on peut deviner l’équivalent puis l’obtenir à
l’aide du théorème de la double limite.


+∞
Ex. 24. Soit f la fonction définie sur IR∗+ par f (x) = 1
1+n2 x
·
n=1
Déterminons un équivalent simple de f au voisinage de +∞ . Soit n ∈ IN∗ . Notons un la
fonction définie sur IR∗+ par un : x �→ 1+n
1
2x ·

On a un (x) ∼ 1
2 , donc lim xun (x) = 1
n2
·
x→+∞ x n x→+∞
De plus, on a :
x 1
∀x ∈ IR∗+ 0  xun (x) =  2·
1 + n2 x n
  
n2 x

Il s’ensuit que la série de fonctions xun (x) converge normalement sur IR∗+ . Par suite, le
théorème de la double limite pour les séries de fonctions permet d’affirmer :


+∞ 
+∞
1 1 1
+∞

xf (x) = xun (x) −→ donc f (x) ∼ ·


x→+∞ n2 x→+∞ x n2
n=1 n=1 n=1

Comparaison série-intégrale

Point méthode Pour déterminer un équivalent de la somme d’une série en une


Exo borne de son intervalle de définition, une comparaison série-intégrale peut parfois
11.18 se révéler utile.



Ex. 25. Déterminons un équivalent simple en 1 de ζ : x �→ 1
nx
·
n=1
Pour tout (x, t) ∈ ]1, +∞[ × [1, +∞[ , on pose u(x, t) = t1x ·
Pour x > 1 fixé, la fonction t �→ u(x, t) est continue, décroissante et intégrable donc par
comparaison série-intégrale, on a :
 +∞  +∞
dt dt
 ζ(x)  + 1,
1
tx 1
tx

470
V Approximation uniforme

ce qui donne :
1 1
∀x > 1  ζ(x)  + 1.
x−1 x−1
1
On conclut à l’équivalent simple ζ(x) ∼ x−1
puisque les fonctions encadrantes sont équiva-
x→1+
1 + 1
lentes à x−1
en 1 . On a même f (x) = x−1
+ O(1) .

V Approximation uniforme
Dans cette partie, a et b sont deux réels avec a < b et l’on pose I = [a, b].
Définition 5
Soit f ∈ B(I, F ) et X un sous-ensemble de B(I, F ). On dit que l’on peut appro-
cher uniformément f par des éléments de X si f appartient à l’adhérence de X
 
dans B(I, F ), � �∞ .

Reformulation Par caractérisation de l’adhérence, dire que l’on peut approcher


uniformément f par des éléments de X signifie que l’une des propositions équivalentes
suivantes est vérifiée :
(i) pour tout ε > 0 , il existe ϕ ∈ X tel que �f − ϕ�∞  ε ;
(ii) il existe une suite (ϕn )n∈IN d’éléments de X convergeant uniformément vers f
sur I .

1 Approximation par des fonctions en escalier


Lors de la construction de l’intégrale des fonctions continues par morceaux en première
année, il a été établi que toute fonction continue par morceaux à valeurs dans IK peut
être approchée uniformément par des fonctions en escalier. La propriété suivante étend
ce résultat à des fonctions à valeurs dans F .
Proposition 18
Toute fonction f : [a, b] → F continue par morceaux peut être approchée unifor-
mément par des fonctions en escalier sur [a, b].
Démonstration page 476

Remarque En d’autres termes, l’ensemble des fonctions en escalier sur [a, b] est
   
dense dans CM [a, b], F , � �∞ .

2 Approximation par des polynômes


Théorème 19 (Théorème de Weierstrass)
Toute fonction continue f : [a, b] → IK peut être approchée uniformément par des
fonctions polynomiales à coefficients dans IK
Démonstration (non exigible) page 477

Remarque En d’autres termes, l’ensemble des fonctions polynomiales sur [a, b] est
 
dense dans l’espace vectoriel normé C([a, b]), IK), � �∞ .

471
Chapitre 11. Suites et séries de fonctions
 1
Ex. 26. Soit f : [0, 1] → IR une fonction continue telle que xn f (x) dx = 0 pour tout n ∈ IN .
0
Montrons que f est la fonction nulle. Par linéarité de l’intégrale, on a :
 1
∀P ∈ IR[X] P (x) f (x) dx = 0.
0

D’après le théorème de Weierstrass, il existe une suite (Pn )n∈IN de fonctions polynomiales réelles
qui converge uniformément vers f sur le segment [0, 1] . Puisque la fonction f est bornée, car
continue sur un segment, on a :
     
∀n ∈ IN Pn f − f 2   f ∞ Pn − f ∞

et donc, la suite (Pn f )n∈IN converge uniformément vers f 2 sur [0, 1] . Par intégration (cf. théo-
rème 5 de la page 461), on a :
 1  1  1
0= Pn (x)f (x) dx −→ f 2 (x) dx puis f 2 (x) dx = 0.
n→+∞
0 0 0

Puisque f 2 est une fonction positive continue d’intégrale nulle, elle est nulle, donc f aussi.

472
Démonstrations

Démonstrations
Proposition 2 Par caractère local de la limite, on peut supposer sans perte de généralité que la
suite (fn )n∈IN converge uniformément sur A .
Soit ε > 0 . L’hypothèse de convergence uniforme donne l’existence d’un entier n tel
que �fn − f �∞  ε3 · Fixons un tel entier.
Par continuité de fn en a , il existe un réel η > 0 tel que, pour tout x ∈ A vérifiant �x−a�  η ,
on ait �fn (x) − fn (a)�  3ε ·
Par conséquent, pour tout x ∈ A vérifiant �x − a�  η , on a :
   
f (x) − f (a) = f (x) − fn (x) + fn (x) − fn (a) + fn (a) − f (a)
     
 f (x) − fn (x) + fn (x) − fn (a) + fn (a) − f (a)
(inégalité triangulaire)
      ε ε ε
 f − fn ∞ + fn (x) − fn (a) + fn − f ∞  + + = ε.
3 3 3
La continuité de f en a est donc démontrée.
Théorème 4 On commence par démontrer le lemme suivant.
Lemme (d’interversion des limites)
Supposons que la suite (fn )n∈IN converge uniformément vers f sur A et que pour tout n ∈ IN
la fonction fn ait une limite finie ℓn ∈ F en a .
Si l’une des deux limites lim ℓn ou lim f (x) existe dans F , alors l’autre existe et elles sont
n→+∞ x→a
égales, i.e. :
lim lim fn (x) = lim lim fn (x).
n→+∞ x→a x→a n→+∞

Démonstration.
• Supposons que lim f (x) = ℓ .
x→a
Pour n suffisamment grand, la fonction fn − f est bornée et l’on a :
   
∀x ∈ A fn (x) − f (x)  fn − f  .

En faisant tendre x vers a dans cette inégalité à n fixé, il vient :


   
ℓn − ℓ  fn − f  .

Par convergence uniforme, on a �fn − f �∞ −→ 0 , donc �ℓn − ℓ� −→ 0 , autrement


n→+∞ n→+∞
dit lim ℓn = ℓ .
n→+∞
• Supposons lim ℓn = ℓ .
n→+∞
Soit ε > 0 . Par définition de la limite, il existe un entier n0 tel que :
  ε
∀n  n0 ℓn − ℓ  ·
3
Par définition de la convergence uniforme, il existe un entier n1 tel que pour n  n1 , fn − f
soit bornée et :  
fn − f   ε ·
∞ 3
Posons n = max{n0 , n1 } . Puisque lim fn (x) = ℓn , il existe un voisinage V de a tel que :
x→a
 
∀x ∈ V ∩ A fn (x) − ℓn   ε ·
3

473
Chapitre 11. Suites et séries de fonctions

Ainsi, pour x ∈ V ∩ A , on a par inégalité triangulaire :


       
f (x) − ℓ =  f (x) − fn (x) + fn (x) − ℓn + ℓn − ℓ 
   
 f − fn  + fn (x) − ℓn  + �ℓn − ℓ�  ε.

Par suite, lim f (x) = ℓ .


x→a

Notons que le fait que F soit de dimension finie n’a pas été utilisé dans la démonstration du
lemme et démontrons maintenant le résultat principal.
• Montrons que la suite (ℓn )n∈IN est bornée.
Tout d’abord, par définition de la convergence uniforme, il existe un rang n0 ∈ IN tel que :
 
∀n  n0 ∀x ∈ A fn (x) − f (x)  1.

D’après l’inégalité triangulaire, il vient :


     
∀n  n0 ∀x ∈ A fn (x) − fn0 (x)  fn (x) − f (x) + f (x) − fn0 (x)  2.

En faisant tendre x vers a dans cette inégalité, on obtient :


     
∀n  n0 ℓn − ℓn0   2 puis ℓn   2 + ℓn0 ,

ce qui montre que la suite (ℓn ) est bornée.


• Le théorème de Bolzano-Weierstrass ( F est de dimension finie) donne l’existence d’une
extraction ϕ et d’un vecteur ℓ ∈ F tels que ℓϕ(n) −→ ℓ . En appliquant le lemme
n→+∞
 
d’interversion des limites à la suite fϕ(n) n∈IN
qui converge uniformément vers f , il vient
que lim f (x) = ℓ .
x→a

• Puisque lim f (x) = ℓ , le lemme d’interversion des limites donne lim ℓn = ℓ . Cela termine
x→a n→+∞
la démonstration.

Théorème 5 Puisque les fonctions fn sont continues et que la convergence est uniforme, la fonc-

tion f est continue (cf. proposition 3 de la page 460). Par conséquent l’intégrale f est
[a,b]
définie.
Pour tout entier n on a :
  
 
 (fn − f )  �fn − f �.
 
[a,b] [a,b]

Puisque la convergence est uniforme et que les fonctions sont continues sur le segment [a, b]
donc bornées, on a :
 
   
0 �fn − f �  fn − f  = (b − a)fn − f ∞ −→ 0,
∞ n→+∞
[a,b] [a,b]

par conséquent :
  
   
 (fn − f )
  −→ 0
n→+∞
c’est-à-dire fn − f → 0,
[a,b] [a,b]

et la conclusion en découle, par linéarité de l’intégrale.

474
Démonstrations

Proposition 6 Par convergence uniforme sur tout segment de I , la fonction f est continue.
Soit [α, β] un segment inclus dans I tel que a ∈ [α, β] . Notons � �∞,[α,β] la norme infinie
sur le segment [α, β] . Pour tout n ∈ IN et x ∈ [α, β] , on a :
 
   x
  
ϕn (x) − ϕ(x) =  fn (t) − f (t) dt
 
a

 |x − a|�fn − f �∞,[α,β]  (β − α) �fn − f �∞,[α,β] ,


ce qui établit la convergence uniforme de la suite (ϕn )n∈IN vers ϕ sur [α, β] puisque, par
hypothèse, (fn ) converge uniformément vers f sur [α, β] , et donc lim �fn − f �∞,[α,β] = 0 .
n→+∞

On en déduit la convergence uniforme de la suite (ϕn )n∈IN vers ϕ , sur tout segment de I ,
puisque tout segment de I est inclus dans un segment contenant a .
Théorème 7 Supposons que la suite (fn )n∈IN converge simplement vers f et que la suite (fn′ )n∈IN
converge uniformément sur tout segment de I vers g . D’après la proposition 3 de la page 460,
la fonction g est continue. Soit a ∈ I .
• D’après le théorème de primitivation, pour tout x ∈ I , on a :
 x  x
g(t) dt = lim fn′ (t) dt
n→+∞
a a
 
= lim fn (x) − fn (a)
n→+∞

= f (x) − f (a).
En d’autres termes, pour tout x ∈ I :
 x
f (x) = f (a) + g(t) dt.
a

Il s’ensuit, du fait que g est une fonction continue, que f est de classe C 1 et que f ′ = g .
• Par ailleurs, si l’on définit (hn )n∈IN par :
 x
∀n ∈ IN ∀x ∈ I hn (x) = fn′ (t)dt = fn (x) − fn (a),
a

par théorème de primitivation, la suite (hn )n∈IN converge uniformément sur tout segment
vers sa limite simple c’est-à-dire vers la fonction f − f (a) .
D’après l’inégalité triangulaire, on a :
   
∀n ∈ IN ∀x ∈ I fn (x) − f (x) = hn (x) + fn (a) − f (x)
    
 hn (x) − f (x) − f (a)  + fn (a) − f (a),
ce qui montre que la suite (fn )n∈IN converge uniformément vers f sur tout segment.
Théorème 8 Démontrons ce résultat par récurrence sur p . Le cas p = 1 correspond au théorème 7
de la page 462.
Supposons le résultat vrai pour un certain rang p ∈ IN∗ .
Soit (fn )n∈IN une suite de fonctions de classe C p+1 telle que pour tout k ∈ [ 0, p]] la
 (k)
  (p+1)

suite fn n∈IN
converge simplement et la suite fn n∈IN
converge uniformément sur tout
(p) (p)
segment de I . Le théorème 7 de la page 462 appliqué à la suite (fn )n∈IN donne que (fn )n∈IN
converge uniformément sur tout segment de I vers une fonction g de classe C 1 et que :
∀x ∈ I fn(p+1) (x) −→ g ′ (x).
n→+∞

475
Chapitre 11. Suites et séries de fonctions

(p)
Puisque la suite (fn )n∈IN converge uniformément sur tout segment de I , l’hypothèse de ré-
currence donne que la limite simple f de la suite (fn )n∈IN est de classe C p et que, pour
(k)
tout k ∈ [ 0, p]] on a : ∀x ∈ I f (k) (x) = lim fn (x) . En particulier :
n→+∞

∀x ∈ I f (p) (x) = lim fn(p) (x) = g(x).


n→+∞

(p) 1
Par conséquent, f est de classe C et :
∀x ∈ I f (p+1) (x) = g ′ (x) = lim fn(p+1) (x).
n→+∞

Cela termine la démonstration.


Proposition 9

• Supposons que la série un converge uniformément. Alors, la suite (Sn ) des sommes

partielles converge uniformément vers la somme S , et en particulier, la série un converge
simplement. Par différence, la suite (Rn ) = (S − Sn ) converge uniformément vers 0 puisque
pour tout ε > 0 , il existe un entier n0 tel que :
   
∀n  n0 ∀x ∈ A Rn (x) = S(x) − Sn (x)  ε.

• Réciproquement, si la série un converge simplement et que la suite des restes converge
uniformément vers 0 , alors pour tout ε > 0 , il existe un entier n0 tel que :
   
∀n  n0 ∀x ∈ A S(x) − Sn (x) = Rn (x)  ε,
ce qui montre que la suite (Sn ) converge uniformément vers la somme S .

Théorème 11 Supposons que la série de fonctions un converge normalement sur A .
 
Soit x ∈ A . Puisque la série un converge normalement, la série un (x) est absolument
convergente. On en déduit pour tout n ∈ IN l’inégalité :
 
    +∞  +∞
  
Rn (x) = 


uk (x)  uk (x).
k=n+1  k=n+1
Ainsi, par définition de la norme de la convergence uniforme :
+∞
    
Rn (x)  uk  .

k=n+1


+∞  
Comme �uk �∞ −→ 0 , cela montre que Rn n∈IN
converge uniformément vers la fonc-
k=n+1 n→+∞

tion nulle sur A .


Proposition 18
Cas des fonctions continues. Supposons que f soit continue. Soit ε un réel strictement
positif. D’après le théorème de Heine, f est uniformément continue et donc il existe η > 0
tel que, pour tout (x, y) ∈ [a, b]2 , on ait �f (x) − f (y)�  ε dès que |x − y|  η . Fixons
un tel η ainsi qu’un entier naturel non nul n tel que 0 < b−a n
 η . Notons ak = a + k b−a
n
pour k ∈ [[0, n]] et ϕ la fonction en escalier sur [a, b] définie par :

f (ak ) si x ∈ [ak , ak+1 [ où k ∈ [[0, n − 1]] ;
ϕ(x) =
f (b) si x = b.
Il est clair que f (b) − ϕ(b) = 0 .

476
Démonstrations

b−a
Pour tout x ∈ [a, b[ , il existe k tel que x ∈ [ak , ak+1 [ , et puisque |x − ak |  n
η :
   
f (x) − ϕ(x) = f (x) − f (ak )  ε.
La fonction ϕ répond donc au problème.
Cas des fonctions continues par morceaux. Supposons que f soit continue par mor-
ceaux. Considérons σ = (u0 , . . . , un ) une subdivision de [a, b] adaptée à f et, pour
tout i ∈ [[0, n − 1]] , notons fi la restriction de la fonction f à ]ui , ui+1 [ et fi le prolonge-
ment par continuité sur [ui , ui+1 ] de fi . Soit ε > 0 . D’après la première partie de l’étude, il
existe, pour tout i ∈ [[0, n − 1]] , une fonction ϕi ∈ E ([ui , ui+1 ], F ) telle que �fi − ϕi �∞  ε .
Considérons la fonction ϕ définie sur [a, b] par :

ϕk (x) si x ∈ ]uk , uk+1 [ où k ∈ [[0, n − 1]] ;
ϕ(x) =
f (uk ) si x = uk où k ∈ [[0, n]].
La fonction ϕ répond au problème.
Théorème 19
• On peut sans perte de généralité supposer que [a, b] = [0, 1] .
En effet, dans le cas général, si g : [a, b] → IK est une fonction continue, la fonction :
f : [0, 1] −→ IK 
t �−→ g a + (b − a)t
est une fonction continue sur [0, 1] . Si l’on suppose que f est limite uniforme d’une suite de
fonctions polynomiales (fn )n∈IN , alors g est limite uniforme de la suite (gn )n∈IN , où :
x − a
∀n ∈ IN ∀x ∈ [a, b] gn (x) = fn ·
b−a
• On définit ainsi la fonction polynomiale Bn (f ) pour tout n ∈ IN∗ :
n    
 n k
∀x ∈ [0, 1] Bn (f )(x) = f xk (1 − x)n−k .
k n
k=0
 
Montrons que la suite Bn (f ) n∈IN∗
converge uniformément sur [0, 1] vers f .
Soit ε > 0 . D’après le théorème de Heine, f est uniformément continue donc il existe δ > 0
tel que :
 
∀(x, y) ∈ [0, 1]2 |x − y|  δ =⇒ f (x) − f (y)  ε.
Par ailleurs, la fonction f est continue sur le segment [0, 1] donc bornée et, par disjonction
de cas suivant que |x − y|  δ ou |x − y| > δ , on a :
 
∀(x, y) ∈ [0, 1]2 f (x) − f (y)  ε + 2�f �∞ (x − y)2 . (⋆)
δ2
Fixons x ∈ [0, 1] . Notons Y une variable aléatoire sur un espace probabilisé (Ω, P) suivant
la loi binomiale de paramètre (n, x) . En posant X = Yn , on a alors :
1 x(1 − x)
E(X) = x et V(X) = V(Y ) = ,
n2 n
 
et, d’après la formule de transfert, E f (X) = Bn (f )(x) .
D’après la relation (⋆) , on a :
 
f (x) − f (X)  ε + M (x − X)2 avec M = 2�f �∞ ·
2 δ

477
Chapitre 11. Suites et séries de fonctions

Par l’inégalité triangulaire, linéarité et croissance de l’espérance, il vient :


      
f (x) − Bn (f )(x) = E f (x) − f (X)   E f (x) − f (X)
  x(1 − x)
 ε + M E (X − x)2 = ε + M V(X) = ε + M ·
n
Ainsi, on a :
 
∀n ∈ IN∗ ∀x ∈ [0, 1] f (x) − Bn (f )(x)  ε + M ·
n
Il existe alors un rang n0 ∈ IN∗ tel que :
 
∀x ∈ [0, 1] f (x) − Bn (f )(x)  2ε,
 
ce qui montre la convergence uniforme sur [0, 1] de la suite Bn (f ) n∈IN∗
vers f .

478
Exercices

S’entraîner et approfondir
Suites de fonctions
11.1 Soit, pour n ∈ IN∗ , la fonction fn définie sur IR+ par :
→454  � 1�

 n2 x si x ∈ 0, ;
n
∀x ∈ IR+ fn (x) = � �
 1
 si x ∈
1
, +∞ .
x n
Étudier la convergence simple de (fn )n∈IN∗ .

11.2 Soit I un intervalle de IR et (fn )n∈IN ∈ F(I, IR)IN une suite de fonctions convexes qui
→455
converge simplement vers une fonction f . Montrer que f est convexe.

11.3 Soit F un espace vectoriel normé de dimension finie. Soit (fn )n∈IN ∈ F(A, F )IN une suite de
→456
fonctions bornées qui converge uniformément vers f ∈ F(A, F ) . Montrer que f est bornée.

11.4 On pose, pour tout entier n ∈ IN∗ , la fonction fn : IR −→ IR � �


1
→457
x �−→ sin x + n
·
Montrer que la suite (fn )n∈IN∗ converge uniformément sur IR .

11.5 Étudier la convergence uniforme sur les segments de la forme [0, b] , puis sur IR+ , de la
→457
suite (fn )n∈IN∗ avec :
fn : IR+ −→ IR � �n
x �−→ 1 − nx 1[0,n] (x).

11.6 Soit f : ]0, 1] → IR une fonction uniformément continue. Pour tout n ∈ IN∗ , on pose :
→460 � � � �
1 1
∀x ∈ 0, fn (x) = f x + ·
2 2n
� �
1. Montrer que la suite (fn )n∈IN∗ converge uniformément vers la fonction f sur 0, 1
2
.
2. Montrer que f admet un prolongement par continuité en 0 .

11.7 Soit (fn )n∈IN une suite de fonctions continues à valeurs réelles qui converge uniformément
→461
sur le segment [a, b] vers une fonction f . Montrer que :
� b � b
fn (t)
e dt −→ ef (t) dt.
n→+∞
a a

11.8 Soit F un espace vectoriel normé de dimension finie. On considère l’espace vectoriel
� �
normé B(IN, F ), � �∞ des suites bornées à valeurs dans F et l’on pose G le sous-espace
vectoriel des suites convergentes. Montrer que G est une partie fermée de B(IN, F ) .

11.9 Soit E et F des espaces vectoriels normés de dimension finie. Soit A une partie de E .
Soit (fn )n∈IN une suite de fonctions de A dans F qui converge uniformément sur A vers f .
On suppose que les fonctions fn sont uniformément continues. Montrer que f est uniformé-
ment continue.

479
Chapitre 11. Suites et séries de fonctions

11.10 Soit, pour n ∈ IN∗ , la fonction fn définie par :


fn : IR −→ IR
nx
x �−→ ·
1 + n2 x2
Étudier la convergence simple puis uniforme sur IR de la suite (fn )n∈IN∗ .

11.11 Étudier la convergence simple et uniforme sur IR+ de la suite (fn )n∈IN∗ de fonctions définies
sur IR+ par :
 2
e−x
fn (x) = x+ ·
n

11.12 Soit (fn )n∈IN ∈ C([a, b], IR)IN une suite de fonctions qui converge uniformément sur [a, b] .
 
Soit ϕ ∈ C(IR, IR) . Montrer que la suite ϕ ◦ fn n∈IN converge uniformément.

Séries de fonctions
11.13 Déterminer le domaine de définition et étudier la convergence (normale/uniforme) des séries
→465
de fonctions de la variable réelle :
 1  1
et ·
n +x
2 2 n2 + x2
n1 n0

11.14 Soit g : [0, 1] → IR une fonction continue et (fn )n∈IN la suite de fonctions définies par :
→465  x
f0 = 0 et ∀n ∈ IN ∀x ∈ [0, 1] fn+1 (x) = g(x) + fn (t) dt.
0

1. Montrer que :
  n
∀n ∈ IN ∀x ∈ [0, 1] fn+1 (x) − fn (x)  x �g�∞ .
n!
2. Démontrer que la suite (fn )n∈IN converge uniformément vers une fonction continue f
vérifiant :  x
∀x ∈ [0, 1] f (x) = g(x) + f (t) dt.
0

 
1
n
n
11.15 Pour tout n ∈ IN∗ , on pose Sn = (−1)k ·
→467 n k
k=1
 (−1)k  x 
1. Montrer que la série de fonctions converge uniformément sur ]0, +∞[ .
x k
k1

2. Montrer que la suite (Sn )n∈IN∗ est convergente.



11.16 Soit (an )n∈IN une suite positive telle que an soit convergente.
→468

+∞
1. Montrer que l’application f définie sur [0, 2π] par f (x) = an cos(nx) est continue.
n=0

2. Calculer f.
[0,2π]

480
Exercices

 (−1)n
+∞
11.17 Montrer que la fonction définie par f (x) = est de classe C ∞ sur IR∗+ .
→469 n=0 x+n

+∞
 1
11.18 Pour tout x > 0 , on pose f (x) = ·
→470 1 + n2 x
n=1
Déterminer un équivalent simple de f au voisinage de 0 .

11.19 Étudier les convergences simple, normale et uniforme sur [0, 1] de la série de fonc-
 n
tions x (1 − x) .

n 
 
k n
11.20 1. Pour tout n ∈ IN∗ , on pose Sn = 1− n
·
k=0

Montrer que la suite (Sn )n∈IN∗ converge et préciser sa limite.



n
2. En déduire un équivalent simple de la suite Sn′ = jn .
j=0

11.21 Fonction ζ de Riemann


Montrer que la fonction :
+∞
 1
ζ : z �→
nz
n=1
 
est continue sur le demi-plan P = z ∈ C : Re(z) > 1 .


+∞
(−1)n
11.22 Pour x > 0 , on pose S(x) = n! (x+n)
·
n=0

1. Montrer que S est bien définie et de classe C 1 sur IR∗+ .


2. Soit x > 0 . Donner une relation entre S(x + 1) et S(x) .
3. Déterminer un équivalent simple de S en 0+ et en +∞ .

11.23 On pose :
+∞  
 1 1
f : s �→ − ·
⌊nπ⌋s (nπ)s
n=1

Montrer que f est définie et continue sur ]0, +∞[ .

√ +∞

x ln n
⋆ 11.24 Pour tout n ∈ IN∗ et x ∈ IR+ , on pose un (x) = et f (x) = un (x) .
1 + xn2
n=1

1. Montrer que f est bien définie sur IR+ .


2. Montrer que f est continue sur IR∗+ .
3. Montrer que f n’est pas continue en 0 .

2n
Indication. On pourra minorer f (x) par uk (x) puis choisir judicieusement une
k=n+1
suite (xn )n∈IN qui converge vers 0 .

481
Chapitre 11. Suites et séries de fonctions

1
11.25 On pose un (x) = , pour tout n ∈ IN∗ et tout x ∈ IR+ .
n(1 + nx2 )

+∞
1. Déterminer le domaine de définition D ⊂ IR+ de f = un . Étudier la continuité de f
n=1
sur D .
2. Déterminer les limites et des équivalents simples de f aux bornes de D .

+∞
π2
On admet que 1
n2
= 6
·
n=1

 
⋆ 11.26 1. Soit x > 0 . Montrer que la suite un (x) n∈IN∗
définie par :
n! nx
∀n ∈ IN∗ un (x) =
x(x + 1) · · · (x + n)
est une suite convergente.
 
Indication. On pourra étudier la série télescopique ln un (x) − ln un−1 (x) .
 
2. On note Γ(x) la limite de la suite un (x) n∈IN∗
.
Montrer que Γ est une fonction continue sur IR∗+ .

einx

⋆ 11.27 Pour tout n ∈ IN∗ et pour tout x ∈ ]0, 2π[ , on pose un (x) = n
· Montrer que un
n1
converge simplement sur ]0, 2π[ et que la somme S est une fonction continue.
Indication. On pourra étudier le terme télescopique un+1 (x) − un (x) .

e−x n
11.28 Pour tout n ∈ IN∗ et pour tout x ∈ IR+ , on pose un (x) = ·
n3/2

1. Montrer que la somme S de la série de fonctions un est continue sur IR+ et de
classe C ∞ sur IR∗+ .
2. Montrer que la fonction S n’est pas dérivable en 0 .


+∞  1

11.29 Soit f : x �→ ln 1 + n2 x2
·
n=1
1. Déterminer le domaine de définition de la fonction f .
2. Donner un équivalent simple de f en +∞ et en 0 .

+∞
1 π2
On admet que n2
= 6
·
n=1

11.30 Montrer que f : Mn (IK) −→ Mn (IK) est bien définie et continue.


+∞
 Mk
M �−→
kk
k=1

1
11.31 Soit (z, r) ∈ C∗ × IR∗+ , avec r �= |z| . Pour tout t ∈ [0, 2π] , exprimer sous la forme
z − reit
 2π
dt
de la somme d’une série géométrique puis calculer I(r, z) = ·
0
z − reit

482
Exercices

Approximation uniforme
11.32 Pour tout n ∈ IN et x ∈ [−1, 1] , on pose :

 n Pn (x)
Pn (x) = 1 − x2 ; an = Pn ; Qn (x) = ·
[−1,1]
an
2
1. (a) Montrer que an  n+1
·
(b) Soit α ∈ ]0, 1[ . Montrer que la suite (Qn )n∈IN converge uniformément vers la fonction
nulle sur [α, 1] .
 
2. Soit f une fonction continue sur IR , nulle à l’extérieur de − 12 , 1
2
. On pose, pour n ∈ IN :
 1
∀x ∈ IR fn (x) = f (x − t)Qn (t) dt.
−1
 
(a) Montrer que la restriction de fn à − 21 , 1
2
est une fonction polynomiale.
 
(b) Montrer que la suite (fn )n∈IN converge uniformément vers f sur − 21 , 1
2
·
 1
Indication. Remarquer que f (x) = f (x)Qn (t) dt.
−1
 
3. En déduire une démonstration du théorème de Weierstrass sur le segment − 21 , 1
2
·

11.33 Dans l’espace B(IR+ , IR) muni de la norme infinie, on note E le sous-espace vectoriel consti-
tué des fonctions continues admettant une limite finie en +∞ . Pour tout n ∈ IN , on
 
pose fn : x �→ e−nx . Montrer que Adh Vect(fn )n∈IN = E .

 
⋆ 11.34 Soit f ∈ C [0, 1], IR .
1. Montrer que f est la limite uniforme d’une suite de polynômes pairs.
2. Donner une condition nécessaire et suffisante pour que f soit la limite uniforme d’une
suite de polynômes impairs.

483
Chapitre 11. Suites et séries de fonctions

Solutions des exercices


11.1 • On a ∀n ∈ IN∗ fn (0) = 0 donc fn (0) −→ 0 .
n→+∞
 
• Soit x ∈ ]0, +∞[ . On constate que la suite fn (x) n∈IN∗
est stationnaire.
En effet, pour tout entier n assez grand, on a x  1
n
et donc fn (x) = 1
x
·
Il s’ensuit que la suite de fonctions (fn )n∈IN∗ converge simplement vers la fonction :

0 si x = 0 ;
x �→ 1
si x > 0.
x

11.2 Soit (x, y) ∈ I 2 et λ ∈ [0, 1] . Par convexité des fonctions fn , on a :


 
∀n ∈ IN fn (1 − λ)x + λy  (1 − λ)fn (x) + λfn (y)
 
puis, par passage à la limite, f (1−λ)x+λy  (1−λ)f (x)+λf (y) . Ainsi, la limite simple f
est convexe.

11.3 On applique la définition pour ε = 1 . Il existe n0 ∈ IN tel que :


 
∀n  n0 ∀x ∈ A fn (x) − f (x)  1.

En particulier, en prenant n = n0 et en utilisant l’inégalité triangulaire renversée, on obtient :


     
∀x ∈ A f (x)  1 + fn0 (x)  1 + fn0  ,

ce qui montre que la fonction f est bornée.

   
11.4 Puisque  sin′  =  cos   1 , l’inégalité des accroissements finis appliquée à la fonction sinus
donne :
∀(x, y) ∈ IR2 |sin y − sin x|  |y − x| .
Par conséquent, pour tout n ∈ IN∗ :
     
∀x ∈ IR fn (x) − sin(x) = sin x + 1 − sin(x)  1 ·
n n
Ainsi, la suite (fn )n∈IN∗ converge uniformément sur IR vers la fonction sin .

11.5 • Étudions tout d’abord la convergence simple de la suite (fn )n∈IN∗ .


Soit x ∈ IR+ . Fixons n0 ∈ IN∗ tel que n0  x . Alors, pour tout n  n0 , on a :
 n   
x x
fn (x) = 1 − = exp n ln 1 − ·
n n
On a ensuite :
   
x x x
ln 1 − ∼ − donc n ln 1 − −→ −x.
n n→+∞ n n n→+∞

Par continuité de la fonction exp en −x , on obtient fn (x) −→ e−x .


n→+∞

Ainsi, la suite (fn )n∈IN∗ converge simplement vers la fonction f : x �→ e−x .

484
Solutions des exercices

• Soit c ∈ [0, 1[ et g : t �→ ln(1 − t) définie sur [0, c] . La fonction g est de classe C 2 et :

−1 1
∀t ∈ [0, c] g ′′ (t) = puis |g ′′ (t)|  ·
(1 − t)2 (1 − c)2

Par l’inégalité de Taylor-Lagrange, on en déduit :


  c2
 ln(1 − c) + c  · (⋆)
2(1 − c)2

Soit b ∈ IR+ . Fixons n0 ∈ IN∗ tel que n0 > b . Alors, pour tout n  n0 , on a :
 n
x x
∀x ∈ [0, b] fn (x) = 1 − et ∈ [0, 1[.
n n

Soit n  n0 et x ∈ [0, b] . L’inégalité des accroissements finis appliquée à la fonction


exponentielle sur IR− donne :
         
fn (x) − f (x)  n ln 1 − x − (−x) = n ln 1 − x + x  ·
n n n

D’après l’inégalité (⋆) , il vient :

n x2 1 nb2
|fn (x) − f (x)|     ·
2 n 1− x
2 2
2(n − b)2
n   
−→ 0
n→+∞

En conclusion, la suite (fn )n∈IN∗ converge uniformément vers f sur [0, b] .


• D’après une inégalité de convexité, on a :

∀t ∈ [0, 1[ ln(1 − t)  −t.

Par croissance de l’exponentielle, on en déduit :

∀n ∈ IN∗ ∀x ∈ IR+ 0  fn (x)  f (x).

Soit ε > 0 . Étant donné que e−x −→ 0 , on peut fixer b > 0 tel que :
x→+∞

ε
∀x  b e−x  ·
2

Par convergence uniforme sur le segment [0, b] de la suite (fn ) , il existe un rang n0 ∈ IN∗
tel que :
∀n  n0 ∀x ∈ [0, b] |fn (x) − f (x)|  ε.

Par ailleurs, pour tout n  n0 et x > b , on a :

|fn (x) − f (x)|  fn (x) + f (x)  2e−x  ε.

Ainsi, on a :
∀n  n0 ∀x ∈ IR+ |fn (x) − f (x)|  ε,
ce qui démontre la convergence uniforme sur IR+ de la suite (fn ) .

485
Chapitre 11. Suites et séries de fonctions

11.6 1. Soit ε > 0 . Par définition de la continuité uniforme, il existe δ > 0 tel que :

∀(x, y) ∈ ]0, 1]2 |x − y|  δ =⇒ |f (x) − f (y)|  ε.


 
La suite 1
2n
converge vers 0 donc il existe n0 ∈ IN∗ tel que :
1
∀n  n0  δ.
2n
   
Soit n  n0 et x ∈ 0, 1
2
· Comme (x + 1
2n
) − x = 1
2n
 δ , on a :
     
fn (x) − f (x) = f x + 1 − f (x)  ε,
n 2
 
ce qui montre que la suite (fn ) converge uniformément vers f sur 0, 1
2
·
2. Pour x ∈ ]0, 12 ] fixé, on a f (x + 1
) −→
2n n→+∞
f (x) par continuité de f en x .

Par conséquence du théorème de la double limite, la fonction f (limite uniforme de la


suite (fn ) au voisinage de 0 ) admet une limite finie en 0 et est donc prolongeable par
continuité en 0 .

11.7 • Soit n ∈ IN . Par continuité sur le segment [a, b] , les fonctions f , fn et f − fn sont
bornées et, par inégalité triangulaire :
     
fn   fn − f ∞ + f ∞ .

 
Comme la suite �fn − f �∞ n∈IN
converge vers 0 , c’est une suite bornée et il
existe M ∈ IR+ tel que :
   
∀n ∈ IN ∀x ∈ [a, b] fn (x)  M + f  .

 
On pose c = M + f ∞ et l’on a :

∀n ∈ IN ∀x ∈ [a, b] fn (x) ∈ [−c, c].

• La fonction exp est de classe C 1 sur le segment [−c, c] et :

∀y ∈ [−c, c] | exp′ (y)| = exp(y)  ec .


Par conséquence de l’inégalité des accroissements finis, on a :

∀(y, z) ∈ [−c, c]2 |ey − ez |  ec |y − z|.


Par le point précédent, il vient :
 fn (x)     
∀n ∈ IN ∀x ∈ [a, b] e − ef (x)   ec fn (x) − f (x)  ec fn − f ∞ .

Cette majoration montre que la suite (efn )n∈IN converge uniformément sur [a, b] vers la
fonction ef .
• Par intégration sur un segment d’une suite de fonctions qui converge uniformément, on
en déduit :
 b  b
efn (x) dx −→ ef (x) dx.
n→+∞
a a

486
Solutions des exercices

11.8 Montrons par caractérisation séquentielle que G est une partie fermée de B(IN, F ) .
Soit (un )n∈IN ∈ GIN une suite convergente, dont on note u ∈ B(IN, F ) la limite. Montrons
que u ∈ G .
• Tout d’abord, on a :
�un − u�∞ −→ 0,
n→+∞

autrement dit, la suite (un ) converge uniformément sur IN vers u .


• Par ailleurs, pour n ∈ IN , la suite un est une suite convergente ; il existe donc ℓn ∈ F
tel que :
un (k) −→ ℓn .
k→+∞

• Enfin, comme F est de dimension finie, on peut appliquer le théorème de la double limite
et il existe ℓ ∈ F tel que :
ℓn −→ ℓ et u(k) −→ ℓ.
n→+∞ k→+∞

En particulier, la suite u est convergente donc u ∈ G , ce qui conclut.

11.9 Soit ε > 0 .


Par convergence uniforme, il existe n0 ∈ IN tel que �f − fn0 �∞  3ε ·
Puisque la fonction fn0 est uniformément continue, il existe η > 0 tel que :
  ε
∀(x, y) ∈ A2 �x − y�  η =⇒ fn0 (x) − fn0 (y)  ·
3
Par conséquent, pour tout (x, y) ∈ A2 tel que �x − y�  η , on a :
       
f (x) − f (y)  f (x) − fn0 (x) + fn0 (x) − fn0 (y) + fn0 (y) − f (y)
ε ε ε
 + + = ε.
3 3 3
Ainsi, la fonction f est uniformément continue.

11.10 Étude de la convergence simple. Pour tout n ∈ IN∗ , on a fn (0) = 0 et


donc fn (0) −→ 0 . Pour x ∈ IR∗ fixé, on a :
n→+∞

nx nx 1
∼ ∼ −→ 0.
1 + n2 x2 n→+∞ n2 x2 n→+∞ nx n→+∞
Il s’ensuit que la suite (fn )n∈IN∗ converge simplement sur IR vers la fonction nulle.
Étude de la convergence uniforme. Raisonnons par l’absurde et supposons que la
suite (fn )n∈IN∗ converge uniformément sur IR . Alors, d’après le point précédent, (fn )n∈IN∗
converge uniformément sur IR vers la fonction nulle et en particulier, pour toute
suite (xn )n∈IN∗ de réels, on a :
   
fn (xn ) = fn (xn ) − 0 −→ 0.
n→+∞

Or on a :  
1 1
∀n ∈ IN∗ fn = ,
n 2
ce qui contredit ce qui précède.
En conclusion, la suite (fn )n∈IN∗ ne converge pas uniformément sur IR .

487
Chapitre 11. Suites et séries de fonctions

11.11 Étude de la convergence simple. Pour tout x ∈ IR+ , on a fn (x) −→ x2 . La


n→+∞
2
suite (fn )n∈IN converge donc simplement sur IR+ vers la fonction f : x �→ x .
−x   e−2x

Étude de la convergence uniforme. On a fn (x) − f (x) = 2 xen + n2
 , pour
tout x ∈ IR+ . Posons g : IR+ −→ IR
x �−→ xe−x .
La fonction g est dérivable et :
∀x ∈ IR+ g ′ (x) = e−x − xe−x = e−x (1 − x).
On en déduit le tableau de variation qui suit :

x 0 1 +∞
g ′ (x) + 0 −
e−1
g
0 0
Il montre que :
∀x ∈ IR+ 0  g(x)  e−1 .
Il s’ensuit que pour tout x ∈ IR+ :
  −x −2x
e−1 1
fn (x) − f (x) = 2 xe + e 2 + 2,
n 2 n n n
donc la convergence est uniforme sur IR+ .

11.12 Notons f la limite de la suite (fn )n∈IN et montrons que (ϕ ◦ fn )n∈IN converge uniformément
sur [a, b] vers ϕ ◦ f .
• La suite (fn )n∈IN converge uniformément sur [a, b] vers f donc, par continuité des fonc-
tions fn , la limite f est continue.
• Soit n ∈ IN . Par continuité sur le segment [a, b] , les fonctions f , fn et f − fn sont
bornées et :      
fn   fn − f  + f  .
∞ ∞ ∞
 
Comme la suite �fn −f �∞ n∈IN
converge vers 0 , elle est bornée. Donc il existe M ∈ IR+
tel que :
   
∀n ∈ IN fn   M + f ∞ .

 
En posant c = M + f ∞ , on a :
∀n ∈ IN ∀x ∈ [a, b] fn (x) ∈ [−c, c].
• Fixons ε > 0 et montrons qu’il existe un rang n0 tel que :
    
∀n  n0 ∀x ∈ [a, b] ϕ fn (x) − ϕ f (x)   ε.
La restriction de la fonction ϕ au segment [−c, c] est continue, donc uniformément
continue d’après le théorème de Heine. Ainsi il existe δ > 0 tel que :
 
∀(x, y) ∈ [−c, c]2 |x − y|  δ =⇒ ϕ(x) − ϕ(y)  ε.

Comme la suite (fn )n∈IN converge uniformément sur [a, b] vers f , il existe un rang n0
tel que :
 
∀n  n0 ∀x ∈ [a, b] fn (x) − f (x)  δ.

488
Solutions des exercices

En utilisant le point précédent, il vient :


    
∀n  n0 ∀x ∈ [a, b] ϕ fn (x) − ϕ f (x)   ε,

ce qui achève de montrer que la suite (ϕ ◦ fn )n∈IN converge uniformément sur [a, b] vers
la fonction ϕ ◦ f .

 1
11.13 • Par comparaison à un exemple de Riemann, la série n2 +x2
converge pour tout x ∈ IR
n1

et la série 1
n2 +x2
converge pour tout x ∈ IR∗ (son terme général n’est pas défini
n0
pour x = 0 et n = 0 ).
1
• Posons un : x �→ n2 +x2
· La fonction un est définie, bornée sur IR lorsque n  1 . De
1
 1

plus �u�∞ = n2
· La série n2
étant convergente, la série un converge normale-
n1
ment, donc uniformément sur IR .

• La série un ne converge pas normalement sur IR∗ , car u0 n’est pas bornée. La
n0

convergence normale de la série un montre que la suite (Rn )n∈IN des restes converge
n1

uniformément vers 0 . Ainsi, la série un converge uniformément sur IR∗ .
n0

11.14 1. • Il est clair que l’application :


   
C [0, 1], IR −→ C [0, 1], IR 
x
f �−→ x �→ g(x) + f (t) dt
0

est bien définie. Par conséquent la suite (fn )n∈IN est définie et toutes les fonctions fn
sont continues.
• Par récurrence, démontrons que :
  n
∀n ∈ IN ∀x ∈ [0, 1] fn+1 (x) − fn (x)  x �g�∞ .
n!
L’inégalité est immédiate pour n = 0 car f1 = g .
Supposons la propriété vraie pour un n ∈ IN . Pour tout x ∈ [0, 1] , on a :

 
   x 
fn+2 (x) − fn+1 (x) =  fn+1 (t) − fn (t) dt

0
 x
 
 fn+1 (t) − fn (t) dt
0
 x
tn
 �g�∞ dt (hypothèse de récurrence)
0
n!
xn+1
= �g�∞ ,
(n + 1)!
ce qui prouve l’hérédité et termine la récurrence.

489
Chapitre 11. Suites et séries de fonctions

2. La question précédente donne :


�g�∞
∀n ∈ IN �fn+1 − fn �∞ 
n!
 1
et, par comparaison, du fait que la série n!
est convergente, la série de fonc-

tions (fn+1 − fn ) est normalement convergente et donc uniformément convergente
sur [0, 1] . Il s’ensuit que la suite (fn )n∈IN converge uniformément vers une fonction conti-
nue f . D’après la proposition 6 de la page 462, on a :
 x
∀x ∈ [0, 1] fn+1 (x) −→ g(x) + f (t) dt,
n→+∞
0
ce qui implique que f vérifie :
 x
∀x ∈ [0, 1] f (x) = g(x) + f (t) dt.
0

 1  x 
11.15 1. Soit x > 0 . La suite est positive, décroissante et converge vers 0 . Le
x k k∈IN∗
 (−1)k  x 
théorème des séries alternées assure ainsi la convergence de la série et de
x k
k1
plus, en notant Rn (x) le reste d’ordre n , on a :
   
∀n ∈ IN ∀x ∈ IR∗+ Rn (x)  1 1x
·
x n+1 n+1
Cette dernière majoration montre que la suite (Rn ) converge uniformément vers la fonc-
 (−1)k  x 
tion nulle, donc que la série de fonctions converge uniformément sur IR∗+ .
x k
k1

∗ (−1)k
x (−1)k
2. Pour k ∈ IN , on a x k
−→ k
·
x→+∞

Par théorème de la double limite, on a :


+∞
  
(−1)k x
+∞
 (−1)k
f (x) = −→ ·
x k x→+∞ k
k=1 k=1

Étant donné que pour tout n ∈ IN∗ , on a Sn = f (n) , on en déduit que :


+∞
 (−1)k
Sn −→ .
n→+∞ k
k=1

11.16 1. Notons un l’application définie sur [0, 2π] par un : x �→ an cos (nx) . Il est clair que un

est bornée. Du fait que pour tout n ∈ IN , on a �un �∞  an , on déduit que la série un
converge normalement. De la continuité de toutes les fonctions un et du théorème de
continuité des séries de fonctions, on conclut que la fonction f est continue.

2. Puisque la série un converge normalement, et puisque les fonctions un sont continues,
on peut intégrer terme à terme :
  +∞  +∞ 
 
un = un
[0,2π] n=0 n=0 [0,2π]

+∞
  2π
= an cos(nt) dt = 2πa0 .
n=0 0

490
Solutions des exercices

(−1)n
11.17 Notons un l’application définie sur IR∗+ par un (x) = x+n
·
 
• Soit x ∈ IR∗+ . La suite (−1)n un (x) n∈IN
est positive, décroissante et converge vers 0 .
D’après le théorème des séries alternées, la fonction f est bien définie sur IR∗+ .
• Les fonctions un sont de classe C ∞ sur IR∗+ et pour tout p ∈ IN , on a :
p!
∀n ∈ IN ∀x ∈ IR∗+ u(p)
n (x) = (−1)
n+p
·
(x + n)p+1
• Soit p ∈ IN∗ et a > 0 . Pour x  a et n ∈ IN , on a :
 (p)  p! p!
un (x) =  ·
(x + n)p+1 (a + n)p+1
1
  (p)
Puisque la série de Riemann np+1
est convergente, la série un converge normale-
ment sur [a, +∞[ . Cela étant vrai pour tout a > 0 , on en déduit la convergence normale
sur tout segment de IR∗+ .
  (p)
• La série un converge simplement sur IR∗+ et pour tout p ∈ IN∗ , la série un
converge normalement sur tout segment de IR∗+ . Par conséquent, le théorème de dériva-
tion des séries de fonctions s’applique à tout ordre au moins égal à 1 . La fonction f est
donc de classe C ∞ .

11.18 Notons u : (x, t) �→ 1


1+xt2
définie sur IR∗+ × IR+ .
1
Fixons x > 0 . L’application t →� 1+xt2
est décroissante, positive et intégrable. Par le
changement de variable t = √x , on a :
u

 +∞  +∞  +∞
dt 1 du π
u(x, t) dt = = √ = √ ·
0 0
1 + xt2 x 0
1 + u2 2 x
Par comparaison série-intégrale, on a :
    
 +∞   π 
f (x) − u(x, t) dt  u(x, 0) donc f (x) − √  1.
  2 x
0

On en déduit :
π π
f (x) = √ + O(1) puis f (x) ∼ √ ·
x→0+ 2 x x→0+ 2 x

11.19 Notons un (x) = xn (1 − x) , pour x ∈ [0, 1] et n ∈ IN .



• Montrons que la série un converge simplement.

Pour x = 1 , pour tout n ∈ IN , on a un (1) = 0 et donc la série un (1) est convergente.

Soit x ∈ [0, 1[ . La série un (x) est convergente, puisqu’il s’agit d’une série géométrique
de raison x .
• Soit n ∈ IN∗ . La fonction un est dérivable et :
 
∀x ∈ [0, 1] u′n (x) = nxn−1 − (n + 1)xn = xn−1 n − (n + 1)x .
On obtient alors le tableau de variation qui suit :
x 0 n
n+1
1
u′n (x) + 0 −

un
0 0

491
Chapitre 11. Suites et séries de fonctions

On en déduit :    n
n 1 1
�un �∞ = un = 1− ·
n+1 n+1 n+1
Puisque
 n   
1 1 n
ln 1− = n ln 1 − =− + o(1) −→ −1,
n+1 n+1 n+1 n→+∞

e−1
 
on a �un �∞ ∼ n
, donc la série �un �∞ diverge et la série un ne converge pas
+∞
normalement sur [0, 1] .

• La série un ne converge pas uniformément sur [0, 1] .
En effet, pour tout x ∈ [0, 1[ , on a :
+∞

∀n ∈ IN Rn (x) = xk (1 − x) = xn+1 ,
k=n+1

donc �Rn �∞ = 1 , pour tout entier n ∈ IN .


+∞ 
Remarque On peut également observer que un est la fonction f définie sur [0, 1]
n=0
par f = 1[0,1[ . Cette fonction étant discontinue (en 1 ) et les fonctions un étant toutes
continues, la convergence ne saurait être uniforme sur [0, 1] .

11.20 1. Pour tout k ∈ IN et n ∈ IN∗ , on pose :


 k n

1− si n  k
uk (n) = n
0 si n < k.

Soit k ∈ IN . Pour tout n > k , on a :


  
k
0  un (k) = exp n ln 1 −  e−k
n
par inégalité de convexité.
Ces inégalités sont encore vérifiées lorsque n  k , puisqu’alors un (k) = 0 . On a donc :
∀n ∈ IN∗ 0  uk (n)  e−k .
 
La série e−k est convergente donc la série uk converge normalement sur IN∗ .
Par ailleurs, pour tout k ∈ IN , on a uk (n) −→ e−k .
n→+∞

Par théorème de double limite, on en déduit que :


+∞
 +∞
 e
Sn = uk (n) −→ e−k = ·
n→+∞ e−1
k=0 k=0

2. Par le changement d’indice [j = n − k] , on a :


∀n ∈ IN∗ Sn′ = nn Sn .
e
Comme la suite (Sn )n∈IN∗ converge vers la limite non nulle e−1
, on en déduit :
e
Sn′ ∼ nn .
n→+∞ e−1

492
Solutions des exercices

11.21 Rappelons que si x est un réel strictement positif et si z est un nombre complexe, par
définition xz = exp (z ln x) . En particulier |xz | = xRe z .

• Soit a > 1 . Montrons la convergence normale de la série 1
nz
sur le demi-plan :
Pa = {z ∈ C | Re(z) > a}.
On constate que pour tout z ∈ Pa et n ∈ IN∗ , on a :
 
1 1 1
 z =  a·
n nRe(z) n
 1
 1
La série na
converge car a > 1 , donc la série nz
converge normalement sur Pa .
 1
• La série de fonctions converge normalement au voisinage de tout point du demi-
nz
plan P car les demi-plans ouverts Pa recouvrent P quand a décrit ]1, +∞[ . Puisque
les fonctions z �→ n1z sont continues, on en déduit que ζ est continue sur P .

(−1)n
11.22 Pour x > 0 et n ∈ IN , notons un (x) = n!(x+n)
·
1. • Soit x ∈ IR∗+ . Pour n ∈ IN∗ on a :
 
 un (x)  x + n − 1 1
 
 un−1 (x)  = x + n n n→+∞
−→ 0.

D’après la règle de d’Alembert, la série numérique un (x) est absolument conver-
gente, donc convergente. La fonction S est bien définie sur IR∗+ .

• Montrons que S est de classe C 1 . Pour cela, puisque la série un converge sim-

plement sur IR∗+ , démontrons que la série dérivée u′n converge normalement
sur tout segment, les fonctions un étant toutes de classe C 1 . Soit a > 0 . Pour
tout x ∈ [a, +∞[ , on a :
 
 ′   1  1 1 1
  
∀n ∈ IN un (x) =    2 ·
n!(x + n)2  n! (a + n)2 a n!
 1
La convergence de la série n!
garantit la convergence normale de la série de fonc-
 ′
tions un sur [a, +∞[ . La conclusion suit.
2. Soit x > 0 . On a :
+∞
 (−1)n
S(x + 1) =
n!(x + n + 1)
n=0


+∞
(−1)n−1
= (décalage d’indice)
(n − 1)!(x + n)
n=1
+∞
 (−1)n−1
 
x
= 1−
n! x+n
n=1
+∞
 (−1)n
= (1 − e−1 ) + x (deux séries convergentes)
n!(x + n)
n=1
 
1
= (1 − e−1 ) + x S(x) − ·
x
On obtient ainsi :
S(x + 1) = xS(x) − e−1 . (∗)

493
Chapitre 11. Suites et séries de fonctions

3. Équivalent en 0 . On a :
+∞ +∞
 (−1)n  (−1)n
S(1) = =− = 1 − e−1 .
(n + 1)! n!
n=0 n=1
1
Puisque S est continue (elle est de classe C ), la relation (∗) donne :
xS(x) − e−1 −→ S(1) = 1 − e−1 donc xS(x) −→ 1.
x→0 x→0

On en déduit :
1
· S(x) ∼
x x→0

Équivalent en +∞ . Pour tout x > 0 et n ∈ IN , posons vn (x) = xun (x) . On a :


 
vn (x) = 1 x  1 ·
n! x + n n!
1

La convergence de la série numérique n!
assure la convergence normale, donc
 ∗
uniforme, de la série vn sur IR+ . Par ailleurs, pour n ∈ IN on a :
(−1)n
vn (x) −→ ·
n!x→+∞

Ainsi, le théorème de la double limite donne :


+∞
 +∞
 (−1)n
xS(x) = vn (x) −→ = e−1 .
x→+∞ n!
n=0 n=0

Par suite :
e−1
S(x) ∼ ·
x→+∞ x
1 1
11.23 Caractère bien défini de f . Pour tout s > 0 , on pose un (s) = ⌊nπ⌋s
− (nπ)s
·

Par définition de la partie entière, pour tout n ∈ IN on a :
1 1 1
0 < nπ − 1 < ⌊nπ⌋  nπ et donc   ·
(nπ)s ⌊nπ⌋s (nπ − 1)s
Par suite :
1 1 1 1
0 −  − · (∗)
⌊nπ⌋s (nπ)s (nπ − 1)s (nπ)s
Par ailleurs, pour n  2 , on a nπ−1  (n−1)π > 0 . On en déduit alors de l’inégalité (∗) :
1 1 1 1
0 −  − ·
⌊nπ⌋s (nπ)s ((n − 1)π)s (nπ)s
 1 1

La série télescopique ((n−1)π)s
− (nπ)s
est convergente, car, du fait que s > 0 , on
n2
1

a −→
(nπ)s n→+∞
0 . Par comparaison, les termes généraux étant positifs, la série un (s)
est convergente.

Continuité de f . Démontrons la convergence uniforme de la série de fonctions un sur
tout intervalle de la forme [a, +∞[ . Fixons a > 0 . Pour tout n ∈ IN∗ et s  a , on a :
+∞ +∞  
  1 1 1 1
0 uk (s)  − =  ·
((k − 1)π)s (kπ)s (nπ)s (nπ)a
k=n+1 k=n+1
1

Puisque (nπ)a
−→ 0 , la série un converge uniformément sur [a, +∞[ .
n→+∞

Les fonctions un étant continues, on en déduit que f est continue sur IR∗+ .

494
Solutions des exercices


11.24 1. La série un (0) converge car un (0) = 0 pour tout n ∈ IN∗ .
Pour x > 0 , on a par croissances comparées :
 
ln n 1
un (x) ∼ √ =o ·
n2 x n3/2

Donc la série un converge simplement sur IR+ . Ainsi, f est bien définie.
2. Soit a > 0 . Pour tout n ∈ IN∗ et x  a , on a :

x ln n ln n ln n
0  un (x)  = √ 2  √ 2·
xn2 xn an
Ce majorant est le terme général d’une série convergente, d’après ce qui précède, donc la
série converge normalement sur l’intervalle [a, +∞[ donc sur tout segment de IR∗+ . Par
conséquent, les fonctions un étant continues, la somme f est continue sur IR∗+ .
3. Soit x > 0 . Pour tout n ∈ IN∗ , on a :

2n √ √
x ln k x ln n
f (x)  n ·
1 + xk2 1 + 4xn2
k=n+1

En posant xn = 1
n2
pour tout n ∈ IN∗ , on a :
ln n
f (xn )  −→ +∞,
5 n→+∞
donc f n’est pas continue en 0 .

11.25 1. Domaine de définition. La série diverge pour x = 0 , puisque un (0) = n1 ·



Pour tout x > 0 , on a un (x) ∼ n21x2 ; d’où la convergence de la série un (x) , par
comparaison aux séries de Riemann. On a donc D = IR∗+ .
 
Étude de la continuité. Pour tout a > 0 et tout n ∈ IN∗ , on a sup un (x) = un (a) ,
xa

car un est positive et décroissante sur IR∗+ . Par suite, la série un converge nor-
malement, donc uniformément, sur tout segment de IR∗+ . Comme chaque fonction un
est continue sur IR∗+ , la fonction f est continue sur IR∗+ .

2. Étude en +∞ . Appliquons à la série vn , avec vn (x) = x2 un (x) , le théorème de la
double limite.
• On a :
1
∀(x, n) ∈ IR+ × IN∗ , 0  vn (x) 
·
n2

Par suite, la série vn converge normalement, donc uniformément, sur IR+ .
• Pour tout n ∈ IN∗ , on a lim vn (x) = n12 ·
x→+∞

Comme +∞ est adhérent à IR+ , on peut donc conclure que :



+∞
1 π2
lim x2 f (x) = = ·
x→+∞ n2 6
n=1

2
π
Ainsi lim f (x) = 0 et f (x) ∼ ·
x→+∞ x→+∞ 6x2

495
Chapitre 11. Suites et séries de fonctions

Étude en 0 . Pour l’étude en 0 , nous utilisons une comparaison série-intégrale.


1
Fixons x > 0 . La fonction t �→ est continue, positive, décroissante et
t(1 + tx2 )
intégrable sur [1, +∞[ . On en déduit, par comparaison série-intégrale :
 +∞  +∞
dt 1 dt
 f (x)  + ·
1
t(1 + tx2 ) 1 + x2 1
t(1 + tx2 )
Comme on a :
   
dt 1 x2 t
= − dt = ln ,
t(1 + tx2 ) t 1 + tx2 1 + tx2
il vient u(x)  f (x)  v(x) , avec :
1
u(x) = −2 ln x + ln(1 + x2 ) et v(x) = u(x) +
·
1 + x2
Comme u(x) ∼ −2 ln x et v(x) ∼ −2 ln x , au voisinage de 0+ , on peut conclure
que f (x) ∼ −2 ln x (et en particulier, f (x) −→ +∞ ).
x→0+ x→0+
11.26 1. Soit x > 0 . Par stricte positivité de un (x) , on peut poser :
n n
 
∀n ∈ IN∗ vn (x) = ln un (x) = ln(k) + x ln(n) − ln(x) − ln(x + k).
k=1 k=1
 
1
On a alors : ∀n  2 vn (x) − vn−1 (x) = ln(n) − x ln 1 − − ln(x + n)
n
     
1 x 1
= −x ln 1 −
− ln 1 + =O ·
n n n2
 
Par comparaison, on en déduit que la série vn (x)−vn−1 (x) converge. D’après le lien
 
suite-série, la suite vn (x) n∈IN∗
est convergente et, par continuité de la fonction exp, la
 
suite un (x) n∈IN∗
converge (vers un réel strictement positif).
2. • Reprenons les notations de la question précédente et montrons que la série de fonc-

tions (vn − vn−1 ) converge uniformément sur tout segment de IR∗+ .
 
∗ La fonction f : t �→ ln(1 + t) est de classe C 2 sur − 12 , +∞ et :
1  ′′  1
f (t) =
∀t  −  4.
2 (1 + t)2
Par l’inégalité de Taylor-Lagrange appliqué à f , à l’ordre 2 , entre 0 et t , il vient :
1  
∀t  − ln(1 + t) − t  2t2 .
2
∗ Soit b > 0 . Pour tout entier n  2 et pour tout x ∈ ]0, b] , on a :
       
 1 x  2x  x x  2x2
−x ln 1 − −  2 et ln 1 + −  2 ·
n n n n n n
Par l’inégalité triangulaire, on en déduit :
  2 2
vn (x) − vn−1 (x)  2x + 2x  2b + 2b ·
n2 n2

La série de fonctions (vn − vn−1 ) converge normalement, donc uniformément,
sur l’intervalle ]0, b] .
• D’après le point précédent, la suite (vn )n∈IN∗ converge uniformément sur tout segment
de IR∗+ . Par continuité des fonctions vn , la fonction limite f est continue sur IR∗+ .
• Étant donné que Γ = exp ◦f , par continuité de la fonction exp , on peut conclure : la
fonction Γ est continue.
496
Solutions des exercices

11.27 • Soit x ∈ ]0, 2π[ et n ∈ IN∗ . On a alors :

ei(n+1)x
un+1 (x) − un (x) = − + (eix − 1)un (x). (⋆)
n(n + 1)
   
Puisque la suite un (x) n∈IN∗
converge (vers 0 ), la série un+1 (x)−un (x) est conver-
 ei(n+1)x
gente. Par ailleurs, n(n+1)
est une série absolument convergente (par comparaison à
un exemple de Riemann) donc convergente. Enfin, eix − 1 �= 0 puisque x ∈ ]0, 2π[ . Par

opérations, la série un (x) est convergente et en sommant la relation (⋆) , on obtient :
+∞
 ei(n+1)x
0 − eix = − + (eix − 1)S(x).
n(n + 1)
n=1


+∞
ei(n+1)x
• La fonction x �→ n(n+1)
est continue car la série de fonctions associée converge
n=1
normalement et que le terme général est continu. Par ailleurs, les fonctions x �→ eix
et x �→ (eix − 1) sont continues et la deuxième fonction ne s’annule pas sur ]0, 2π[ . Par
opérations, on en déduit que la fonction S est continue sur ]0, 2π[ .

11.28 1. • Pour tout n ∈ IN∗ , on a :


  1
∀x ∈ IR+ un (x)  ,
n3/2

donc la série de fonctions un converge normalement sur IR+ . Comme les fonc-
tions un sont continues, leur somme S est continue.
• Soit n ∈ IN∗ . La fonction un est de classe C ∞ sur IR∗+ et :

(− n)p −x√n
∀p ∈ IN ∀x ∈ IR∗+ u(p)n (x) = e .
n3/2
Soit p ∈ IN et a > 0 . On a :
p−3 √
∀x  a |u(p)
n (x)|  n
2 e−a n
.
p−3 √
−a n
 1
  (p)
Par croissances comparées, on a n 2 e =O n2
, donc la série un converge

+∞
normalement sur [a, +∞[ . On en déduit que la somme S = un est de classe C ∞
n=1
sur IR∗+ .
2. Montrons que S n’est pas dérivable en 0 .
• Tout d’abord, par convergence normale sur IR+ , la somme S est continue sur IR+ .
• D’après ce qui précède, la fonction S est dérivable sur IR∗+ et :
+∞ −x√n
 e
∀x > 0 S ′ (x) = − ·
n
n=1

• Par retour à la définition, montrons que S ′ (x) −→ −∞ . On conclura par application


x→0+
du théorème de limite de la dérivée.
Soit M ∈ IR . Montrons qu’il existe δ > 0 tel que :
∀x ∈ ]0, δ] S ′ (x)  M.

497
Chapitre 11. Suites et séries de fonctions


Comme la série 1
n
est divergente et à termes positifs, il existe p ∈ IN∗ tel

p
que 1
n
 −M + 1.
n=1
Les termes sommés étant négatifs, on a :
p √

 e−x n
∀x > 0 S (x)  − ·
n
n=1


p
La fonction majorante converge vers − 1
n
quand x → 0+ et 1 > 0 donc il
n=1
existe δ > 0 tel que :
p √ p
 e−x n  1
∀x ∈ ]0, δ] − − + 1  (M − 1) + 1 = M.
n n
n=1 n=1

Par transitivité, on a bien :


∀x ∈ ]0, δ] S ′ (x)  M,
ce qui montre que S ′ (x) −→ −∞ .
x→0+
Par application du théorème de limite de la dérivée, on obtient :
S(x) − S(0)
−→ −∞,
x x→0+

ce qui achève de montrer que la fonction S n’est pas dérivable en 0 .


 
11.29 Pour n ∈ IN , posons un : x �→ ln 1 + n21x2 . Il est clair que un est définie sur IR∗ . Par
parité de un , on peut restreindre l’étude à IR∗+ .
1. Soit x ∈ IR∗+ . Puisque 1
−→
n2 x2 n→+∞
0 , on a :
 
1 1
un (x) = ln 1 + ∼ ·
n2 x2 n→+∞ n2 x2

Par comparaison aux séries de Riemann, la série un (x) est convergente. On en déduit
que le domaine de définition de f est IR∗ .
2. Équivalent en +∞ . On constate que pour n ∈ IN∗ on a un (x) ∼ 1
2 2· Il est alors
x→+∞ n x

1
+∞
1

naturel de conjecturer que f (x) ∼
x 2 n2
·
x→+∞ n=1
On sait que l’inégalité ln(1 + t)  t est valable pour tout t > −1 . En no-
 
tant vn : x �→ x2 ln 1 + n21x2 , il s’ensuit :
1
∀x > 0 0  vn (x) 
·
n2

Par conséquent, la série de fonctions vn converge normalement, donc uniformément
sur IR∗+ . Par ailleurs, il a été remarqué que lim vn (x) = n12 ·
n→+∞
D’après le théorème de la double limite :
+∞
+∞
  1 π2
lim vn (x) = = ·
x→+∞ n2 6
n=1 n=1

π2 π2
En d’autres termes, x2 f (x) −→ , et l’on conclut : f (x) ∼ ·
x→+∞ 6 x→+∞ 6x

498
Solutions des exercices

 
Équivalent en 0+ . Soit x > 0 . L’application t �→ ln 1 + x21t2 est continue, décrois-
sante et intégrable sur [1, +∞[ . Par comparaison série-intégrale, on en déduit :
 +∞    +∞    
1 1 1
ln 1 + dt  f (x)  ln 1 + dt + ln 1 + · (∗)
1
x 2 t2 1
x 2 t2 x2
 +∞  
1
Calculons I(x) = ln 1 + dt .
1
x 2 t2
Le changement de variable linéaire t = ux donne :
 +∞  
1 1
I(x) = ln 1 + du .
x x
u2
  
J (x)
 
Les fonctions U : u �→ ln 1 + 1
u2
et V : u �→ u sont de classe C 1 sur IR∗+ et :
 
1 1
U (u)V (u) = u ln 1 + ∼ u −→ 0.
u2 u→+∞ u2 u→+∞

Ainsi, une intégration par parties donne :


   +∞
1 du
J(x) = −x ln 1 + +2
x2 x
1 + u2
 1
 π 
= −x ln 1 + +2 − Arctan(x) .
x2 2
π   1
  1

Puisque 2 2
− Arctan(x) −→ π et ln 1 + x2
∼ ln x2
∼ −2 ln x , on a par
x→0 x→0 x→0
croissances comparées :
π
J(x) −→ π donc I(x) ∼ ·
x→0 x→0 x
Toujours par croissances comparées, au voisinage de 0 on a :
   
1 π
ln 1 + ∼ −2 ln x = o ·
x2 x
L’encadrement (∗) donne alors :
π
f (x) ∼ ·
0 x

11.30 Pour k ∈ IN∗ posons uk : Mn (IK) Mn (IK) −→


Mk
M �−→ ·
kk
Munissons Mn (IK) d’une norme � � sous-multiplicative, c’est-à-dire vérifiant :

∀(A, B) ∈ Mn (IK)2 �AB�  �A� �B�,


par exemple la norme subordonnée à la norme infinie sur IKn . Montrons que la série converge
normalement au voisinage de tout point.
Soit r > 0 . Alors, par sous-multiplicativité :
  k
∀k ∈ IN∗ ∀M ∈ B(0, r) uk (M )  r ·
k k

499
Chapitre 11. Suites et séries de fonctions


r k 
Puisque la série numérique kk
est convergente, la série de fonctions uk converge
normalement sur B(0, r) . Les ouverts B(0, r) recouvrent Mn (IK) quand r décrit ]0, +∞[

donc la série uk converge normalement au voisinage de tout point.
Par ailleurs pour k ∈ IN∗ , l’application linéaire M �→ M
k
est continue, donc par produit, uk
est continue. Par conséquent, la fonction f est continue sur Mn (IK) .

11.31 Soit (z, r) ∈ C∗ × IR∗+ . Notons f (t) = 1


z−reit
pour t ∈ [0, 2π] .
  r n
• Supposons r < |z| . Puisque  zr eit  = r
|z|
< 1 , la série géométrique z
eit est
convergente et :
+∞  n
1 1 1 1 r it
∀t ∈ [0, 2π] = = un (t) où un : t �→ e .
z − reit z 1 − z eit
r
z z
n=0
  n
 r  est convergente, la série de fonctions 
Puisque la série z
un converge normale-
ment sur le segment [0, 2π] . Les fonctions un étant continues, on peut intégrer terme à
terme :
 +∞  2π
1

f (t) dt = un (t) dt.
0
z 0
n=0

De plus, un calcul immédiat donne :


 2π

0 si n ∈ IN∗
∀n ∈ IN un (t) dt =
0
2π si n = 0.

Par conséquent :
 2π

f (t) dt = ·
0
z

• Supposons |z| < r . Alors :

1 1 e−it 1
+∞  z n
∀t ∈ [0, 2π] = − = vn (t) où vn : t �→ e−i(n+1)t .
z − reit r 1 − zr e−it r r
n=0
   n   z n
On a alors vn (t) =  zr  . La série géométrique r
étant convergente, la série de

fonctions vn converge normalement sur le segment [0, 2π] . Les fonctions vn étant
continues, on peut intégrer terme à terme :
 +∞  2π
1

f (t) dt = vn (t) dt.
0
r 0
n=0

De plus, un calcul immédiat donne :


 2π
∀n ∈ IN vn (t) dt = 0
0

Par conséquent :
 2π
f (t) dt = 0.
0

500
Solutions des exercices

 n
11.32 1. (a) Pour tout n ∈ IN et t ∈ [0, 1] on a 1 − t2  (1 − t)n . Par conséquent :
 1
an = (1 − t2 )n dt
−1
 1  1
2 n 2
=2 (1 − t ) dt  2 (1 − t)n dt = ·
0 0
n+1
(b) Soit α ∈ ]0, 1[ . Pour tout n ∈ IN :

(1 − α2 )n n+1
∀t ∈ [α, 1] 0  Qn (t)   (1 − α2 )n −→ 0.
an 2 n→+∞

Ainsi, la suite (Qn )n∈IN converge uniformément vers la fonction nulle sur [α, 1] .

2n
2. (a) Soit n ∈ IN et notons Qn = αk X k .
k=0
 
Soit x ∈ − 21 , 1
2
. En posant le changement de variable t = x − u , il vient, en
 
remarquant que f est nulle à l’extérieur de − 12 , 1
2
:
 1
fn (x) = f (x − t)Qn (t) dt
−1
 x+1
= f (u)Qn (x − u) du
x−1
 1}
min{x+1, 2
= f (u)Qn (x − u) du
1}
max{x−1,− 2
 1
2
= f (u)Qn (x − u) du.
−1
2

Il s’ensuit par linéarité et la formule du binôme :


2n
  1
2
fn (x) = αk f (u)(x − u)k du
k=0 −1
2

2n
 k
    1
k 2
= xi (−1)k−i αk f (u)uk−i du.
i −1
k=0 i=0 2
 
Cela démontre que la restriction de fn à − 12 , 1
2
est une fonction polynomiale.
(b) La fonction f est :
• continue sur le segment [−1, 1] donc uniformément continue, d’après le théorème
de Heine ;
 
• nulle sur IR \ − 21 , 12 donc uniformément continue.
On peut alors montrer que f est uniformément continue sur IR .
Soit ε > 0 . Il existe α > 0 tel que :
 
∀(x, y) ∈ IR2 |x − y|  α =⇒ f (x) − f (y)  ε.

501
Chapitre 11. Suites et séries de fonctions
 1
 
Soit x ∈ − 21 , 12 . Puisque Qn (t) dt = 1 , on a :
−1
 1  1
f (x) − fn (x) = f (x)Qn (t) dt − f (x − t)Qn (t) dt
−1 −1
 1
 
= f (x) − f (x − t) Qn (t) dt
−1
 α  −α
   
= f (x) − f (x − t) Qn (t) dt + f (x) − f (x − t) Qn (t) dt
−α −1
 1
 
+ f (x) − f (x − t) Qn (t) dt
α

Par conséquent, la fonction Qn étant à valeurs positives et la fonction f bornée :


 
  α   −α  
f (x) − fn (x)  f (x) − f (x − t)Qn (t) dt + f (x) − f (x − t)Qn (t) dt
−α −1
 1  
+ f (x) − f (x − t)Qn (t) dt
α
 α
 −α  1

ε Qn (t) dt + 2�f �∞ Qn (t) dt + Qn (t) dt
−α −1 α
 −α  1

 ε + 2�f �∞ Qn (t) dt + Qn (t) dt
−1 α

Puisque la suite (Qn )n∈IN converge uniformément vers la fonction nulle sur [α, 1] et,
par parité, sur [−1, −α] , on a :
 −α  1
Qn (t) dt −→ 0 et Qn (t) dt −→ 0.
n→+∞ n→+∞
−1 α

Par suite, il existe un entier n0 tel que pour tout n  n0 on ait :


 −α  1 
2�f �∞ Qn (t) dt + Qn (t) dt  ε,
−1 α

et alors :  
∀n  n0 f (x) − fn (x)  2ε
Puisque l’entier n0 ne dépend pas de x , cela prouve la convergence uniforme de la
 
suite (fn )n∈IN vers f sur − 21 , 21 ·
    1
3. Soit f : − 21 , 1
2
→ IR une fonction continue. Si f − 21 = f 2
= 0 , on peut prolonger f
 
à IR en une fonction continue nulle à l’extérieur de − 12 , 1
2
. L’étude précédente montre
 
que f est limite uniforme sur − 12 , 1
2
d’une suite de fonctions polynomiales.
De manière générale, la fonction :
 
g : x �→ f (x) − f (−1/2) − f (1/2) − f (−1/2) (x + 1/2)
est une fonction continue, nulle en 1/2 et −1/2 . Par suite g est limite uniforme d’une
suite de fonctions polynomiales et puisque f et g diffèrent d’une fonction polynomiale, f
l’est aussi.

502
Solutions des exercices

11.33 • Toutes les fonctions de Vect(fn )n∈IN sont continues et possèdent une limite finie en +∞ .
 
Par conséquence du théorème de la double limite, on a Adh Vect(fn )n∈IN ⊂ E .
• Soit f ∈ E et ε > 0 . Montrons qu’il existe ϕ ∈ Vect(fn )n∈IN telle que �f − ϕ�∞  ε .
Définissons ainsi la fonction g sur le segment [0, 1] :
g(x) = f (− ln x) si x ∈ ]0, 1] et g(0) = lim f (t).
t→+∞

Par opérations, la fonction g est continue sur le segment [0, 1] et par le théorème de
Weierstrass, il existe un polynôme P ∈ IR[X] tel que :
 
∀x ∈ ]0, 1] f (− ln x) − P (x)  ε.

En remplaçant x par e−t , on obtient alors :


 
∀t ∈ IR+ f (t) − P (e−t )  ε.

Par construction, la fonction ϕ : t �→ P (e−t ) est élément de Vect(fn )n∈IN , ce qui permet
de conclure à l’inclusion réciproque.

11.34 On identifie l’ensemble IR[X] et l’ensemble des fonctions polynomiales sur un intervalle
d’intérieur non vide donné.
1. Prolongeons f en une fonction paire.
Soit g la fonction définie sur [−1, 1] par :

f (x) si x ∈ [0, 1];
g(x) =
f (−x) si x ∈ [−1, 0[.
Il est clair que g est continue sur [−1, 1] \ {0} . Comme f est continue en 0 , on
a lim g(x) = f (0) et g(x) = f (−x) −→ f (0) . La fonction g est continue sur [−1, 1] ,
x→0+ x→0−
car g(0) = f (0) . Il est immédiat que g est une fonction paire.
D’après le théorème de Weierstrass, il existe une suite (Pn )n∈IN de polynômes convergeant
uniformément vers g sur [−1, 1] . Il est clair que (Pn (−X))n∈IN converge uniformément
sur [−1, 1] vers la fonction t �→ g(−t) , c’est-à-dire vers g , par parité de g . Par suite,
en posant Qn = Pn (X)+P 2
n (−X)
pour n ∈ IN , la suite (Qn )n∈IN converge uniformément
vers g sur [−1, 1] , donc a fortiori vers f sur [0, 1] . La conclusion vient en remarquant
que les polynômes Qn sont pairs.
2. • Une fonction impaire sur IR prend la valeur 0 en 0 . Si f est limite uniforme de
fonctions polynomiales impaires sur [0, 1] , elle est limite simple d’une suite de telles
fonctions, donc est nulle en 0 .
• Réciproquement, supposons f (0) = 0 . On procède de la même manière qu’à la ques-
tion précédente. On introduit le prolongement h défini sur [−1, 1] par :

f (x) si x ∈ [0, 1];
h(x) =
−f (−x) si x ∈ [−1, 0[.
Comme plus haut, on vérifie que h est continue sur [−1, 1] . Toujours d’après le
théorème de Weierstrass, h est limite uniforme sur [−1, 1] d’une suite de poly-
nômes (Pn )n∈IN . La suite (Qn )n∈IN , où Qn = Pn (X)−P
2
n (−X)
pour n ∈ IN , converge
uniformément vers h sur [−1, 1] donc vers f sur [0, 1] . Le fait que les polynômes Qn
soient impairs permet de conclure.

503
Chapitre 12 : Séries entières

I Séries entières . . . . . . . . . . . . . . . . . . . . . . . . 506


1 Rayon de convergence . . . . . . . . . . . . . . . . . . . . 506
2 Pratique de la détermination du rayon de convergence . . 509
3 Opérations algébriques sur les séries entières . . . . . . . 511
II Régularité de la somme d’une série entière . . . . . . . 512
1 Continuité . . . . . . . . . . . . . . . . . . . . . . . . . . . 512
2 Dérivation terme à terme d’une série entière . . . . . . . . 513
III Développements en série entière . . . . . . . . . . . . . 516
1 Fonctions développables en série entière . . . . . . . . . . 516
2 Développements usuels dans le domaine réel . . . . . . . . 518
3 Méthode de l’équation différentielle . . . . . . . . . . . . . 520
Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 526
Séries entières 12
Dans ce chapitre, IK désigne IR ou C.

I Séries entières
1 Rayon de convergence
Notation Soit z0 ∈ IK et r ∈ [0, +∞]. On pose :
DO (z0 , r) = {z ∈ IK : |z − z0 | < r} et DF (z0 , r) = {z ∈ IK : |z − z0 |  r}.
• Si r ∈ IR∗+ ,
et IK = C , alors DO (z0 , r) et DF (z0 , r) sont respectivement le disque
ouvert et le disque fermé de centre z0 et de rayon r .
• Si r ∈ IR∗+ et IK = IR, alors DO (z0 , r) = ]z0 −r, z0 +r[ et DF (z0 , r) = [z0 −r, z0 +r].
• Si r = 0 , alors DO (z0 , r) = ∅ et DF (z0 , r) = {z0 } .
• Si r = +∞, alors DO (z0 , r) = DF (z0 , r) = IK.

Séries entières
Définition 1
Soit a = (an )n∈IN ∈ IKIN .

La série entière associée à la suite a est la série de fonctions un , où :
un : IK −→ IK
z �−→ an z n .

La somme de la série entière est la somme de la série un , c’est-à-dire la

+∞
fonction z �→ an z n .
n=0

Remarques

• On note an z n la série entière associée à la suite a.

• Si l’indexation commence à partir du rang n0 , la série entière est notée an z n .
nn0

Terminologie Soit a = (an )n∈IN ∈ IKIN . La série de fonctions un où :
un : IR −→ IK
t �−→ an tn

est appelée série entière de la variable réelle associée à la suite a et notée a n tn .
I Séries entières

Rayon de convergence
Dans cette section, on s’intéresse au domaine de définition de la somme d’une série
entière.

Théorème 1 (Lemme d’Abel)


Soit (an )n∈IN ∈ IKIN et z0 ∈ IK tel que la suite (an z0n )n∈IN soit bornée.
  
Alors pour tout z ∈ DO 0, |z0 | , la série an z n est absolument convergente.
Démonstration page 522
  
n
Principe de démonstration. Lorsque z0 �= 0 et |z| < |z0 | , montrer an z n = O  zz0  ·

 
L’ensemble r ∈ IR+ : (an rn )n∈IN est bornée contient évidemment le réel 0 , ce qui
justifie la définition suivante.

Définition 2
Soit (an )n∈IN ∈ IKIN .
 
La borne supérieure dans IR+ de r ∈ IR+ : (an rn )n∈IN est bornée est le rayon

de convergence de la série entière an z n .
En notant R ce rayon de convergence, on appelle :

• disque ouvert de convergence de la série entière an z n l’en-
Exo
12.1 semble DO (0, R) ;
• intervalle ouvert de convergence de la série entière (de la variable
Exo 
12.2 réelle) an tn l’intervalle ]−R, R[ .

 1
Ex. 1. Soit α ∈ C∗ . Le rayon de convergence de αn z n est R = ·
|α|
En effet, pour r ∈ IR+ , la suite (αn r n )n∈IN est bornée si, et seulement si, |α|r  1 c’est-à-dire
1
si, et seulement si, r  |α| ·
z n
r
 n
Ex. 2. Le rayon de convergence de n!
est +∞ . En effet, pour tout r ∈ IR+ , la série n!
est convergente donc son terme général converge vers 0 et a fortiori est borné (voir la « série
exponentielle » dans le chapitre de première année sur les séries numériques).

Remarques
• Le disque ouvert de convergence est vide si R = 0 .
 
• On ne peut rien dire a priori sur le comportement de la suite an Rn n∈IN , lorsque
le rayon de convergence R est un réel strictement positif.
• Si (an )n∈IN est une suite complexe et λ ∈ C∗ , alors les rayons de convergence des
  
séries entières an z n , |an |z n et λan z n coïncident.

507
Chapitre 12. Séries entières


• Invariance par décalage. Soit p ∈ IN et an z n une série entière de rayon de

convergence R . Le rayon de convergence de an z n+p est alors R . En effet,

si r ∈ IR+ , alors la suite (an r )n∈IN est bornée si, et seulement si, la suite :
n

(an rn+p )n∈IN = rp (an rn )n∈IN


est bornée.

De même le rayon de convergence de an z n−p est R . En effet, pour tout r ∈ IR∗+ ,
la suite (an r )np est bornée si, et seulement si, la suite :
n

(an rn−p )np = r−p (an rn )np


est bornée.
Proposition 2

Soit an z n une série entière de rayon de convergence R et z ∈ IK .

• Si |z| < R , alors la série numérique an z n converge absolument.

• Si |z| > R , alors la série numérique an z n diverge grossièrement.
Démonstration page 522
Proposition 3

Soit an z n une série entière de rayon de convergence R . Le domaine de défini-

+∞
tion D de la somme f : z �→ an z n vérifie :
n=0

DO (0, R) ⊂ D ⊂ DF (0, R).

Démonstration. C’est une conséquence immédiate de la proposition 2.


Remarques
• Le rayon de convergence R est donc la borne supérieure (dans IR+ ) de l’ensemble

des r ∈ IR+ tels que an rn soit (absolument) convergente.
• Lorsque R > 0 , l’intérieur du domaine de définition D est le disque ou-
vert DO (0, R).
• Dans le cas où le rayon de convergence R est un réel strictement positif, on ne
peut rien dire sur la nature de la série an z n lorsque |z| = R (c’est-à-dire sur
la frontière de D ).


Ex. 3. Le domaine de définition de la somme de la série entière z n est DO (0, 1) et son
rayon de convergence vaut donc 1 .
Ex. 4. La somme d’une série entière de rayon de convergence infini est définie sur IK .
 zn
Ex. 5. Le domaine de définition de la somme de la série entière n2
est le disque
fermé DF (0, 1) puisque :
zn
• si |z|  1 , alors n2
= O( n12 ) ;
|z|n  zn
• si |z| > 1 , alors n2
−→ +∞ par croissances comparées donc n2
est une série
n→+∞
grossièrement divergente.
Le rayon de convergence de cette série entière vaut 1 .

508
I Séries entières

2 Pratique de la détermination du rayon de convergence


Proposition 4 (Comparaison)
 
Soit an z n et bn z n deux séries entières de rayons de convergence respectifs Ra
et Rb .
Si l’inégalité |an |  |bn | est vérifiée à partir d’un certain rang, alors Ra  Rb .

Démonstration. Soit r ∈ IR+ tel que la suite (bn r n )n∈IN soit bornée.
Puisque |an r n |  |bn r n | à partir d’un certain rang, la suite (an r n )n∈IN est également bornée.
On a donc Rb  Ra .
Corollaire 5
 
Soit an z n et bn z n deux séries entières de rayons de convergence respectifs Ra
et Rb .
• Si an = O(bn ) ou an = o(bn ), alors Ra  Rb .
• Si |an | ∼ |bn |, alors Ra = Rb .
Démonstration page 522

 1
Ex. 6. Le rayon de convergence de la série Arctan z n est 2 . En effet :
2n
 
1 1
Arctan ∼ ·
2n n→+∞ 2n
 zn
D’autre part, la série entière 2n
est de rayon de convergence 2 . Par comparaison, le rayon
 1
de convergence de la série entière Arctan n z n est également 2 .
2

Le fait que le terme général d’une série convergente converge vers 0 et donc est borné
conduit au point suivant.

Point méthode Soit an z n une série entière de rayon de convergence R et z0 ∈ C.

• Si an z0n est une série convergente, alors R  |z|.

• Si an z0n est une série divergente, alors R  |z0 |.

Exo En particulier, la règle de d’Alembert permet parfois de déterminer le rayon de


12.3 convergence.

 2n
Ex. 7. Déterminons le rayon de convergence de la série entière z 2n .
  n
2n
Pour tout n ∈ IN , on pose an = . Soit z ∈ C∗ . On a :
n

an+1 z 2(n+1) (2(n + 1))!(n!)2 2 (2n + 2)(2n + 1) 2


∀n ∈ IN = z = z −→ 4z 2 .
an z 2n ((n + 1)!)2 (2n)! (n + 1)2 n→+∞

D’après la règle de d’Alembert :



• si |z| < 21 , alors la série an z n est convergente ;

• si |z| > 1
2
, alors la série an z n est divergente.

On en déduit que le rayon de convergence de la série entière an z 2n vaut 1
2
·

509
Chapitre 12. Séries entières

 1 n2
Ex. 8. Déterminons le rayon de convergence de la série entière 2n
z .
1 n2
Fixons r ∈ IR∗+ et posons ∀n ∈ IN un = r . On a alors :
2n

2
un+1 2n r (n+1) 1
∀n ∈ IN = n+1 n2 = r 2n+1 .
un 2 r 2

un+1 
• Si r < 1 , on a −→
un n→+∞
0 donc un est une série convergente.
un+1 
• Si r > 1 , on a −→
un n→+∞
+∞ donc un est une série divergente.
 1 n2
On en déduit que le rayon de convergence de la série entière 2n
z vaut 1 .


En particulier, si an z n est une série entière de rayon de convergence R dont les
coefficients an sont non nuls à partir d’un certain rang, on a le résultat suivant.

Proposition 6 (Règle de d’Alembert pour les séries entières)


|an+1 |
On suppose qu’il existe L ∈ IR+ tel que −→ L .
|an | n→+∞
1
• Lorsque L ∈ IR∗+ , on a R = ·
L
• Lorsque L = 0 , on a R = +∞.
• Lorsque L = +∞, on a R = 0 .

Démonstration. Fixons r ∈ IR∗+ et posons ∀n ∈ IN un = |an |r n . On a alors :

un+1 |an+1 |
= r −→ Lr.
un |an | n→+∞

• Supposons L ∈ IR∗+ . Si Lr < 1 c’est-à-dire si r < L1 , alors la série un est convergente.

On en déduit R  L · Si Lr > 1 c’est-à-dire si r > L , alors la série
1 1
un est divergente.
On en déduit R  1
L
puis R = 1
L
·
un+1 
• Supposons L = +∞ . Alors un
−→ +∞ donc un est une série divergente et R = 0 .
n→+∞
un+1 
• Supposons L = 0 . Alors un
−→ 0 donc un est une série convergente et R = +∞ .
n→+∞

Proposition 7
Exo  α n
12.4 Soit α ∈ IR. La série entière n z est de rayon de convergence 1 .

(n+1)α α
Démonstration. On a nα
∼ nα = 1 . D’après la règle de d’Alembert pour les séries
n→+∞ n

entières, le rayon de convergence de la série entière nα z n vaut 1 .

510
I Séries entières

3 Opérations algébriques sur les séries entières


Somme
Proposition 8
 
Soit an z n et bn z n deux séries entières de rayons de convergence Ra et Rb .

Le rayon de convergence R de (an + bn ) z n vérifie l’inégalité :
R  min(Ra , Rb ).
De plus, si Ra �= Rb , alors R = min(Ra , Rb ).
Enfin, pour tout z ∈ IK tel que |z| < min(Ra , Rb ), on a :
+∞
 +∞
 +∞

Exo (an + bn )z n = an z n + bn z n .
12.5 n=0 n=0 n=0
Démonstration page 522

Produit
Définition 3
  
Soit an z n et bn z n deux séries entières. La série entière cn z n , où :
n

∀n ∈ IN cn = ak bn−k
k=0
 
est le produit de Cauchy des séries entières an z n et bn z n .

Remarque On peut aussi écrire le produit de Cauchy des séries entières an z n
   
et bn z n sous la forme ai b j z n .
i+j=n

Proposition 9 (Produit)
 
Soit an z n et bn z n deux séries entières de rayons de convergence respectifs Ra
et Rb .
Pour tout z ∈ IK vérifiant |z| < min(Ra , Rb ), on a :
 +∞   +∞  +∞  n 
   
n n
an z bn z = ak bn−k z n .
n=0 n=0 n=0 k=0

En particulier, le rayon de convergence R du produit de Cauchy des séries an z n

et bn z n vérifie l’inégalité :
Exo
12.6 R  min(Ra , Rb ).
Démonstration page 522
Principe de démonstration. Utiliser le produit de Cauchy de deux séries numériques abso-
lument convergentes.
 (1) n  (p)
Remarque Soit an z , . . . , an z n des séries entières de rayons de convergence
respectifs R1 , . . . , Rp avec p ∈ IN∗ . Posons R = min(R1 , . . . , Rp ).

511
Chapitre 12. Séries entières

On démontre par récurrence sur p que, pour tout z ∈ DO (0, R), on a :


p
� +∞ � +∞  
� � � � (1) (p)
an(k) z n =  ai1 · · · aip  z n .
k=1 n=0 n=0 i1 +···+ip =n

II Régularité de la somme d’une série entière


1 Continuité
Théorème 10
� �
Soit an z n une série entière de rayon de convergence R . La série an z n converge
normalement sur tout disque fermé DF (0, ρ), où 0  ρ < R .
Démonstration page 522

Attention La série an z n ne converge pas normalement sur DO (0, R) en gé-
� n
néral. Par exemple, la série z ne converge pas normalement sur DO (0, 1)

puisque sup |z n | = 1 et 1 est une série grossièrement divergente.
z∈DO (0,1)

Corollaire 11

Soit an z n une série entière de rayon de convergence R > 0 .
Alors la restriction de la somme au disque ouvert de convergence, c’est-à-dire l’ap-
plication :
DO (0, R) −→ C

+∞
z �−→ an z n
n=0
est continue.
Démonstration page 523
� �
Ex. 9. Soit an une série absolument convergente. Alors, la série entière an z n est défi-
n
nie et continue sur DF (0, 1) . En effet, les fonctions z �→ an z sont continues et la série de

fonctions an z n converge normalement sur le disque fermé DF (0, 1) étant donné que :
∀z ∈ DF (0, 1) |an ||z|n  |an |.

Théorème 12 (Théorème d’Abel radial)



Soit a z n une série entière de rayon de convergence R ∈ IR∗+ . On suppose
� n n
que an R est une série convergente. Alors la somme :
[0, R] −→ C

+∞
t �−→ a n tn
n=0

est continue. En particulier :


+∞
� +∞

an tn −→− an R n .
t→R
n=0 n=0
Démonstration (non exigible) page 523
Principe de démonstration.
On démontre la convergence uniforme de la suite des restes sur le segment [0, R] .

512
II Régularité de la somme d’une série entière

 
Ex. 10. Soit an z n et bn z n deux séries entières de rayon de convergence 1 . Pour

n   
tout n ∈ IN , on pose cn = ak bn−k et l’on suppose que an , bn et cn sont des
k=0
séries convergentes. D’après le théorème d’Abel radial, on a :

+∞ +∞ +∞ +∞ +∞ +∞
 n
  n
  n

an t −→ an , bn t −→ bn et cn t −→ cn .
t→1− t→1− t→1−
n=0 n=0 n=0 n=0 n=0 n=0

Par ailleurs, par produit de Cauchy de séries absolument convergentes, on a :


 +∞   +∞  +∞
 n
 n

∀t ∈ ]−1, 1[ an t bn t = cn tn .
n=0 n=0 n=0

Par opérations sur les limites et unicité de la limite, il vient :


 +∞   +∞  +∞
  
an bn = cn .
n=0 n=0 n=0

 
Cette relation était déjà connue en supposant les séries an et bn absolument convergentes,

l’absolue convergence de la série cn étant alors une conséquence de ces deux hypothèses.

2 Dérivation terme à terme d’une série entière


Proposition 13

Soit an z n une série entière de rayon de convergence R .
Exo 
12.10 Alors nan z n a pour rayon de convergence R .
Démonstration page 523


Remarque Du résultat précédent, on déduit immédiatement que a zn
 an n  n n
et z ont le même rayon de convergence, et plus généralement, que an z
 nk
et n an z n ont même rayon de convergence, pour tout k ∈ ZZ.

Théorème 14 (Dérivation terme à terme)



Soit an tn une série entière de la variable réelle, de rayon de convergence R > 0
et de somme f .
Alors la fonction f est de classe C 1 sur ]−R, R[ et :
+∞

Exo ∀t ∈ ]−R, R[ f ′ (t) = nan tn−1 .
12.11 n=1
Démonstration page 524


Remarque Ainsi, la dérivée sur ]−R, R[ de la somme de la série entière a n tn
n0

de rayon de convergence R est la somme de la série entière nan tn−1 .
n1

513
Chapitre 12. Séries entières

Point méthode On peut dériver terme à terme la somme d’une série entière sur
son intervalle ouvert de convergence.

1  n
+∞
Ex. 11. On a ∀t ∈ ]−1, 1[ = t (série géométrique convergente).
1−t n=0
Par dérivation terme à terme de la somme d’une série entière sur son intervalle ouvert de conver-
gence, on obtient :
+∞ +∞
1  n−1 
∀t ∈ ]−1, 1[ = nt = (n + 1)tn .
(1 − t)2
n=1 n=0

Ex. 12. En reprenant l’exemple précédent, on a, en multipliant par t puis en dérivant terme à
terme :
+∞ +∞
t  n 1+t  2 n−1
∀t ∈ ]−1, 1[ = nt puis = n t .
(1 − t) 2 (1 − t) 3
n=1 n=1
1
En particulier, en évaluant en 2
, il vient :
+∞
 n2 1
3
= 2
= 6.
2n 2 1
8
n=1

La propriété suivante généralise le théorème 14 de la page précédente en exprimant


le fait que la somme d’une série entière de la variable réelle est de classe C ∞ sur son
intervalle ouvert de convergence et que ses dérivées d’ordre p s’obtiennent en dérivant
terme à terme.
Corollaire 15

Soit an tn une série entière de la variable réelle, de rayon de convergence R > 0 .
Alors sa somme f est de classe C ∞ sur ]−R, R[ et :
+∞

∀p ∈ IN ∀t ∈ ]−R, R[ f (p) (t) = n(n − 1) · · · (n − p + 1)an tn−p .
n=p

En particulier, on a :
f (p) (0)
∀p ∈ IN ap = ·
p!
Démonstration page 524

Ex. 13. Soit p ∈ IN . Le corollaire 15 appliqué à la série entière tn donne, par calcul de la
dérivée p -ième et après changement d’indice :
+∞
p! 
∀t ∈ ]−1, 1[ = (n + 1)(n + 2) · · · (n + p)tn ,
(1 − t) p+1
n=0

ce qui se réécrit ainsi :


+∞  
 n+p 1
∀t ∈ ]−1, 1[ tn = ·
p (1 − t)p+1
n=0

514
II Régularité de la somme d’une série entière
Proposition 16 (Unicité du développement en série entière)
 
Soit an z n et bn z n deux séries entières de rayons de convergence strictement
positifs. On suppose qu’il existe α ∈ IR∗+ tel que :
+∞
 +∞

∀t ∈ ]0, α[ a n tn = b n tn .
n=0 n=0
Exo
12.12 Alors on a ∀n ∈ IN an = bn .
Démonstration page 524

Remarque Dans la propriété précédente, le réel strictement positif α est inférieur


 
ou égal aux rayons de convergence des séries entières an z n et bn z n puisque leurs
disques de convergence contiennent l’intervalle ]0, α[ .
 n
Ex. 14. Soit an z une série entière de rayon de convergence R > 0 . On suppose que sa
somme est une fonction paire sur ]−R, R[ , c’est-à-dire que :
+∞ +∞
 
∀t ∈ ]−R, R[ an (−t)n = an tn .
n=0 n=0

Alors on a :
+∞ +∞
 
∀t ∈ ]−R, R[ (−1)n an tn = an tn .
n=0 n=0

Par unicité du développement en série entière d’une série entière de rayon de convergence stric-
tement positif, on en déduit :
∀n ∈ IN (−1)n an = an donc ∀k ∈ IN a2k+1 = 0.

Primitivation d’une série entière


Proposition 17

Si an tn est une série entière de rayon de convergence R > 0 , sa somme admet
pour primitives sur ]−R, R[ :
 x +∞
 +∞

n an n+1
an t dt = k + x avec k ∈ C.
n=0 n=0
n +1
Démonstration page 525

Remarque Cette propriété sera illustrée dans la section suivante (cf. proposition 21
de la page 518).

Point méthode
• On peut primitiver terme à terme la somme d’une série entière sur l’intervalle
ouvert de convergence.
• On peut intégrer terme à terme la somme d’une série entière sur tout segment
inclus dans l’intervalle ouvert de convergence.

515
Chapitre 12. Séries entières

Attention On ne peut pas a priori intégrer sur tout l’intervalle ouvert de conver-
gence, sauf évidemment dans certains cas particuliers, comme par exemple ci-dessous.

Ex. 15. Si la série an Rn converge absolument, alors on peut intégrer terme à terme sur
 n
le segment [−R, R] (ou sur [0, R] ) car la série de fonctions an t converge normalement
sur [−R, R] .

Remarque Si an Rn est une série convergente, la démonstration du théorème

d’Abel montre que la série de fonctions an tn converge uniformément sur le seg-
ment [0, R]. On peut donc intégrer terme à terme sur ce segment et obtenir :
 R 
+∞
 +∞

n an
an t dt = Rn+1 .
0 n=0 n=0
n + 1
 an n+1
Notons que la convergence de la série n+1 R est une conséquence du théorème
d’intégration terme à terme.

III Développements en série entière


1 Fonctions développables en série entière
Définition 4
Soit U ⊂ C un voisinage de 0n, ainsi qu’une fonction f : U → C . Soit r > 0 . S’il
existe une série entière an z telle que :
+∞

∀z ∈ DO (0, r) f (z) = an z n ,
n=0

on dit que f est développable en série entière sur DO (0, r).

Terminologie On dit que f est développable en série entière (au voisinage


de 0 ) s’il existe r > 0 tel que f soit développable en série entière sur DO (0, r).

Ex. 16. La fonction exp est développable en série entière sur C puisque :
+∞ n
 z
∀z ∈ C ez = ·
n!
n=0

1
Ex. 17. La fonction z �→ 1−z
est développable en série entière sur DO (0, 1) puisque :
+∞
1  n
Exo ∀z ∈ DO (0, 1) = z .
12.20 1−z
n=0

Ex. 18. Toute fonction polynomiale P est développable en série entière sur C :
+∞
 P (n) (0)
∀z ∈ C P (z) = zn .
n!
n=0

516
III Développements en série entière
Définition 5
Soit I ⊂ IR un voisinage de 0n, ainsi qu’une fonction f : I → IK . Soit r > 0 . S’il
existe une série entière an t telle que :
+∞

∀t ∈ ]−r, r[ f (t) = a n tn ,
n=0
Exo
12.21 on dit que f est développable en série entière sur ]−r, r[ .

Terminologie On dit que f est développable en série entière (au voisinage


de 0 ) s’il existe r > 0 tel que f soit développable en série entière sur ]−r, r[ .
Remarques
• Lorsque la fonction f est développable en série entière sur ]−r, r[ , d’après le
corollaire 15 de la page 514, f est de classe C ∞ sur ]−r, r[ et l’on a :
+∞ (n)
 f (0) n
∀t ∈ ]−r, r[ f (t) = t .
n=0
n!

• Lorsque la fonction f est de classe C ∞ au voisinage de 0 , la série en-


 f (n) (0) n
tière n! t est bien définie et appelée série de Taylor de la fonction f .
Elle ne converge pas nécessairement en tout point du domaine de définition de f
et lorsqu’elle converge, sa somme ne vaut pas toujours f (t) (cf. exercice 12.29).

Ex. 19. La fonction f : ]−1, +∞[ −→ IR est développable en série entière et :


1
t �−→ 1+t

+∞
1 
∀t ∈ ]−1, 1[ = (−1)n tn .
1+t
n=0

La série de Taylor de la fonction f ne converge pas sur tout l’intervalle ]−1, +∞[ .

Proposition 18
Si f et g sont des fonctions développables en série entière (sur DO (0, r)),
alors f + g , λf et f g sont développables en série entière (sur DO (0, r)).

Démonstration. C’est une conséquence immédiate des théorèmes d’opérations sur les séries
entières (cf. proposition 8 de la page 511 et proposition 9 de la page 511).
Remarque Les fonctions constantes étant évidemment développables en série en-
tière, si U ⊂ IK est un voisinage de 0 dans IK, l’ensemble des fonctions f ∈ F(U, IK)
développables en série entière est une sous-algèbre de F (U, IK).
Proposition 19
Si f est développable en série entière (sur ]−r, r[ ), alors les dérivées successives et
les primitives de f sont développables en série entière (sur ]−r, r[ ).

Démonstration. C’est une conséquence immédiate des théorèmes de dérivation et de pri-


mitivation d’une série entière sur son intervalle ouvert de convergence (cf. théorème 14 de la
page 513 et proposition 17 de la page 515).

517
Chapitre 12. Séries entières

2 Développements usuels dans le domaine réel


La proposition qui suit montre que les fonctions cos, sin, ch et sh sont développables
en série entière sur IR.
Proposition 20
Pour tout x ∈ IR, on a :
+∞
 +∞

(−1)n 2n (−1)n 2n+1
cos x = x sin x = x
n=0
(2n)! n=0
(2n + 1)!
+∞
 +∞

1 1
ch x = x2n sh x = x2n+1 .
n=0
(2n)! n=0
(2n + 1)!

Démonstration.
On exploite le développement en série entière de la fonction exponentielle complexe.
• Pour tout x ∈ IR , on a :
+∞ n
 i
eix = xn .
n!
n=0

Par passage à la partie réelle et imaginaire, on obtient :


+∞ +∞
 (−1)n  (−1)n
∀x ∈ IR cos x = x2n et sin x = x2n+1 .
(2n)! (2n + 1)!
n=0 n=0

• Pour tout x ∈ IR , on a :
+∞ n +∞
 x  (−1)n
ex = et e−x = xn .
n! n!
n=0 n=0

Par demi-somme et demi-différence, on en déduit :



+∞
1 
+∞
1
∀x ∈ IR ch x = x2n et sh x = x2n+1 .
(2n)! (2n + 1)!
n=0 n=0

Le théorème de primitivation permet d’obtenir d’autres développements en série entière.

Proposition 21
Pour tout x ∈ ]−1, 1[ , on a :
+∞
 +∞

(−1)n−1 n (−1)n 2n+1
Exo ln(1 + x) = x et Arctan x = x .
12.22 n=1
n n=0
2n + 1

Démonstration. Pour tout t ∈ ]−1, 1[ , on a :


+∞ +∞
1  1 
= (−1)n tn et = (−1)n t2n .
1+t 1+t 2
n=0 n=0

Sachant que ces fonctions sont nulles en 0 , on obtient le résultat par primitivation terme à terme
sur l’intervalle ouvert de convergence (cf. proposition 17 de la page 515).

518
III Développements en série entière

Ex. 20. En remplaçant x par −x dans le développement en série entière de la fonc-


tion t �→ ln(1 + t) , on obtient :

+∞ n
 x
∀x ∈ ]−1, 1[ ln(1 − x) = − ·
n
n=1

 (−1)n
Ex. 21. La série 2n+1
est convergente (d’après le théorème des séries alternées). D’après
le théorème d’Abel radial, on a :

+∞
 (−1)n π
= lim Arctan x = ·
2n + 1 x→1− 4
n=0

On peut vérifier de même (ou le justifier autrement, comme dans l’exemple 14 de la page 464)
que :
+∞
 (−1)n−1
= lim ln(1 + x) = ln(2).
n x→1−
n=1

Série du binôme
Pour faciliter la compréhension de la formule qui suit, pour tout (α, n) ∈ C × IN, on
pose :
 
α α(α − 1) · · · (α − n + 1)
= ·
n n!
Cette notation n’est pas explicitement au programme, mais elle est assez couramment
utilisée.
Proposition 22
Pour tout α ∈ C, on a :
+∞
 +∞  
α α(α − 1) · · · (α − n + 1) n  α n
∀x ∈ ]−1, 1[ (1 + x) = x = x .
n=0
n! n=0
n
Démonstration page 525

Remarque On retrouve ainsi que si t ∈ ]−1, 1[ et p ∈ IN, alors :


+∞ 
 
1 n+p
p+1 = tn .
(1 − t) n=0
p

En effet, pour n ∈ IN, on a :


   
−p − 1 (p + 1) · · · (p + n) n+p
= (−1)n = (−1)n .
n n! n

519
Chapitre 12. Séries entières

Exo 1
12.23 Ex. 22. Donnons le développement en série entière de la fonction x �→ √ ·
1−x
Pour tout n ∈ IN , on a :
      
−1/2 − 12 − 21 − 1 · · · − 12 − n + 1
=
n n!
1 × 3 × · · · × (2n − 1)
= (−1)n
2n n!
1 × 3 × · · · × (2n − 1) 2 × 4 × · · · × 2n
= (−1)n ×
2n n! 2 × 4 × · · · × 2n
(2n)!
= (−1)n ·
22n (n!)2
Par conséquent, d’après la proposition 22 de la page précédente, on a :
+∞
2n
1  n n
∀x ∈ ]−1, 1[ √ = (1 − x)−1/2 = x .
1−x 22n
n=0

3 Méthode de l’équation différentielle


Point méthode
Une méthode de détermination de développement en série entière est celle de l’équa-
tion différentielle. Elle consiste à trouver une équation différentielle linéaire à coef-
ficients polynomiaux vérifiée par la fonction et à la résoudre formellement avec une
série entière. Deux situations peuvent se présenter.
• On sait que f est développable en série entière : on cherche une relation de
récurrence entre les coefficients de ce développement (unicité du développement
en série entière) pour déterminer ces derniers.
• On cherche à montrer que f est développable en série entière : on cherche une
série entière de rayon de convergence strictement positif satisfaisant à la même
Exo équation différentielle et l’on utilise un résultat d’unicité des solutions d’une telle
12.24 équation différentielle.

Ex. 23. La démonstration de la proposition 22 de la page précédente est une illustration de la


deuxième situation.
 x
2 2
Ex. 24. Développons en série entière la fonction f : x �→ ex e−t dt .
0
La fonction f est dérivable sur IR et :
∀x ∈ IR f ′ (x) = 2xf (x) + 1 et f (0) = 0.
Ensuite, on a :
+∞ 2n +∞
t2
 t −t2
 (−1)n t2n
∀t ∈ IR e = et e =
n! n!
n=0 n=0
 x
2 2
donc x �→ ex est développable en série entière et, par primitivation, x �→ e−t dt également.
0

520
III Développements en série entière

Par produit, f est développable en série entière sur IR et il existe une suite (an )n∈IN de réels
telle que pour tout réel x on ait :

+∞

xf (x) = an xn+1
n=0
+∞

= an−2 xn−1
n=2
+∞

f ′ (x) = nan xn−1
n=1
+∞
  
f ′ (x) − 2xf (x) = a1 + nan − 2an−2 xn−1 .
n=2

Par unicité du développement en série entière, on obtient :

2
a1 = 1 et ∀n  2 an = an−2 ·
n

Comme f (0) = 0 , on a aussi a0 = 0 . Par récurrence, il vient facilement :

4p p!
∀p ∈ IN a2p = 0 et a2p+1 = ·
(2p + 1)!

On peut conclure :
+∞
 4p p!
∀x ∈ IR f (x) = x2p+1 .
(2p + 1)!
p=0

521
Chapitre 12. Séries entières

Démonstrations
Théorème 1 Notons r = |z0 | . Si r = 0 , le résultat est immédiat, car l’ensemble DO (0, r) est
vide. Dans la suite, on suppose r > 0 .
Supposons que la suite (|an |r n )n∈IN soit bornée et notons M un majorant de cette suite.
Soit z ∈ IK . On a alors, pour tout n ∈ IN :
 n   n z n   n
z 
 z n 
 
an z  = an r   M   = O   ·
rn r r
 z n
Par suite, si |z| < r , alors la série géométrique   est convergente. Le théorème de com-
r
 n
paraison sur les séries numériques donne alors que la série an z est absolument convergente.
Proposition 2
• Supposons z ∈ DO (0, R) . Comme R = sup{r ∈ IR+ : (an r n )n∈IN soit bornée} et |z| < R ,
il existe ρ ∈ ]|z|, R[ tel que la suite (an ρn )n∈IN soit bornée. D’après le lemme d’Abel, la

série an z n est absolument convergente puisque z ∈ DO (0, ρ) .
• Raisonnons par contraposée et supposons que la suite (an z n )n∈IN converge vers 0 . Alors
c’est une suite bornée et |z|  R par définition, ce qui conclut.
Corollaire 5

• Il existe M ∈ IR∗+ et un rang N à partir duquel |an |  M |bn | . La série M bn z n ayant
pour rayon de convergence Rb , la proposition 4 de la page 509 conduit à Ra  Rb .
• Si |an | ∼ |bn | , alors an = O(bn ) et bn = O(an ) . D’après le point précédent, on a :

Ra  Rb et Ra  Rb donc Ra = Rb .
Proposition 8
 
• Soit z ∈ IK tel que |z| < min (Ra , Rb ) . Les deux séries numériques an z n et bn z n
 n
convergent absolument, donc la série (an + bn )z converge absolument, ce qui im-
n0


+∞ 
+∞ 
+∞
plique R  min(Ra , Rb ) et (an + bn )z n = an z n + bn z n .
n=0 n=0 n=0

• Dans le cas où Ra �= Rb , on peut supposer, par exemple, Ra < Rb .


 
Pour z ∈ IK tel que Ra < |z| < Rb , la suite (an + bn )z n n∈IN
est non bornée, comme
somme de la suite bornée (bn z n )n∈IN (car |z| < Rb ) et de la suite non bornée (an z n )n∈IN
(car |z| > Ra ). Cela implique R  Ra .
On a donc R = Ra , car R  min(Ra , Rb ) = Ra .

Proposition 9 Soit z ∈ C tel que |z| < min(Ra , Rb ) . Les deux séries numériques an z n
 
et bn z n convergeant absolument, la série produit cn z n converge absolument, et :
+∞
 +∞   +∞ 
 n
 n
 n
cn z = an z bn z .
n=0 n=0 n=0

Cela assure de plus que R  min (Ra , Rb ) .


Théorème 10 Soit ρ ∈ [0, R[ . On a :
∀n ∈ IN ∀z ∈ DF (0, ρ) |an z n |  |an |ρn .
 
La série |an |ρn converge donc la série de fonctions an z n converge normalement
sur DF (0, ρ) .

522
Démonstrations

Corollaire 11 Pour tout entier naturel n , la fonction


 un : z �→ an z n est continue. Le théo-
rème 10 de la page 512 montre que la série un converge normalement sur tous les disques
ouverts DO (0, ρ) pour tout ρ ∈ ]0, R[ donc au voisinage de tout point de DO (0, R) car
les ouverts DO (0, ρ) recouvrent DO (0, R) quand ρ décrit ]0, R[ . La continuité de la somme
sur DO (0, R) en découle.

Théorème 12 On pose pour tout n ∈ IN :


+∞

un : [0, R] −→ C et Rn = ak R k .
t �−→ an tn . k=n+1


Par hypothèses, la série de fonctions un converge simplement sur [0, R] .
Montrons qu’elle converge uniformément sur [0, R] .
Soit k ∈ IN∗ et t ∈ [0, R] . Posons x = t
R
· On a :

ak tk = (Rk−1 − Rk )xk

= (Rk−1 xk − Rk xk+1 ) + Rk (xk+1 − xk ).


 
La série ak tk est convergente puisque t ∈ [0, R] . La série télescopique (Rk−1 xk −Rk xk+1 )
est convergente puisque la suite (Rk ) converge vers 0 et que la suite (xk ) est bornée. Par

opérations, la série Rk (xk+1 − xk ) est également convergente.
Soit n ∈ IN . On somme pour k  n + 1 en observant que Rk xk+1 −→ 0 . On obtient :
k→+∞

+∞ +∞
 
ak tk = Rn xn+1 + Rk (xk+1 − xk ).
k=n+1 k=n+1

 
Posons εn = sup |Rk |, k  n . La suite (Rk )k∈IN converge vers 0 donc la suite (εn )n∈IN est
bien définie et converge aussi vers 0 .
En utilisant l’inégalité triangulaire et le fait que x ∈ [0, 1] donc 0  xk+1  xk  1 , on a :
 
 
+∞  +∞

 
 ak tk   εn xn+1 + εn (xk − xk+1 )  2εn .
k=n+1  k=n+1
  
=xn+1 ∈[0,1]

Cette majoration par le terme général indépendant de t d’une suite qui converge vers 0 montre

que la suite des restes de la série de fonctions un converge uniformément vers 0 sur [0, R]

donc que la série un converge uniformément sur [0, R] .
Par continuité des fonctions un , la somme est continue sur [0, R] , ce qui conclut.

Proposition 13 Notons R′ le rayon de convergence de la série nan z n .
• Puisque n|an |  |an | pour tout n ∈ IN∗ , on a R′  R .
• Si R = 0 , l’inégalité précédente donne R′ = 0 .
Supposons R > 0 . Soit r ∈ ]0, R[ . Choisissons un réel ρ ∈ ]r, R[ . Pour tout n ∈ IN on a :
 n
r
|n an r n | = |an |ρn n ·
ρ

523
Chapitre 12. Séries entières

  r n 
La suite (|an |ρn )n∈IN est bornée et la suite n ρ
converge vers 0 par croissances
n∈IN
comparées. Par opérations, on a :
|nan r n | −→ 0,
n→+∞


et donc R  R .
Théorème 14

• Les fonctions un : t �→ an tn sont de classe C 1 et la série un converge simplement
sur ]−R, R[ .

• D’après la proposition 13 de la page 513, la série nan tn est de rayon de conver-

gence R donc la série nan tn−1 également (par décalage). D’après le théorème 10 de la
n1

page 512, la série u′n converge normalement (donc uniformément) sur tout segment de la
forme [−a, a] ⊂ ]−R, R[ donc sur tout segment de ]−R, R[ .

Par théorème de dérivation terme à terme d’une série de fonctions, f est de classe C 1 sur ]−R, R[
et :
+∞ +∞
 
∀t ∈ ]−R, R[ f ′ (t) = u′n (t) = nan tn−1 .
n=0 n=1

Corollaire 15
• En appliquant le théorème 14 de la page 513, on démontre par récurrence immédiate que
pour tout p ∈ IN , la fonction f est de classe C p sur ]−R, R[ et que l’on a :

+∞

∀t ∈ ]−R, R[ f (p) (t) = n(n − 1) · · · (n − p + 1)an tn−p .


n=p

• En particulier, puisque 0 ∈ ]−R, R[ , on a :

f (p) (0)
∀p ∈ IN f (p) (0) = p! ap donc ap = ·
p!

Proposition 16 Posons R′ et R′′ les rayons de convergence respectifs des séries entières an z n

et bn z n . Posons R = min(R′ , R′′ ) et considérons les fonctions :
f : ]−R, R[ −→ C et g : ]−R, R[ −→ C

+∞ 
+∞
t �−→ an tn t �−→ bn t n .
n=0 n=0

D’après le corollaire 15 de la page 514, les fonctions f et g sont de classe C ∞ et :


f (n) (0) g (n) (0)
∀n ∈ IN an = et bn = ·
n! n!
Par hypothèse, on a ∀t ∈ ]0, α[ f (t) = g(t) puis, par continuité de f et g en 0 :
∀t ∈ [0, α[ f (t) = g(t).

La dérivée d’une restriction étant la restriction de la dérivée, on a :


∀n ∈ IN ∀t ∈ [0, α[ f (n) (t) = g (n) (t).

En particulier, ∀n ∈ IN f (n) (0) = g (n) (0) puis an = bn .

524
Démonstrations

Proposition 17 Considérons les fonctions de la variable réelle un : t �→ an tn pour tout n ∈ IN .



D’après le théorème 10 de la page 512, la série de fonctions a z n converge uniformément sur
n
tout disque fermé inclus dans DO (0, R) et a fortiori la série un converge normalement sur
tout segment de ]−R, R[ .
Puisque les fonctions un sont continues, le théorème d’intégration terme à terme sur le seg-
ment [0, x] permet de conclure.
Proposition 22 Dans le cas où α ∈ IN , le résultat découle de la formule du binôme de Newton.
Supposons désormais que α ∈ C \ IN et posons f : x �→ (1 + x)α définie sur ]−1, 1[ . On a alors :
∀x ∈ ]−1, 1[ (1 + x)f ′ (x) = αf (x) et f (0) = 1. (⋆)
Par unicité des solutions d’un problème de Cauchy pour une équation différentielle linéaire nor-
malisée du premier ordre à coefficients continus, la fonction f est caractérisée par (⋆) .

Soit (an )n∈IN une suite et g la somme d’une série entière an xn , de rayon de conver-
gence R > 0 . Pour tout x ∈ ]−R, R[ , on a :

+∞

g(x) = an xn
n=0
+∞

xg ′ (x) = nan xn
n=0
+∞

g ′ (x) = nan xn−1
n=1
+∞

= (n + 1)an+1 xn .
n=0

On en déduit :
+∞
  
(1 + x)g ′ (x) − αg(x) = (n + 1)an+1 + nan − αan xn .
n=0

Ainsi, g vérifie (⋆) sur ]−R, R[ dès que :


α−n
∀n ∈ IN an+1 = an et a0 = 1.
n+1
Cette relation de récurrence définit une unique suite (an )n∈IN . Puisque α ∈ / IN , cette
suite est à valeurs non nulles et, via la règle de d’Alembert, le rayon de convergence de
 
la série entière an xn est 1 . La fonction g , somme de la série entière an xn vérifie

donc (1 + x)g (x) = αg(x) sur ]−1, 1[ et g(0) = 1 . Par conséquent f = g . Par récurrence, on
obtient :  
α (α − 1) · · · (α − n + 1) α
∀n ∈ IN an = = .
n! n
La conclusion s’ensuit.

525
Chapitre 12. Séries entières

S’entraîner et approfondir
Rayon de convergence

12.1 Soit an z n une série entière de rayon de convergence R . On note R′ le rayon de conver-
→507 
gence de la série entière an z 2n .

1. On suppose que R ∈ IR+ . Montrer que R′ = R .
2. On suppose que R = +∞ . Montrer que R′ = +∞ .


12.2 Soit an z n une série entière de rayon de convergence R ∈ IR∗+ . Montrer que le rayon de
→507  2 n
convergence de la série entière an z est R2 .

|an+2 |
12.3 Soit (an )n∈IN∗ une suite de complexes non nuls. On suppose que |an |
−→ 2 .
→509 n→+∞

Montrer que le rayon de convergence de la série entière an z n est √1 ·
2

Indication. On pourra étudier les suites extraites des termes de rangs pairs et impairs de la
suite (|an |r n )n∈IN pour r ∈ IR∗+ fixé.

12.4 Pour n ∈ IN∗ , on note d(n) le nombre de diviseurs positifs de n . Déterminer le rayon de

convergence de la série entière d(n) z n .
→510


12.5 Déterminer le rayon de convergence et la somme de la série entière ch(n) z n .
→511 n0


12.6 Soit an z n une série entière de rayon de convergence R > 0 et de somme f .
→511

n
Pour tout n ∈ IN , on pose Sn = ak .
k=0

Montrer que le rayon de convergence de la série entière Sn z n est strictement positif et
exprimer sa somme en fonction de f au voisinage de 0 .


12.7 Trouver les rayons de convergence des séries entières an z n pour :
ch n
1. an = ;
n
 n
1
2. an = 1+ √ ·
n


12.8 Soit an z n une série entière de rayon de convergence R . Déterminer le rayon de conver-
 √
n n
gence de la série entière an e z .


12.9 Soit an z n une série entière de rayon de convergence R ∈ IR∗+ . Déterminer le rayon de
 2
convergence de la série entière an z n .

526
Exercices

Propriété de la somme d’une série entière



12.10 Soit an z n une série entière de rayon de convergence R et α ∈ IR∗ . Déterminer le rayon
 α
de convergence de la série entière n an z n .
→513


12.11 Soit an tn une série entière de rayon de convergence 1 .
→513 
On suppose que nan est une série convergente.

1. Montrer que an est une série convergente.
Indication. On pourra exprimer an à l’aide de la suite des sommes partielles de la

série nan .
2. Montrer que la somme [0, 1] −→ C est de classe C 1 .

+∞
t �−→ an tn
n=0

12.12 Montrer qu’il existe une unique série entière de rayon de convergence +∞ dont la somme f
→515
vérifie :
f (0) = 1 et ∀x ∈ IR xf ′′ (x) + f ′ (x) + f (x) = 0.
12.13 Déterminer le rayon de convergence et la somme des séries entières réelles suivantes :
 xn
1. ;
n(n + 2)
n1
 n
2. n(−1) xn ;
n1
 1 1

3. 1+ + ··· + xn .
2 n
n1


+∞
(−1)n
12.14 1. Calculer, pour tout x ∈ ]−1, 1[ , la somme 3n+1
x3n+1 .
n=0


+∞
(−1)n
2. Calculer 3n+1
·
n=0

12.15 Rappelons qu’une partition A d’un ensemble E est un ensemble de parties non vides de E ,
deux à deux disjointes et dont l’union est égale à E . Pour n ∈ IN , on note πn le nombre de
partitions d’un ensemble à n éléments. On notera que π0 = 1 .
n  
 n
1. Pour n ∈ IN , montrer que πn+1 = πk .
k
k=0
 πn
2. Montrer que le rayon de convergence R de la série entière xn est strictement
n!
positif. On note f la somme de cette série sur ]−R, R[ .
3. Déterminer une équation différentielle vérifiée par f . En déduire f , puis une expression
de πn pour tout entier naturel n .

12.16 Soit a = (an )n∈IN ∈ IKIN une suite convergente dont on note ℓ la limite. Pour tout x ∈ [0, 1[ ,

+∞
on pose f (x) = an xn . Montrer que :
n=0
 
ℓ 1
f (x) = +o ·
x→1− 1−x 1−x
Indication. On pourra considérer (1 − x)f (x) .

527
Chapitre 12. Séries entières

12.17 Soit a = (an )n∈IN une suite réelle et b = (bn )n∈IN une suite de réels positifs.
 
On note f et g respectivement les sommes des séries entières an xn et bn xn . On
 n
suppose enfin que le rayon de convergence de la série bn x vaut 1 et que la série numé-

rique bn diverge.
1. Montrer que g(x) −→ +∞ .
x→1−

2. On suppose que an = o(bn ) . Montrer que f (x) = o (g(x)) .


x→1−

3. On suppose que an ∼ bn . Montrer que f (x) ∼ g(x) .


x→1−

12.18 Soit an z n une série entière de somme f et de rayon de convergence R > 0 , ainsi
que ϕ : I → DO (0, R) une fonction de classe C 1 , où I est un intervalle d’intérieur non
vide. Montrer que la fonction f ◦ ϕ est de classe C 1 et que :
+∞

∀t ∈ I (f ◦ ϕ)′ (t) = ϕ′ (t) nan ϕ(t)n−1 .
n=1

 
12.19 Soit an z n et bn z n deux séries entières de rayons de convergence strictement positifs,
de sommes f et g .
Montrer que si f g est nulle sur un voisinage de 0 , alors f = 0 ou g = 0 .

Développement en série entière


1
12.20 Soit (a, b) ∈ (C∗ )2 et f : z �→ ·
→516 (z − a)(z − b)
Montrer que f est développable en série entière et expliciter le développement en série
entière.

12.21 Soit a > 0 et f une fonction de classe C ∞ sur l’intervalle I = ]−a, a[ .


→517
On suppose qu’il existe ρ > 0 et M ∈ IR+ tels que :
  M n!
∀n ∈ IN ∀x ∈ I f (n) (x)  n ·
ρ
Montrer que f est développable en série entière sur ]−R, R[ , où R = min(a, ρ) .

12.22 Déterminer le développement en série entière de f : x �→ ln(1 + x + x2 ) .


→518
Indication. On pourra donner le développement en série entière de f ′ .

12.23 Donner le développement en série entière de la fonction x �→ 1 + x.
→520

12.24 1. Montrer que Arcsin2 est développable en série entière sur ]−1, 1[ .
2. Expliciter le développement en série entière.
→520

Indication. On pourra utiliser une équation différentielle.

 xn
+∞
12.25 On pose f (x) = 2n ·
n=0 n
 xn
1. Déterminer le rayon de convergence de la série entière 2n ·
n
2. Déterminer une équation différentielle du premier ordre avec second membre vérifiée
par f sur son intervalle ouvert de convergence.

528
Exercices


12.26 Soit an z n une série entière de rayon de convergence R > 0 . On note f sa somme. Montrer
que pour tout z ∈ DO (0, R) , la fonction fz : h �→ f (z + h) est développable en série entière.

⋆⋆ 12.27 1. Soit U ⊂ C un voisinage de 0 et f : U → C une fonction développable en série entière,


1
telle que f (0) = 0 . Montrer que g : z �→ est développable en série entière.
1 − f (z)
2. Montrer que la fonction tan est développable en série entière.

12.28 Soit (cn )n∈IN la suite réelle définie par récurrence par c0 = 1 et :

n

∀n ∈ IN cn+1 = ck cn−k .
k=0

1. On suppose que la série entière cn xn est de rayon de convergence R strictement positif
et l’on note f (x) sa somme. Montrer qu’au voisinage de 0 , on a :
1  √ 
xf (x)2 = f (x) − 1 puis f (x) = 1 − 1 − 4x .
2x
1  √ 
2. Montrer que la fonction x �→ 1 − 1 − 4x prolongée par continuité en 0 est déve-
2x
loppable en série entière au voisinage de 0 . En déduire :
 
1 2n
∀n ∈ IN cn = ·
n+1 n

 
12.29 Soit f : IR∗ → IR définie par f (x) = exp − x12 ·
1. Montrer que pour tout n ∈ IN , il existe Pn ∈ IR[X] tel que :
 
1
∀x ∈ IR∗ f (n) (x) = Pn f (x).
x
2. Montrer que f admet un prolongement g de classe C ∞ sur IR et que :
∀n ∈ IN g (n) (0) = 0.
3. Montrer que g n’est pas développable en série entière.

⋆⋆ 12.30 Théorème de Bernstein


Soit f une fonction de classe C ∞ sur un voisinage de 0 et telle que f ainsi que toutes ses
dérivées soient positives sur ce voisinage. Montrer que f est développable en série entière.
Indication. On pourra utiliser la formule de Taylor avec reste intégral.

12.31 Soit λ ∈ ]0, 1[ et f : IR → IR une fonction dérivable vérifiant :


∀x ∈ IR f ′ (x) = f (λx).
1. Montrer que f est de classe C ∞ et calculer f (n) (x) pour tout x en fonction de f , λ
et n .
2. Déterminer f , en vérifiant que f est nécessairement développable en série entière.

529
Chapitre 12. Séries entières

Solutions des exercices


12.1 1. Supposons le rayon de convergence R fini. Pour tout r ∈ IR+ , la suite (an r 2n )n∈IN est
bornée si, et seulement si, la suite (an (r 2 )n )n∈IN est bornée. Ainsi, si r 2 < R , c’est-à-dire
√ √
si r < R , la suite (an r 2n )n∈IN est bornée et si r 2 > R , c’est-à-dire si r > R , la

suite (an r 2n )n∈IN n’est pas bornée. On en déduit R′ = R .
   
2. Dans le cas où R = +∞ , alors la suite an r 2n n∈IN
= an (r 2 )n n∈IN
est bornée pour
tout r > 0 et donc R′ = +∞ .


12.2 Notons R′ le rayon de convergence de la série entière a2n z n . Soit r ∈ IR∗+ . La
 √ 
suite (a2n r n )n∈IN est bornée si, et seulement si, la suite |an |( r)n n∈IN est elle-même bornée.
On en déduit R′ = R2 .


12.3 Notons R le rayon de convergence de la série entière an z n . Fixons r ∈ IR∗+ et posons :
∀n ∈ IN un = |an |r n .
On a alors :
u2n+2 |a2n+2 | 2 u2n+3 |a2n+3 | 2
= r −→ 2r 2 et = r −→ 2r 2 .
u2n |a2n | n→+∞ u2n+1 |a2n+1 | n→+∞
• Si 2r 2 < 1 c’est-à-dire si r < √1
2
, les suites (u2n )n∈IN et (u2n+1 )n∈IN convergent vers 0
(par application du critère de d’Alembert), donc la suite (un )n∈IN converge vers 0 . On
en déduit R  √12 ·
• Si 2r 2 > 1 c’est-à-dire si r > √1
2
, la suite (u2n )n∈IN diverge vers +∞ et, en particulier,
la suite (un )n∈IN n’est pas bornée, ce qui montre que R  1

2
·
En conclusion, R = √1 ·
2


12.4 Notons R le rayon de convergence de la série entière d(n)z n .

On a, pour tout n ∈ IN∗ , l’encadrement 1  d(n)  n . Par ailleurs, les séries entières zn
 n
et nz ont même rayon de convergence égal à 1 (cf. proposition 7 de la page 510).
D’après la proposition 4 de la page 509, on a R = 1 .

en +e−n
12.5 Tout d’abord, on a ∀n ∈ IN ch(n) = 2
·

• Le rayon de convergence de la série entière en z n est R1 = 1e · De plus :
  +∞

1 1
∀z ∈ DO 0, en z n = ·
e 1 − ze
n=0

• De même, le rayon de convergence de la série entière e−n z n est R2 = e et :
+∞
 1
∀z ∈ DO (0, e) e−n z n = ·
1 − z/e
n=0

530
Solutions des exercices

• On a :
 n
  en e−n

ch(n) z = + zn.
2 2
Puisque R1 < R2 , d’après la proposition 8 de la page 511, le rayon de convergence de
cette dernière série entière est R = 1e et, pour tout z ∈ DO (0, 1e ) , on a :
+∞
  
1 1 1 1 − ch(1) z
ch(n) z n = z + = ·
2 1− e
1 − ez 1 − 2 ch(1) z + z 2
n=0


12.6 La série entière définie par (a0 + · · · + an ) z n a un rayon de convergence R′  min(1, R) .
 n 
En effet, cette série entière est le produit de Cauchy des séries z et an z n .
Ainsi, pour tout z ∈ IK vérifiant |z| < min(1, R) , on a :
+∞
 +∞   +∞ 
 n
 n
 n f (z)
(a0 + · · · + an ) z = z an z = ·
1−z
n=0 n=0 n=0

ch n n

12.7 1. Notons R le rayon de convergence de la série entière n
z . D’après la propo-

sition 13 de la page 513, c’est aussi le rayon de convergence de la série ch n z n .
en

Puisque ch n ∼ 2
et que le rayon de convergence de la série en z n vaut 1
e
, on
1
en déduit R = e
·
  n
2. Notons R le rayon de convergence de la série entière an xn avec an = 1 + √1
n
.

• Pour tout n ∈ IN∗ , on a an  1 donc R  1 .


• Soit r ∈ ]0, 1[ . On a :
 
1
r 1+ √ −→ r < 1,
n n→+∞
 
donc à partir d’un certain rang, on a 0  r 1 + √1  1 . En élevant à la puissance n ,
n

il vient 0  r an  1 , ce qui montre que la suite (an r n )n∈IN est bornée, donc
n

que R  1 .
En conclusion, on a R = 1 .
√  √
12.8 Comme |an e n |  |an | , le rayon de convergence R′ de an e n n
z est inférieur ou égal
à R.
Soit r ∈ ]0, R[ et ρ ∈ ]r, R[ . Alors on a :
 n
√ √ r
n n
∀n ∈ IN an e r = an ρ n e n
,
  ρ
suite bornée

Pour tout n ∈ IN , on a :
 n √ 
√ r r
n
e = exp n + n ln
ρ ρ

<0
 √
n
 r n 
donc la suite e ρ n∈IN
tend vers 0 par croissances comparées. Ainsi, la
 √
n
 r n 
suite an e ρ n∈IN
converge vers 0 , ce qui montre que R′  R .

En conclusion, on a R = R .

531
Chapitre 12. Séries entières

 2
12.9 Notons R′ le rayon de convergence de la série an z n .
• Soit r ∈ ]0, 1[ . Comme la suite (r n )n∈IN converge vers 0 et R ∈ IR∗+ , il existe un rang à
2  R n
partir duquel r n  R
2
, donc |an |r n  |an | 2
·
  R n   2 
Comme R
2
∈ ]−R, R[ , la suite |an | 2
est bornée. Donc la suite an r n n∈IN
n∈IN

est bornée, ce qui montre que R  1 .
• Soit r > 1 . La suite (r n )n∈IN diverge vers +∞ et 2R ∈ IR∗+ donc il existe un rang à
2
partir duquel r n  2R puis |an |r n  |an |(2R)n .
   2 
Comme 2R > R , la suite an (2R)n n∈IN
n’est pas bornée donc la suite an r n n∈IN
n’est pas bornée et par conséquent, R′  1 .
En conclusion, on a R′ = 1 .


12.10 Notons R′ le rayon de convergence de la série entière nα an z n et montrons que R′ = R .
• Si α > 0 , alors an = O(nα an ) donc R  R′ et si α < 0 , alors nα an = O(an )
donc R′  R .
 
• Supposons α > 0 . Soit z ∈ DO (0, R) et ρ ∈ |z|, R . Alors on a :
 n
α n n α |z|
∀n ∈ IN n |an ||z| = |an |ρ n ·
ρ
  |z| n 
La suite (|an |ρn )n∈IN est bornée car ρ ∈ [0, R[ et la suite nα ρ
converge
n∈IN
vers 0 par croissances comparées. On en déduit que la suite (nα an z n )n∈IN est bornée,
donc R′  R puis R′ = R .
 
• Supposons α < 0 . Soit z ∈ DO (0, R′ ) et ρ ∈ |z|, R′ . Alors on a :
 n
|z|
∀n ∈ IN∗ |an ||z|n = (|an |nα ρn ) × n−α ,
ρ

et comme dans le point précédent, par croissances comparées, la suite (an z n )n∈IN est
bornée, donc R  R′ puis R′ = R .


n
12.11 1. Pour tout n ∈ IN , on pose Sn = kak et l’on a :
k=0

Sn − Sn−1 Sn Sn Sn Sn−1
∀n ∈ IN∗ an = = − + −
n n n+1 n+1 n
Sn
 Sn Sn−1

= + − ·
n(n + 1) n+1 n

Sn

La suite (Sn )n∈IN est convergente donc la suite n+1 n∈IN
converge (vers 0 ) et la série
Sn
 Sn
télescopique associée est convergente. Par ailleurs, on a n(n+1) = O( n12 ) donc n(n+1)
est une série absolument convergente.

Par somme, la série an est une série convergente.

532
Solutions des exercices

2. Posons f : [0, 1] −→ C

+∞
t �−→ an tn .
n=0

D’après le théorème 14 de la page 513, la fonction f est de classe C 1 sur [0, 1[ et :


+∞

∀t ∈ [0, 1[ f ′ (t) = nan tn−1 .
n=1
 
D’après le théorème d’Abel radial appliqué aux séries entières an tn et nan tn−1 , la
fonction f est continue sur [0, 1] et l’on a aussi :
+∞ +∞
 
f ′ (t) = nan tn−1 −→ nan .
t→1−
n=1 n=1

Par théorème de la limite de la dérivée, on peut conclure :


  
+∞

f ∈ C 1 [0, 1], C et f ′ (1) = nan .


n=1


12.12 Soit f la somme d’une série entière an xn de rayon de convergence infini.

• Alors f est de classe C et l’on a pour tout x ∈ IR :
+∞ +∞
 
f (x) = an xn = an−1 xn−1
n=0 n=1
+∞

f ′ (x) = nan xn−1
n=1
+∞
′′

xf (x) = n(n − 1)an xn−1 .
n=1


+∞
On en déduit : ∀x ∈ IR xf ′′ (x) + f ′ (x) + f (x) = (n2 an + an−1 )xn−1 .
n=1
• Par unicité du développement en série entière, on en déduit que f vérifie :
f (0) = 1 et ∀x ∈ IR xf ′′ (x) + f ′ (x) + f (x) = 0 (⋆)
si, et seulement si :
a0 = 1 et ∀n ∈ IN∗ n2 an + an−1 = 0,
c’est-à-dire si, et seulement si :
(−1)n
∀n ∈ IN an = ·
(n!)2
(−1)n
• Pour tout n ∈ IN , on pose un = (n!)2
et l’on a :
|un | 1
∀n ∈ IN∗ = 2 −→ 0.
|un−1 | n n→+∞

Par application de la règle de d’Alembert pour les séries entières, la série en-
 (−1)n n
tière x est de rayon de convergence +∞ .
(n!)2  (−1)n n
Conclusion : la somme de la série entière x est l’unique fonction solution de (⋆) .
(n!)2

533
Chapitre 12. Séries entières


12.13 1. Le rayon de convergence de la série entière 1
n(n+2)
xn est 1 car 1
n(n+2)
∼ 1

n→+∞ n

Pour |x| < 1 , et x �= 0 , on a :


+∞
 1 +∞   +∞
xn 1 1 1 1  xn+2
= − xn = − ln(1 − x) − 2
n(n + 2) 2 n n+2 2 2x n+2
n=1 n=1 n=1
 
1 1 x2
= − ln(1 − x) − 2 − ln(1 − x) − x − ·
2 2x 2
On a aussi f (0) = 0 .
 n
2. • Notons R le rayon de convergence de la série entière n(−1) z n . Selon la parité de
l’entier n , on a :
n 1 n n
n(−1) = n ou n(−1) =
donc n(−1) = O(n).
n
On en déduit R  1 . Comme pour x = 1 le terme général n’est pas borné, on a R  1
puis R = 1 .

• La série des termes pairs (2n)x2n est de rayon de convergence 1 et :
+∞ +∞
  2x2
∀x ∈ ]−1, 1[ 2n(x2 )n = 2x2 n(x2 )n−1 =  2 ·
n=0 n=1
1 − x2
1
Celle des termes impairs x2n+1 est de rayon de convergence 1 . Par
(2n + 1)
ailleurs, pour x ∈ ]−1, 1[ , on a :
+∞
 1
ln(1 + x) − ln(1 − x) = 2 x2n+1 .
2n + 1
n=0

La somme de la série proposée est donc :


 
2x2 1 1+x
 2 + ln ·
1 − x2 2 1−x

1 1
3. • Posons hn = 1 + + ··· + pour tout n ∈ IN∗ . On a alors :
2 n
1  hn  n.
  
Les séries entières xn et nxn sont de rayon de convergence 1 donc hn xn
également.
• Soit x ∈ ]−1, 1[ . On a alors :
+∞ +∞ n
   xn  xn
hn xn = =
k k
n=1 n=1 k=1 1kn


+∞
1
+∞ 
+∞
xk − ln(1 − x)
= xn = = ·
k k(1 − x) 1−x
k=1 n=k k=1
 xn 
Le calcul précédent est justifié par la sommabilité de la famille k 1kn
, elle-
− ln(1−x)
même justifiée par le caractère fini du résultat 1−x
dans le cas où x est positif
 n |x|n
puisque  xk  = k
·

534
Solutions des exercices


12.14 1. • Pour x ∈ IR , la série numérique (−1)n x3n est une série géométrique, qui converge

si, et seulement si, |x| < 1 . Le rayon de convergence de la série entière (−1)n x3n
 (−1)n
et de la série « primitive » 3n+1
x3n+1 valent ainsi 1 .
• Pour tout x ∈ ]−1, 1[ , on a :
+∞
 1
(−1)n x3n = ,
1 + x3
n=0

puis, par primitivation d’une série entière sur son intervalle ouvert de convergence :
+∞
  x
x3n+1
n dt
∀x ∈ ]−1, 1[ (−1) = ,
3n + 1 0
1 + t3
n=0

car la somme de la série est nulle en 0 .


1
• Décomposons en éléments simples F = ·
X3 + 1
3 2
Les racines de X + 1 sont −1 , −j et −j . Par conséquent :
1 1 1 1 1 1 1 1 1 1 −X + 2
= + 2 + = + ·
X3 + 1 3 X +1 3j X + j 3j X + j 2 3 X +1 3 X2 − X + 1
On peut remarquer que :
X −2 1 2X − 1 3 1
= − ·
X2 − X + 1 2 X2 − X + 1 2 (X − 21 )2 + 3
4

On en déduit que pour tout x ∈ IR :


 x
  x
t−2 1 √ 2t − 1
d t = ln(x2 − x + 1) − 3 Arctan √
0
t −t+1
2 2 3 0

et donc, pour x ∈ ]−1, 1[ , on obtient l’expression :


 x
   
dt 1 1 √ 2x − 1 √ π
= ln(x + 1) − ln(x2 − x + 1) + 3 Arctan √ + 3 ·
0
t3 + 1 3 2 3 6

(−1) n
2. Comme 3n+1
est une série convergente d’après le théorème des séries alternées, le
théorème d’Abel radial donne :


+∞    
1 1 1 (x + 1)2 √ 2x − 1 √ π
(−1)k = lim ln 2 + 3 Arctan √ + 3
3k + 1 x→1− 3 2 x −x+1 3 6
k=0

et donc :
+∞
 (−1)n
 √ π 
1
= ln 2 + 3 ·
3n + 1 3 3
n=0

12.15 1. Pour n ∈ IN , notons Πn l’ensemble des partitions de l’ensemble [ 0, n − 1]] . Remarquons


que le nombre de partitions d’un ensemble E fini ne dépend pas explicitement de E ,
mais seulement de son cardinal |E| .
Soit n un entier naturel. Pour A ∈ Πn+1 , notons CA l’élément de A contenant n . En
regroupant les partitions telles que CA soit un ensemble donné et en remarquant que,
par définition, n ∈ CA , on obtient :
  
Πn+1 = A ∈ Πn+1 : CA = X ∪ {n} . (∗)
X⊂[[0,n−1]]

535
Chapitre 12. Séries entières

Il est clair que les partitions de [ 0, n]] telles que CA = X ∪ {n} sont les partitions
de [ 0, n − 1]] \ X auxquelles on adjoint la partie X ∪ {n} . Il s’ensuit, pour X ⊂ [ 0, n − 1]] :
 

 A ∈ Πn+1 : CA = X ∪ {n}  = πn−|X| .
Par suite, les ensembles dans l’union (∗) étant deux à deux disjoints :
n n  
    n
πn+1 = πn−|X| = πn−k = πn−k .
k
X⊂[[0,n−1]] k=0 X⊂[[0,n−1]] k=0
|X|=k

En conclusion, par symétrie des coefficients binomiaux, on a :


n  
 n
∀n ∈ IN πn+1 = πk . (∗∗)
k
k=0

πn
2. Notons bn = pour n ∈ IN et démontrons par récurrence (forte) que 0  bn  1 .
n!
L’assertion est vraie si n = 0 .
Supposons l’assertion vraie pour tout k ∈ [[0, n]] , pour un certain n ∈ IN . En divisant
par (n + 1)! la relation (∗∗) , il vient que :
n
1  1
bn+1 = bk . (∗∗∗)
n+1 (n − k)!
k=0

D’après l’hypothèse de récurrence :


n n n
1  1 1  1 1 
0 bk   1 = 1,
n+1 (n − k)! n+1 (n − k)! n+1
k=0 k=0 k=0

et donc 0  bn+1  1 . Cela démontre l’assertion pour n + 1 et donc, par récurrence,


pour tout n ∈ IN .
 n
Par comparaison, puisque |bn |  1 et que le rayon de convergence de la série x
vaut 1 , il vient que R  1 . Par conséquent, R > 0 .

3. • Soit x ∈ ]−R, R[ . En multipliant la relation (∗∗∗) par (n + 1)xn et en sommant, il


vient :
+∞ +∞
 n 
 n
  1
(n + 1)bn+1 x = bi xn .
(n − i)!
n=0 n=0 i=0

Cela est légitime, car le rayon de convergence de la série entière bn xn est égal à

celui de la série entière (n + 1)bn+1 xn . Par ailleurs, d’après les résultats relatifs au
produit de Cauchy de séries absolument convergentes, on a :
+∞
 n 
  1
∀x ∈ ]−R, R[ bi xn = f (x) exp(x).
(n − i)!
n=0 i=0

Par conséquent, pour tout x ∈ ]−R, R[ , on a :


+∞ +∞
 n 

 n
  1
f (x) = (n + 1)an+1 x = bi xn = f (x) exp(x).
(n − i)!
n=0 n=0 i=0

Sachant que f (0) = 1 , cette dernière relation donne, en intégrant l’équation différen-
tielle vérifiée par f , la relation :
 
∀x ∈ ]−R, R[ f (x) = exp exp(x) − 1 .

536
Solutions des exercices

k n xn
• Soit x ∈ IR . Notons un,k (x) = pour (n, k) ∈ IN2 .
k! n!
On a alors :
+∞ +∞ +∞
 +∞ 
   exp(x)k  exp(kx)  1  k n xn
exp exp(x) = = = · (⋆)
k! k! k! n!
k=0 k=0 k=0 n=0
 
Si x  0 , la famille un,k (x) (n,k)∈IN2
étant à valeurs positives, on en déduit qu’elle
est sommable.    
Dans le cas général, puisque un,k (x) = un,k |x| , pour tout (n, k) ∈ IN2 , la fa-
 
mille un,k (x) (n,k)∈IN2
est sommable. Par conséquent, on peut intervertir l’ordre de
sommation dans l’expression (⋆) . Ainsi :
+∞
 +∞  +∞ n
 +∞ 
   1  k n xn  x  kn
exp exp(x) = = · (⋆⋆)
k! n! n! k!
k=0 n=0 n=0 k=0
 
• Par unicité du développement en série entière, puisque f (x) = 1
e
exp exp(x)
pour x ∈ IR , il vient de (⋆⋆) l’expression suivante :
+∞
1  kn
∀n ∈ IN πn = ·
e k!
k=0

12.16 Par décalage d’indice, on a :


+∞

∀x ∈ [0, 1[ (1 − x)f (x) = a0 + (an − an−1 )xn .
n=1

Comme la suite (an )n∈IN est convergente, la série télescopique associée (an − an−1 ) est
convergente. Le théorème d’Abel radial donne alors :
+∞

(1 − x)f (x) −→ a0 + (an − an−1 ) = a0 + ℓ − a0 = ℓ.
x→1−
n=1


 1

On peut donc conclure : f (x) = 1−x
+o 1−x
·
x→1−

12.17 1. Remarquons que puisque la suite (bn )n∈IN est à valeurs positives, la restriction de g
à [0, 1[ est croissante. Il s’ensuit que g a une limite ℓ en 1 , finie ou infinie.
Par ailleurs, toujours du fait que la suite (bn )n∈IN est à valeurs positives, pour tout N ∈ IN
et x ∈ [0, 1[ on a :
N +∞
 
bn x n  bn xn = g(x).
n=0 n=0

En faisant tendre x vers 1 dans cette inégalité, il vient que :
N

bn  ℓ.
n=0

Comme la série à terme positif bn est divergente, on a :
N

bn −→ +∞.
N→+∞
n=0

Par suite, ℓ = +∞ .

537
Chapitre 12. Séries entières


2. Supposons an = o(bn ) . Comme la série entière bn xn est de rayon de convergence 1 ,
 n
celui de la série entière an x est supérieur ou égal à 1 .
Soit ε > 0 . Par hypothèse, il existe un entier n0 tel que |an |  ε bn , pour tout n  n0 .
Fixons un tel n0 . Pour tout x ∈ [0, 1[ , on a :
 +∞  +∞
    

f (x) =  n
an x   |an |xn
n=0  n=0
n0 −1 +∞
 
 |an |xn + εbn xn
n=0 n=n0

n0 −1 +∞
 
 |an |xn + εbn xn
n=0 n=0
n0 −1

 |an | + εg(x). (∗)
n=0

Par ailleurs, puisque g(x) −→ +∞ et que ε > 0 , il existe η ∈ ]0, 1[ tel que pour
x→1−
tout x ∈ [1 − η, 1[ on ait :
n0 −1

|an |  ε g(x). (∗∗)
n=0

Ainsi, pour tout x ∈ [1 − η, 1[ , en combinant les inégalités (∗) et (∗∗) , on obtient :


 
f (x)  2εg(x),
 
c’est-à-dire, par définition, f (x) = o g(x) .
x→1−

3. Supposons an ∼ bn . Alors an − bn = o(bn ) et, d’après la question précédente, on a :


+∞
  
f (x) − g(x) = (an − bn )xn = o g(x) donc f (x) ∼ g(x).
x→1− x→1−
n=0

12.18 Pour n ∈ IN notons un : t �→ an ϕ(t)n . Les fonctions un sont de classe C 1 et la série de


  ′
fonctions un converge simplement sur I . Pour conclure, montrons que la série un
converge normalement sur tout segment.
 
Soit un segment [a, b] ⊂ I . Par compacité et continuité, la fonction t �→ ϕ(t) atteint son
maximum sur [a, b] , dont la valeur est notée r . Puisque ϕ est à valeurs dans DO (0, R) , il
vient que r ∈ [0, R[ . Toujours par compacité et continuité, la fonction |ϕ′ | est majorée par
une constante M sur [a, b] . On en déduit, pour tout n ∈ IN∗ que :
 ′ 
∀t ∈ [a, b] un (t)  M n|an |rn−1 .
 
Puisque r ∈ [0, R[ , la série M n|an |r n−1 converge et donc la série u′n converge nor-
n1
malement sur [a, b] . Le théorème de dérivation terme à terme des séries de fonctions permet
alors de conclure.

538
Solutions des exercices

12.19 Il suffit de montrer que si (an )n∈IN �= 0 , alors (bn )n∈IN = 0 (et donc g = 0 ).
Supposons (an )n∈IN �= 0 et notons p le plus petit entier naturel tel que ap =
� 0 . Puisque la
fonction f g est nulle sur un voisinage de 0 , par unicité du développement en série entière,

n
on a cn = ak bn−k = 0 pour tout entier naturel.
k=0
Montrons par récurrence forte que bn = 0 , pour tout entier n ∈ IN .
• On a 0 = cp = ap b0 , donc b0 = 0 .
• Soit n ∈ IN∗ . Supposons bk = 0 pour tout k ∈ [ 0, n − 1]] . Alors on a :
n+p

0 = cn+p = ak bn+p−k = ap bn .
k=p

Par conséquent, bn = 0 , ce qui assure le résultat.

Remarque Ainsi, l’algèbre des fonctions développables en série entière sur un inter-
valle ]−r, r[ est intègre.

12.20 • Supposons a �= b . On a alors :


 
1 1 1
∀z ∈ C \ {a, b} f (z) = −
a−b z−a z−b
 
et donc, puisque a et b sont non nuls, pour tout z ∈ DO 0, min(|a|, |b|) , on a :
 +∞ 
 zn +∞
 +∞
  
1 zn 1 1 1
f (z) = − = − zn ,
a−b bn+1 an+1 a−b bn+1 an+1
n=0 n=0 n=0
 
ce qui donne le développement en série entière de f sur DO 0, min(|a|, |b|) .
• Supposons que a = b . Alors, pour tout z ∈ D(0, |a|) , d’après la proposition 9 de la
page 511, on a :

1 1 1 
+∞  z n +∞
n+1 n
f (z) = = (n + 1) = z ,
a2 (1 − az )2 a2 a an+2
n=0 n=0
 
ce qui donne le développement en série entière de f sur DO 0, |a| .

12.21 • Soit n ∈ IN et x ∈ I . D’après l’inégalité de Taylor-Lagrange, on a :


   n+1
 n
 
 f (k) (0) k  M (n + 1)! |x|n+1 |x|
f (x) − x  =M ·
 k!  ρn+1 (n + 1)! ρ
k=0

• Lorsque |x| < ρ , la suite majorante converge vers 0 donc par encadrement, on en déduit
 f (k) (0)
que la série k!
xk est convergente et :
+∞ (k)
 f (0)
xk = f (x),
k!
k=0

ce qui montre que f est développable en série entière sur ]−R, R[ .

539
Chapitre 12. Séries entières

12.22 • Posons j = e2iπ/3 . Développons f ′ en série entière. Pour tout x ∈ IR , on a :


2x + 1 1 1 −j 2 −j
f ′ (x) = = + = + ·
(x − j)(x − j 2 ) x−j x − j2 1 − j2x 1 − jx
Par conséquent, pour tout x ∈ ]−1, 1[ on a :
+∞ +∞
 
f ′ (x) = −j 2 j 2n xn − j j n xn
n=0 n=0
+∞
 
=− (j 2 )n+1 + j n+1 xn
n=0
+∞

=− 2 Re(j n+1 )xn (j 2 = j̄)
n=0
+∞
  

=− 2 cos (n + 1) xn .
3
n=0

• Puisque f est développable en série entière sur ]−1, 1[ , la fonction f l’est également et,
du fait que f (0) = 0 , on a :
+∞
  2π  xn
∀x ∈ ]−1, 1[ f (x) = − 2 cos n ·
3 n
n=1

Remarque On peut proposer une autre méthode.


1−x3
En remarquant que 1 + x + x2 = 1−x
pour tout x ∈ IR \ {1} , il vient pour x ∈ ]−1, 1[ que :
 
1 − x3
f (x) = ln = ln(1 − x3 ) − ln(1 − x),
1−x
et l’on peut terminer le calcul à partir du développement en série entière de ln(1 − t)
sur ]−1, 1[ .

12.23 Pour tout n ∈ IN∗ , on a :


  11  1 
1/2 2 2
− 1 ··· 2
−n+1
=
n n!
1 × 3 × · · · × (2n − 3)
= (−1)n−1
2n n!
1 × 3 × · · · × (2n − 1) 2 × 4 × · · · × 2n
= (−1)n−1 ×
2n (2n − 1) n! 2 × 4 × · · · × 2n
(−1)n−1 (2n)!
= ·
2n − 1 22n n!2
Par conséquent, d’après la proposition 22 de la page 519 :
+∞
 
√  (−1)n−1 2n
∀x ∈ ]−1, 1[ 1 + x = (1 + x)1/2 = n
xn .
2n − 1 22n
n=0

Remarque On pouvait aussi primitiver le développement en série entière obtenu dans


l’exemple 22 de la page 520.

540
Solutions des exercices

12.24 1. La fonction Arcsin est dérivable sur ]−1, 1[ et :


1 1
∀x ∈ ]−1, 1[ Arcsin′ (x) = √ = (1 − x2 )− 2 .
1 − x2
Comme pour tout x ∈ ]−1, 1[ , on a −x2 ∈ ]−1, 1[ , il vient :
+∞  1 
 −
∀x ∈ ]−1, 1[ Arcsin′ (x) = 2 (−1)n x2n ,
n
n=0

ce qui montre que Arcsin est développable en série entière sur ]−1, 1[ . Par primitivation
puis produit, on en déduit que Arcsin2 est développable en série entière sur ]−1, 1[ .
2. Posons f : ]−1, 1[ −→ IR
x �−→ Arcsin2 (x).
La fonction f est deux fois dérivable sur ]−1, 1[ et, après calculs, on a :
2 Arcsin x 2x Arcsin x 2
∀x ∈ ]−1, 1[ f ′ (x) = √ et f ′′ (x) = √ + ,
1 − x2 (1 − x ) 1 − x
2 2 1 − x2
ce qui donne :
∀x ∈ ]−1, 1[ (1 − x2 )f ′′ (x) = xf ′ (x) + 2. (⋆)
D’après la question précédente, il existe une suite (an )n∈IN de réels telle que :
+∞

∀x ∈ ]−1, 1[ f (x) = an xn .
n=0

Par dérivation terme à terme d’une série entière sur son intervalle ouvert de convergence,
on a pour tout x ∈ ]−1, 1[ :
+∞

xf ′ (x) = nan xn
n=0
+∞
′′

f (x) = (n + 2)(n + 1)an+2 xn
n=0
+∞

x2 f ′′ (x) = n(n − 1)an xn ,
n=0

donc la relation (⋆) se réécrit :


+∞
  
(n + 2)(n + 1)an+2 − n(n − 1)an − nan xn = 2,
n=0
+∞
  
puis : (n + 2)(n + 1)an+2 − n2 an xn = 2.
n=0

Par unicité du développement en série entière, en déduit :


n2
a2 = 1 et ∀n ∈ IN∗ an+2 = an .
(n + 2)(n + 1)
Le fait que a1 = f ′ (0) = 0 montre que ∀k ∈ IN a2k+1 = 0 par récurrence immédiate
sur k , et comme a2 = 1 , on a par récurrence sur k :
 2

22k−1 (k − 1)!
∀k ∈ IN a2k = ·
(2k)!

541
Chapitre 12. Séries entières

Enfin, on a a0 = f (0) = 0 ce qui permet de conclure :


+∞ 2k−1
 2 +∞
2
 2 (k − 1)!  22k−1 2k
∀x ∈ ]−1, 1[ Arcsin (x) = x2k =  x .
(2k)! 2k
k=1 k=1 k2
k

Remarque La propriété de parité de la fonction f ainsi que l’unicité du développement


en série entière permettent d’obtenir plus rapidement la relation :
∀k ∈ IN a2k+1 = 0

+∞
et de chercher le développement en série entière sous la forme uk x2k .
k=0

1
12.25 1. Pour tout n ∈ IN , on pose an =   et pour tout n ∈ IN∗ , on a :
2n
n
       
2n 2n 2n − 1 2n − 1 2(2n − 1) 2(n − 1)
= =2 = .
n n n−1 n n n−1
On en déduit :  
2(n − 1)
an n−1 n 1
=   = −→ ·
an−1 2n 2(2n − 1) n→+∞ 4
n
 xn
D’après la règle de d’Alembert, le rayon de convergence de la série vaut 4 .
(2n
n)

2. Pour tout n ∈ IN∗ on a :


2(2n − 1)an = nan−1 ,
soit :
4nan − 2an = (n − 1)an−1 + an−1 . (∗)
n
En multipliant la relation (∗) par x , avec |x| < 4 et en sommant, il vient :
+∞ +∞ +∞ +∞
   
4 nan xn − 2 an xn = (n − 1)an−1 xn + an−1 xn ,
n=1 n=1 n=1 n=1

et donc :
4xf ′ (x) − 2(f (x) − 1) = x2 f ′ (x) + xf (x),
puis :
x(4 − x)f ′ (x) − (x + 2)f (x) = −2.
Remarque En résolvant cette équation sur l’intervalle ]0, 4[ , on montre que :
   
4 x x1/2
∀x ∈ ]0, 4[ f (x) = + 2 Arcsin −1 +π ·
4−x 2 (4 − x)3/2
Il s’ensuit que :
+∞
 1 4
 1  1 4 2π
2n = f (1) = + −2 Arcsin +π = + √ ·
n
3 2 33/2 3 9 3
n=0

542
Solutions des exercices

12.26 Soit z ∈ DO (0, R) . Pour tout h ∈ C tel que |h| < R−|z| (en convenant que +∞−|z| = +∞ ),
  n
on a |z| + |h| < R . Par conséquent, la série |an | |z| + |h| est convergente.
D’après le formule du binôme, on a :
 n  

+∞
  n +∞
  n n−k k
 n
|an | |z| + |h| = |an | |z| |h| = |an | |z|n−k |h|k . (∗)
k k
n=0 n=0 k=0 0kn

Puisque la somme de gauche dans la relation (∗) est finie, on en déduit que la fa-
 n 
mille |an | k
|z|n−k |h|k est sommable.
0kn
   
n
Par conséquent, la famille an k
z n−k hk est sommable et l’on a :
0kn
 n    +∞  +∞  
+∞
  n   n 
n−k k
f (z + h) = an z h = an z n−k hk .
k k
n=0 k=0 k=0 n=k
  
=bk


Le calcul qui précède montre que le rayon de convergence de la série entière bk hk est su-
périeur ou égal à R−|z| , donc strictement positif. On a ainsi démontré que fz : h �→ f (z +h)
 
est développable en série entière sur DO 0, R − |z| .

 
12.27 1. Notons an z n la série entière associée à f . La série entière |an |z n−1 est de rayon
n1 n1

de convergence strictement positif (celui de an z n par décalage), donc sa somme est
bornée au voisinage de 0 et il existe ρ > 0 tel que :
+∞ +∞
 
∀z ∈ DO (0, ρ) |an ||z|n = |z| |an ||z|n−1 < 1. (⋆)
n=1 n=1

Soit z ∈ DO (0, ρ) . Pour p ∈ IN , par distributivité généralisée, on a :


 +∞ p #ℓ
 n
 
|an ||z| = |aℓi ||z|ℓi ,
n=1 ℓ∈(IN∗ )p i=1

où #ℓ désigne le nombre de termes de la liste ℓ (ici, #ℓ = p ).


 +∞ p

+∞ 
D’après (⋆ ), |an ||z|n est une série convergente et l’on a :
p=0 n=1

+∞
 +∞ p #ℓ
  n
 
|an ||z| = |aℓi ||z|ℓi avec Ω= (IN∗ )p ,
p=0 n=1 ℓ∈Ω i=1 p∈IN

 #ℓ 

donc la famille |aℓi ||z|ℓi est sommable.
i=1 ℓ∈Ω


#ℓ
Pour tout k ∈ IN , on pose Ωk = ℓ∈Ω : ℓi = k . La famille (Ωk )k∈IN est une
i=1

543
Chapitre 12. Séries entières

partition de Ω et, par le théorème de sommation par paquets, on a :


+∞
 +∞ p #ℓ
1   n

= an z = a ℓi z ℓi
1 − f (z)
p=0 n=1 ℓ∈Ω i=1

+∞
 #ℓ

 
= a ℓi zk ,
k=0 ℓ∈Ωk i=1

ce qui démontre que la fonction z �→ 1


1−f (z)
est développable en série entière.
Remarque En adaptant un peu la preuve précédente, on peut démontrer que si g est
une fonction développable en série entière, alors z �→ g(f (z)) est bien définie au voisinage
de 0 et développable en série entière.
2. La fonction 1 − cos est développable en série entière et vaut 0 en 0 donc x �→ cos1 x est
développable en série entière.
La fonction sin est développable en série entière et, par produit, la fonction tan est
développable en série entière.

12.28 1. Soit an xn une série entière de rayon de convergence R > 0 dont on note g la somme.
Pour tout x ∈ ]−R, R[ , on a par produit de Cauchy :
+∞
 n 
2
 
xg(x) − g(x) + 1 = ak an−k − an+1 xn+1 − a0 + 1.
n=0 k=0

Par unicité du développement en série entière , la relation xg(x)2 − g(x) + 1 = 0 est


vérifiée si, et seulement si :
n

a0 = 1 et ∀n ∈ IN an+1 = ak an−k .
k=0

Grâce aux hypothèses faites sur f , on en déduit 4x2 f (x)2 − 4xf (x) + 4x = 0 , puis :
(2xf (x) − 1)2 = 1 − 4x.
La fonction x �→ 2xf (x) − 1 est continue en 0 et vaut −1 en 0 donc pour x au voisinage
de 0 , on a :
1  √ 
2xf (x) − 1  0 puis f (x) = 1 − 1 − 4x .
2x
1

2. • Posons g : x �→ 2x (1 − 1 − 4x) , que l’on prolonge par continuité en 0 en po-
sant g(0) = 1 .
 
Tout d’abord, pour tout x ∈ − 41 , 41 , on a :

n−1
+∞
 ( 21 − k) +∞

√ k=0 2(2n − 2)!
1 − 4x = 1 + (−1)n 4n xn = 1 − xn .
n! n!(n − 1)!
n=1 n=1

Ensuite, on a :
 
1  2(2n − 2)! n  (2n)!
+∞ +∞
1 1
∀x ∈ − , \ {0} g(x) = x = xn ,
4 4 2x n!(n − 1)! (n + 1)!n!
n=1 n=0

et cette relation est encore vérifiée pour x = 0 , ce qui montre que la fonction g est
développable en série entière.

544
Solutions des exercices
 
1 2n
• Pour tout n ∈ IN , on pose dn = et l’on a :
(n + 1) n
  +∞

1 1
∀x ∈ − , g(x) = dn x n .
4 4
n=0

2
Comme g(x) vérifie xg(x) = g(x) − 1, il vient d’après le début de la question
précédente :
n

∀n ∈ IN dn+1 = dk dn−k .
k=0

Comme on a aussi d0 = c0 , par récurrence forte, on en déduit cn = dn pour tout n .

12.29 Il est clair que f est de classe C ∞ sur IR∗ .


1. Démontrons par récurrence :
1
Hn : « il existe Pn ∈ IR[X] tel que f (n) (x) = Pn x
f (x) pour tout x ∈ IR∗ ».

Pour n = 0 , le polynôme P0 = 1 convient.


Supposons Hn pour un n ∈ IN . Alors, en dérivant f (n) , il vient, pour tout x ∈ IR∗ :
    
1 ′ 1 2 1
f (n+1) (x) = − P + Pn f (x).
x2 n x x3 x
Il s’ensuit que le polynôme Pn+1 = 2X 3 Pn − X 2 Pn′ convient.
2. • Notons (Pn )n∈IN la suite de polynômes définie par :

P0 = 1 et ∀n ∈ IN Pn+1 = 2X 3 Pn − X 2 Pn′ . (⋆)


Soit n ∈ IN . Le polynôme Pn est élément de IRd [X] pour un certain entier d . On a
donc, au voisinage de 0 :
   
1 1
Pn =O d+1
,
x x
et donc, par croissances comparées :
1  1

Pn exp − −→ 0. (⋆⋆)
x x2 x→0

• Notons g le prolongement par continuité de f obtenu en posant g(0) = 0 .


Pour tout n ∈ IN , on définit le prédicat Pn :
   
1 1
g ∈ C n (IR, IR), ∀x ∈ IR∗ g (n) (x) = Pn exp − 2 et g (n) (0) = 0.
x x
Initialisation. La propriété P0 est évidemment vérifiée.
Hérédité. Soit n ∈ IN . Supposons Pn .
Sur la réunion d’intervalles ouverts IR∗ , la fonction g (n) est de classe C 1 et, par
la question précédente, on a :
 ′    
1 1
∀x ∈ IR∗ g (n) (x) = f (n+1) (x) = Pn+1 exp − 2 ·
x x
Par ailleurs, d’après la relation (⋆⋆) , on a :
 ′
g (n) (x) −→ 0.
x→0

(n)
Enfin, la fonction g est continue par hypothèse de récurrence.

545
Chapitre 12. Séries entières

Par le théorème de limite de la dérivée, on en déduit que g (n) est de classe C 1 ,


donc que g est de classe C n+1 et que :
1  1
∀x ∈ IR∗ g (n+1) (x) = Pn+1 exp − 2 et g (n+1) (0) = 0,
x x
ce qui achève la preuve de l’hérédité.
En conclusion, la fonction g est de classe C ∞ sur IR et :
∀n ∈ IN g (n) (0) = 0.
3. La série de Taylor de g est nulle. Cependant, la fonction g ne s’annule qu’en 0
(car g(x) = exp(−1/x2 ) > 0 lorsque x �= 0 ). Ainsi, g ne coïncide sur aucun inter-
valle ]−r, r[ avec la somme de sa série de Taylor ; la fonction g n’est pas développable
en série entière.

12.30 Fixons r > 0 tel que la fonction f soit de classe C ∞ sur ]−r, r[ et :
∀p ∈ IN ∀x ∈ ]−r, r[ f (p) (x)  0.
Pour tout x ∈ ]−r, r[ , on pose :
n
 f (k) (0)
Rn (x) = f (x) − xk .
k!
k=0
 
Montrons que la suite Rn (x) n∈IN
converge vers 0 , ce qui permet de conclure.
D’après la formule de Taylor avec reste intégral, on a :
 x
(x − t)n (n+1)
∀x ∈ ]−r, r[ ∀n ∈ IN Rn (x) = f (t) dt.
0
n!
Par le changement de variable linéaire t = xu , il vient :
 1
(1 − u)n (n+1)
Rn (x) = xn+1 f (xu) du.
0
n!
• Soit x ∈ ]0, r[ . Fixons y ∈ ]x, r[ .
Soit n ∈ IN . Par croissance de la fonction f (n+1) sur ]−r, r[ , on a pour tout u ∈ [0, 1] :
f (n+1) (xu)  f (n+1) (yu)
(1 − u)n (n+1) (1 − u)n (n+1)
f (xu)  f (yu)
n! n!
puis, par croissance de l’intégrale :
Rn (x) Rn (y)
 n+1 ·
xn+1 y
Comme les réels x et y sont positifs, il vient :
 n+1
x
0  Rn (x)  Rn (y)
y

n
f (k) (0)
On a f (y) − Rn (y) = y k  0 donc :
k=0 k!
 n+1
x
Rn (y)  f (y) puis 0  Rn (x)  f (y) ·
y
Par comparaison à une suite géométrique qui converge vers 0 , on a Rn (x) −→ 0 .
n→+∞

546
Solutions des exercices

• Maintenant, soit x ∈ ]−r, 0] . Par positivité et croissance de la fonction f (n+1) sur ]−r, r[ ,
on a :
 
∀t ∈ [x, 0] f (n+1) (t) = f (n+1) (t)  f (n+1) (0).

D’après l’inégalité de Taylor-Lagrange, il vient :


  n+1
Rn (x)  |x| f (n+1) (0).
(n + 1)!
 |x|n
D’après le point précédent, la série n!
f (n) (0) est une série convergente donc son
terme général converge vers 0 et la majoration précédente montre que Rn (x) −→ 0 .
n→+∞

En conclusion, on a pour tout x ∈ ]−r, r[ :


+∞ (k)
 f (0)
Rn (x) −→ 0 donc f (x) = xk ,
n→+∞ k!
k=0

ce qui montre que la fonction f est développable en série entière.

12.31 1. Démontrons par récurrence l’assertion Hn : « la fonction f est de classe C n


n(n−1)
et f (n) (x) = λ 2 f (λn x) pour tout x ∈ IR ».
• Puisque f est par définition dérivable, f est continue.
n(n−1)
De plus la formule f (n) (x) = λ 2 f (λn x) pour tout x ∈ IR est évidemment vérifiée
lorsque n = 0 .
• Supposons Hn vérifiée pour un entier naturel n . Par hypothèse, pour tout x ∈ IR ,
n(n−1)
on a f (n) (x) = λ 2 f (λn x) et, puisque f est dérivable, cette dernière relation
donne que f (n) est dérivable. De plus, toujours pour x ∈ IR , on a :
n(n−1) n(n+1)
f (n+1) (x) = λ 2 λn f ′ (λn x) = λ 2 f (λn+1 x).

Cette expression montre que f (n+1) est continue et donc que f est de classe C n+1 .
Cela démontre le résultat par récurrence.
2. Utilisons l’inégalité de Taylor-Lagrange pour démontrer que f est nécessairement la
somme de sa série de Taylor sur IR .
Soit a ∈ IR . Notons Ma = max |f (x)| , qui est bien définie puisque f est continue
x∈[−|a|,|a|]
   
sur le segment −|a|, |a| . Pour tout x ∈ −|a|, |a| et n ∈ IN , on a :
 (n+1)  n(n+1)  
f (x) = λ 2 f (λn x)  Ma .

Par l’inégalité de Taylor-Lagrange, on en déduit pour tout n ∈ IN :


 
 n
 
 f (k) (0) k  |a|n+1
f (a) − a   Ma ·
 k!  (n + 1)!
k=0

|a|n+1
La suite de terme général (n+1)!
converge vers 0 (c’est le terme général d’une série
convergente), ce qui montre que la fonction f est développable en série entière sur IR .

547
Chapitre 12. Séries entières

Comme on a :
n(n−1)
∀n ∈ IN f (n) (0) = λ 2 f (0),
on en déduit :
+∞
 n(n−1)
λ 2
∀x ∈ IR f (x) = f (0) xn .
n!
n=0

+∞
 n(n−1)
λ 2
Réciproquement, il est par ailleurs facile de vérifier que x �→ µ xn est solution
n!
n=0
du problème pour tout µ ∈ IR .

548
Chapitre 13 : Intégrales à paramètres

I Suites et séries d’intégrales . . . . . . . . . . . . . . . . 550


1 Le théorème de convergence dominée . . . . . . . . . . . . 550
2 Intégration terme à terme . . . . . . . . . . . . . . . . . . 553
II Continuité et dérivabilité . . . . . . . . . . . . . . . . . . 557
1 Continuité d’une intégrale à paramètre . . . . . . . . . . . 557
2 Limites d’intégrales . . . . . . . . . . . . . . . . . . . . . 558
3 Dérivation d’une intégrale à paramètre . . . . . . . . . . . 560
Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 567
Intégrales à
paramètres 13

Dans ce chapitre, nous étudions des intégrales dépendant d’un paramètre qui peut
être entier (suites de fonctions) ou réel. Dans les deux cas, nous nous intéresserons
aux problèmes de convergence et dans le second cas à la continuité et à la dérivabilité.
Pour la continuité, le paramètre pourra même plus généralement être pris dans un
espace vectoriel de dimension finie.
Dans tout le chapitre, les intervalles de IR considérés sont d’intérieur non vide et les
fonctions sont à valeurs dans IK = IR ou IK = C.

I Suites et séries d’intégrales


1 Le théorème de convergence dominée
Théorème 1 (Théorème de convergence dominée)
Soit (fn )n∈IN une suite de fonctions continues par morceaux sur un intervalle I .
On fait les hypothèses suivantes :

• la suite de fonctions (fn )n∈IN converge simplement sur I vers une fonction f
continue par morceaux sur I ,
• hypothèse de domination : il existe ϕ : I → IR intégrable sur I telle que :
 
∀n ∈ IN ∀t ∈ I fn (t)  ϕ (t) .

Alors toutes les fonctions fn , ainsi que f , sont intégrables sur I et l’on a :
 
Exo fn −→ f.
13.1 I n→+∞ I

Nous n’en ferons pas la démonstration qui est hors programme.


I Suites et séries d’intégrales

Ex. 1. Pour tout n ∈ IN , on pose :


 +∞
fn : ]1, +∞[ −→ IR et In = fn (t) dt.
1 + tn 1
t �−→
1 + tn+2

• Pour tout n ∈ IN , la fonction fn est continue par morceaux.


• Pour tout t > 1 , on a :

1 + tn tn 1
fn (t) = ∼ = ,
1 + tn+2 n→+∞ tn+2 t2

1
donc la suite (fn ) converge simplement vers la fonction t �→ t2
, continue par morceaux
sur ]1, +∞[ .
• Hypothèse de domination. Pour tout n ∈ IN , on a :

  n n n
∀t > 1 fn (t) = 1 + t  t + t = 2 ·
n+2 1+t
n+2 2 t t

La fonction t �→ t22 étant intégrable sur ]1, +∞[ , cela fournit l’hypothèse de domination.
Par le théorème de convergence dominée, on en déduit :
 +∞
1
In −→ dt = 1.
n→+∞
1
t2

Attention Constatons sur un exemple l’importance de l’hypothèse de domination.

Ex. 2. Pour tout n ∈ IN∗ , soit fn : [0, 1[ −→ IR


t �−→ n2 tn−1 .
Pour tout n ∈ IN∗ , la fonction fn est continue, et intégrable sur [0, 1[ car elle admet une limite
finie en 1 .
Pour tout t ∈ [0, 1[ fixé, on a lim fn (t) = 0 , par croissances comparées.
n→+∞

Ainsi la suite (fn )n∈IN∗ converge simplement sur [0, 1[ vers la fonction nulle.
Toutes les hypothèses du théorème de convergence dominée sont vérifiées, hormis l’hypothèse de
 1
 1
domination. Or fn (t) dt = ntn 0
= n.
0
 1  1
On a donc lim fn (t) dt �= lim fn (t) dt .
n→+∞ n→+∞
0 0

Point méthode Il faut bien noter, dans l’énoncé du théorème de convergence do-
minée, que l’intervalle d’intégration est fixe. Prolonger la fonction par la fonction
Exo
nulle permet parfois de contourner cette difficulté lorsque l’intervalle d’intégration
13.2 dépend de n.

551
Chapitre 13. Intégrales à paramètres

 √
n
 n
∗ t2
Ex. 3. Pour tout n ∈ IN , on pose In = 1− dt .
0
n
• Pour tout n ∈ IN∗ , la fonction :

fn : [0, +∞[ −→ IR
 n
t2
t �−→ 1− 1[0,√n] (t)
n
 +∞
est continue par morceaux et fn (t) dt = In .
0

• Soit t  0 . Fixons n0 ∈ IN∗ tel que n0 > t2 . Alors, pour tout n  n0 , on a :


 n   
t2 t2
fn (t) = 1− = exp n ln 1 − ·
n n

On a de plus :
   
t2 t2 t2
ln 1 − ∼ − donc n ln 1 − −→ −t2 .
n n→+∞ n n n→+∞

2
Par continuité de la fonction exp en −t2 , on obtient fn (t) −→ e−t .
n→+∞
2
Ainsi, la suite de fonction (fn ) converge simplement vers la fonction t �→ e−t , qui est
continue sur [0, +∞[ .
 √ 
• Hypothèse de domination. Soit n ∈ IN∗ et t ∈ 0, n . Par inégalité de convexité puis par
croissance de exp , on a :
    2

t2 t2  
ln 1− − donc fn (t) = exp n ln 1 − t 2
 e−t .
n n n

Pour t  n , on a fn (t) = 0 , donc cette inégalité reste vraie. On a donc obtenu :
 
∀n ∈ IN∗ ∀t  0 fn (t)  e−t2 .

2
La fonction t �→ e−t étant intégrable sur [0, +∞[ , cela fournit l’hypothèse de domination.
Par théorème de convergence dominée, on en déduit :
 +∞
2
In −→ e−t dt.
n→+∞
0

552
I Suites et séries d’intégrales

2 Intégration terme à terme


Nous admettrons les deux théorèmes suivants.

Théorème 2 (Théorème d’intégration terme à terme – cas positif)


Soit (un )n∈IN une suite de fonctions intégrables sur un intervalle I , à valeurs

dans IR+ , telle que la série un converge simplement et telle que sa somme soit
continue par morceaux sur I . Alors, dans [0, +∞], on a :
 +∞ +∞ 

un = un .
I n=0 n=0 I

En particulier, l’intégrabilité de la somme équivaut à :


+∞ 

Exo un < +∞.
n=0 I
13.3

 1  +∞
ln t 1
Ex. 4. Montrons que dt = ·
0
t−1 (n + 1)2
n=0

• Pour tout t ∈ ]0, 1[ , la série géométrique tn ln t converge et l’on a :

+∞
 ln t
tn ln t = ·
1−t
n=0

• Pour tout n ∈ IN , la fonction un : ]0, 1[ −→ IR est intégrable sur ]0, 1[ , à valeurs


t �−→ −tn ln t

dans IR+ et un converge simplement vers la fonction t �→ ln t
t−1
, continue sur ]0, 1[ .
• Par intégration par parties, on a :

 1  1  1  1
  n tn+1 1 1
−un (t) dt = t ln t dt = ln t − tn dt = − ·
0 0
n+1 0
n+1 0
(n + 1)2

Par théorème d’intégration terme à terme, on en déduit :

 1  +∞  1 +∞

ln t 1
dt = un (t) dt = ·
0
t−1 0
(n + 1)2
n=0 n=0

 1 ln t
Observons que la convergence de la série (n+1)2
assure l’intégrabilité de la fonction t �→ t−1
,
ce que l’on pourrait, naturellement, montrer directement.

553
Chapitre 13. Intégrales à paramètres
Théorème 3 (Théorème d’intégration terme à terme)
Soit (un )n∈IN une suite de fonctions intégrables sur un intervalle I , telle que la

série un converge simplement vers une fonction continue par morceaux sur I .
+∞ 
 
+∞
Si |un | < +∞, alors, la fonction un est intégrable sur I et :
n=0 I n=0

 
+∞ +∞ 

Exo un = un .
13.4 I n=0 n=0 I

 1  (−1)n +∞
ln t
Ex. 5. Montrons que dt = ·
0
1+t (n + 1)2
n=0

• Pour tout t ∈ ]0, 1] , la série géométrique (−1)n tn ln t converge et l’on a :

+∞
 ln t
(−1)n tn ln t = ·
1+t
n=0

• Pour tout n ∈ IN , la fonction un : ]0, 1] −→ IR est intégrable sur ]0, 1] et


t �−→ (−1)n tn ln t

la série un converge simplement vers la fonction t �→ ln t
1+t
, continue sur ]0, 1] .
• Comme vu dans l’exemple 4 de la page précédente, on a pour tout n ∈ IN :
 
1   1
1
un (t) dt = − tn ln t dt = ·
0 0
(n + 1)2

 1
La série (n+1)2
étant convergente, le théorème d’intégration terme à terme s’applique : la
fonction t �→ 1+t est intégrable sur ]0, 1]
ln t
et :

 1  +∞  1 
+∞
ln t (−1)n+1
dt = un (t) dt = ·
0
1+t 0
(n + 1)2
n=0 n=0

Point méthode D’après le théorème d’intégration terme à terme (cas positif),



pour démontrer la convergence de la série I
|un |, il est équivalent de montrer

+∞
l’intégrabilité de la fonction |un | sur I .
n=0

Ex. 6.
• Soit x ∈ ]−1, 1[ . La fonction f : t �→ e−t tx est continue sur ]0, +∞[ . Par ailleurs, on a :
1
e−t tx ∼ tx avec x > −1 et e−t tx = o avec 2 > 1,
t→0+ t→+∞ t2

donc la fonction f est intégrable sur ]0, +∞[ .

554
I Suites et séries d’intégrales

• D’après le développement en série entière de la fonction exp, on a :


 +∞  +∞ +∞  (ln t)n n
e−t tx dt = e−t x dt.
0 0  n!
 
n=0
=un (t)


Les fonctions un sont continues par morceaux et intégrables sur ]0, +∞[ et la série un
converge simplement vers la fonction continue f .
• Par positivité de |un | , on a ensuite :

+∞   +∞ +∞
 +∞    | ln t|n n
un (t) dt = e−t |x| dt
0 0
n!
n=0 n=0
 1  +∞
−t −|x|
= e t dt + e−t t|x| dt < +∞
0 1

car les fonctions t �→ e−t t−|x| et t �→ e−t t|x| sont intégrables sur ]0, +∞[ comme vu dans
 
le premier point étant donné que −|x|, |x| ∈ ]−1, 1[2 .
  +∞  
La série un (t) dt étant convergente, le théorème d’intégration terme à terme s’applique
0
et donne :
 +∞ +∞
  +∞

1
e−t tx dt = e−t (ln t)n dt xn ,
0
n! 0
n=0
 +∞
ce qui montre en particulier que la fonction x �→ e−t tx dt est développable en série
0
+∞
  +∞

1
entière sur ]−1, 1[ et donc que la série entière e−t (ln t)n dt xn a un rayon de
n! 0
n=0
convergence supérieur ou égal à 1 .

  
Attention L’hypothèse de convergence de la série I |un | est essentielle et la
  
seule convergence, même absolue, de la série I un ne suffit pas, comme le montre
l’exemple suivant.

Ex. 7. Pour tout n ∈ IN , soit un : ]−1, 1[ → IR définie par un (t) = t2n+1 .


 1
• Pour tout n ∈ IN , la fonction un est intégrable, impaire, et l’on a : un = 0 .
−1
 1
En particulier, la série −1
un converge.

• La série un converge simplement sur ]−1, 1[ , puisque, pour tout t ∈ ]−1, 1[ , la sé-

rie un (t) est une série géométrique de raison t2 ∈ [0, 1[ .
t
Sa somme t �→ 1−t2
est continue sur ]−1, 1[ , mais elle n’est pas intégrable, car on a :

t 1
∼ ·
1 − t2 t→1 2(1 − t)

555
Chapitre 13. Intégrales à paramètres

Autres méthodes pour intégrer terme à terme



Soit un une série de fonctions intégrables sur I , qui converge simplement, dont on
notera Sn , Rn et S respectivement la n-ième somme partielle, le reste d’ordre n et
la somme. Si S est intégrable sur I , alors, par linéarité de l’intégrale, on a :
   n  
S = Sn + Rn = uk + Rn ,
I I I k=0 I I
 
de sorte que la série numérique u est convergente, de somme I S si, et seule-
I n

ment si, la suite I Rn converge vers 0 .
Les deux théorèmes d’intégration terme à terme, lorsqu’ils s’appliquent, permettent

d’échanger directement les symboles et I , autrement dit d’intégrer terme à terme

la série de fonctions un .
Lorsque leurs hypothèses ne
 sont pas vérifiées, il faudra le plus souvent démontrer que
la suite de terme général I Rn converge vers 0 pour justifier une intégration terme
à terme.
Point méthode Pour justifier une interversion série/intégrale, on pourra parfois,
 Sn et Rn la somme partielle et le reste d’ordre n de la série de fonc-
en notant
tions un de somme S , vérifier que :
  
Rn −→ 0 ou Sn −→ S.
I n→+∞ I n→+∞ I

Pour établir de telles limites, on utilisera en général le théorème de convergence


dominée.

Ex. 8.
 (−1)n
• Pour t > 1 , la série géométrique converge, et l’on a :
t3n+3
+∞
 (−1)n 1
= ·
t3n+3 1 + t3
n=0

• Pour tout n ∈ IN , on pose un : ]1, +∞[ −→ IR et la série de fonctions un
1
t �−→ t3n+3
1
converge simplement sur ]1, +∞[ vers la fonction continue t �→ 1+t3
·
 1

• Hypothèse de domination. Soit n ∈ IN . Puisque pour tout t > 1 , la suite t3n+3
converge
en décroissant vers 0 , d’après le théorème des séries alternées, on a :
 +∞ 
    
 1 1
∀t > 1 Rn (t) =  uk (t)  3n+3  3 ,
  t t
k=n+1

et la fonction t �→ 1
t3
est intégrable sur ]1, +∞[ .
 +∞
Par théorème de convergence dominée, on en déduit que Rn (t) dt −→ 0 puis :
n→+∞
1
 +∞ +∞
  +∞  (−1)n +∞
1 (−1)n
dt = dt = ·
1
1+t 3
1
t 3n+3 3n + 2
n=0 n=0

556
II Continuité et dérivabilité

On observe que le théorème d’intégration terme à terme ne s’applique pas ici car :
 +∞

+∞   1 1
∀n ∈ IN un (t) dt = et = +∞·
1
3n + 2 3n + 2
n=0

En revanche, l’inégalité :
  1
∀t > 1 Rn (t) 
t3n+3
 +∞
permet de montrer directement que Rn (t) dt −→ 0 puisque :
n→+∞
1
   
 +∞  +∞   +∞
dt 1
 Rn (t) dt  Rn (t) dt  = ·
 t3n+3 3n + 2
1 1 1

II Continuité et dérivabilité
1 Continuité d’une intégrale à paramètre
Théorème 4 (Théorème de continuité d’une intégrale à paramètre)
Soit A une partie non vide d’un espace normé E de dimension finie, I un intervalle
de IR et f : A × I → IK . On fait les hypothèses suivantes :
• pour tout t ∈ I , la fonction x �→ f (x, t) est continue sur A,
• pour tout x ∈ A, la fonction t �→ f (x, t) est continue par morceaux sur I ,
• hypothèse de domination : pour tout a ∈ A, il existe un voisinage V de a
et une fonction ϕ : I → IR intégrable sur I telle que :
 
∀(x, t) ∈ (V ∩ A) × I f (x, t)  ϕ(t).

Exo Alors la fonction g : x �→ f (x, t) dt est définie et continue sur A.
13.5 I
Démonstration page 564
Principe de démonstration. On utilise la caractérisation séquentielle de la continuité et le
théorème de convergence dominée.

Point méthode
• Bien entendu, une domination sur tout A est suffisante et dans la pratique, on
commencera par chercher à établir une telle domination.
• Lorsque A est un intervalle de IR, on pourra chercher une domination sur tout
segment de A ou sur toute famille d’intervalles adaptée à la situation, c’est-à-
dire permettant d’obtenir une domination sur tout segment de A.

 +∞
e−xt
Ex. 9. Montrons que la fonction g : x �→ dt est définie et continue sur IR+ .
0
1 + t2
e−xt
Appliquons le théorème de continuité en notant f : (x, t) �→ 1+t2
·
• Pour tout t ∈ [0, +∞[ , la fonction x �→ f (x, t) est continue sur IR+ .
• Pour tout x ∈ IR+ , la fonction t �→ f (x, t) est continue par morceaux sur [0, +∞[ .

557
Chapitre 13. Intégrales à paramètres

• Hypothèse de domination. Pour tout (x, t) ∈ IR+ × [0, +∞[ , on a :


  −xt
1
f (x, t) = e  ·
1+t2 1 + t2
1 1
La fonction ϕ : t �→ 1+t2
est continue sur [0, +∞[ et ϕ (t) ∼ 2 ; d’où l’intégrabilité
t→+∞ t
de ϕ sur [0, +∞[ .
En conclusion, la fonction g est définie et continue sur IR+ .
 +∞
Ex. 10. Montrons que la fonction g : x �→ cos(t2 )e−xt dt est définie et continue sur IR∗+ .
0
On définit f sur IR∗+ × [0, +∞[ par :

∀(x, t) ∈ IR∗+ × [0, +∞[ f (x, t) = cos(t2 )e−xt .


• Pour tout t ∈ [0, +∞[ , la fonction x �→ f (x, t) est continue sur IR∗+ .
• Pour tout x ∈ IR∗+ , la fonction t �→ f (x, t) est continue par morceaux sur [0, +∞[ .
• Hypothèse de domination. Soit a > 0 . Pour tout x  a , on a :
 
∀t ∈ [0, +∞[ f (x, t)  e−xt  e−at .

Comme a est strictement positif, la fonction t �→ e−at est intégrable sur [0, +∞[ , ce qui
fournit l’hypothèse de domination sur [a, +∞[ , et donc sur tout segment de IR∗+ .
En conclusion, la fonction
 g est bien définieet continue sur IR∗+ .
Ex. 11. Soit H = z ∈ C : Re(z) > 0 et f : [0, +∞[ → C une fonction continue par
morceaux telle que, pour tout p ∈ H , la fonction t �→ e−pt f (t) soit intégrable sur [0, +∞[ .
On définit la transformée de Laplace Lf : H → C de f par :
 +∞
∀p ∈ H Lf (p) = e−pt f (t) dt.
0

Montrons que Lf est continue sur H .


• Pour tout t ∈ [0, +∞[ , la fonction p �→ e−pt f (t) est continue sur H .
• Pour tout p ∈ H , la fonction t �→ e−pt f (t) est continue par morceaux sur [0, +∞[ .
• Hypothèse de domination. Soit a > 0 et p ∈ H tel que Re(p) > a . Alors on a :
 −pt     
∀t ∈ [0, +∞[ e f (t) = e− Re(p)t f (t)  e−at f (t).
 
Comme a est strictement positif, la fonction t �→ e−at f (t) est intégrable sur [0, +∞[ par
hypothèse.
 
Les ouverts z ∈ C : Re(z) > a recouvrent H quand a décrit IR∗+ donc on a établi
l’hypothèse de domination au voisinage de tout point de H .
En conclusion, la fonction Lf est bien définie et continue sur H .

2 Limites d’intégrales
La conclusion du théorème de continuité peut s’écrire :
 
lim f (x, t) dt = f (a, t) dt.
x→a I I
Le théorème suivant étend ce résultat au cas où A est un intervalle de IR et a est
l’une de ses extrémités.

558
II Continuité et dérivabilité
Proposition 5
Soit I et A deux intervalles de IR, f : A × I → IK et a une extrémité de A. On
fait les hypothèses suivantes :
• pour tout x ∈ A, la fonction t �→ f (x, t) est continue par morceaux sur I ,
• il existe une fonction g ∈ CM(I, IK) telle que pour tout t ∈ I , on
ait lim f (x, t) = g(t),
x→a

• hypothèse de domination : il existe ϕ : I → IR intégrable sur I telle que :


 
∀(x, t) ∈ A × I f (x, t)  ϕ(t).

Alors, pour tout x ∈ A, la fonction t �→ f (x, t) est intégrable sur I , la fonction g


est intégrable sur I et l’on a :
 
Exo lim f (x, t) dt = g(t) dt.
13.6 x→a I I
Démonstration page 564
Principe de démonstration. On utilise la caractérisation séquentielle de la limite et le
théorème de convergence dominée.

Remarques
• Ce résultat sert surtout lorsque a = ±∞ car, pour a ∈ IR, quitte à prolonger
par continuité les fonctions, on pourra le plus souvent appliquer le théorème de
continuité des intégrales à paramètre.
• Par caractère local de la limite, il suffit d’établir une domination au voisinage
de a. Ainsi, dans le cas où a = +∞, une domination sur un intervalle de la
forme J0 = [x0 , +∞[ ⊂ J suffit.

Ex. 12. On reprend les notations de l’exemple 11 de la page précédente.


On note ℓ0 = lim f (t) , on suppose l’existence de ℓ∞ = lim f (t) et l’on considère la
t→0+ t→+∞

restriction de Lf à IR∗+ . Établissons les deux résultats suivants.


• Théorème de la valeur initiale : lim p Lf (p) = ℓ0 .
p→+∞

• Théorème de la valeur finale : lim p Lf (p) = ℓ∞ .


p→0+

u
En effectuant dans l’intégrale définissant Lf (p) le changement de variable [t = p
], on obtient :
 +∞  
u
∀p > 0 pLf (p) = e−u f du.
0
p

Appliquons la proposition 5.
 
• Pour tout p > 0 , la fonction u �→ e−u f up est continue par morceaux sur ]0, +∞[ .
• Pour tout u > 0 , on a :
   
u u
lim e−u f = e−u ℓ0 et lim e−u f = e−u ℓ∞ .
p→+∞ p p→0+ p

Les fonctions u �→ e−u ℓ0 et u �→ e−u ℓ∞ sont continues sur ]0, +∞[ .

559
Chapitre 13. Intégrales à paramètres

• Hypothèse de domination. Comme f est continue par morceaux sur IR+ et possède une
limite finie en +∞ , elle est bornée ; notons M = sup |f | et ϕ : u �→ M e−u . On a :
IR+

 
 −u  u 
∀p ∈ ]0, +∞[ ∀u ∈ ]0, +∞[ e f   ϕ(u),
 p 

ce qui fournit l’hypothèse de domination puisque ϕ est intégrable.


D’après la proposition 5 de la page précédente, on peut conclure, que :
 +∞  +∞
−u
p Lf (p) −→ ℓ0 e du = ℓ0 et p Lf (p) −→ ℓ∞ e−u du = ℓ∞ .
p→+∞
0 p→0+ 0

3 Dérivation d’une intégrale à paramètre


Rappel Soit I et J deux intervalles de IR, f : (x, t) �→ f (x, t) une fonction définie
sur J × I à valeurs dans IK et (x0 , t0 ) ∈ J × I .
Lorsqu’elle existe, la dérivée en x0 de la fonction x �→ f (x, t0 ) est appelée dérivée
partielle par rapport à x en (x0 , t0 ) de f et est notée ∂f
∂x (x0 , t0 ).

x2
Ex. 13. Soit f : IR × ]0, +∞[ → IR définie par f (x, t) = x2 +t2
·
Pour tout t > 0 , la fonction x �→ f (x, t) est dérivable comme quotient de fonctions dérivables,
∂f
le dénominateur ne s’annulant pas. Par suite, ∂x existe sur IR × ]0, +∞[ et l’on a :

∂f 2x −2x 2xt2
∀(x, t) ∈ IR × ]0, +∞[ (x, t) = 2 + x2 2 = 2 ·
∂x x +t 2 (x + t )
2 2 (x + t2 )2

Théorème 6 (Théorème de dérivation d’une intégrale à paramètre)


Soit I et J deux intervalles de IR et f : (x, t) �→ f (x, t) une fonction définie
sur J × I à valeurs dans IK . On fait les hypothèses suivantes :
• pour tout x ∈ J , la fonction t �→ f (x, t) est intégrable sur I ,
• pour tout t ∈ I , la fonction x �→ f (x, t) est de classe C 1 sur J ,
∂f
• pour tout x ∈ J , la fonction t �→ ∂x (x, t) est continue par morceaux sur I ,
• hypothèse de domination : pour tout segment K de J , il existe une fonc-
tion ϕ : I → IR intégrable sur I telle que :
 
 ∂f 

∀(x, t) ∈ K × I  (x, t)  ϕ(t).
∂x

Alors la fonction g : x �→ f (x, t)dt est bien définie, de classe C 1 sur J , et l’on a :
I

Exo ∂f
∀x ∈ J g ′ (x) = (x, t) dt.
13.7 I ∂x
Démonstration page 565
Principe de démonstration. Pour tout x0 ∈ J , on forme le taux d’accroissement de g
en x0 et l’on applique le théorème de continuité.

560
II Continuité et dérivabilité

Point méthode Bien entendu, une domination sur tout J est suffisante. Dans
la pratique, on commencera par essayer d’établir une telle domination globale et,
seulement si nécessaire, on se limitera aux segments de J , voire à une famille d’in-
tervalles adaptée à la situation, c’est-à-dire permettant d’obtenir une domination
sur tout segment de J .

 +∞
eixt
Ex. 14. Montrons que g : x �→ dt est définie et de classe C 1 sur IR .
0
1 + t3
Appliquons le théorème de dérivation.
eixt
Soit f : IR × IR+ −→ C la fonction définie par f (x, t) = 1+t3
·
• Soit x ∈ IR .
La fonction t �→ f (x, t) est continue par morceaux sur [0, +∞[ et, comme on a :
  1 1
f (x, t) = ∼ ,
1 + t3 t→+∞ t3
elle est intégrable sur [0, +∞[ .
• Pour tout t ∈ [0, +∞[ , la fonction x �→ f (x, t) est de classe C 1 sur IR et l’on a :

∂f it eixt
∀(x, t) ∈ IR × [0, +∞[ (x, t) = ·
∂x 1 + t3
∂f
• Pour tout x ∈ IR , la fonction t �→ ∂x
(x, t) est continue par morceaux sur [0, +∞[ .
• Hypothèse de domination. On a :
 
 ∂f 
∀(x, t) ∈ IR × [0, +∞[  (x, t) = t ·
 ∂x  1 + t3
t 1
La fonction ϕ : t �→ 1+t3
est continue sur [0, +∞[ et, comme ϕ(t) ∼ t2
au voisinage
de +∞ , elle est intégrable sur [0, +∞[ .
On déduit du théorème de dérivation que g est de classe C 1 sur IR et que :
 +∞
it eixt
∀x ∈ IR g ′ (x) = dt.
0
1 + t3

Ex. 15. Le but de cet exemple est d’expliciter pour tout x > 0 l’intégrale :
 +∞
sin t −xt
g(x) = e dt.
0
t

On définit f sur (IR∗+ )2 par :


sin t −xt
∀(x, t) ∈ (IR∗+ )2 f (x, t) = e .
t
• Soit x > 0 . La fonction t �→ f (x, t) est continue par morceaux sur IR∗+ et, comme on a :
 
1
f (x, t) −→ 1 et f (x, t) = O ,
t→0+ t→+∞ t2
elle est intégrable sur IR∗+ .

561
Chapitre 13. Intégrales à paramètres

• Pour tout t > 0 , la fonction x �→ f (x, t) est de classe C 1 sur IR∗+ et l’on a :

∂f
∀(x, t) ∈ (IR∗+ )2 (x, t) = − sin(t)e−xt .
∂x

∂f
• Pour tout x > 0 , la fonction t �→ ∂x
(x, t) est continue par morceaux sur IR∗+ .
• Hypothèse de domination. Soit a > 0 . On a :

 
 ∂f 
∀(x, t) ∈ [a, +∞[ × IR∗+  (x, t) = | sin t|e
−xt
e−at .
 
∂x
=ϕ(t)

La fonction ϕ est intégrable sur IR∗+ car a > 0 , ce qui fournit l’hypothèse de domination
sur tout segment.

On en déduit que g est de classe C 1 sur IR∗+ et que :

 +∞  +∞
∀x > 0 g ′ (x) = − sin(t)e−xt dt = − Im e(i−x)t dt.
0 0

Ayant :

 +∞
 +∞
(i−x)t e(i−x)t 1 x+i
e dt = = = 2 ,
0
i−x 0
x−i x +1

on en déduit :
1
∀x > 0 g ′ (x) = − ·
1 + x2

Ainsi, il existe C ∈ IR tel que :

∀x > 0 g(x) = C − Arctan x.

Par inégalité triangulaire, inégalité de concavité et croissance de l’intégrale, on a :

   
   +∞
sin t −xt 
+∞
| sin t| −xt
+∞
1
∀x > 0 g(x) = 
  e dt  e dt  e−xt dt = ,
0
t 0
t 0
x

π
puis par majoration, g(x) −→ 0 donc C = 2
·
x→+∞
 +∞
sin t −xt π
En conclusion, on a ∀x > 0 e dt = − Arctan x .
0
t 2

562
II Continuité et dérivabilité
Corollaire 7
Soit I et J deux intervalles de IR, k ∈ IN∗ et f : (x, t) �→ f (x, t) une fonction
définie sur J × I à valeurs dans IK . On fait les hypothèses suivantes :

• pour tout t ∈ I , la fonction x �→ f (x, t) est de classe C k sur J ,


∂pf
• pour tous x ∈ J et p ∈ [[0, k − 1]], la fonction t �→ ∂xp (x, t) est intégrable sur I ,
k
∂ f
• pour tout x ∈ J , la fonction t �→ ∂xk (x, t) est continue par morceaux sur I ,
• hypothèse de domination : pour tout segment K de J , il existe ϕ : I → IR
intégrable telle que :  k 
∂ f 
∀(x, t) ∈ K × I  k (x, t)  ϕ(t).

 ∂x
Alors la fonction g : x �→ f (x, t) dt est bien définie, de classe C k sur J et l’on a,
I
 p
Exo ∂ f
13.8
pour tout p ∈ [[0, k]] : ∀x ∈ J g (p) (x) = p
(x, t) dt.
I ∂x
Démonstration page 565

Point méthode Pour montrer que g est de classe C ∞ , il suffit de vérifier que :
• pour tout t ∈ I , la fonction x �→ f (x, t) est de classe C ∞ ;
∂kf
• pour tout k ∈ IN, pour tout x ∈ J , la fonction t �→ ∂xk (x, t) est continue par
morceaux sur I ;
Exo ∂kf
13.9 • chacune des dérivées partielles ∂xk
est dominée sur tout segment.
 +∞
2
Ex. 16. Montrons que g : x �→ e−t e−itx dt est définie et de classe C ∞ sur IR .
−∞
2
On définit f : (x, t) �→ e−t e−itx sur IR2 .
• Pour tout t ∈ IR , la fonction x �→ f (x, t) est de classe C ∞ sur IR et l’on a :
∂kf 2
∀k ∈ IN ∀(x, t) ∈ IR2 (x, t) = (−it)k e−t e−itx .
∂xk
∂k f
• Pour tout x ∈ IR et tout k ∈ IN , la fonction t �→ ∂xk
(x, t) est continue par morceaux sur IR .
• Hypothèse de domination. Soit k ∈ IN . On a :
 
 k 
2 ∂ f  k −t2
∀ (x, t) ∈ IR  k (x, t) = |t| e .
 ∂x 
2
La fonction ϕ : t �→ |t|k e−t est continue par morceaux sur IR et :
 
1
ϕ(t) = o ·
t→±∞ t2
La fonction ϕ étant intégrable, l’hypothèse de domination est vérifiée.
D’après le théorème de dérivation, g est définie et de classe C ∞ sur IR , et :
 +∞
2
∀k ∈ IN ∀x ∈ IR g (k) (x) = (−it)k e−t e−itx dt.
−∞

563
Chapitre 13. Intégrales à paramètres

Démonstrations
Théorème 4
Bonne définition. La continuité par morceaux et l’hypothèse de domination montrent que
pour tout x ∈ A , la fonction t �→ f (x, t) est intégrable sur I .
Donc g est bien définie sur A .
Continuité. Soit a ∈ A . Montrons que g est continue en a en utilisant la caractérisation
séquentielle de la continuité.
Soit (xn )n∈IN une suite de points de A telle que lim xn = a .
n→+∞

Montrons que g(xn ) −→ g(a) .


n→+∞

D’après l’hypothèse de domination, on peut fixer V un voisinage de a et ϕ : I → IR une


fonction intégrable telle que :
 
∀(x, t) ∈ (V ∩ A) × I f (x, t)  ϕ(t).

À partir d’un certain rang n0 , on a xn ∈ V ∩ A . Notons (fn )nn0 la suite de fonctions


définies sur I par fn (t) = f (xn , t) et appliquons-lui le théorème de convergence dominée.
• D’après la deuxième hypothèse, chaque fn est continue par morceaux sur I .
• Pour tout t ∈ I fixé, d’après la première hypothèse et par composition des limites appli-
quée à la fonction x �→ f (x, t) , on a lim f (xn , t) = f (a, t) .
n→+∞
Ainsi la suite (fn )nn0 converge simplement sur I vers la fonction t �→ f (a, t) , continue
par morceaux sur I d’après la deuxième hypothèse.
• Hypothèse de domination. Pour tous t ∈ I et n  n0 , on a, d’après la troisième
 
hypothèse, fn (t)  ϕ(t) , avec ϕ intégrable sur I .
Par le théorème de convergence dominée, on a :
 
f (xn , t) dt −→ f (a, t) dt c’est-à-dire g(xn ) −→ g(a).
n→+∞ n→+∞
I I

Proposition 5 L’intégrabilité de chaque fonction t �→ f (x, t) se déduit de l’hypothèse de domina-


tion et du théorème de comparaison.
Utilisons la caractérisation séquentielle de la limite.
Soit (xn )n∈IN une suite de points de A de limite a . On a donc lim f (xn , t) = g(a) . Ap-
n→+∞
pliquons le théorème de convergence dominée à la suite de fonctions (fn )n∈IN définies sur I
par :
∀t ∈ I fn (t) = f (xn , t).
• La suite (fn )n∈IN de fonctions continues par morceaux sur I converge simplement sur I vers
la fonction g continue par morceaux.
• On a la domination par hypothèse.
Par suite, g est intégrable sur I et l’on a :
 
fn −→ g,
n→+∞
I I

c’est-à-dire :  
f (xn , t) dt −→ g(t) dt.
n→+∞
I I
Comme ce résultat est établi pour toute suite (xn )n∈IN de points de A de limite a , on déduit
 
de la caractérisation séquentielle de la limite que f (x, t) dt −→ g(t) dt .
x→a
I I

564
Démonstrations

Théorème 6 Fixons x0 ∈ J et appliquons le théorème 4 de la page 557 à la fonction f1 : J ×I → IK



 f (x, t) − f (x0 , t) si x �= x0
définie par f1 (x, t) = x − x0
 ∂f
(x0 , t) si x = x0 .
∂x
• Soit t ∈ I . D’après la deuxième hypothèse, la fonction x �→ f1 (x, t) est de classe C 1 donc
continue sur J \ {x0 } et elle est continue en x0 par définition de la dérivée.
• D’après la première et la troisième hypothèse, la fonction t �→ f1 (x, t) est continue par
morceaux sur I , pour tout x ∈ J .
• Hypothèse de domination. Soit K un segment de J contenant x0 ainsi que ϕ : I → IR
intégrable telle que :
� �
� ∂f �
∀(x, t) ∈ K × I �� (x, t)��  ϕ(t).
∂x
La classe C 1 sur J , pour tout t ∈ I , de la fonction x �→ f (x, t) permet de lui appliquer
l’inégalité des accroissements finis. On en déduit, d’après l’hypothèse de domination :
� �
∀(x, t) ∈ K × I �f1 (x, t)�  ϕ(t).

On peut ainsi conclure que la fonction g1 : x �→ f1 (x, t) dt est continue sur J ; on a donc,
I
en particulier :

∂f
lim g1 (x) = g1 (x0 ) = (x0 , t) dt.
x→x0
I
∂x
Or, pour x ∈ J \ {x0 } , on a :

f (x, t) − f (x0 , t) g(x) − g(x0 )
g1 (x) = dt = ·
I
x − x0 x − x0
Ainsi, on a établi que g est dérivable en x0 et :

′ ∂f
g (x0 ) = (x0 , t) dt.
I
∂x
Le résultat précédent étant vrai pour tout x0 ∈ J , g est dérivable sur J .
Une nouvelle application du théorème de continuité, avec la même domination, permet de prouver
que g ′ est continue sur J , donc que g est de classe C 1 .
Corollaire 7 Établissons ce résultat par récurrence sur k .
Initialisation. Lorsque k = 1 , il s’agit précisément du théorème de dérivation.
Hérédité. Soit k  2 . Supposons le résultat établi au rang k − 1 et donnons-
nous f : J × I → IK vérifiant les hypothèses du théorème.
k−1
∂ f
• Hypothèse de domination sur ∂x k−1 ·

Soit [a, b] un segment de J , avec a < b , et ϕ : I → IR intégrable telle que :


� k �
�∂ f �

∀(x, t) ∈ [a, b] × I � k (x, t)��  ϕ(t).
∂x
k−1
∂ f
La classe C 1 sur [a, b] , pour tout t ∈ I , de la fonction x �→ ∂x k−1 (x, t) permet de lui

appliquer, pour tout x ∈ [a, b] , l’inégalité des accroissements finis sur le segment [a, x] .
On obtient :
� k−1 �
�∂ f ∂ k−1 f �
∀(x, t) ∈ [a, b] × I � (x, t) − (a, t) �  (x − a)ϕ(t)  (b − a)ϕ(t).
� ∂xk−1 ∂x k−1 �

565
Chapitre 13. Intégrales à paramètres

En utilisant l’inégalité triangulaire, on en déduit :


 k−1   k−1 
∂ f  ∂ f 
∀(x, t) ∈ [a, b] × I  (x, t)  (a, t)  + (b − a)ϕ(t) .
 ∂xk−1   ∂xk−1 
  
=ψ(t)

La fonction ψ étant intégrable, on dispose donc d’une domination sur tout segment de
k−1
∂ f
la fonction (x, t) �→ ∂x k−1 (x, t) .

• Toutes les autres hypothèses sont réunies pour appliquer le résultat au rang k − 1 afin
d’en déduire que g est de classe C k−1 et pour tout p ∈ [[0, k − 1]] :

(p) ∂pf
∀(x, t) ∈ J × I g (x) = (x, t) dt.
I
∂xp

∂ k−1 f
• En appliquant le théorème de dérivation à la fonction x �→ (x, t) dt , on conclut.
I
∂xk−1

566
Exercices

S’entraîner et approfondir
 1
13.1 Pour tout n ∈ IN , on pose In = ln (1 + tn ) dt .
→550 0
1. Déterminer lim In .
n→+∞
1
2. À l’aide du changement de variable [t = u n ] , déterminer un équivalent de In . On
exprimera l’équivalent obtenu à l’aide d’une intégrale que l’on ne cherchera pas à calculer.

 1
du
13.2 Déterminer un équivalent simple de la suite In = ·
→551 0
(1 + u2 )n
On exprimera l’équivalent obtenu à l’aide d’une intégrale que l’on ne cherchera pas à calculer.
Indication. On pourra effectuer le changement de variable [u = √t ] .
n

 +∞  1 +∞
x2
13.3 Montrer que dx = 2 ·
→553 0
e −1
x n3
n=1

 +∞ +∞
 (−1)n
t
13.4 Montrer que dt = 2 ·
→554 0
ch t (2n + 1)2
n=0

13.5 Continuité de la fonction Γ .


 +∞
→557
 
Soit H = z ∈ C : Re (z) > 0 . Pour tout z ∈ H , on pose Γ(z) = e−t tz−1 dt .
0
Montrer que Γ est bien définie et continue.

 +∞
e−t
13.6 Pour tout x > 0 , on pose g(x) = dt .
→559 0
t+x
1. Justifier la définition de g .
2. Montrer que g(x) ∼ 1·
x→+∞ x

 +∞
e−t − e−xt
13.7 Pour tout x > 0 , on pose g(x) = dt .
→560 0
t
1. Montrer que g est bien définie.
2. Montrer que g est de classe C 1 . Calculer g ′ , puis g .

13.8 Soit k ∈ IN∗ et f ∈ C k+1 (IR, IK) .


→563
f (x)−f (0)
Pour tout x ∈ IR∗ , on pose g(x) = x
et g(0) = f ′ (0) .
1. Montrer que :
 1
∀x ∈ IR g(x) = f ′ (xu) du.
0

2. Montrer que g ∈ C k (IR, IK) .

567
Chapitre 13. Intégrales à paramètres

13.9 Classe C ∞ de la fonction Γ .


→563  +∞
Pour tout x > 0 , on pose Γ (x) = tx−1 e−t dt .
0
1. Montrer que la fonction Γ est bien définie.
2. Montrer que Γ est de classe C ∞ .

13.10 Montrer que pour tout x > 0 , on a :


 n  n
t
Γ(x) = lim tx−1 1− dt,
n→+∞
0
n
où Γ est la fonction définie dans l’exercice 13.9.

 n  n−1
∗ t
13.11 1. Justifier l’existence, pour tout n ∈ IN , de In = 1− ln t dt et montrer que :
0
n
n
 1
In = ln n − ·
k
k=1

Indication. On pourra effectuer le changement de variable [t = n(1 − u)] .


 +∞
2. En déduire que l’intégrale e−t ln t dt converge et :
0
 +∞
 n
 
1
e−t ln t dt = lim ln n − ·
0
n→+∞ k
k=1

13.12 On note ζ : ]1, +∞[ → IR la fonction définie par :


+∞
 1
∀x > 1 ζ (x) = ·
nx
n=1

Montrer que :
 +∞
tx−1
∀x > 1 Γ (x) ζ (x) = dt,
0
et − 1
où Γ est la fonction définie dans l’exercice 13.9.

13.13 Théorème de convergence monotone.


Soit (fn )n∈IN une suite croissante de fonctions à valeurs réelles, intégrables sur l’intervalle I
et convergeant simplement vers une fonction f continue par morceaux sur I .
 
Montrer que f est intégrable sur I si, et seulement si, la suite fn est majorée et
I n∈IN
que l’on a alors :
 
f = lim fn .
n→+∞
I I

568
Exercices

 π/2
Arctan(x tan t)
13.14 Soit F (x) = dt .
0
tan t
1. Déterminer le domaine de définition de F .
2. Calculer F .
 π/2  π/2
t
3. En déduire les valeurs des intégrales dt et ln(sin t) dt .
0
tan t 0

 +∞
ln x
⋆ 13.15 1. Justifier la convergence de I = dx et la calculer.
0
1 + x2
Indication. On pourra effectuer le changement de variable [x = 1t ]·
 +∞
ln x
2. Pour a > 0 , on pose I(a) = dx .
0
(1 + x2 )(a2 + x2 )
(a) Justifier la convergence de I(a) pour tout a > 0 et la calculer pour a �= 1 .
1
Indication. On pourra décomposer en éléments simples la fraction (1+X)(a 2 +X) ·

(b) En déduire I(1) .

 1
t−1
13.16 Pour tout x > −1 , on pose g(x) = tx dt .
0
ln t

1. Montrer que g est de classe C sur ]−1, +∞[ puis calculer g ′ .


1

2. Déterminer lim g(x) , puis calculer g .


x→+∞

13.17 Calcul de l’intégrale de Gauss.


 +∞ 2 2  +∞
e−x t 2
Soit g(x) = dt et I = e−u du.
0
1 + t2 0
1. Montrer que g est bien définie et continue sur IR+ .
2. Montrer que g est de classe C 1 sur IR∗+ et solution de l’équation différentielle :
y ′ − 2xy = −2I.

π
3. En déduire I = 2
·

569
Chapitre 13. Intégrales à paramètres

Solutions des exercices


13.1 1. On pourrait utiliser le théorème de convergence dominée, mais ici on peut aussi procéder
par majoration explicite.
On déduit de la concavité de la fonction ln l’inégalité suivante :
∀u > −1 ln(1 + u)  u.
On a donc :  1
1
∀n ∈ IN 0  In  tn dt =
0
n+1
et, par encadrement, lim In = 0 .
n→+∞

2. Soit n ∈ IN∗ . En effectuant le changement de variable [u = tn ] , on obtient :


 1
1 ln(1 + u) n1
In = u du .
n u
0  
=Jn

Appliquons le théorème de convergence dominée à la suite (Jn )n∈IN∗ .


1
• Pour tout n ∈ IN∗ , la fonction fn : u �→ ln(1+u)
u
u n est continue sur ]0, 1] .
• La suite (fn )n∈IN∗ converge simplement sur ]0, 1] vers la fonction conti-
nue f : u �→ ln(1+u)
u
·
• Hypothèse de domination. On a :
  ln(1 + u)
∀n ∈ IN∗ ∀u ∈ ]0, 1] fn (u) = fn (u)  ϕ(u) · avec ϕ(u) =
u
La fonction ϕ est intégrable sur ]0, 1] , car elle est continue et admet une limite finie
en 0 .
 1  1
On en conclut que lim fn = f . De plus, comme la fonction f est continue,
n→+∞
0 1 0

positive et non nulle, on a f > 0 . On peut donc écrire :


0
 1
1 ln(1 + u)
In ∼ du.
n 0
u

13.2 Soit n ∈ IN∗ . L’intégrale In est bien définie car l’intégrande est une fonction continue sur le
segment [0, 1] . Le changement de variable [u = √tn ] donne :
 √
n
 −n
1 t2
In = √ 1+ dt .
n n
0  
=Jn

Appliquons le théorème de convergence dominée pour montrer que la suite (Jn ) converge
vers un réel strictement positif.
Pour tout n ∈ IN∗ , on définit fn sur IR+ par :
 −n
t2
∀t ∈ IR+ fn (t) = 1+ 1[0,√n] (t).
n
• Pour tout n ∈ IN∗ , la fonction fn est continue par morceaux sur IR+ , comme produit
de deux fonctions continues par morceaux.

570
Solutions des exercices

• Soit t ∈ [0, +∞[ . Fixons n0 ∈ IN∗ tel que n0 > t2 . Alors, pour tout n  n0 , on a :
 −n   
t2 t2
fn (t) = 1+ = exp −n ln 1 + ·
n n
On a de plus :
   
t2 t2 t2
ln 1 + ∼ donc − n ln 1 + −→ −t2 .
n n→+∞ n n n→+∞

2
Par continuité de la fonction exp en −t2 , on obtient fn (t) −→ e−t . Ainsi, la suite de
n→+∞
2
fonctions (fn ) converge simplement vers la fonction t �→ e−t , qui est continue sur IR+ .

• Hypothèse de domination. Soit n ∈ IN∗ et t ∈ [0, n] . Par une conséquence de la
formule du binôme de Newton, on a :
 n
t2   1
1+  1 + t2 donc fn (t)  ·
n 1 + t2

Pour t > n , on a fn (t) = 0 , donc cette inégalité reste vraie. On a donc obtenu :
  1
∀n ∈ IN∗ ∀t  0 fn (t)  ,
1 + t2
1
et la fonction t �→ 1+t2
est intégrable sur IR+ .

Par théorème de convergence dominée, on en déduit :


 +∞  +∞
2 1 2
Jn −→ e−t dt puis In ∼ √ e−t dt.
n→+∞
0
n→+∞ n 0

x2
13.3 Soit f : x �→ ex −1
; pour tout x > 0 , on a :
+∞
x2 e−x  2 −nx
f (x) = = x e car e−x ∈ ]0, 1[.
1−e −x
n=1

Notons, pour tout n ∈ IN , un : x �→ x2 e−nx et appliquons à la série

un le théorème
d’intégration terme à terme (cas positif) sur IR∗+ .
• Pour tout n ∈ IN∗ , la fonction un est continue sur IR+ , à valeurs positives, et elle
 
est intégrable sur IR+ , car un (x) = o x12 quand x tend vers +∞ , par croissances
comparées, donc, a fortiori, intégrable sur IR∗+ .

• La série un converge simplement sur IR∗+ et sa somme f est continue sur IR∗+ .
 +∞
• Pour calculer un , déterminons d’abord une primitive de un par une double inté-
0
gration par parties :
 x  x  x
2 −nt x2 e−nx 2
un (t) dt = t e dt = − + te−nt dt
n n
 x
x2 e−nx 2xe−nx 2
=− − + 2 e−nt dt
n n2 n
x2 e−nx 2xe−nx 2e−nx
=− − − +C avec C ∈ IR.
n n2 n3

571
Chapitre 13. Intégrales à paramètres

Notant vn la primitive obtenue en prenant C = 0 , on a :


2
vn (0) = − et lim vn = 0.
n3 +∞
 +∞
2
On en déduit un = ·
0
n3
Pour conclure, par positivité de un , on en déduit :
 +∞  1 +∞
x2
dx = 2 ,
0
e −1
x n3
n=1

et la convergence de la série entraîne l’intégrabilité de la fonction f .

13.4 • Pour tout t > 0 , on a :


t 1
= 2te−t
ch t 1 + e−2t

+∞

= 2te−t (−1)n e−2nt (−e−2t ∈ ]−1, 1[)


n=0
+∞

= 2t(−1)n e−(2n+1)t .
n=0

Pour tout n ∈ IN , on pose un : t �→ 2t(−1)n e−(2n+1)t . La série de fonctions un
converge simplement sur ]0, +∞[ vers la fonction continue t �→ cht t ·
• Pour tout n ∈ IN , la fonction un est intégrable sur ]0, +∞[ et l’on a :
 
+∞   +∞
un (t) dt = 2te−(2n+1)t dt
0 0
 +∞  +∞
e−(2n+1)t 2
= −2t + e−(2n+1)t dt
2n + 1 0
2n + 1 0
 
2 1
= =O ·
(2n + 1)2 n2
 +∞  
La série un (t) dt étant convergente, le théorème d’intégration terme à terme
0
s’applique et donne :
  +∞  +∞
  +∞

+∞
t
+∞ +∞   (−1)n
dt = un (t) dt = (−1)n un (t) dt = 2 ·
0
ch t 0 0
2(2n + 1)
n=0 n=0 n=0

13.5 • Commençons par démontrer la bonne définition de la fonction Γ : ce sera utile lors de la
vérification ultérieure de l’hypothèse de domination.
Soit z ∈ H . La fonction t �→ e−t tz−1 est continue sur ]0, +∞[ .
 
Étude en 0 . On a e−t tz−1  ∼ tRe(z)−1 avec Re(z) − 1 > −1 .
t→0+
1
Étude en +∞ . Par croissances comparées, on a e−t tz−1 = o t2
avec 2 > 1 .
t→+∞

Ainsi, t �→ e−t tz−1 est intégrable sur ]0, +∞[ , donc Γ est bien définie sur H .

572
Solutions des exercices

• Pour tout t > 0 , la fonction :


 
z �→ e−t tz−1 = e−t exp (z − 1) ln t
est continue sur H , par continuité de l’exponentielle complexe.
• Hypothèse de domination. Soit (a, b) ∈ (IR∗+ )2 tel que a < b .
Soit z ∈ C tel que Re(z) ∈ ]a, b[ . On a :
 −t z−1   
∀t > 0 e t  = e−t tRe(z)−1  e−t ta−1 + tb−1 ,
par disjonction de cas suivant que t ∈ ]0, 1[ ou t ∈ [1, +∞[ .
 
D’après l’étude faite dans le premier point, la fonction t �→ e−t ta−1 +tb−1 est intégrable,
comme somme de deux fonctions intégrables.
 
Enfin, les ouverts z ∈ C : a < Re(z) < b recouvrent H quand a < b décrivent IR∗+
donc on a établi l’hypothèse de domination au voisinage de tout point de H .
En conclusion, la fonction Γ est continue sur H .

e−t
13.6 1. Pour tout x > 0 , la fonction fx : t �→ t+x
est continue sur IR+ et, quand t tend
−t
vers +∞ , on a fx (t) = o(e ) , ce qui assure l’intégrabilité de fx sur IR+ .
2. Montrons que xg(x) −→ 1 . On a :
x→+∞
 +∞
x −t
∀x > 0 xg(x) = e dt.
0
t+x

• Pour tout t  0 , on a x
t+x
e−t −→ e −t
et la fonction t �→ e−t est continue sur IR+ .
x→+∞
• Hypothèse de domination. Soit x  1 . Pour tout t  0 , on a :
 
 t −t  t
 e = e−t  e−t ,
t+x t+x
et la fonction t �→ e−t est intégrable sur IR+ .
D’après la proposition 5 de la page 559, on peut conclure, que :
 +∞  +∞
x −t 1
xg(x) = e dt −→ e−t dt = 1 donc g(x) ∼ ·
0
t+x x→+∞
0
x→+∞ x

e−t −e−xt
13.7 1. Pour tout x ∈ IR∗+ , la fonction hx : t �→ t
est continue sur IR∗+ .
Un développement limité à l’ordre 1 du numérateur donne lim hx (t) = x − 1 ; ad-
t→0
mettant une limite finie en 0+ , la fonction hx est intégrable sur ]0, 1] . On a de
 
plus hx (t) = o t12 par croissances comparées, donc hx est intégrable sur [1, +∞[ ,
t→+∞
ce qui achève de montrer que la fonction g est bien définie sur IR∗+ .
e−t −e−xt
2. Posons f : (x, t) �→ t
définie sur IR∗+ × ]0, +∞[ .
• Pour tout t > 0 , la fonction x �→ f (x, t) est de classe C 1 sur IR∗+ et l’on a :
∂f
∀(x, t) ∈ IR∗+ × IR∗+
(x, t) = e−xt .
∂x
• Pour tout x > 0 , la fonction t �→ f (x, t) est intégrable sur ]0, +∞[ , d’après la
première question.

573
Chapitre 13. Intégrales à paramètres

• Pour tout x > 0 , la fonction t �→ ∂f


∂x
(x, t) est continue par morceaux sur ]0, +∞[ .
• Hypothèse de domination. Soit a > 0 . On a :
 
 ∂f 
∀x  a ∀t ∈ ]0, +∞[  (x, t) = e−xt  e−at .

∂x

La fonction t �→ e−at étant intégrable sur ]0, +∞[ , cela fournit l’hypothèse de domi-
nation pour ∂f
∂x
sur tout intervalle [a, +∞[ inclus dans IR∗+ .
D’après le théorème de dérivation des intégrales à paramètre, la fonction g est de classe C 1
sur IR∗+ et :
 +∞
1
∀x > 0 g ′ (x) = e−xt dt = ·
0
x
Comme g(1) = 0 , on déduit de ce qui précède que :
∀x > 0 g(x) = ln x.

 x
13.8 1. Soit x ∈ IR . La fonction f est de classe C 1 donc f (x) − f (0) = f ′ (t) dt .
0

En effectuant le changement de variable [t = xu] , on obtient :


 1
f (x) − f (0) = x f ′ (xu) du.
0

 1
On en déduit que g(x) = f ′ (xu) du pour tout x ∈ IR∗ . Puisque g(0) = f ′ (0) , cette
0
relation est encore vraie pour x = 0 .
2. Pour tout (x, u) ∈ IR × [0, 1] , on pose h(x, u) = f ′ (xu) .
• Pour tout u ∈ [0, 1] , la fonction x �→ h(x, u) est de classe C k sur IR et :
∂ph
∀p ∈ [[0, k]] ∀(x, u) ∈ IR × [0, 1] (x, u) = up f (p+1) (xu).
∂xp
• Soit x ∈ IR et p ∈ [[0, k − 1]] . Par continuité sur le segment [0, 1] , la fonc-
tion u �→ up f (p+1) (xu) est intégrable sur [0, 1] .
• Soit x ∈ IR . La fonction u �→ uk f (k+1) (xu) est continue donc continue par morceaux
sur [0, 1] .
• Hypothèse de domination. Soit a > 0 . Par continuité sur le segment [−a, a] , il
existe M > 0 tel que :
 (k+1) 
∀t ∈ [−a, a] f (t)  M.
En particulier, pour x ∈ [−a, a] et u ∈ [0, 1] , on a xu ∈ [−a, a] et donc :
 k 
∂ h   
 (x, u)  = uk f (k+1) (xu)  M uk ,
 ∂xk 

et la fonction u �→ M uk est intégrable sur [0, 1] car continue sur ce segment.


Ainsi, la fonction g est de classe C k sur IR .

574
Solutions des exercices

13.9 1. Soit x ∈ IR∗+ . La fonction gx : t �→ tx−1 e−t est continue sur ]0, +∞[ .
Étude en 0 . On a gx (t) ∼ tx−1 et x − 1 > −1 .
t→0+
1
Étude en +∞ . On a gx (t) = o t2
et 2 > 1 .
t→+∞

En conclusion, la fonction gx est intégrable sur ]0, +∞[ , donc Γ est bien définie sur IR∗+ .
2. On pose f : (x, t) �→ tx−1 e−t .
• Pour tout t ∈ ]0, +∞[ , la fonction x �→ f (x, t) est de classe C ∞ sur IR∗+ et l’on a :

∂kf
∀k ∈ IN ∀(x, t) ∈ IR∗+ × ]0, +∞[ (x, t) = (ln t)k tx−1 e−t .
∂xk
k
∂ f
• Pour tout k ∈ IN , pour tout x ∈ IR∗+ , la fonction t �→ ∂x k (x, t) est continue par

morceaux sur IR∗+ .


• Hypothèse de domination.
Soit k ∈ IN . Soit [a, b] un segment inclus dans IR∗+ . On a :
 k 
∂ f   k x−1 −t  k a−1 −t
∀x ∈ [a, b] ∀t ∈ ]0, 1]  (x, t)  =  ln t t e   ln t t e
 ∂xk 
 k 
∂ f   k x−1 −t  k b−1 −t
∀x ∈ [a, b] ∀t ∈ ]1, +∞[      
 ∂xk (x, t) = ln t t e  ln t t e .

Soit ϕ la fonction définie sur IR∗+ par :


 k  k
ϕ (t) =  ln t ta−1 e−t +  ln t tb−1 e−t

Cette fonction ϕ est intégrable sur IR∗+ (par comparaison à des exemples de Riemann),
et l’on a :  k 
∂ f 
∀x ∈ [a, b] ∀t ∈ ]0, +∞[  k (x, t)  ϕ(t).
∂x
Cela fournit l’hypothèse de domination sur tout segment inclus dans IR∗+ pour la
∂k f
fonction ∂xk
·
On peut donc conclure que Γ est de classe C ∞ sur IR∗+ et que :
 +∞
∀k ∈ IN ∀x ∈ IR∗+ Γ (k)
(x) = (ln t)k tx−1 e−t dt.
0

13.10 Soit x > 0 . Pour tout n ∈ IN∗ , posons :


  t
n
tx−1 1− si 0 < t < n
fn (t) = n
0 si t  n.

La fonction fn est continue par morceaux sur IR∗+ et l’on a fn (t) ∼ tx−1 , ce qui assure l’in-
t→0
tégrabilité de fn sur ]0, 1] , par comparaison aux intégrales de Riemann puisque x − 1 > −1 ;
comme, de plus, fn est nulle sur [n, +∞[ , elle est intégrable sur IR∗+ et l’on a bien sûr :
 n  n  +∞
x−1 t
t 1− dt = fn (t) dt.
0
n 0

Appliquons à la suite de fonctions (fn )n∈IN∗ le théorème de convergence dominée.

575
Chapitre 13. Intégrales à paramètres

• Soit t > 0 . Pour n > t , on peut écrire :

fn (t) = tx−1 en ln(1− n ) .


t

 
Quand n tend vers +∞ , on a ln 1 − t
n
∼ − nt , d’où l’on déduit lim fn (t) = tx−1 e−t .
n→+∞

La suite de fonctions (fn )n∈IN∗ converge donc simplement sur IR∗+ vers la fonction conti-
nue par morceaux f : t �→ tx−1 e−t .
• Hypothèse de domination. On déduit de la concavité de la fonction ln l’inégalité :
∀u > −1 ln(1 + u)  u.
Par suite, pour n > t > 0 , on a :
 
fn (t) = fn (t) = tx−1 en ln(1− nt )  tx−1 e−t .
  
=ϕ(t)
 
L’inégalité fn (t)  ϕ(t) est bien sûr valable pour n  t puisqu’alors fn (t) = 0 .
La fonction ϕ est continue par morceaux sur IR∗+ et comme on a :
1
ϕ(t) ∼ tx−1 avec x − 1 > −1 et ϕ(t) = o avec 2 > 1,
t→0 t→+∞ t2
elle est intégrable sur IR∗+ , par comparaison aux intégrales de Riemann.
Cela fournit l’hypothèse de domination.

Le théorème de convergence dominée permet de conclure que :


 n  n  +∞
t
lim tx−1 1− dt = tx−1 e−t dt = Γ (x) .
n→+∞
0
n 0

13.11 1. • Vérifions d’abord l’existence, pour tout n ∈ IN∗ , de l’intégrale In .


 n−1
La fonction fn : t �→ 1 − t
ln t est continue sur ]0, n] et, au voisinage de 0 , on
     n
a fn (t) ∼  ln t = o 1

t
·
On en déduit l’intégrabilité de fn sur ]0, n] , par comparaison aux intégrales de Rie-
mann.
• On effectue le changement de variable [t = n(1 − u)] :
 n  1
 
In = fn (t)dt = nun−1 ln n(1 − u) du
0 0
 1
 
= nun−1 ln n + ln(1 − u) du
0
 1
= ln n + nun−1 ln(1 − u) du. (⋆)
0

Dans cette nouvelle intégrale, effectuons une intégration par parties.


Les fonctions u �→ un − 1 et u �→ ln(1 − u) sont de classe C 1 sur [0, 1[ et

(un − 1) ln(1 − u) ∼ n(u − 1) ln(1 − u) −→ 0.


u→1− u→1−

576
Solutions des exercices
 1
Donc, par intégration par parties, la convergence de l’intégrale nun−1 ln(1 − u) du
0
 1
un − 1
entraîne celle de du et :
0
u−1
 1  1  1
un − 1
nun−1 ln(1 − u) du = (un − 1) ln(1 − u) − du
0 0 0
u−1
 1 
n  n
 1
=0− uk−1 du = − ·
0
k
k=1 k=1

De la relation (⋆) , on déduit alors :



n
1
In = ln n − ·
k
k=1

2. Pour tout n ∈ IN∗ , on pose gn : ]0, +∞[ → IR la fonction définie par gn (t) = fn (t)1]0,n[ (t) ,
 +∞
de sorte que In = gn (t) dt . Appliquons à la suite de fonctions (gn )n∈IN∗ le théorème
0
de convergence dominée sur l’intervalle ]0, +∞[ .
• Chaque fonction gn est continue par morceaux sur ]0, +∞[ .
• Fixons t ∈ ]0, +∞[ . On a, pour n > t :
 n−1
t
ln t = e(n−1) ln(1− n ) ln t.
t
gn (t) = 1 −
n
L’équivalent simple :
 
t
(n − 1) ln 1 − ∼ −t
n n→+∞
 
t
montre que (n − 1) ln 1 − n
−→ −t puis, par continuité de la fonction exp :
n→+∞

gn (t) −→ e−t ln t.
n→+∞

On en déduit que la suite (gn )n∈IN∗ converge simplement sur ]0, +∞[ vers la fonction
continue par morceaux g : t �→ e−t ln t .
• Hypothèse de domination. Par concavité de la fonction ln et croissance de exp,
on obtient, pour (n, t) ∈ IN∗ × ]0, n[ :
   
gn (t) = e(n−1) ln(1− nt )  ln t
     
 e(n−1)(− n )  ln t = e−t+ n  ln t  e−t+1  ln t.
t t

Comme gn est nulle sur [n, +∞[ , on a établi :


   
∀(n, t) ∈ IN∗ × ]0, +∞[ gn (t)  e−t+1  ln t .
  
=ϕ(t)

La fonction ϕ est continue sur ]0, +∞[ .


 
1 1
Étude en 0 . Par croissances comparées, on a ϕ(t) = o √
t
, avec 2
< 1.
1
Étude en +∞ . Par croissances comparées, on a ϕ(t) = O t2 , avec 2 > 1 .
Ainsi ϕ est intégrable sur ]0, +∞[ , d’où l’hypothèse de domination.

577
Chapitre 13. Intégrales à paramètres

En conclusion, on a démontré que t �→ e−t ln t est intégrable sur ]0, +∞[ et :


n
  +∞  +∞
1
ln n − = gn (t) dt −→ e−t ln t dt.
k 0
n→+∞
0
k=1

13.12 Fixons x > 1 . Soit t ∈ IR∗+ ; on peut écrire :

+∞
tx−1 tx−1 e−t  x−1 −nt
= = t e ,
et − 1 1 − e−t
n=1


la dernière égalité étant justifiée par la convergence de la série géométrique tx−1 e−nt , de
−t x−1 −nt
raison e ∈ ]0, 1[ . Définissons un : ]0, +∞[ → IR par un (t) = t e et appliquons à la

série de fonctions un le théorème d’intégration terme à terme sur l’intervalle ]0, +∞[ .
n1

• Soit n ∈ IN∗ ; la fonction un est continue par morceaux sur ]0, +∞[ et l’on a :

∀t > 0 0  un (t)  tx−1 e−t .

La fonction un est donc intégrable sur ]0, +∞[ , par comparaison avec des exemples de
Riemann, puisque :
 
1
tx−1 e−t ∼ tx−1 avec x − 1 > −1 et tx−1 e−t = o avec 2 > 1.
t→0+ t→+∞ t2

 tx−1 e−t
• La série un converge simplement sur ]0, +∞[ et sa somme, t �→ 1−e−t
, est continue
n1
par morceaux sur ]0, +∞[ .
• Soit n ∈ IN∗ . On a :
 +∞  +∞
un (t) dt = tx−1 e−nt dt
0 0
 +∞
1
= ux−1 e−u du (changement de variable [u = nt])
nx 0

Γ (x)
= ·
nx

 Γ(x)
La série nx
étant convergente (puisque x > 1 ), d’après le théorème d’intégration terme
tx−1
à terme (cas positif), la fonction t �→ et −1
est intégrable sur IR∗+ , et l’on a :

 +∞  Γ (x) +∞
tx−1
dt = = Γ (x) ζ (x) .
0
e −1
t nx
n=1

578
Solutions des exercices


13.13 Posons, pour tout n ∈ IN∗ , un = fn − fn−1 et appliquons à la série un le théorème
d’intégration terme à terme (cas positif).
• La suite (fn )n∈IN étant croissante, chaque un est positif.
• Les fonctions fn étant intégrables, chaque un est intégrable.
• Par télescopage, on a :
n

∀n ∈ IN∗ up = fn − f0 .
p=1

Comme la suite (fn )n∈IN converge simplement sur I vers f continue par morceaux, la
 
+∞
série un converge simplement sur I et sa somme un = f − f0 est continue par
n=1
morceaux.
Alors, dans [0, +∞] , on a :
 
+∞ +∞ 
  +∞ 
  
un = un i.e. (f − f0 ) = fn − fn−1 . (⋆)
I n=1 n=1 I I n=1 I I

Comme f0 est intégrable, l’intégrabilité de f équivaut à l’intégrabilité de f − f0 , donc à la


+∞   

convergence de la série télescopique fn − fn−1 , c’est-à-dire au caractère majoré
n=1 I I
 
de la suite croissante fn .
I n∈IN

En cas d’intégrabilité de f , la relation (⋆) se réécrit :


     
f− f0 = lim fn − f0 donc f = lim fn .
n→+∞ n→+∞
I I I I I I

13.14 1. Pour tout x ∈ IR , la fonction g : t �→ Arctan(x


tan t
tan t)
est continue sur ]0, π/2[ . Comme elle
nulle pour x = 0 , nous ne ferons d’étude que pour x �= 0 .
x tan t
• Quand t tend vers 0 , on a g(t) ∼ tan t
= x . La fonction g ayant une limite finie
 
en 0 , elle est intégrable sur 0, · π
4
• On a lim Arctan(x tan t) = επ/2 , où l’on note ε le signe de x .
t→(π/2)−

Comme lim tan t = +∞ , on en déduit que lim g(t) = 0 . La fonction g


t→(π/2)− t→(π/2)−
π π

ayant une limite finie en π/2 , elle est intégrable sur 4
, 2
·
En conclusion, la fonction F est définie sur IR .
2. Comme F est impaire, nous calculerons d’abord F sur IR+ . Pour cela, nous allons établir
que F est de classe C 1 sur IR+ et calculer F ′ , en appliquant le théorème de dérivation.
Arctan(x tan t)
Notons f : (x, t) �→ tan t
·
 
• Pour tout x ∈ IR+ , la fonction t �→ f (x, t) est intégrable sur 0, π2 d’après la première
question.
 
• Pour tout t ∈ 0, π2 , la fonction x �→ f (x, t) est de classe C 1 sur IR+ et :
 
π ∂f 1
∀(x, t) ∈ IR+ × 0, (x, t) = ·
2 ∂x 1 + x2 tan2 t

579
Chapitre 13. Intégrales à paramètres

 
• Pour tout x ∈ IR+ , la fonction t �→ ∂f
∂x
(x, t) est continue par morceaux sur 0, π
2
·
• Hypothèse de domination. On a :
   
π  ∂f 
∀(x, t) ∈ IR+ × 0,  (x, t)  1.
2  ∂x 
 
La fonction constante égale à 1 est intégrable sur l’intervalle borné 0, π
2
·
Cela fournit l’hypothèse de domination.
D’après le théorème de dérivation, F est de classe C 1 sur IR+ et l’on a :
 π/2
dt
∀x ∈ IR+ F ′ (x) = ·
0
1 + x2 tan2 t
On effectue le changement de variable [u = tan t] et l’on obtient :
 +∞
′ du
∀x ∈ IR+ F (x) = ·
0
(1 + u2 )(1 + x2 u2 )
Pour x �= 1 , on en déduit, par décomposition en éléments simples :
 +∞  
1 1 x2
F ′ (x) = − du
1 − x2 0
1+u2 1 + x2 u2
1  +∞
= Arctan u − x Arctan(xu) 0
1 − x2
1
π π
 π 1
= − x = ·
1 − x2 2 2 2 1+x
La fonction F ′ étant continue sur IR+ , ce dernier résultat reste valable pour x = 1 .
Comme F (0) = 0 et que F est impaire, il vient :
π π
∀x ∈ IR+ F (x) = ln(1 + x) et ∀x ∈ IR+ F (x) = − ln(1 − x).
2 2
3. • Comme :  
π
∀t ∈ 0, Arctan(tan t) = t,
2
on a :
 π/2
t π
dt = F (1) = ln 2.
0
tan t 2
 π

• Intégrons par parties sur 0, 2
:
 x  x  x
t cos t
dt = t dt = x ln(sin x) − ln(sin t) dt.
tan t sin t
Quand x tend vers 0+ , on a x ln(sin x) ∼ sin x ln(sin x) et donc, par croissances
 π/2
comparées, lim x ln(sin x) = 0 . Par suite, le crochet t ln(sin t) 0
existe et vaut 0 .
x→0+
 π/2
D’après le théorème d’intégration par parties, ln(sin t) dt converge et l’on a :
0
 π/2  π/2
cos t  π/2
t dt = t ln(sin t) 0 − ln(sin t) dt,
0
sin t 0
 π/2
π
d’où ln(sin t) dt = − ln 2 .
0
2

580
Solutions des exercices

13.15 1. La fonction f : x �→ ln x
1+x2
est continue sur IR∗+ .
 
Étude en 0 . Par croissances comparées, on a f (x) ∼ ln x = O √1 avec 1
< 1.
x 2
 
Étude en +∞ . Par croissances comparées, on a f (x) ∼ ln x
x2
=O 1
x3/2
avec 3
2
> 1.
La fonction f est donc intégrable sur IR∗+ , ce qui prouve la convergence de l’inté-
 +∞
ln x
grale dx .
0
1 + x2
On effectue le changement de variable [x = 1t ] :
 +∞  +∞  +∞
ln x ln(1/t)  1 ln t
I= dx = − − 2 dt = − dt = −I.
0
1 + x2 0 1 + t12 t 0
1 + t2
On en déduit que I = 0 .
2. (a) La fonction ga : x �→ ln x
(1+x2 )(a2 +x2 )
est continue sur IR∗+ et l’on a :
  f (x)
∀x ∈ IR∗+
ln x
ga (x)  1
= 2 ,
a2 1 + x2 a
où f est la fonction définie à la première question. Comme la fonction f est intégrable
sur IR∗+ , on en déduit, pour tout a > 0 , l’intégrabilité sur IR∗+ de la fonction ga , donc
la convergence de l’intégrale I(a) .
Pour a �= 1 , on a, en décomposant en éléments simple :
 +∞  +∞  
ln x 1 ln x ln x
I(a) = dx = 2 − 2 dx
0
(1 + x2 )(a2 + x2 ) a −1 0
1 + x2 a + x2
 +∞
1 ln x
= dx.
1 − a2 0
a2 + x 2
Pour la dernière égalité, on a utilisé le résultat de la première question.
On effectue le changement de variable [x = at] et l’on utilise la question 1 :
 +∞
1 ln a + ln t ln a  +∞ π ln a
I(a) = dt = Arctan t 0 = ·
a(1 − a2 ) 0
1+t 2 a(1 − a )
2 2a(1 − a2 )
(b) Appliquons le théorème de continuité à la fonction I .
• Pour tout x > 0 , la fonction a �→ (1+x2ln x
)(a2 +x2 )
est continue sur IR∗+ .
• Pour tout a > 0 , la fonction x �→ ln x
(1+x2 )(a2 +x2 )
est continue par morceaux sur IR∗+ .
| ln x|
• Hypothèse de domination. Soit α > 0 . La fonction ϕ : x �→ α2 (1+x2 )
est
intégrable sur IR∗+ , d’après la première question, et l’on a :
| ln x|
∀(a, x) ∈ [α, +∞[ × IR∗+  ϕ(x).
(1 + x2 )(a2 + x2 )
Cela fournit l’hypothèse de domination sur tout segment.
D’après le théorème de continuité, la fonction I est continue sur IR∗+ . En utilisant sa
continuité en 1 , on obtient :
π ln a
I(1) = lim ·
a→1 2a(1 − a2 )

Comme ln a ∼ a − 1 , on en déduit :
a→1
 +∞
π ln x π
I(1) = − i.e. dx = − ·
4 0
(1 + x2 )2 4

581
Chapitre 13. Intégrales à paramètres

13.16 1. Pour tout x > −1 et t ∈ ]0, 1[ , on pose f (x, t) = tx t−1


ln t
·
• Soit x > −1 . La fonction t �→ f (x, t) est continue par morceaux sur ]0, 1[ .
De plus, on a :

f (x, t) −→ 1 et f (x, t) = o(tx ) avec x > −1,


t→1 t→0+

donc t �→ f (x, t) est intégrable sur ]0, 1[ .


• Pour tout t ∈ ]0, 1[ , la fonction x �→ tx t−1
ln t
est de classe C 1 et :

∂f
∀(x, t) ∈ ]−1, +∞[ × ]0, 1[ (x, t) = tx (t − 1).
∂x
• Hypothèse de domination. Soit a > −1 . On a :
 
 ∂f 
∀(x, t) ∈ [a, +∞[ × ]0, 1[  (x, t) = tx (1 − t)  ta (1 − t)  ta .
 ∂x 

La fonction t �→ ta est intégrable sur ]0, 1[ puisque a > −1 . Cela fournit l’hypothèse
de domination sur tout segment pour ∂f ∂x
·
On peut donc conclure que g est de classe C 1 sur ]−1, +∞[ avec :
 1
∂f
∀x ∈ ]−1, +∞[ g ′ (x) = (x, t) dt
0
∂x
 1
= tx (t − 1) dt
0
 1
tx+2 tx+1 1 1
= − = − ·
x+2 x+1 0
x+2 x+1

2. D’après la question précédente, il existe un réel C tel que :


 
x+2
∀x ∈ ]−1, +∞[ g(x) = ln + C.
x+1
On a alors C = lim g(x) . Pour déterminer cette limite, appliquons la proposition 5 de
x→+∞
la page 559, avec domination au voisinage de +∞ .
• Pour tout t ∈ ]0, 1[ , on a lim f (x, t) = 0 .
x→+∞
• Hypothèse de domination. On a :
 
∀(x, t) ∈ [0, +∞[ × ]0, 1[ f (x, t) = f (x, t)  f (0, t).

Cela fournit l’hypothèse de domination sur [0, +∞[ car d’après l’étude initiale, la
fonction t �→ f (0, t) est intégrable.
On en déduit C = lim g(x) = 0 et, par suite :
x→+∞

x + 2  1  
t−1 x+2
∀x ∈ ]−1, +∞[ g(x) = ln i.e. tx dt = ln ·
x+1 0
ln t x+1

582
Solutions des exercices

13.17 1. Montrons que g est définie et continue sur IR+ , en appliquant le théorème de continuité.
2 2
e−x t
On note f : (x, t) �→ 1+t2
·
• Pour tout t ∈ [0, +∞[ , la fonction x �→ f (x, t) est continue sur IR+ .
• Pour tout x ∈ IR+ , la fonction t �→ f (x, t) est continue par morceaux sur [0, +∞[ .
• Hypothèse de domination. On a :
  1
∀x ∈ IR+ ∀t ∈ [0, +∞[ f (x, t) = f (x, t)  ·
1 + t2
1 1 1
La fonction t �→ 1+t2
est continue sur [0, +∞[ et 1+t2
∼ t2
, quand t tend vers +∞ ;
d’où l’intégrabilité de cette fonction sur [0, +∞[ .
D’après le théorème de continuité, g est bien définie et continue sur IR+ .
2. Montrons que g est de classe C 1 sur IR∗+ .
• Pour tout x ∈ IR∗+ , la fonction t �→ f (x, t) est intégrable sur [0, +∞[ , comme on l’a
vu dans l’étude de la continuité de g .
• Pour tout t ∈ [0, +∞[ , la fonction x �→ f (x, t) est de classe C 1 sur IR∗+ et l’on a :
∂f t2 2 2
∀t ∈ [0, +∞[ ∀x ∈ IR∗+ (x, t) = −2x e−x t .
∂x 1 + t2
• Pour tout x ∈ IR∗+ , la fonction t �→ ∂f
∂x
(x, t) est continue par morceaux sur [0, +∞[ .
• Hypothèse de domination. Soit [a, b] un segment inclus dans IR∗+ . On a :
 
 ∂f 
∀x ∈ [a, b] ∀t ∈ [0, +∞[  (x, t)  2be−a2 t2 .
 ∂x 
2 2
La fonction ϕ : t �→ 2be−a t
est continue sur [0, +∞[ et, par croissances comparées :
 
1
ϕ(t) = o ,
t→+∞ t2
d’où l’intégrabilité de ϕ sur [0, +∞[ .
On en déduit que g est de classe C 1 sur IR∗+ et que :
 +∞
t2 2 2
∀x ∈ IR∗+ g ′ (x) = −2x e−x t dt
0
1 + t2
 +∞  t2 
2 2 1
= 2xg(x) − 2x e−x t
dt =− +1
0
1 + t2 1 + t2
= 2xg(x) − 2I. (changement de variable [u = xt])

583
Chapitre 13. Intégrales à paramètres

3. D’après la question précédente et par résolution de l’équation différentielle :


y ′ − 2xy = −2I,
il existe un réel C tel que :
  x

2 2
∀x > 0 g(x) = ex C − 2I e−t dt .
0

+
En faisant tendre x vers 0 et par continuité de g en 0 , on obtient :
 +∞
dt π
C = g(0) = = ·
0
1 + t2 2

Par ailleurs, par positivité et croissance de l’intégrale, on a :


 2 2 
  +∞
e−x t
+∞
dt π
∀x > 0 g(x) = dt  = ,
0
1 + t2 0
1 + t2 2

ce qui montre que la fonction g est bornée.


On a enfin :  x
−x2 π 2
∀x > 0 g(x)e = − 2I e−t dt,
2 0

puis par passage à la limite quand x tend vers +∞ , on obtient :


π π
0 = − 2I 2 puis I2 = ·
2 4
Par positivité de l’exponentielle, l’intégrale I est positive et l’on conclut :
√  +∞ √
π 2 π
I= i.e. e−u du = ·
2 0
2

584
Chapitre 14 : Dénombrabilité

I Ensembles dénombrables . . . . . . . . . . . . . . . . . . 586


II Opérations sur les ensembles dénombrables . . . . . . 588
1 Produit cartésien . . . . . . . . . . . . . . . . . . . . . . . 588
2 Union . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 589
III Exemples d’ensembles infinis non dénombrables . . . . 590
Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 594
Dénombrabilité 14

I Ensembles dénombrables
Rappelons qu’un ensemble est fini s’il est en bijection avec [[1, n]] pour un certain
entier naturel n (son cardinal).
Définition 1
Un ensemble est dénombrable s’il est en bijection avec IN.

Ex. 1. L’ensemble ZZ est dénombrable : en effet, on peut définir une application f : IN → ZZ


par :
n n+1
f (n) = si n est pair et f (n) = − si n est impair,
2 2
et cette application est bijective de réciproque g définie par :

g(k) = 2k si k ∈ IN et g(k) = −1 − 2k si k ∈ ZZ∗− .

Ex. 2. Un ensemble F en bijection avec un ensemble E dénombrable est dénombrable. En


effet, il existe une bijection de IN sur E et une bijection de E sur F . En les composant, on
obtient une bijection de IN sur F .

Point méthode Exhiber une bijection entre IN et un ensemble dénom-


brable A revient à numéroter les éléments de A, c’est-à-dire écrire A sous la
forme A = {an | n ∈ IN} , avec n �→ an injective, ou encore à les énumérer.

Ex. 3. La bijection ci-dessus entre IN et ZZ revient à énumérer les éléments de ZZ de la façon


suivante :
0, −1, 1, −2, 2, −3, 3, −4, 4, . . .
I Ensembles dénombrables

Ex. 4. L’ensemble IN2 est dénombrable. Une numérotation possible de ses éléments est la sui-
vante :
IN

14

9 13

5 8 12

2 4 7 11

0 1 3 6 10
IN

On numérote successivement tous les couples (i, j) de IN2 tels que i + j = 0 , puis i + j = 1 ,
puis i + j = 2 , etc.

Proposition 1
Toute partie infinie de IN est dénombrable.
Démonstration page 592
Principe de démonstration. Si A est une partie infinie de IN , on construit par récurrence
une suite (an )n∈IN par a0 = min A et :
 
∀n ∈ IN an+1 = min x ∈ A : x > an
et l’on vérifie que n �→ an est une bijection de IN sur A .
Ex. 5. L’ensemble des entiers pairs, l’ensemble des entiers impairs, l’ensemble des nombres pre-
miers sont dénombrables.

Définition 2
Un ensemble est au plus dénombrable s’il est fini ou dénombrable.

Remarque Pour démontrer qu’un ensemble est dénombrable, il suffit donc de dé-
montrer qu’il est au plus dénombrable et infini.
Ex. 6. Toute partie de IN est au plus dénombrable.

Proposition 2
Un ensemble est au plus dénombrable si, et seulement s’il est en bijection avec une
partie de IN.
Démonstration page 592

Corollaire 3
Un ensemble E est au plus dénombrable si, et seulement s’il existe une injection
de E dans IN.
Démonstration page 592

587
Chapitre 14. Dénombrabilité

Exo
Ex. 7. L’ensemble IN2 est dénombrable. En effet, il est infini et l’application (p, q) �→ 2p 3q est
14.1
injective de IN2 dans IN par unicité de la décomposition en facteurs premiers.
Ex. 8. S’il existe une injection f de E dans un ensemble au plus dénombrable F , alors E
est au plus dénombrable. En effet, il existe une injection g de F dans IN , donc g ◦ f est une
injection de E dans IN .

Corollaire 4
Toute partie d’un ensemble au plus dénombrable est au plus dénombrable.

Proposition 5
Un ensemble non vide A est au plus dénombrable si, et seulement s’il existe une
surjection de IN sur A.
Démonstration page 592

Corollaire 6
L’image d’un ensemble au plus dénombrable par une application est au plus dénom-
brable.
Démonstration page 593

Point méthode Pour montrer qu’un ensemble infini A est dénombrable, on peut :
• exhiber une bijection de IN sur A ;
• exhiber une injection de A dans IN (ou dans un ensemble dénombrable) ;
• exhiber une surjection de IN (ou d’un ensemble dénombrable) sur A.

II Opérations sur les ensembles dénombrables


1 Produit cartésien
Proposition 7
Le produit cartésien de deux ensembles dénombrables est dénombrable.

Démonstration. Soit A et B deux ensembles dénombrables ainsi qu’une bijection f de A


sur IN et une bijection g de B sur IN .
 
Alors l’application h : (x, y) �→ f (x), g(y) est une bijection de A × B sur IN2 , d’application
 
réciproque (p, q) �→ f −1 (p), g −1 (q) . Comme IN2 est dénombrable (cf. exemple 7), on en
déduit que A × B est dénombrable.

Ex. 9. Comme ZZ est dénombrable, ZZ2 est dénombrable.


Ex. 10. L’ensemble Q est dénombrable.
En effet, on a vu que ZZ était dénombrable, ainsi que IN∗ comme partie infinie de IN (cf. propo-
sition 1 de la page précédente) donc ZZ × IN∗ est dénombrable. Ainsi Q est au plus dénombrable
(donc dénombrable puisqu’infini) comme image de ZZ × IN∗ par l’application (p, q) �→ pq ·

588
II Opérations sur les ensembles dénombrables

On a le même résultat pour les ensembles au plus dénombrables.


Ex. 11.
• Le produit cartésien de deux ensembles A et B au plus dénombrables est au plus dénom-
brable. On reprend le principe de la démonstration précédente, en considérant cette fois-ci
 
des injections f : A → IN et g : B → IN . L’application h : (x, y) �→ f (x), g(y) est alors
une injection de A × B dans IN2 , donc A × B est au plus dénombrable, puisque IN2 est
dénombrable.
• De plus, A × B est dénombrable si, et seulement si, l’un des ensembles est dénombrable et
l’autre non vide. En effet :
∗ si par exemple A est non vide et B est infini, alors en fixant a ∈ A , l’ensemble A × B
est infini puisqu’il contient {a} × B qui est en bijection avec B , donc infini ;
∗ si l’un des deux ensembles est vide, alors A×B est vide ; si A et B sont finis, alors A×B
est fini.

Corollaire 8
Le produit cartésien d’une famille finie non vide d’ensembles dénombrables est dé-
nombrable.

Ex. 12. Pour tout n ∈ IN∗ , les ensembles INn et Qn sont dénombrables.

2 Union
Proposition 9
Exo La réunion d’une famille au plus dénombrable d’ensembles au plus dénombrables
14.2 est au plus dénombrable.

Démonstration. Soit (Ai )i∈I une famille d’ensembles au plus dénombrables indexée par un
ensemble I au plus dénombrable. Quitte à supprimer les Ai qui sont vides (ce qui ne change
pas la réunion), on peut supposer tous les Ai non vides. En considérant, pour tout i ∈ I , une

surjection fi de IN sur Ai , on construit une surjection de f : I × IN sur Ai en posant :
i∈I

∀(i, n) ∈ I × IN f (i, n) = fi (n).



Comme I × IN est au plus dénombrable, il en est de même de Ai d’après le corollaire 6 de
i∈I
la page précédente.

Ex. 13. Si A et B sont deux parties de C au plus dénombrables, alors :

A + B = {a + b | (a, b) ∈ A × B}

est au plus dénombrable. En effet, on peut écrire :



A+B = (a + B).
a∈A

Chaque ensemble a+B est en bijection avec B donc est au plus dénombrable et A+B apparaît
comme la réunion d’une famille au plus dénombrable d’ensembles au plus dénombrables.

589
Chapitre 14. Dénombrabilité

Ex. 14. Soit a et b deux réels tels que a < b . Une fonction f : [a, b] → IR est dite réglée s’il
existe une suite (fn ) de fonctions en escalier sur [a, b] qui converge uniformément vers f .
On sait qu’alors, pour tout n ∈ IN , l’ensemble Dn des points de discontinuité de fn est fini,

donc l’ensemble D = Dn est au plus dénombrable, car union dénombrable d’ensembles
n∈IN
finis. Si x ∈ [a, b] \ D , alors, pour tout n ∈ IN , fn est continue en x et, comme (fn ) converge
uniformément vers f , on en déduit que f est continue en x . Ainsi, l’ensemble des points de
discontinuité de f est inclus dans D , donc au plus dénombrable.

Remarque En particulier, une union finie d’ensembles au plus dénombrables est au


plus dénombrable.

Ex. 15. Si A est au plus dénombrable, alors A ∪ IN est dénombrable, car au plus dénombrable
et infini. Par conséquent, tout ensemble au plus dénombrable peut être inclus dans un ensemble
dénombrable.

Proposition 10
Soit (ai )i∈I une famille sommable de nombres complexes, où I est un ensemble
 
non nécessairement dénombrable. Alors l’ensemble i ∈ I : ai =
� 0 (support de
la famille (ai )i∈I ) est au plus dénombrable.
Démonstration page 593

III Exemples d’ensembles infinis non dénombrables


L’ensemble Q des rationnels est dénombrable, comme on l’a vu précédemment. Il n’en
est pas de même de IR.

Proposition 11
L’ensemble IR n’est pas dénombrable.
Démonstration (non exigible) page 593

Ex. 16. L’ensemble IR \ Q des nombres irrationnels n’est pas dénombrable. En effet, s’il l’était,
alors IR serait dénombrable, car union de deux ensembles dénombrables, Q et IR \ Q .

Ex. 17. Si (a, b) ∈ IR2 , avec a < b , alors ]a, b[ n’est pas dénombrable, car il est en bijection
avec IR .
En effet, si par exemple f est une bijection affine de ]a, b[ sur ]− π2 , π2 [ , alors tan ◦f est une
bijection de ]a, b[ sur IR .
On en déduit qu’a fortiori, toute partie de IR d’intérieur non vide n’est pas dénombrable. C’est
vrai en particulier pour tout intervalle contenant au moins deux points.
Ex. 18. L’exemple de IR \ Q montre qu’il existe des parties de IR d’intérieur vide qui ne sont
Exo pas dénombrables.
14.3

590
III Exemples d’ensembles infinis non dénombrables
Lemme 12
Soit E un ensemble. Il n’existe aucune surjection de E sur P(E).
Démonstration page 593
Principe de démonstration. Si f est une application de E dans P(E) , on montre
 
que X = x ∈ E : x ∈
/ f (x) n’a pas d’antécédent par f .

Exo
Corollaire 13
14.4 L’ensemble P(IN) n’est pas dénombrable.

Corollaire 14
L’ensemble {0, 1}IN n’est pas dénombrable.

Démonstration. On a vu en première année que, pour tout ensemble E , l’ensemble P(E) est
Exo en bijection avec {0, 1}E par l’application qui associe à toute partie de E sa fonction indicatrice.
14.5 Donc {0, 1}IN est en bijection avec P(IN) qui n’est pas dénombrable.

Remarques
• On a vu que les deux ensembles non dénombrables P(IN) et {0, 1}IN étaient en
bijection. On peut montrer qu’ils sont également en bijection avec IR.
• En revanche, IR et P(IR) ne sont pas en bijection d’après le lemme 12, alors qu’ils
ne sont ni l’un ni l’autre dénombrables.

591
Chapitre 14. Dénombrabilité

Démonstrations
Proposition 1 Soit A une partie infinie de IN .
Commençons par remarquer que A est non vide (l’ensemble vide est fini) et non majorée. En
effet, si elle était majorée par un certain entier n , alors elle serait contenue dans l’ensemble
fini [[0, n]] donc également finie.
Construisons par récurrence une suite strictement croissante (an )n∈IN d’éléments de A telle
 
que A = an | n ∈ IN .
• Comme A est non vide, elle possède un plus petit élément que l’on note a0 .
• Soit n ∈ IN ; supposons a0 , . . . , an construits. La partie A n’est pas majorée par an , donc
 
l’ensemble x ∈ A : x > an est une partie non vide de IN . Il admet par conséquent un
plus petit élément, noté an+1 , qui vérifie donc an+1 > an .
Par construction, la suite (an )n∈IN est strictement croissante, donc l’application n �→ an est une
injection de IN dans A . Montrons qu’elle est surjective.
 
Soit x ∈ A . La partie an+1 | n ∈ IN de IN étant infinie, elle n’est pas majorée par x . Il existe
donc des entiers naturels k tels que ak+1 > x ; notons n le plus petit d’entre eux. Alors an  x :
si n = 0 , cela vient de la définition de a0 , sinon, cela vient du caractère minimal de n . On a
donc an  x < an+1 .
 
Or, an+1 = min y ∈ A : y > an et x ∈ A . Donc on ne peut pas avoir an < x < an+1 . Il
s’ensuit que x = an . D’où la surjectivité requise.
L’application n �→ an est donc une bijection de IN sur A .
Proposition 2 Si un ensemble E est au plus dénombrable, il est en bijection avec une partie de IN
de la forme [[1, n]] s’il est fini et avec IN sinon.
Réciproquement, si E est en bijection avec une partie I de IN , soit I est finie et E est lui-même
fini, soit I est dénombrable et E est lui-même dénombrable.
Corollaire 3 On utilise la caractérisation de la proposition 2 de la page 587.
• Si E est au plus dénombrable, il existe une bijection f de E sur une partie I de IN . Si i
est l’injection canonique x �→ x de I dans IN , alors i ◦ f est une injection de E dans IN .
• Réciproquement, si f est une injection de E dans IN , l’application E −→ f (E) est
x �−→ f (x)
une bijection de E sur f (E) , qui est une partie de IN , donc E est au plus dénombrable.
Proposition 5
• Supposons A au plus dénombrable.
∗ Si A est infini, il est dénombrable et il existe une bijection f de IN sur A .
∗ Sinon, notons n son cardinal. Comme A est non vide, on a n  1 et l’on peut fixer un
élément x0 de A .
Considérons une bijection f de [[0, n − 1]] dans A et prolongeons f à IN en posant :
∀k ∈ IN \ [[0, n − 1]] f (k) = x0 .
On obtient ainsi une application de IN sur A , surjective puisque sa restriction à [[0, n − 1]]
est déjà surjective.
 
• Soit f une surjection de IN sur A . Comme f est surjective, on a f −1 {a} �= ∅ pour
tout a ∈ A . On peut donc définir :
g: A −→ IN  
a �−→ min f −1 {a} .
 
Par définition de g , on a f g(a) = a , pour tout a ∈ A , ce qui entraîne l’injectivité de g .
D’après le corollaire 3 de la page 587, on en déduit que A est au plus dénombrable.

592
Démonstrations

Corollaire 6 Soit E un ensemble au plus dénombrable, f une application définie sur E


et A = f (E) .
• Si E est non vide, il existe une surjection g de IN sur E et l’application IN −→ A
x �−→ f (g(x))
est une surjection de IN sur A , donc A est au plus dénombrable.
• Si E = ∅ , alors A = ∅ donc A est fini.
,

Proposition 10 On pose M = |ai | .
i∈I
 
Soit ε > 0 et J une partie finie de l’ensemble Iε = i ∈ I : |ai |  ε . On a :

M |ai |  ε card J.
i∈J
M 
On en déduit que toutes les parties finies de Iε ont au maximum ε
éléments, ce qui prouve
M 
que Iε est fini (et de cardinal inférieur à ε
).
Le support de (ai )i∈I est la réunion des I1/n , pour n ∈ IN∗ . En tant que réunion dénombrable
d’ensembles finis, il est donc au plus dénombrable.
Proposition 11 Elle est basée sur le lemme suivant.
Lemme
Soit (un )n∈IN une suite réelle.
 
Il existe au moins un réel n’appartenant pas à un | n ∈ IN .

Démonstration. On construit par récurrence deux suites adjacentes (an )n∈IN et (bn )n∈IN
vérifiant :
∀n ∈ IN un ∈ / [an , bn ].
• Posons, par exemple, a0 = u0 + 1 et b0 = u0 + 2 .
• Supposons construits an < bn tels que un ∈ / [an , bn ] .
Posons cn = 2an3+bn et dn = an +2b 3
n
; au moins l’un des trois segments [an , cn ] , [cn , dn ]
et [dn , bn ] ne contient pas un+1 . Cela permet de définir an+1 < bn+1 tels que :
bn − a n
/ [an+1 , bn+1 ] ⊂ [an , bn ]
un+1 ∈ et bn+1 − an+1 = ·
3
Les inclusions [an+1 , bn+1 ] ⊂ [an , bn ] montrent que la suite (an ) est croissante, que la suite (bn )
est décroissante et les relations bn+1 − an+1 = 13 (bn − an ) donnent lim bn − an = 0 .
n→+∞

Donc les suites (an ) et (bn ) sont adjacentes. Leur limite commune ℓ vérifie :
∀n ∈ IN ℓ ∈ [an , bn ] donc ∀n ∈ IN ℓ �= un .
 
D’après le lemme qui précède, on ne peut trouver aucune suite (un ) telle que IR = un | n ∈ IN ,
donc IR n’est pas dénombrable.
Lemme 12 Soit f une application de E dans P(E) .
 
Posons X = x ∈ E : x ∈ / f (x) et supposons que X admette un antécédent a par f . On a
alors, par définition de X :
/ f (a) ⇐⇒ a ∈
a ∈ X ⇐⇒ a ∈ / X,
ce qui est contradictoire. Ce raisonnement par l’absurde montre que X n’admet pas d’antécédent
par f et donc que f n’est pas surjective.

593
Chapitre 14. Dénombrabilité

S’entraîner et approfondir
14.1 Montrer que l’ensemble IN(IN) des suites presque nulles d’entiers naturels est dénombrable.
→588

14.2 Montrer que l’ensemble des parties finies de IN est dénombrable.


→589

14.3 Montrer qu’il n’existe pas d’application f : IR → IR continue telle que f (Q) ⊂ IR \ Q
→590
et f (IR \ Q) ⊂ Q .

14.4 Montrer que l’ensemble S(IN) des permutations de IN n’est pas dénombrable.
→591
Indication. On pourra construire une injection de P(IN) dans S(IN) .

14.5 Montrer que si un ensemble A possède au moins deux éléments, alors AIN n’est pas dénom-
→591
brable.

14.6 1. Montrer qu’un ensemble est infini si, et seulement s’il contient une partie dénombrable.
2. Montrer que si A est un ensemble au plus dénombrable et B un ensemble infini,
alors A ∪ B est en bijection avec B .

⋆ 14.7 Soit E un espace vectoriel muni d’une base dénombrable B = (en )n∈IN .
Montrer que toute base de E est dénombrable.

14.8 Soit f : IR → IR une application croissante et D l’ensemble des points de discontinuité de f .


1. Soit a et b deux réels, avec a < b et I = ]a, b[ .
 
(a) Montrer que la famille lim f − lim f est sommable.
x+ x− x∈I
(b) En déduire que l’ensemble D ∩ ]a, b[ est au plus dénombrable.
2. Montrer que D est au plus dénombrable.

14.9 1. (a) Montrer qu’un espace vectoriel sur Q de dimension finie non nulle est dénombrable.
(b) Montrer que Q[X] est dénombrable.
2. On appelle nombre algébrique tout nombre complexe racine d’un polynôme non nul à
coefficients rationnels. Un nombre complexe qui n’est pas algébrique est dit transcen-
dant.
Montrer qu’il existe des réels transcendants.

594
Solutions des exercices

Solutions des exercices


14.1 Soit (pk )k∈IN une énumération strictement croissante des nombres premiers. L’application :
IN(IN) −→ IN

(vk )k∈IN �−→ pvkk
k∈IN
 v
est bien définie (si (vk )k∈IN est presque nulle, pkk peut être vu comme un produit fini
k∈IN
puisque seul un nombre fini de ses termes sont différents de 1 ) et est injective par unicité
de la décomposition en facteurs premiers.
Remarque C’est même une bijection de IN(IN) sur IN∗ par existence et unicité de la dé-
composition en facteurs premiers.

14.2 Une partie A de IN est finie si, et seulement s’il existe n ∈ IN tel que A ⊂ [[0, n]] . On en
déduit que l’ensemble Pf des parties finies de IN peut s’écrire :

Pf = P([[0, n]]).
n∈IN

Il est donc au plus dénombrable comme réunion dénombrable d’ensembles finis. Il est infini
car il contient l’ensemble {{n} | n ∈ IN} des singletons de IN , qui est en bijection avec IN ,
donc il est dénombrable.

14.3 On raisonne par l’absurde en supposant qu’une telle application existe.


L’ensemble f (Q) est au plus dénombrable car c’est l’image par f d’un ensemble dénom-
brable. De même, f (IR \ Q) est au plus dénombrable car inclus dans Q . On en déduit
que f (IR) est au plus dénombrable, comme union de deux ensembles au plus dénombrables.
Mais par ailleurs, comme f est continue, f (IR) est un intervalle. Si cet intervalle contenait
au moins deux points, il serait infini et non dénombrable d’après l’exemple 17 de la page 590,
ce qui contredirait ce qui précède. Donc f est constante.
Si f (IR) = {a} , l’hypothèse impose a ∈ Q et a ∈ IR \ Q . C’est impossible.

14.4 Pour A ∈ P(IN) , on considère l’application fA : IN → IN définie par :


 
2n + 1 si n∈A 2n si n∈A
∀n ∈ IN fA (2n) = et fA (2n + 1) =
2n si n∈
/A 2n + 1 si n∈
/ A.
L’application fA est bijective car involutive.
L’application P(IN) −→ S(IN) est injective, car fA détermine de manière unique A .
A �−→ fA
En effet, on a A = {n ∈ IN : fA (2n) = 2n + 1} . Si S(IN) était dénombrable, alors P(IN)
serait au plus dénombrable, ce qui est faux d’après le corollaire 13 de la page 591.

14.5 • Le cas où A = {0, 1} a été vu dans le cours (cf. corollaire 14 de la page 591).
• Lorsque A est un ensemble à deux éléments, en considérant une bijection ϕ de {0, 1}
sur A , l’application f �→ ϕ ◦ f réalise une bijection de {0, 1}IN sur AIN . Donc AIN n’est
pas dénombrable.
• Soit A un ensemble possédant au moins deux éléments distincts a et b . En considérant
une application de IN dans {a, b} comme une application de IN dans A , on obtient une
inclusion de {a, b}IN dans AIN qui n’est donc pas dénombrable d’après le point précédent.

595
Chapitre 14. Dénombrabilité

14.6 1. Un ensemble qui contient une partie dénombrable est évidemment infini. Réciproquement,
soit E un ensemble infini. Construisons une suite (an )n∈IN d’éléments de E distincts deux
à deux.
• Comme E est infini, il est non vide, ce qui permet de choisir un élément a0 de E .
• Supposons construits a0 , . . . , an des éléments de E distincts deux à deux. Comme E
est infini, il n’est pas égal à l’ensemble fini {a0 , . . . , an } , ce qui permet de choisir un
élément an+1 ∈ E différent des précédents.
 
L’ensemble A = an | n ∈ IN est alors une partie dénombrable de E : elle est en
bijection avec IN par l’application n �→ an qui est injective par construction et surjective
par définition de A .
2. Soit A un ensemble au plus dénombrable et B un ensemble infini. On considère
l’ensemble A′ = A \ B , qui est au plus dénombrable, car inclus dans A . On a
alors A ∪ B = A′ ∪ B .
D’après la première question, il existe une partie C de B dénombrable. Alors, A′ ∪ C est
également dénombrable comme réunion de deux ensembles au plus dénombrables, dont
l’un au moins est infini.
Considérons donc une bijection de C sur A′ ∪ C et prolongeons-la à B par l’identité
sur B \ C . Comme A′ ∪ C et B \ C sont disjoints, on obtient alors une bijection de B
sur A′ ∪ B = A ∪ B .
14.7 Soit (xi )i∈I une famille libre. Montrons que I est au plus dénombrable.
 
Soit n ∈ IN . Posons In = i ∈ I : xi ∈ Vect(e0 , . . . , en ) . Il s’agit d’un ensemble fini,
car (xi )i∈In est une famille libre de l’espace vectoriel Vect(e0 , . . . , en ) de dimension finie.
De plus, comme B est une base de E , tout vecteur de E appartient à l’un des sous-espaces

vectoriels Vect(e0 , . . . , en ) . On en déduit que I = In et donc que I est au plus dénom-
n∈IN
brable comme réunion dénombrable d’ensembles finis.
En particulier, toute base de E est au plus dénombrable et par suite dénombrable puisque E
n’est pas de dimension finie.
14.8 1. (a) Comme f est croissante, elle possède en tout point une limite à droite et une limite
à gauche. Soit x1 < · · · < xn des points distincts de I . On a alors :
lim f  lim f  lim f  · · ·  lim f  lim f  lim f.
a+ x−
1
x+
1
x−
n x+
n
b−
 
Les segments lim f, lim f , pour i ∈ [[1, n]] , sont d’intérieurs disjoints et inclus
x− x+
i
i
 
dans lim f, lim f , donc on a :
a+ b−
n
  
lim f − lim f  lim f − lim f.
x+
i
x− b− a+
i=1 i

Cette somme est majorée par une constante, indépendante du choix de n et


 
de x1 , . . . , xn , donc la famille de réels positifs lim f − lim f est sommable.
x+ x− x∈I
 
(b) La famille lim f − lim f étant sommable, son support S est au plus dénom-
x+ x− x∈I
brable, d’après la proposition 10 de la page 590. Mais, pour tout x ∈ ]a, b[ , on a :
x ∈ D ⇐⇒ lim f < lim f ⇐⇒ x ∈ S.
x− x+

Ainsi D ∩ ]a, b[ , qui est égal à S , est au plus dénombrable.

596
Solutions des exercices

  
2. On a D = D ∩ n, n + 2 , donc D est au plus dénombrable, car union dénombrable
n∈Z
Z
d’ensembles au plus dénombrables.

14.9 1. (a) Soit E un Q -espace vectoriel de dimension n ∈ IN∗ . Alors E est isomorphe à Qn ,
donc en particulier en bijection avec Qn , qui est dénombrable car produit cartésien
d’une famille finie non vide d’ensembles dénombrables (cf. corollaire 8 de la page 589).

(b) On a Q[X] = Qn [X] , donc Q[X] est une réunion dénombrable d’ensembles dé-
n∈IN
nombrables d’après la question 1.
  
2. Soit A l’ensemble des nombres algébriques. On a A = P −1 {0} , qui est
P ∈Q[X]\{0}

donc une réunion dénombrable d’ensembles finis (tout polynôme non nul a un nombre
fini de racines). De plus, A est infini puisqu’il contient Q : tout rationnel r est racine
de X − r ∈ Q[X] \ {0} . Donc A est dénombrable.
Comme IR n’est pas dénombrable, on en déduit que A ∩ IR  IR et donc qu’il existe au
moins un réel transcendant (et même une infinité non dénombrable).
Remarque Cette existence a ainsi été montrée de façon non constructive. Il est possible
d’en exhiber explicitement : on peut démontrer que e et π sont transcendants.

597
Chapitre 15 : Espaces probabilisés

I Espaces probabilisés . . . . . . . . . . . . . . . . . . . . . 600


1 Espaces probabilisables . . . . . . . . . . . . . . . . . . . 600
2 Probabilités . . . . . . . . . . . . . . . . . . . . . . . . . . 602
3 Espaces probabilisés discrets . . . . . . . . . . . . . . . . 606
4 Probabilité sur un univers non dénombrable . . . . . . . . 607
II Variables aléatoires discrètes . . . . . . . . . . . . . . . 608
1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . 608
2 Loi d’une variable aléatoire discrète . . . . . . . . . . . . 609
3 Lois usuelles . . . . . . . . . . . . . . . . . . . . . . . . . 611
III Couples de variables aléatoires . . . . . . . . . . . . . . 613
1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . 613
2 Loi conjointe . . . . . . . . . . . . . . . . . . . . . . . . . 614
3 Lois marginales . . . . . . . . . . . . . . . . . . . . . . . . 614
4 Généralisation aux n -uplets de variables aléatoires . . . . 614
Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 622
Espaces probabilisés 15

En première année ont été étudiés les espaces probabilisés finis. Les concepts fonda-
mentaux des probabilités (univers, événements, probabilités, variables aléatoires), qui
sont les mêmes que dans le cas fini, vont être définis dans des espaces probabilisés
quelconques. L’axiomatisation du calcul des probabilités ici présentée est due princi-
palement au mathématicien russe André Kolmogorov (Fondements de la théorie des
probabilités, 1933).

I Espaces probabilisés
1 Espaces probabilisables
Modélisation d’une expérience aléatoire
• Comme dans le cours de première année, il s’agit de modéliser une expérience
aléatoire. On associe à une telle expérience un ensemble qui contient tous les
résultats possibles de l’expérience, appelé univers. L’univers n’est plus supposé
fini.

Ex. 1. On lance une pièce de monnaie jusqu’à l’obtention du premier pile et l’on s’inté-
resse au nombre de lancers nécessaires. L’univers que l’on peut associer à cette expérience
est IN∗ ∪ {+∞} , car a priori il n’est pas exclu de ne jamais obtenir pile.
Ex. 2. On veut modéliser l’expérience fictive consistant à lancer une pièce de monnaie une
infinité dénombrable de fois. L’univers que l’on peut associer à cette expérience est l’en-

semble Ω = {0, 1}IN des suites à valeurs dans {0, 1} , où 1 représente pile et 0 face ;
le terme d’indice n de la suite est le résultat du n -ième lancer. Cet ensemble n’est pas
dénombrable (cf. le corollaire 14 de la page 591).
On fait aussi appel à un tel modèle quand on effectue une suite de lancers dont le nombre
n’est pas fixé a priori : par exemple si on lance la pièce tant que la différence entre le nombre
de piles et de faces est inférieure à 2 .
I Espaces probabilisés

• À une propriété que peut vérifier un résultat de l’expérience, on associe une partie
de l’univers Ω que l’on appelle un événement. Dans le cas fini, on avait considéré
que toute partie de Ω représentait un événement. Dans le cas où Ω est infini
et non dénombrable, cela conduit parfois à des difficultés mathématiques dans la
définition d’une probabilité. On restreint alors l’ensemble des événements à une
partie stricte de P(Ω).
Cette partie de P(Ω) doit vérifier certaines propriétés :
∗ l’ensemble Ω doit être un événement (l’événement certain) ;
∗ si A est un événement, alors A , complémentaire de A dans Ω, doit être un
événement (événement contraire) ;
∗ on impose une autre condition qui peut sembler moins naturelle : si (An )n∈IN

est une suite d’événements, alors An est un événement ; en effet, la stabilité
n∈IN
par réunion finie risque d’être insuffisante.
Ex. 3. Si l’on cherche à modéliser le jeu de pile ou face infini et que l’on considère, pour
tout n ∈ IN∗ , l’événement An : « le n -ième tirage donne pile », on pourra par exemple
s’intéresser à l’événement « on obtient au moins un pile dans la suite des tirages » qui

+∞
est An .
n=0

Tribu

Définition 1
Soit Ω un ensemble non vide. On appelle tribu sur Ω tout sous-ensemble A
de P(Ω) tel que :
• Ω appartient à A ;
• pour tout élément A de A, son complémentaire A appartient
 à A;
• pour toute suite (An )n∈IN d’éléments de A, la réunion An appartient à A.
n∈IN

Remarque Au lieu de tribu, on dit aussi σ -algèbre, d’où la notation A adoptée


par le programme.

Définition 2
Un espace probabilisable est un couple (Ω, A), où Ω est un ensemble quelconque
non vide et A une tribu sur Ω.
L’ensemble Ω est appelé l’univers et tout élément de A est appelé événement.

Ex. 4. L’ensemble P(Ω) est une tribu sur Ω , appelée tribu discrète.
Ex. 5. Pour toute partie A de Ω , distincte de ∅ et de Ω , l’ensemble {Ω, A, Ā, ∅} est une
Exo tribu sur Ω .
15.1

601
Chapitre 15. Espaces probabilisés

Opérations sur les événements


Proposition 1
Toute tribu contient l’ensemble vide, et est stable par union et intersection au plus
dénombrable, ainsi que par différence.
Démonstration page 616

Remarque On emploie le même vocabulaire que dans les espaces probabilisés finis.
En particulier, deux événements A et B tels que A∩B = ∅ sont dits incompatibles.

Soit (An )n∈IN une suite d’événements d’un espace probabilisable (Ω, A) .
Ex. 6. Soit B l’ensemble des éléments de Ω qui appartiennent à une infinité d’événements An .
Considérons B , ensemble des éléments de Ω appartenant seulement à un nombre fini d’événe-
ments An . Alors, on a, pour tout ω ∈ Ω :

ω ∈ B ⇐⇒ ∃n ∈ IN ∀p  n / Ap ⇐⇒ ∃n ∈ IN
ω∈ ∀p  n ω ∈ Ap .
   
On a donc B = Ap , d’où l’on déduit B = Ap . Comme une tribu est stable par
n∈IN pn n∈IN pn
union et intersection dénombrable, B est un événement.
Ex. 7. Soit C l’ensemble des éléments de Ω qui appartiennent à tous les événements An sauf
un nombre fini. On a, de même, pour tout ω ∈ Ω :

ω ∈ C ⇐⇒ ∃n ∈ IN ∀p  n ω ∈ Ap
 
et donc C = Ap , d’où l’on conclut que C est un événement.
n∈IN pn

2 Probabilités
Comme dans le cas d’un univers fini, une probabilité associe à un événement un réel
appartenant à [0, 1]. Elle est donc définie sur une tribu. On impose une propriété
d’additivité plus riche que dans les univers finis.
Définitions
Définition 3
On appelle probabilité sur l’espace probabilisable (Ω, A) toute application P de A
dans [0, 1] vérifiant :
• P(Ω) = 1 ;
• pour toute suite (An )n∈IN d’événements deux à deux incompatibles, la série de
terme général P(An ) converge et :
   +∞
P An = P(An ).
n∈IN n=0

Remarques
• La seconde propriété est appelée σ -additivité ou additivité dénombrable.
• Il résulte de la définition que les événements sont les parties de Ω qui ont une
probabilité.

602
I Espaces probabilisés
Définition 4
Un espace probabilisé est un triplet (Ω, A, P), où (Ω, A) est un espace probabi-
lisable et P une probabilité sur (Ω, A).

Dans la suite, sauf mention contraire, (Ω, A, P) désignera un espace probabilisé.

Propriétés

Théorème 2
On a les propriétés suivantes :
1. P(∅) = 0 ;
2. pour toute famille au plus dénombrable d’événements deux à deux incompa-
 
tibles (Ai )i∈I , la famille P(Ai ) i∈I est sommable et :
  
P Ai = P(Ai ) ;
i∈I i∈I

3. pour tout événement A :


P(A) = 1 − P(A) ;
4. pour tout couple (A, B) d’événements vérifiant A ⊂ B :
P(B \ A) = P(B) − P(A) et ainsi P(A)  P(B);
cette propriété s’appelle croissance de P ;
5. pour tout couple (A, B) d’événements :
P(A ∪ B) = P(A) + P(B) − P(A ∩ B).
Démonstration page 616

Remarque Une probabilité sur un univers fini Ω telle que nous l’avons définie en
Exo
première année est un cas particulier de la définition donnée pour un espace probabi-
15.2 lisable quelconque, la tribu des événements étant P(Ω).

Définition 5
• Tout événement de probabilité nulle est dit négligeable.
• Tout événement de probabilité 1 est dit presque sûr ou presque certain.

Systèmes quasi-complets d’événements


La définition suivante généralise celle qui a été donnée en première année.

Définition 6
On appelle système complet d’événements d’un espace probabilisable (Ω, A)
toute famille au plus dénombrable (Ai )i∈I d’événements deux à deux incompatibles

tels que Ai = Ω.
i∈I

603
Chapitre 15. Espaces probabilisés

Ex. 8. Pour tout événement A , la famille (A, A) est un système complet d’événements.
Ex. 9. Si l’univers Ω est au plus dénombrable et muni de la tribu P(Ω) , la famille ({ω})ω∈Ω
est un système complet d’événements.

Définition 7
On appelle système quasi-complet d’événements d’un espace probabi-
lisé (Ω, A, P) toute famille au plus dénombrable (Ai )i∈I d’événements deux à deux
 
incompatibles tels que P Ai = 1 .
i∈I

Remarques
• Un système complet d’événements est donc un système quasi-complet d’événe-
ments.
• La notion de système complet d’événements ne dépend pas de la probabilité,
contrairement à celle de système quasi-complet d’événements.

Proposition 3
Si (Ai )i∈I est un système quasi-complet d’événements, alors :
  
• la famille P(Ai ) i∈I est sommable et P(Ai ) = 1 ;
i∈I
 
• pour tout événement B , la famille P(Ai ∩ B) i∈I est sommable et :

P(B) = P(Ai ∩ B).
i∈I
Démonstration page 617

La propriété suivante est une conséquence très forte de la σ -additivité.


Théorème 4 (Continuité monotone)
Soit (An )n∈IN une suite d’événements.
1. Continuité croissante : si la suite (An )n∈IN est croissante, c’est-à-dire véri-
fie An ⊂ An+1 pour tout n de IN, alors on a :
 +∞
 
P An = lim P(An ).
n→+∞
n=0

2. Continuité décroissante : si la suite (An )n∈IN est décroissante, c’est-à-dire


vérifie An+1 ⊂ An pour tout n de IN, alors on a :
 +∞
 
P An = lim P(An ).
n→+∞
n=0
Démonstration page 617

604
I Espaces probabilisés
Corollaire 5
Pour toute suite (An )n∈IN d’événements, on a :
 +∞
  n   +∞
  
n 
P An = lim P Ak et P An = lim P Ak .
n→+∞ n→+∞
n=0 k=0 n=0 k=0
Démonstration page 618

Proposition 6 (Sous-additivité de P )
Si (Ai )i∈I est une famille au plus dénombrable d’événements, on a :
  
P Ai  P(Ai ).
i∈I i∈I
Démonstration page 618

Remarques
• Cette inégalité est aussi appelée inégalité de Boole.

• On n’a pas nécessairement P(Ai ) < +∞, mais si la somme est supérieure à 1 ,
l’inégalité est sans intérêt. i∈I
Corollaire 7
Une réunion au plus dénombrable d’événements négligeables est un événement né-
gligeable. Une intersection au plus dénombrable d’événements presque sûrs est un
événement presque sûr.
Démonstration page 619

Attention L’hypothèse « au plus dénombrable » est indispensable :


• une réunion non dénombrable d’événements n’a aucune raison a priori d’être un
événement et donc d’avoir une probabilité ;
• même si c’est un événement, il peut avoir une probabilité non nulle.
Ex. 10. Premier lemme de Borel-Cantelli 
Soit (An ) une suite d’événements. On suppose que la série P(An ) converge.
 
+∞ +∞
Montrons que l’événement B = Ap (c’est-à-dire, d’après l’exemple 6 de la page 602,
k=0 p=k
l’ensemble des éléments de Ω qui appartiennent à une infinité d’événements An ) est négligeable.
 +∞
 
La suite Ap est décroissante donc par continuité décroissante :
p=k k∈IN
 +∞
 
P(B) = lim P Ap .
k→+∞
p=k

Pour tout k ∈ IN , on a :
 +∞
  +∞

0P Ap  P(Ap ).
p=k p=k


+∞
On reconnaît dans P(Ap ) le reste d’une série convergente, qui tend donc vers 0 .
p=k
On en déduit P(B) = 0 .

605
Chapitre 15. Espaces probabilisés

Union d’événements non incompatibles


Pour calculer la probabilité d’une réunion finie d’événements, il existe une formule
qui généralise la formule P(A ∪ B) = P(A) + P(B) − P(A ∩ B) obtenue pour deux
événements. Elle n’est pas au programme. Pour une démonstration et une utilisation,
voir l’exercice 17.7 de la page 704.
3 Espaces probabilisés discrets
Définition 8
Une distribution de probabilités discrète sur un ensemble Ω est une famille
d’éléments de IR+ , indexée par Ω, sommable et de somme 1 . Le support d’une
distribution de probabilités discrète (pω )ω∈Ω sur Ω est {ω ∈ Ω : pω �= 0} .

Proposition 8
Le support d’une distribution de probabilités discrète est au plus dénombrable.

Démonstration. C’est une propriété générale des familles sommables (cf. proposition 10 de
la page 590) : leur support est au plus dénombrable.

Proposition 9
Si (pω )ω∈Ω est une distribution de probabilités discrète sur Ω, alors l’application :
P : P(Ω) −→ [0,
1]
A �−→ pω
ω∈A

est une probabilité sur l’espace probabilisable (Ω, P(Ω)), appelée probabilité as-
sociée à la distribution (pω )ω∈Ω . Elle vérifie : ∀ω ∈ Ω P({ω}) = pω .
Démonstration page 619

Définition 9
Un espace probabilisé (Ω, P(Ω), P), où P est la probabilité associée à une distribu-
tion de probabilités discrète sur Ω est appelé espace probabilisé discret.

Théorème 10
Soit Ω un ensemble au plus dénombrable et P une probabilité sur (Ω, P(Ω)). Si
l’on pose pω = P ({ω}), pour tout ω ∈ Ω, alors (pω )ω∈Ω est une distribution de
probabilités discrète sur Ω et P est la probabilité associée à cette distribution.
Démonstration page 619

Remarque Dans le cas d’un univers fini, on peut en particulier définir une probabi-
lité pour laquelle les événements élémentaires ont tous même probabilité (probabilité
uniforme). Ce n’est pas possible pour un univers dénombrable. En effet, si Ω est
dénombrable et si pω est une constante, soit cette constante n’est pas nulle et la

famille (pω )ω∈Ω n’est pas sommable, soit elle est nulle et pω vaut 0 et pas 1 .
ω∈Ω

606
I Espaces probabilisés

Considérons le cas Ω = IN . Une distribution de probabilités discrète sur IN est simplement une
+∞
suite (pn ) de réels positifs telle que pn = 1 .
n=0
Ex. 11. Si λ > 0 , on définit une probabilité sur IN , en posant :
λn
∀n ∈ IN pn = e−λ ·
n!
+∞ +∞ n
  λ
En effet, on a pn  0 pour tout n ∈ IN et pn = e−λ = 1.
n!
n=0 n=0

Ex. 12. Si p ∈ ]0, 1[ , on définit une probabilité sur IN , en posant :

p0 = 0 et ∀n ∈ IN∗ pn = (1 − p)n−1 p.

Exo

+∞
p
En effet, on a pn  0 pour tout n ∈ IN et (1 − p)n−1 p = = 1.
15.3 n=1 1 − (1 − p)

4 Probabilité sur un univers non dénombrable


Définir une probabilité sur un univers non dénombrable est plus compliqué.
Ex. 13. Espace probabilisé modélisant une infinité de lancers de pile ou face
• On souhaite construire un espace probabilisé modélisant une infinité de lancers de pile ou face,
aux résultats indépendants, la probabilité d’obtenir pile étant p ∈ ]0, 1[ à chaque lancer.

Il semble raisonnable de choisir comme univers l’ensemble Ω = {0, 1}IN des
suites ω = (ωn )n∈IN∗ à valeurs dans {0, 1} , où 1 représente pile et 0 face ; le terme d’in-
dice n de la suite représente le résultat du n -ième lancer. Cet ensemble n’est pas dénombrable
(cf. corollaire 14 de la page 591).
On veut en particulier que, pour tout n ∈ IN∗ et x ∈ {0, 1} , l’ensemble :

An,x = {ω ∈ Ω : ωn = x}

des suites de lancers dont le n -ième lancer donne x soit un événement de probabilité p (res-
pectivement q = 1 − p ) si x = 1 (respectivement x = 0 ) et, pour modéliser l’indépendance
des lancers, que l’on ait :

∀n ∈ IN∗ ∀(x1 , . . . , xn ) ∈ {0, 1}n P(A1,x1 ∩ · · · ∩ An,xn ) = pk q n−k ,

en notant k le nombre de xi égaux à 1 .



Soit alors ω ∈ Ω . On a {ω} = An,ωn . Ainsi {ω} est un événement comme intersection
n∈IN∗
dénombrable d’événements. De plus, on a, par continuité décroissante :

P({ω}) = lim P (A1,ω1 ∩ · · · ∩ An,ωn ) .


n→+∞

Comme P (A1,ω1 ∩ · · · ∩ An,ωn )  max(p, q)n , on en déduit :

P({ω}) = 0.

Ainsi tous les singletons de Ω sont des événements de probabilité nulle. On voit que l’espace
probabilisé cherché n’est pas discret.

607
Chapitre 15. Espaces probabilisés

• On peut démontrer que sur un univers en bijection avec IR , les seules probabilités défi-
nies sur (Ω, P(Ω)) sont les probabilités discrètes. Donc ici, on ne peut pas prendre comme
tribu P(Ω) . Il semble raisonnable de munir Ω de la tribu A engendrée par l’ensemble
des An,x , pour n ∈ IN∗ et x ∈ {0, 1} . La probabilité est connue sur l’ensemble des événe-
ments ne dépendant que des résultats d’un nombre fini de lancers. Il faut l’étendre à A , ce
qui n’a rien d’évident.
• La construction d’un tel espace probabilisé dépasse largement les objectifs du programme. Il
faut retenir des remarques précédentes que dans le cas où l’on a besoin de considérer une
tribu différente de P(Ω) , sa construction et celle de la probabilité sont difficiles.
• Dans ce chapitre, nous admettrons, si besoin est, l’existence d’un espace probabilisé modéli-
sant le jeu de pile ou face infini. Nous donnerons une description de cette expérience aléatoire
à l’aide de suites de variables aléatoires dans le chapitre 16 (exemple 12 de la page 646).

II Variables aléatoires discrètes


1 Définition
Définition 10
Une variable aléatoire discrète sur l’espace probabilisable (Ω, A) est une appli-
cation de Ω dans un ensemble quelconque E telle que :
1. l’ensemble X(Ω) est au plus dénombrable ;
 
2. pour tout x ∈ X(Ω), on a X −1 {x} ∈ A.

Remarques
• L’univers Ω n’est pas supposé dénombrable. Seule son image par X doit être au
plus dénombrable.
• Une variable aléatoire discrète est dite réelle si elle est à valeurs dans IR, com-
plexe si elle est à valeurs dans C, finie si X(Ω) est fini.
 
• L’appartenance de X −1 {x} à A signifie que c’est un événement.
Proposition 11
Soit X une variable aléatoire discrète sur (Ω, A), à valeurs dans E . Alors pour
tout partie A de E , l’ensemble X −1 (A) est un événement.
Démonstration page 619
Notations
• Comme dans le cas d’un univers fini, l’événement X −1 (A) est noté :
{X ∈ A} ou (X ∈ A).
 
• En particulier, pour tout x ∈ E , l’événement X −1 {x} est noté :
{X = x} ou (X = x).
On remarque que, pour tout x ∈ E\X(Ω), on a {X = x} = ∅ ; ainsi {X = x} = ∅
sauf pour un ensemble au plus dénombrable de valeurs de x.

Ex. 14. Une fonction constante sur Ω est une variable aléatoire finie. En effet, il existe a tel
que X(Ω) = {a} et {X = a} = Ω ∈ A .

608
II Variables aléatoires discrètes

Ex. 15. Si A est un événement, alors la fonction 1A est une variable aléatoire finie. En effet,
on a X(Ω) ⊂ {0, 1} , qui est fini. De plus {X = 1} = A et {X = 0} = Ā sont des événements.
Ex. 16. Si Ω est muni de la tribu P(Ω) , toute application définie sur Ω est une variable
aléatoire.

Proposition 12
Si X est une variable aléatoire discrète sur (Ω, A) et f une application définie
sur un ensemble contenant X(Ω), alors f ◦ X est une variable aléatoire discrète,
Exo notée f (X).
15.9 Démonstration page 619

2 Loi d’une variable aléatoire discrète


Théorème 13
Si X est une variable aléatoire discrète sur (Ω, A, P), alors l’application :
P (X(Ω)) −→ [0, 1]
A �−→ P(X ∈ A)
 
est une probabilité sur X(Ω), P (X(Ω)) , appelée loi de X et notée PX .
Démonstration page 620

Remarque Il peut arriver qu’on ne connaisse pas exactement X(Ω), mais que l’on
connaisse un ensemble E tel que X(Ω) ⊂ E . Alors la loi de X apparaîtra comme
 
une probabilité sur E, P(E) et l’on aura : ∀ω ∈ E \ X(Ω) PX ({ω}) = 0 .

Proposition 14
 
Si X est une variable aléatoire discrète, la famille {X = x} x∈X(Ω) est un système
complet d’événements, appelé système complet d’événements associé à X .
Démonstration page 620

Ex. 17. Si A �= ∅ et A �= Ω , le système complet d’événements associé à la variable 1A


est (A, Ā) .

Proposition 15
La loi d’une variable aléatoire discrète X est déterminée de manière unique par
 
la distribution de probabilités discrète P(X = x) x∈X(Ω) . Plus précisément, on a
pour tout A ⊂ X(Ω) :

PX (A) = P (X = x) .
x∈A

Démonstration. La loi de X est une probabilité PX sur l’ensemble dénombrable X(Ω)


 
muni de la tribu discrète P X(Ω) . D’après le théorème 10 de la page 606, c’est la probabilité
   
associée à la distribution de probabilités discrète PX ({x}) x∈X(Ω)
= P(X = x) x∈X(Ω)
.

D’où l’expression de PX (A) (cf. proposition 9 de la page 606).

609
Chapitre 15. Espaces probabilisés

Remarque La loi d’une variable aléatoire discrète n’est rien d’autre qu’une probabi-
lité discrète sur un ensemble dénombrable. La proposition suivante montre que toute
probabilité discrète sur un ensemble peut être considérée comme la loi d’une variable
aléatoire discrète. Une telle probabilité est encore appelée loi discrète.
Proposition 16
Soit E un ensemble et (px )x∈E une distribution de probabilités discrète sur E .
Alors il existe un espace probabilisé (Ω, A, P) et une variable aléatoire X sur cet
espace probabilisé tels que :
X(Ω) ⊂ E et ∀x ∈ E P(X = x) = px .
Démonstration page 620
Principe de démonstration. On pourra choisir (Ω, A) = (F, P(F )) et X = IdF , où F
est le support de (px )x∈E .

Ex. 18. La loi d’une variable aléatoire X à valeurs dans IN est donc une probabilité

sur (IN, P(IN)) . Elle est définie par la donnée d’une série pn à termes positifs convergente de
somme 1 .

Définition 11
Une variable aléatoire est dite presque sûrement constante s’il existe a tel
que P(X = a) = 1 .

Définition 12
On dit que deux variables aléatoires discrètes X et Y ont même loi si PX = PY .
On note alors X ∼ Y .
Si X est une variable aléatoire et L est une loi discrète, on note alors X ∼ L le
fait que la loi de X est L.

Remarques
• Les variables X et Y ne sont pas nécessairement définies sur le même espace
probabilisé.
Exo • On considérera encore que X et Y ont même loi si les valeurs prises par X et Y
15.10
ne diffèrent que par des valeurs de probabilité nulle.
Loi de f (X)
Proposition 17
Soit X une variable aléatoire discrète sur (Ω, A, P) et f une application définie
sur X(Ω). Alors la loi de f (X) est donnée par :

∀y ∈ f (X)(Ω) P(f (X) = y) = P(X = x).
x∈f −1 ({y})
Démonstration page 620

Proposition 18
Soit X et Y deux variables aléatoires à valeurs dans E et f une application définie
sur E . Si X ∼ Y , alors f (X) ∼ f (Y ).
Démonstration page 620

610
II Variables aléatoires discrètes

3 Lois usuelles
Les définitions des lois finies étudiées en première année (loi uniforme, loi de Bernoulli,
loi binomiale) s’appliquent aux variables aléatoires discrètes définies dans ce chapitre.
Loi géométrique
Définition 13
Soit p ∈ ]0, 1[ . On pose q = 1 − p. On dit qu’une variable aléatoire discrète X suit
la loi géométrique de paramètre p si X(Ω) = IN∗ et :
∀k ∈ IN∗ P(X = k) = p q k−1 .
On note alors X ∼ G(p).

Remarque On définit bien ainsi la loi d’une variable aléatoire discrète car :
+∞
 p
∀k ∈ IN∗ p q k−1  0 et p q k−1 = = 1.
1−q
k=1

Situation type On considère le jeu de pile ou face infini, la probabilité d’obtenir


pile (succès) à chaque lancer étant p ∈ ]0, 1[ (on pose q = 1 − p), modélisé par un
espace probabilisé (Ω, A, P), et le temps d’attente du premier pile.
Plus précisément, pour k ∈ IN∗ , on note Πk l’événement « la k -ième épreuve donne
pile » et l’on pose, pour tout ω ∈ Ω :
• T (ω) = n (pour n ∈ IN∗ ) si ω ∈ Π1 ∩ · · · ∩ Πn−1 ∩ Πn ; alors {T = n} est un
événement et P(T = n) = p q n−1 ;
• T (ω) = +∞ si, pour n ∈ IN∗ , ω ∈ Πn ; on a donc :

{T = +∞} = Πn ∈ A,
n∈IN∗

et donc, par continuité décroissante :


 n


P(T = +∞) = lim P Πk = lim q n = 0.
n→+∞ n→+∞
k=1

La variable aléatoire discrète T donc prend la valeur +∞ avec une probabilité nulle
et, pour tout k ∈ IN∗ , on a P(T = k) = pq k−1 . On dit encore que T suit la loi
géométrique G(p) (voir la seconde remarque de la page 610).
Nous reviendrons sur cette situation dans l’exemple 14 de la page 647.

Proposition 19
Si la variable aléatoire X suit la loi géométrique de paramètre p ∈ ]0, 1[ , on a, pour
tout entier naturel k :
P(X > k) = q k .

Démonstration. Pour tout k ∈ IN :


+∞ +∞
  pq k
P(X > k) = P(X = n) = pq n−1 = = qk .
1−q
n=k+1 n=k+1

611
Chapitre 15. Espaces probabilisés

Interprétation Ce résultat est tout à fait évident si l’on interprète une loi géo-
métrique comme le temps d’attente d’un premier succès. L’événement {X > k} est
« les k premières tentatives ont échoué », de probabilité q k .

Loi de Poisson

Définition 14
Soit λ > 0 . On dit qu’une variable aléatoire réelle discrète X suit la loi de Poisson
de paramètre λ, si X(Ω) = IN et :
λk −λ
∀k ∈ IN P(X = k) = e .
k!
On note alors X ∼ P(λ).

Remarque On définit bien ainsi la loi d’une variable aléatoire discrète car :
+∞ k
 +∞ k

λk −λ λ λ
Exo ∀k ∈ IN e 0 et e−λ = e−λ = e−λ eλ = 1.
15.11
k! k! k!
k=0 k=0

Interprétation en termes d’événements rares


Nous utiliserons le lemme suivant.
Lemme 20
Soit (Xn )n∈IN∗ une suite de variables aléatoires discrètes telles que Xn suive la loi
binomiale de paramètre (n, pn ) . On suppose que la suite (npn ) converge vers un
réel λ > 0 . Alors, pour tout k ∈ IN, on a :
  λk −λ
lim P Xn = k = e .
n→+∞ k!
Démonstration page 621

Si la variable aléatoire X suit une loi binomiale avec n grand et p proche de 0 , elle
suit donc approximativement une loi de Poisson de paramètre λ = np. C’est pourquoi
l’on dit que la loi de Poisson est la loi des événements « rares ».

Ex. 19. Dans la pratique, on peut modéliser par une loi de Poisson :
• le nombre de clients se présentant dans un grand magasin ;
• le nombre d’appels reçus par un standard téléphonique,
pendant une période donnée.
En effet, si on considère le nombre de clients potentiels n d’un grand magasin et la proba-
bilité p (supposée en première approximation constante dans cette population) qu’un de ces
clients potentiels se rende effectivement dans le magasin pendant une période donnée, n est
grand et p proche de 0 . La variable aléatoire donnant le nombre de clients suit la loi B(n, p)
donc approximativement une loi de Poisson.

612
III Couples de variables aléatoires

III Couples de variables aléatoires


1 Définitions
Définition 15
Si X et Y sont deux variables aléatoires discrètes sur l’espace probabilisable (Ω, A),
à valeurs respectivement dans E et E ′ , l’application : Ω −→ E  ×E


ω �−→ X(ω), Y (ω)
est appelée couple de variables aléatoires discrètes sur (Ω, A).
On note (X, Y ) ce couple de variables aléatoires.

Les couples de variables aléatoires sont simplement les variables aléatoires à valeurs
dans E × E ′ , comme le prouve la proposition suivante.
Proposition 21
• Si X et Y sont deux variables aléatoires discrètes à valeurs respectivement
dans E et E ′ , le couple (X, Y ) est une variable aléatoire discrète à valeurs
dans E × E ′ .
• Réciproquement, toute variable aléatoire discrète à valeurs dans E × E ′ peut
s’écrire (X, Y ) où X et Y sont des variables aléatoires discrètes à valeurs res-
pectivement dans E et E ′ .
Démonstration page 621
Corollaire 22
Soit (X, Y ) un couple de variables aléatoires discrètes. Alors la famille d’événe-
ments :  
{X = x} ∩ {Y = y} (x,y)∈X(Ω)×Y (Ω)
est un système complet d’événements de Ω appelé système complet d’événe-
ments associé au couple (X, Y ).
 
Démonstration. La famille {X = x} ∩ {Y = y} (x,y)∈(X,Y )(Ω) est le système com-
plet d’événements associé à la variable aléatoire (X, Y ) (cf. proposition 21). On en déduit
 
que {X = x} ∩ {Y = y} (x,y)∈X(Ω)×Y (Ω) est encore un système complet d’événements,
 
car {X = x} ∩ {Y = y} = ∅ si (x, y) ∈ X(Ω) × Y (Ω) \ (X, Y )(Ω) .
Conséquence Si (X, Y ) est un couple de variables aléatoires discrètes, alors :
  
P {X = x} ∩ {Y = y} = 1.
(x,y)∈X(Ω)×Y (Ω)

Remarque L’événement {X = x} ∩ {Y = y} est encore noté {X = x, Y = y} et sa


probabilité P(X = x, Y = y).
Ex. 20. Si X et Y sont des variables aléatoires discrètes à valeurs dans C , alors Z = (X, Y )
est une variable aléatoire discrète à valeurs dans C2 .
On peut écrire X + Y = f (Z) et XY = g(Z) , où f est l’application (x, y) �→ x + y et g
l’application (x, y) �→ xy , donc X + Y et XY sont des variables aléatoires discrètes, d’après la
proposition 17 de la page 610.

613
Chapitre 15. Espaces probabilisés

2 Loi conjointe
Définition 16
Soit X et Y deux variables aléatoires discrètes. La loi conjointe de X et Y est
la loi du couple (X, Y ).

Remarques
• La loi de (X, Y ) est déterminée par la famille :
 
P(X = x, Y = y) (x,y)∈X(Ω)×Y (Ω) .

Cela résulte de la proposition 15 de la page 609 appliquée à la variable (X, Y ).


• Soit E et E ′ deux ensembles et (px,y )(x,y)∈E×E ′ une distribution de probabilité
discrète sur E × E ′ . Il résulte de la proposition 16 de la page 610 qu’il existe un
couple (X, Y ) de variables aléatoires à valeurs dans E × E ′ tel que :
∀(x, y) ∈ E × E ′ P(X = x, Y = y) = px,y .

3 Lois marginales
Définition 17
Pour tout couple (X, Y ) de variables aléatoires discrètes, la loi de X est appelée
première loi marginale du couple et celle de Y est appelée deuxième loi
marginale du couple.

Le théorème suivant exprime le fait que l’on peut déduire les loi marginales de la loi
du couple. Pour obtenir une loi marginale, on somme par rapport à l’autre variable.
Théorème 23
Soit (X, Y ) un couple de variables aléatoires discrètes. On a alors :

∀x ∈ X(Ω) P(X = x) = P(X = x, Y = y).
y∈Y (Ω)

Exo
15.12 Démonstration. Cette égalité résulte de ce que ({Y = y})y∈Y (Ω) est un système complet
d’événements (on applique la proposition 3 de la page 604).
Exo
15.13 Remarque On obtient de même P(Y = y) en sommant sur x ∈ X(Ω).

4 Généralisation aux n-uplets de variables aléatoires


Définition 18
Soit n ∈ IN∗ . Si X1 , . . . , Xn sont des variables aléatoires discrètes, à valeurs res-
pectivement dans E1 , . . . , En , alors l’application :
Ω −→ E 1 × · · · × En 
ω �−→ X1 (ω), . . . , Xn (ω)
est appelée n-uplet de variables aléatoires sur Ω. On le note (X1 , . . . , Xn ).

614
III Couples de variables aléatoires

On peut démontrer, comme dans le cas des couples de variables aléatoires discrètes,
la proposition suivante.
Proposition 24
Les n-uplets de variables aléatoires discrètes, à valeurs respectivement
dans E1 , . . . , En , sont les variables aléatoires discrètes à valeurs dans E1 × · · ·× En .

Remarque Un n-uplet de variables aléatoires discrètes réelles est donc une variable
aléatoire discrète à valeurs dans l’espace vectoriel IRn .

Ex. 21. Si X1 , . . . , Xn sont des variables aléatoires discrètes sur le même espace probabilisable,
à valeurs respectivement dans E1 , . . . , En et f est une fonction définie sur E1 × · · · × En ,
alors f (X1 , . . . , Xn ) est une variable aléatoire discrète, d’après la proposition 12 de la page 609
appliquée à la fonction f et à la variable aléatoire (X1 , . . . , Xn ) .
En particulier si X1 , . . . , Xn sont à valeurs complexes, alors X1 + · · · + Xn et X1 × · · · × Xn
sont des variables aléatoires discrètes, et si X1 , . . . , Xn sont réelles, alors min(X1 , . . . , Xn )
et max(X1 , . . . , Xn ) sont des variables aléatoires discrètes.

Définition 19
Soit X1 , . . . , Xn des variables aléatoires discrètes.
• La loi conjointe de X1 , . . . , Xn est la loi du n-uplet (X1 , . . . , Xn ).
• Les lois marginales du n-uplet (X1 , . . . , Xn ) sont les lois des variables aléa-
toires X1 , . . . , Xn .

Remarque Si X1 , . . . , Xn sont des variables aléatoires discrètes, alors la loi


conjointe de X1 , . . . , Xn est déterminée par la famille :
 
P({X1 = x1 } ∩ · · · ∩ {Xn = xn }) (x1 ,...,xn )∈X1 (Ω)×···×Xn (Ω) .

Notation Dans la suite, l’événement {X1 = x1 } ∩ · · · ∩ {Xn = xn } sera aussi


 
noté {X1 = x1 , . . . , Xn = xn } , et sa probabilité P X1 = x1 , . . . , Xn = xn .
Comme dans le cas des couples de variables aléatoires, les lois marginales des n-uplets
s’obtiennent à partir de la loi conjointe. Pour obtenir une loi marginale, il suffit donc
de sommer par rapport aux autres variables.
Théorème 25
Soit (X1 , . . . , Xn ) un n-uplet de variables aléatoires.
Pour tous k ∈ [[1, n]] et xk ∈ Xk (Ω), on a :

P(Xk = xk ) = P(X1 = x1 , . . . , Xn = xn ),
(x1 ,...,xk−1 ,xk+1 ,...,xn )∈A

où A = X1 (Ω) × · · · × Xk−1 (Ω) × Xk+1 (Ω) × · · · × Xn (Ω).


Démonstration page 621

615
Chapitre 15. Espaces probabilisés

Démonstrations
Proposition 1 Soit A une tribu sur l’univers Ω .
• L’ensemble vide appartient à A car Ω appartient à A et A est stable par passage au
complémentaire.
• Soit (An )n∈IN une suite d’éléments de A . Pour tout entier n , An appartient à A donc, par

+∞ 
+∞ 
+∞
stabilité par union dénombrable, An appartient à A . Comme An = An , on en
n=0 n=0 n=0

+∞
déduit, par passage au complémentaire, que An appartient à A .
n=0

• Soit A1 , . . . , An des éléments de A . En posant Ai = ∅ si i = 0 ou i > n , on obtient, par



+∞
stabilité par réunion dénombrable Ai ∈ A , c’est-à-dire A1 ∪ · · · ∪ An ∈ A .
i=0
De même, en posant A0 = Ω et Ai = Ω pour i > n , on obtient, par stabilité par intersection

+∞
dénombrable, Ai ∈ A , c’est-à-dire A1 ∩ · · · ∩ An ∈ A .
i=0

• Si A et B appartiennent à A , il en est de même de A \ B = A ∩ B , d’après les propriétés


précédentes.
Théorème 2
1. Considérons la famille d’événements incompatibles (An )n∈IN , où An = ∅ pour tout entier
naturel n . Alors, par définition d’une probabilité, la série de terme général constant P(∅)
converge, d’où P(∅) = 0 .
2. • Par définition d’une probabilité, la propriété est vérifiée si I = IN .
• S’il existe n ∈ IN tel que I = [[1, n]] , on a une famille (A1 , . . . , An ) d’événements deux à
deux incompatibles. La suite (Ak )k∈IN , où A0 = ∅ et Ak = ∅ pour tout entier k  n+1 ,
est une famille d’événements deux à deux incompatibles.
Alors, par définition d’une probabilité :
+∞  +∞
 
P Ak = P(Ak ).
k=0 k=0


+∞
Comme P(∅) = 0 et Ak = A1 ∪ · · · ∪ An , on obtient :
k=0
n

P(A1 ∪ · · · ∪ An ) = P(Ak ).
k=1

• Dans le cas général, I est en bijection avec IN ou un ensemble de la forme [[1, n]] et la
propriété résulte de ce qui précède par changement d’indice.
3. On a, d’après le point précédent, puisque A et A sont incompatibles :
 
P(A) + P(A) = P A ∪ A = P(Ω) = 1

et donc P(A) = 1 − P(A) .


4. Si A ⊂ B , alors B est la réunion des événements incompatibles A et B \ A et donc :
P(B) = P(A) + P(B \ A).
On en déduit P(B \ A) = P(B) − P(A) et P(B)  P(A) .

616
Démonstrations

5. L’événement A ∪ B est la réunion des deux événements incompatibles A et B \ A ; d’autre


part, B est la réunion des événements incompatibles A ∩ B et B \ A . On a donc :
P(A ∪ B) = P(A) + P(B \ A) et P(B) = P(A ∩ B) + P(B \ A).
On en déduit :
P(A ∪ B) = P(A) + P(B) − P(A ∩ B).
Proposition 3
• La famille (Ai )i∈I est au plus dénombrable et les événements Ai sont deux à deux incom-
patibles donc, par σ -additivité :
  
P(Ai ) = P Ai = 1.
i∈I i∈I

• On considère l’événement C = Ai qui, par hypothèse, est presque sûr. On a alors, puisque
i∈I
les événements Ai ∩ B sont aussi deux à deux incompatibles :
  
P (Ai ∩ B) = P (Ai ∩ B) = P(C ∩ B) = P(B) − P(C ∩ B) = P(B),
i∈I i∈I

car 0  P(C ∩ B)  P(C) = 0 .


Théorème 4
1. On pose A−1 = ∅ et, pour tout n ∈ IN , Bn = An \ An−1 .

n
On montre que, pour tout n ∈ IN , on a An = Bk . En effet, on a par définition :
k=0
n n
 
Bk ⊂ Ak = An
k=0 k=0

et, réciproquement, si ω ∈ An et si m est le plus petit des entiers k tels que ω ∈ Ak ,



n
alors 0  m  n et ω ∈ Am \ Am−1 = Bm donc ω ∈ Bk .
k=0

+∞ 
+∞ 
+∞ 
+∞
On montre de même que An = Bn . En effet, on a Bn ⊂ An car Bn ⊂ An
n=0 n=0 n=0 n=0
+∞
pour tout n ∈ IN . D’autre part, si ω ∈ An et si m est le plus petit des entiers k tels
n=0

+∞ 
+∞ +∞ 
que ω ∈ Ak , alors on a ω ∈ Bm et donc ω ∈ Bn . On a donc An = Bn .
n=0 n=0 n=0
Les événements Bn sont incompatibles. En effet si m < n , on a Bm ⊂ Am ⊂ An−1
et Bn ⊂ An−1 donc Bm ∩ Bn = ∅ . On a donc :
 +∞
   +∞
  +∞
 n

P An =P Bn = P(Bn ) = lim P(Bk ).
n→+∞
n=0 n=0 n=0 k=0

De plus on a, toujours par incompatibilité des événements Bn , l’égalité :


n
 
n 
P(Bk ) = P Bk = P(An ).
k=0 k=0

Finalement, on obtient :
 +∞
 
P An = lim P(An ).
n→+∞
n=0

617
Chapitre 15. Espaces probabilisés

2. Si (An )n∈IN est une suite décroissante d’événements, alors la suite (An )n∈IN est une suite
croissante d’événements. En appliquant le premier point, on trouve donc :
 +∞
 
P An = lim P(An ).
n→+∞
n=0

On en déduit :
 +∞
   +∞
   
P An = 1−P An = 1 − lim P(An ) = lim 1 − P(An ) = lim P(An ).
n→+∞ n→+∞ n→+∞
n=0 n=0

Corollaire 5
+∞ +∞

n  
1. La suite (Bn )n∈IN définie par Bn = Ak est croissante et Bn = An . On a donc :
k=0 n=0 n=0

 +∞
   +∞
  
n 
P An = P Bn = lim P(Bn ) = lim P Ak .
n→+∞ n→+∞
n=0 n=0 k=0

+∞ +∞

n  
2. La suite (Cn )n∈IN définie par Cn = Ak est décroissante et Cn = An .
k=0
n=0 n=0
On a donc :
 +∞
   +∞
  
n 
P An = P Cn = lim P(Cn ) = lim P Ak .
n→+∞ n→+∞
n=0 n=0 k=0

Proposition 6 Par changement d’indice, il suffit de montrer le résultat lorsque l’ensemble I est de
la forme [[0, n]] avec n ∈ IN , ou est égal à IN .
• Montrons par récurrence sur n que si A0 , . . . , An sont des événements, alors :

n  n

P Ak  P(Ak ). (∗)
k=0 k=0

La propriété est évidente pour n = 0 et si elle est vérifiée au rang n , alors :


 n+1
   
n  
P Ak =P Ak ∪ An+1
k=0 k=0

n  n+1
  
=P Ak + P(An+1 ) − P Ak ∩ An+1
k=0 k=0

n 
P Ak + P(An+1 )
k=0

et donc, en utilisant l’hypothèse de récurrence :


 n+1
  n
 n+1

P Ak  P(Ak ) + P(An+1 ) = P(Ak ).
k=0 k=0 k=0

• Si (Ak )k∈IN est une suite d’événements, on a alors :


 +∞
  
+∞

P Ak  P(Ak ).
k=0 k=0

par passage à la limite et continuité croissante à partir des relations (∗) .

618
Démonstrations

Corollaire 7 
• Si (Ai )i∈I est une famille au plus dénombrable d’événements négligeables, alors Ai est
i∈I
 
 
un événement et l’on a P(Ai ) = 0 puis, par sous-additivité, P Ai = 0.
i∈I i∈I

• Si (Ai )i∈I est une famille au plus dénombrable d’événements presque sûrs, alors (Ai )i∈I est
une famille au plus dénombrable d’événements négligeables, donc d’après le point précédent :
     
0=P Ai =P Ai =1−P Ai .
i∈I i∈I i∈I

Ainsi Ai est presque sûr.
i∈I

Proposition 9 Pour tout A ∈ P(Ω) , la famille (pω )ω∈A est sommable car c’est une sous-famille de
la famille sommable (pω )ω∈Ω . Donc P(A) est défini. De plus, comme les réels pω sont positifs,

on a 0  P(A)  pω = 1 , donc P(A) ∈ [0, 1] . Vérifions que P est une probabilité.
ω∈Ω

• On a P(Ω) = pω = 1 .
ω∈Ω

• Soit (An )n∈IN une suite d’événements deux à deux incompatibles et A = An . D’après le
n∈IN
  
+∞ 
+∞
théorème de sommation par paquets, on a pω = pω , soit P(A) = P(An ) .
ω∈A n=0 ω∈An n=0

Donc P est une probabilité. On a en particulier P({ω}) = pω , pour tout ω ∈ Ω .


Théorème 10
• Par définition d’une probabilité, on a pω  0 pour tout ω ∈ Ω . De plus, comme Ω est au
plus dénombrable, ({ω})ω∈Ω est un système complet d’événements donc la famille (pω )ω∈Ω
est sommable de somme 1 . C’est donc une distribution de probabilités discrète.

• On écrit tout événement A sous la forme A = {ω} . Puisque A est au plus dénombrable,
ω∈A
en tant que sous-ensemble de l’ensemble au plus dénombrable Ω , on obtient, par σ -additivité :
 
P(A) = P ({ω}) = pω .
ω∈A ω∈A

Ainsi, P est la probabilité associée à la distribution (pω )ω∈Ω .


Proposition 11 On a :
    
X −1 (A) = X −1 A ∩ X(Ω) = X −1 {x} .
x∈A∩X(Ω)

−1
Chaque X ({x}) appartient à A et A ∩ X(Ω) est au plus dénombrable, car inclus dans X(Ω)
qui est au plus dénombrable. Ainsi X −1 (A) est un événement, car c’est une réunion au plus
dénombrable d’événements.
Proposition 12 L’ensemble f (X)(Ω) = f (X(Ω)) est au plus dénombrable, car c’est l’image par f
d’un ensemble au plus dénombrable. Pour tout y ∈ f (X)(Ω) , on a :
   
{f (X) = y} = ω ∈ Ω : X(ω) ∈ f −1 ({y}) = X ∈ f −1 ({y}) .
 
L’ensemble X ∈ f −1 ({y}) est un événement d’après la proposition 11 de la page 608.
Ainsi, f (X) est une variable aléatoire discrète.

619
Chapitre 15. Espaces probabilisés

Théorème 13  
• L’application PX est définie sur P X(Ω) et à valeurs dans [0, 1] .
 
• De {X ∈ X(Ω)} = Ω , on déduit PX X(Ω) = 1 .
• Si (An ) est une suite de parties deux à deux disjointes de X(Ω) , alors les événe-
ments {X ∈ An } sont deux à deux incompatibles et :
   
X∈ An = {X ∈ An }.
n∈IN n∈IN

On en déduit, par σ -additivité :


      
PX An =P X∈ An =P {X ∈ An }
n∈IN n∈IN n∈IN

+∞ +∞
   
= P X ∈ An = PX (An ).
n=0 n=0
Proposition 14
• Par définition, l’ensemble X(Ω) est au plus dénombrable et {X = x} est un événement
pour tout x ∈ X(Ω) .
• Si x et x′ sont deux éléments de X(Ω) , distincts, les événements {X = x} et {X = x′ }
sont incompatibles.
• On a enfin : 
{X = x} = Ω
x∈X(Ω)

car tout élément ω de Ω appartient à {X = x} pour x = X(ω) .


Proposition 16 On note F le support de (px )x∈E . On sait que F est au plus dénombrable.
 
La famille (px )x∈F est sommable comme sous-famille de (px )x∈E et px = px = 1 ,
x∈F x∈E
donc (px )x∈F est une distribution de probabilités sur F . On prend (Ω, A) = (F, P(F )) et P la
probabilité associée à la distribution de probabilités discrète (px )x∈F .
On considère l’application X = IdF . On a alors X(Ω) = F , donc X(Ω) est au plus dénombrable
et, pour tout x ∈ F , X −1 ({x}) = {x} ∈ A . Donc X est une variable aléatoire discrète telle
que X(Ω) ⊂ E et pour tout x ∈ E , on a :

 −1
 P ({x}) = px si x∈F
P(X = x) = P X ({x}) =
P(∅) = 0 = px si x∈
/ F.

Proposition 17 On a montré (cf. proposition 12 de la page 609) que f (X) est une variable aléatoire

discrète et que, pour tout y ∈ f (X)(Ω) , on a {f (X) = y} = {X = x} . Puisqu’on a
x∈f −1 ({y})
une union au plus dénombrable d’événements incompatibles, on en déduit :
  
∀y ∈ f (X)(Ω) P f (X) = y = P(X = x).
x∈f −1 ({y})
Proposition 18 Les variables aléatoires X et Y sont définies sur les espaces probabilisés (Ω, A, P)
et (Ω′ , A′ , P′ ) , respectivement. Par hypothèse, on a P(X = x) = P′ (Y = x) pour tout x ∈ E .
Les variables aléatoires f (X) et f (Y ) sont à valeurs dans f (E) et, pour tout y ∈ f (E) , on a :
     
P f (X) = y = P(X = x) = P′ (Y = x) = P′ f (Y ) = y ,
x∈f −1 ({y}) x∈f −1 ({y})

donc f (X) et f (Y ) ont même loi.

620
Démonstrations

Lemme 20 Pour tout k ∈ IN et tout entier n  k , on a :


 
  n k n(n − 1) · · · (n − k + 1) k  
P Xn = k = pn (1 − pn )n−k = pn exp (n − k) ln(1 − pn ) .
k k!
λ
Quand n tend vers +∞ , on a n(n − 1) · · · (n − k + 1) ∼ nk et pn ∼ , car λ �= 0 .
n
Ainsi (pn ) tend vers 0 et donc :
 
(n − k) ln(1 − pn ) ∼ n(−pn ) → −λ et exp (n − k) ln(1 − pn ) → e−λ .
On en déduit :
   k
nk λ λk
P Xn = k ∼ e−λ = e−λ ·
k! n k!
  λk
On obtient lim P Xn = k = e−λ ·
n→+∞ k!
Proposition 21
• Si X et Y sont deux variables aléatoires discrètes, l’image (X, Y )(Ω) est la partie du
 
produit cartésien X(Ω) × Y (Ω) formée des couples X(ω), Y (ω) , où ω décrit Ω . Le
produit cartésien X(Ω) × Y (Ω) est au plus dénombrable car X(Ω) et Y (Ω) sont au plus
dénombrables. A fortiori, (X, Y )(Ω) est au plus dénombrable.
Pour tout (x, y) ∈ (X, Y )(Ω) , l’ensemble {(X, Y ) = (x, y)} est un événement, car c’est
l’intersection des deux événements {X = x} et {Y = y} . Donc (X, Y ) est une variable
aléatoire discrète à valeurs dans E × E ′ .
• Réciproquement, si Z est une variable aléatoire à valeurs dans E × E ′ , on pose X = π1 (Z)
et Y = π2 (Z) , où π1 : (x, y) �→ x et π2 : (x, y) �→ y sont les projections canoniques
de E × E ′ . Alors X et Y sont des variables aléatoires discrètes à valeurs respectivement
dans E et E ′ et Z = (X, Y ) .

Théorème 25 Le (n − 1) -uplet aléatoire Z = (X1 , . . . , Xk−1 , Xk+1 , . . . , Xn ) , où figurent toutes


les variables aléatoires sauf Xk , est une variable aléatoire dont le système complet d’événements
associé est :
({Z = z})z∈A .
On a donc, d’après le théorème 23 de la page 614, pour tout xk ∈ Xk (Ω) :
 
P(Xk = xk ) = P (Z = z, Xk = xk ) = P(X1 = x1 , . . . , Xn = xn ).
z∈A (x1 ,...,xk−1 ,xk+1 ,...,xn )∈A

621
Chapitre 15. Espaces probabilisés

S’entraîner et approfondir
Espaces probabilisés
15.1 1. Soit Ω un ensemble non vide et F une partie de P(Ω) .
→601
(a) Montrer qu’il existe des tribus sur Ω contenant F et que l’intersection de toutes ces
tribus est une encore une tribu, que l’on note σ(F) .
(b) Montrer que σ(F) est la plus petite tribu sur Ω contenant F .
La tribu σ(F) est appelée tribu engendrée par F .
2. Montrer que si (Ai )i∈I est une partition d’un ensemble Ω , avec I au plus dénombrable,
alors la tribu engendrée par {Ai | i ∈ I} est :
  
A = CJ | J ∈ P(I) où CJ = Ai .
i∈J

15.2 On suppose que Ω est fini.


→603
Montrer qu’une application P : P(Ω) → [0, 1] est une probabilité sur l’espace probabili-
 
sable Ω, P(Ω) si, et seulement si, P(Ω) = 1 et, pour tous événements A et B incompa-
tibles :
P(A ∪ B) = P(A) + P(B).

15.3 1. Montrer que l’on définit une probabilité sur IN∗ en posant :
→607
1
∀n ∈ IN∗ P({n}) = ·
n(n + 1)

2. Calculer la probabilité qu’un entier soit pair.

15.4 Probabilité image


Soit (Ω, A, P) un espace probabilisé et f une application de Ω dans un ensemble Ω′ .
1. Montrer que A′ = {B ∈ P(Ω′ ) : f −1 (B) ∈ A} est une tribu sur Ω′ . On l’appelle tribu
image de A par f .
 
2. Montrer que Pf : B ∈ A′ �→ P f −1 (B) est une probabilité sur (Ω′ , A′ ) . On l’appelle
probabilité image de P par f .

15.5 Soit A1 , . . . , An des événements d’un espace probabilisé (Ω, A, P) . Montrer que :

n  
n
 
P Ai  min P(Ai ) − P(Ai ∩ Ak ) .
1kn
i=1 i=1 1in
i=k

⋆⋆ 15.6 Soit A1 , . . . , An des événements d’un espace probabilisé (Ω, A, P) .


Pour k ∈ [[1, n]] , on considère l’événement Ck « appartenir à Ai pour au moins k valeurs
de l’indice i entre 1 et n ». Montrer que :
n n
 
P(Ck )  P(Ak ).
k=1 k=1

622
Exercices

⋆ 15.7 Soit P1 et P2 deux probabilités sur le même espace probabilisable (Ω, A) .


Montrer l’équivalence entre :
(i) ∀A ∈ A P1 (A) = 0 =⇒ P2 (A) = 0 ;
(ii) ∀ε > 0 ∃η > 0 ∀A ∈ A P1 (A)  η =⇒ P2 (A)  ε .

15.8 On considère une suite infinie de lancers d’une pièce de monnaie, la probabilité d’obtenir
pile (noté P ) étant p ∈ ]0, 1[ et la probabilité d’obtenir face (noté F ) étant q = 1 − p .
1. Calculer la probabilité de l’événement A « la première séquence P P apparaît avant la
première séquence F P ».
2. Pour tout n  2 , calculer la probabilité de l’événement Bn « la séquence P F apparaît
pour la première fois aux lancers n − 1 et n et il n’y a pas eu avant de séquence F P ».
En déduire la probabilité de l’événement B « la première séquence P F apparaît avant
la première séquence F P ».
3. Déterminer de même la probabilité des événements :
(a) C « la première séquence P F apparaît avant la première séquence F F » ;
(b) D « la première séquence P P apparaît avant la première séquence F F ».

Variables aléatoires discrètes


15.9 Soit (Xn )n∈IN une suite de variables aléatoires discrètes et N une variable aléatoire discrète à
→609
valeurs dans IN , définies sur le même espace probabilisable (Ω, A) . On définit l’application Y
par Y (ω) = XN(ω) (ω) pour tout ω ∈ Ω . Montrer que Y est une variable aléatoire sur (Ω, A) .

15.10 Soit X une variable aléatoire réelle.


→610
1. Calculer lim P(X  n) . En déduire lim P(X  x) .
n→+∞ x→+∞

2. Calculer lim P(X  −n) . En déduire lim P(X  x) .


n→+∞ x→−∞

15.11 Soit X une variable aléatoire suivant une loi de Poisson.


→612
Montrer que P(X  n) ∼ P(X = n) .
n→+∞

15.12 Soit a et λ des réels strictement positifs. Soit X et Y deux variables aléatoires à valeurs
→614
dans IN . On suppose que la loi conjointe de X et Y vérifie :
  (i + j)λi+j
∀(i, j) ∈ IN2 P X = i, Y = j = a ·
i! j!
1. Déterminer la valeur de a en fonction de λ .
2. Déterminer les lois marginales de X et Y .

15.13 On considère une suite de lancers de pile ou face indépendants, la probabilité d’obtenir pile
→614
étant p ∈ ]0, 1[ . On note X (respectivement Y ) le rang du premier (respectivement du
deuxième) pile.
1. Déterminer la loi du couple (X, Y ) .
2. En déduire les lois de X et Y .

623
Chapitre 15. Espaces probabilisés

15.14 Convergence presque sûre


Soit (Xn )n∈IN une suite de variables aléatoires réelles et X une variable aléatoire réelle
définies sur (Ω, A, P) . On pose :
B = {ω ∈ Ω : lim Xn (ω) = X(ω)}
n→+∞

et, pour tout k ∈ IN∗ :


  1

Ck = |Xp − X|  .
k
n∈IN pn

1. Montrer que B est un événement et que P(B) = lim P(Ck ).


k→+∞

On dit que la suite (Xn )n∈IN converge presque sûrement vers X si P(B) = 1 .
2. On suppose que :
  
 
∀ε > 0 P |Xp − X| > ε = 0.
n∈IN pn

Montrer que la suite (Xn )n∈IN converge presque sûrement vers X .


3. Montrer que si la série de terme général P (|Xn − X| > ε) converge pour tout ε > 0 ,
alors la suite (Xn )n∈IN converge presque sûrement vers X .

624
Solutions des exercices

Solutions des exercices

15.1 1. (a) Notons T l’ensemble des tribus contenant F . Il est non vide, car P(Ω) est une tribu

sur Ω contenant F . Posons σ(F) = A . Montrons que σ(F) est une tribu.
A∈T
• Par définition d’une tribu, Ω ∈ A , pour tout A ∈ T , donc Ω ∈ σ(F) .
• Soit A ∈ σ(F) . Pour tout A ∈ T , on a A ∈ A , donc Ā ∈ A , par définition d’une
tribu. Donc Ā ∈ σ(F) .
• Soit (An )n∈IN une suite d’éléments de σ(F) . Soit A ∈ T . Alors, An ∈ A pour tout

n ∈ IN , donc par définition d’une tribu, An ∈ A . C’est vrai pour tout A ∈ T ,
n∈IN

donc An ∈ σ(F) .
n∈IN
Ainsi σ(F) est une tribu sur Ω .
(b) Reprenons la notation T pour l’ensemble des tribus contenant F .
• Par définition F ⊂ A pour tout A ∈ T donc F ⊂ σ(F) .
• Si A est une tribu quelconque contenant F , alors A ∈ T , donc σ(F) ⊂ A .
On a bien montré que σ(F) est la plus petite tribu sur Ω contenant F .

2. • Par définition de A , A contient Ai = Ω .
i∈I
Soit B ∈ A et J une partie de I telle que B = CJ . Comme les Ai sont disjoints,
on a :
  
B = Ω \ CJ = Ai \ Ai = Ai = CI\J donc B ∈ A.
i∈I i∈J i∈I\J

Si (Bn )n∈IN est une suite d’éléments de A , il existe pour tout n ∈ IN une partie Jn
de I telle que Bn = CJn . On a alors :
  
Bn = A i = CK , où K= Jn ,
n∈IN i∈K n∈IN


ce qui montre que Bn ∈ A .
n∈IN
Ainsi, A est une tribu de Ω qui, de manière évidente, contient {Ai | i ∈ I} .
• Soit A′ une tribu contenant {Ai | i ∈ I} . Pour tout J ⊂ I , comme I est au plus
dénombrable, il en est de même de J . Chaque Ai est dans A′ donc, par stabilité par
union dénombrable, BJ appartient aussi à A′ . Ainsi A ⊂ A′ .

15.2 • Si P est une probabilité, alors P(Ω) = 1 et, pour tous événements A et B incompatibles,
on a P(A ∪ B) = P(A) + P(B) .
• Réciproquement, supposons que P(Ω) = 1 et que, pour tous événements A et B incom-
patibles, on ait P(A ∪ B) = P(A) + P(B) .
Par récurrence sur n , on démontre que, pour des événements A0 , . . . , An , deux à deux

n
incompatibles, on a P(A0 ∪ · · · ∪ An ) = P(Ak ) .
k=0

625
Chapitre 15. Espaces probabilisés

Comme Ω est fini, l’ensemble des événements est fini. Une suite (An )n∈IN d’évé-
nements deux à deux incompatibles ne comporte donc qu’un nombre fini d’événe-
ments différents de ∅ , puisque ceux-ci sont deux à deux distincts. De plus, de l’éga-
lité P(∅) = P(∅) + P(∅) , on tire P(∅) = 0 . En notant I = {n ∈ IN : An �= ∅} , on
obtient :
     +∞

P An =P An = P(An ) = P(An ).
n∈IN n∈I n∈I n=0

Donc P est une probabilité.

 
1
15.3 1. On vérifie que est une distribution de probabilités discrète sur IN∗ .
n(n + 1) n∈IN∗

1  1
On a  0 pour tout n ∈ IN∗ . La série converge et
n(n + 1) n(n + 1)
1 1 1
comme = − , on a, par télescopage :
n(n + 1) n n+1
+∞
 1 1
= 1 − lim = 1.
n(n + 1) n→+∞ n + 1
n=1


+∞ 
+∞
1
2. On a P(2IN∗ ) = P({2n}) = ·
n=1 n=1 2n(2n + 1)
Pour N ∈ IN∗ , on obtient :
N
  1 N   N
 N 
 
1 1 1 1 1
= − =2 − +
2n(2n + 1) 2n 2n + 1 2n 2n 2n + 1
n=1 n=1 n=1 n=1

N 2N+1
 1  1
= −
n n
n=1 n=2

2N+1
 1
=1− ·
n
n=N+1

1
On calcule la limite de la somme par une comparaison série-intégrale. La fonction t �→ t
étant décroissante sur IR∗+ , on a, pour k  2 :
 k+1  k
1 1 1
dt   dt.
k
t k k−1
t

En sommant ces inégalités pour k entre N + 1 et 2N + 1 , on obtient :


 2N+2  1  2N+1 1
2N+1 2N+1
 1  
1 1
dt   dt soit ln 2   ln 2 + ·
N+1
t n N
t n N
n=N+1 n=N+1


2N+1
Ainsi 1
n
→ ln 2 , quand N tend vers +∞ . On en déduit P(2IN∗ ) = 1 − ln 2 .
n=N+1

626
Solutions des exercices

15.4 1. • On a f −1 (Ω′ ) = Ω ∈ A donc Ω′ ∈ A′ .


• Si B ∈ A′ , alors f −1 (B) ∈ A . On écrit f −1 (Ω′ \ B) = Ω \ f −1 (B) . De f −1 (B) ∈ A ,
on déduit Ω \ f −1 (B) ∈ A , car A est stable par passage au complémentaire, et
donc Ω′ \ B ∈ A′ .
• Enfin si (Bn )n∈IN est une suite d’éléments de A′ alors, pour tout n ∈ IN , on
a f −1 (Bn ) ∈ A . On en déduit, par stabilité par union dénombrable :
   
f −1 Bn = f −1 (Bn ) ∈ A donc Bn ∈ A′ .
n∈IN n∈IN n∈IN

′ ′
On conclut que A est une tribu sur Ω .
2. On note que Pf est bien une application de A′ dans [0, 1] .
 
• On a Pf (Ω′ ) = P f −1 (Ω′ ) = P(Ω) = 1 .
• Si (Bn )n∈IN est une suite d’éléments disjoints de A′ , les ensembles f −1 (Bn ) sont des
éléments disjoints de A et l’on a donc :
     
−1
  −1
Pf Bn =P f Bn =P f (Bn )
n∈IN n∈IN n∈IN

+∞ +∞
   
= P f −1 (Bn ) = Pf (Bn ).
n=0 n=0

Donc Pf est une probabilité sur (Ω′ , A′ ) .


Remarque Si X est une variable aléatoire discrète sur (Ω, A, P) , la loi de X est la pro-
babilité image de P par l’application X (considérée comme application de Ω dans X(Ω) ).
 
Dans ce cas, A′ = P X(Ω) , car pour toute partie A de X(Ω) , on a X −1 (A) ∈ A .

15.5 Il faut démontrer que, pour tout k ∈ [[1, n]] , on a :



n  n
 
P Ai  P(Ai ) − P(Ai ∩ Ak ).
i=1 i=1 1in
i=k

Comme A1 , . . . , An jouent des rôles symétriques, on peut supposer k = n . On transforme


le second membre de l’inégalité :
n n−1 n−1
    
P(Ai ) − P(Ai ∩ An ) = P(An ) + P(Ai ) − P(Ai ∩ An )
i=1 i=1 i=1


n−1

= P(An ) + P(Ai \ An ).
i=1

Par sous-additivité de P , on obtient :


  n−1 

n−1 
P(An ) + P(Ai \ An )  P An ∪ (Ai \ An ) ,
i=1 i=1
 n−1 
 
n
ce qui donne l’inégalité voulue, car An ∪ (Ai \ An ) = Ai .
i=1 i=1

627
Chapitre 15. Espaces probabilisés

15.6 On remarque pour commencer que, pour tout k ∈ [[1, n]] , on a :



Ck = Ai1 ∩ · · · ∩ Aik .
1i1 <···<ik n

On démontre la propriété par récurrence sur n .


• La propriété est évidente pour n = 1 .
On la démontre pour n = 2 , ce qui sera utile pour passer du rang n au rang n + 1 . Il
s’agit de démontrer que, si A et B sont deux événements, on a :
P(A ∪ B) P(A ∩ B)  P(A) P(B), (∗)
ce qui équivaut à :
 
P(A) + P(B) − P(A ∩ B) P(A ∩ B)  P(A)P(B).
En posant x = P(A) , y = P(B) et z = P(A ∩ B) , il faut démontrer que :
xy − (x + y − z)z  0 c’est-à-dire (x − z)(y − z)  0.
Cette inégalité est vérifiée car z  x et z  y , ce qui résulte de A∩B ⊂ A et A∩B ⊂ B .
• On suppose la propriété vérifiée au rang n . On la démontre au rang n + 1 . On considère
donc n + 1 événements A1 , . . . , An+1 et l’on pose, pour tout k ∈ [[1, n + 1]] :

Ck′ = Ai1 ∩ · · · ∩ Aik .
1i1 <···<ik n+1

Il faut donc démontrer que :


n+1 n+1
 
P(Ck′ )  P(Ak ).
k=1 k=1

On suppose que P(Ck′ ) �= 0 pour tout k ∈ [[1, n + 1]] , sinon l’inégalité est évidente.
En définissant les Ck pour k ∈ [[1, n]] , comme au début du corrigé, on remarque que,
pour 1  k  n − 1 , on a :

Ck+1 = (Ck ∩ An+1 ) ∪ Ck+1 .
En appliquant l’inégalité (∗) avec A = Ck ∩ An+1 et B = Ck+1 , on obtient :

 
P(Ck+1 ) P (Ck ∩ An+1 ) ∩ Ck+1  P(Ck ∩ An+1 ) P(Ck+1 ).
 
Il est clair que Ck+1 ⊂ Ck . On a donc P (Ck ∩ An+1 ) ∩ Ck+1 = P(Ck+1 ∩ An+1 ) . On
obtient, pour tout k ∈ [[1, n − 1]] :

P(Ck+1 ) P(Ck+1 ∩ An+1 )  P(Ck ∩ An+1 )P(Ck+1 ).
En multipliant ces inégalités pour 1  k  n − 1 , on obtient :
n n n−1 n
   
P(Ck′ ) P(Ck ∩ An+1 )  P(Ck ∩ An+1 ) P(Ck ).
k=2 k=2 k=1 k=2

La suite (P(Ck ∩ An+1 ))1kn décroît donc s’il existe k ∈ [[2, n]] pour le-

quel P(Ck ∩ An+1 ) = 0 , alors P(Cn ∩ An+1 ) = 0 , c’est-à-dire P(Cn+1 ) = 0 , ce qui
contredit notre hypothèse. On obtient donc en simplifiant :
n n
 
P(Cn ∩ An+1 ) × P(Ck′ )  P(C1 ∩ An+1 ) × P(Ck ).
k=2 k=2

628
Solutions des exercices


Comme Cn ∩ An+1 = Cn+1 et C1 ∪ An+1 = C1′ , on a :
n+1 n
 
P(Ck′ )  P(C1 ∪ An+1 ) P(C1 ∩ An+1 ) × P(Ck ).
k=1 k=2

En utilisant de nouveau l’inégalité (∗) avec A = C1 et B = An+1 , puis l’hypothèse de


récurrence, on obtient :
n+1 n n+1
  
P(Ck′ )  P(An+1 ) P(Ck )  P(Ak ).
k=1 k=1 k=1

15.7 • Supposons (ii) et montrons (i) . Soit A ∈ A tel que P1 (A) = 0 . On veut montrer
que P2 (A) = 0 . Soit ε > 0 . Par hypothèse, il existe η > 0 tel que :
∀B ∈ A P1 (B)  η =⇒ P2 (B)  ε.
On a P1 (A) = 0  η et donc P2 (A)  ε . Comme cela est vrai pour tout ε > 0 , on a
donc P2 (A) = 0 .
• Pour démontrer la réciproque, on montre la contraposée. On suppose donc :
∃ε > 0 ∀η > 0 ∃A ∈ A P1 (A)  η et P2 (A) > ε.
En particulier, pour tout n ∈ IN , il existe An ∈ A tel que P1 (An )  21n et P2 (An ) > ε .
 
On pose Bn = Ak et B = Bn . Par sous-additivité, on a, pour tout n ∈ IN :
kn n∈IN

+∞ +∞
  1 1
P1 (Bn )  P1 (Ak )  = ·
2k 2n−1
k=n k=n

La suite (Bn ) est décroissante, donc par continuité décroissante, on a :


P1 (B) = lim P1 (Bn ) = 0.
n→+∞

Mais, pour tout n ∈ IN , An ⊂ Bn donc P2 (Bn )  P2 (An )  ε , donc :


P2 (B) = lim P2 (Bn )  ε.
n→+∞

La propriété (i) n’est pas vraie.

15.8 Pour tout k ∈ IN∗ , on note Πk l’événement « le k -ième lancer donne pile » et Fk l’événement
contraire.
1. La première séquence P P apparaît nécessairement aux deux premiers lancers, car sinon
au lancer précédent cette séquence P P , on a P ou F et donc déjà une séquence P P ou
une séquence F P au rang précédent. On a donc A = Π1 ∩ Π2 et P(A) = p2 .
2. Si Bn est réalisé, alors les lancers entre le premier et le (n − 2) -ième donnent nécessaire-
ment P , car sinon en considérant le rang k du dernier F avant celui qui est numéroté n ,
on aurait une séquence F P aux lancers k et k+1 . Il faut donc avoir une suite de (n−1) P
suivi d’un F . On a donc Bn = Π1 ∩ · · · ∩ Πn−1 ∩ Fn et P(Bn ) = pn−1 q . L’événement B
est la réunion des événements incompatibles Bn pour n  2 . On a donc :
+∞ +∞
  pq
P(B) = P(Bn ) = pn−1 q = = p.
1−p
n=2 n=2

629
Chapitre 15. Espaces probabilisés

3. (a) On note Cn l’événement « la séquence P F apparaît pour la première fois aux lan-
cers n − 1 et n et il n’y a pas eu avant de séquence F F ». Si Cn est réalisé, alors
soit on n’obtient pas F avant (suite de (n − 1) P et d’un F ), soit en considérant le
dernier F avant le rang n − 1 , on voit qu’il ne peut être précédé ni d’un P ni d’un F :
c’est le premier lancer (cela n’est possible que si n  3 ). On a donc, si n  3 :
   
Cn = Π1 ∩ · · · ∩ Πn−1 ∩ Fn ∪ F1 ∩ Π2 ∩ · · · ∩ Πn−1 ∩ Fn
et P(Cn ) = pn−1 q + pn−2 q 2 . De plus, C2 = Π1 ∩ F2 , donc P(C2 ) = pq . On en déduit :
+∞ +∞
  pq pq 2
P(C) = pn−1 q + pn−2 q 2 = + = p + pq.
1−p 1−p
n=2 n=3

(b) On note Dn l’événement « la séquence P P apparaît pour la première fois aux lan-
cers n−1 et n et il n’y a pas eu avant de séquence F F ». Si la première séquence P P
apparaît aux lancers n et n − 1 sans qu’il y ait avant de séquence F F , c’est que dans
les lancers précédents, on a une alternance de P et F (des F au lancer n − 2 et à
tous ceux qui ont la même parité). Le résultat dépend de la parité de n . On obtient :
Dn = Π1 ∩ F2 ∩ · · · ∩ Fn−2 ∩ Πn−1 ∩ Πn si n est pair
Dn = F1 ∩ Π2 ∩ · · · ∩ Fn−2 ∩ Πn−1 ∩ Πn si n est impair.
On en déduit, pour n  2 :
 n−2
(pq) 2 p2 si n est pair
P(Dn ) = n−3
2
(pq) 2 qp si n est impair.
On a donc :

+∞ 
+∞
p2 (1 + q)
P(D) = (pq)k p2 + (pq)k qp2 = ·
1 − pq
k=0 k=0

 
15.9 • On a Y (Ω) ⊂ Xn (Ω) . L’ensemble Xn (Ω) est au plus dénombrable, comme union
n∈IN n∈IN
dénombrable d’ensembles au plus dénombrables. Il en est de même a fortiori de Y (Ω) .
• Pour x ∈ Y (Ω) , on a :

Y −1 ({x}) = {ω ∈ Ω : ∃n ∈ IN N (ω) = n et Xn (ω) = x} = {N = n}∩{Xn = x}.
n∈IN

Pour tout n ∈ IN , {N = n} et {Xn = x} sont des événements, donc Y −1 ({x}) est un


événement, car union dénombrable d’événements.
Donc Y est une variable aléatoire discrète.

15.10 1. La suite ({X  n})n∈IN est une suite croissante d’événements. On a donc, par continuité
croissante :  

lim P(X  n) = P {X  n} = P(Ω) = 1.
n→+∞
n∈IN

La fonction F : x �→ P(X  x) est croissante. En effet si x  y , alors {X  x} ⊂ {X  y}


et donc F (x)  F (y) par croissance de P .
Elle possède donc une limite en +∞ et :
lim P(X  x) = lim F (x) = lim F (n) = 1.
x→+∞ x→+∞ n→+∞

630
Solutions des exercices

2. De même, la suite ({X  −n})n∈IN est une suite décroissante d’événements. On a donc,
par continuité décroissante :
 
lim P(X  −n) = P {X  −n} = P(∅) = 0.
n→+∞
n∈IN

La fonction F étant croissante, elle possède une limite en −∞ et l’on a :

lim P(X  x) = lim F (x) = lim F (−n) = 0.


x→−∞ x→−∞ n→+∞

15.11 Soit λ > 0 tel que X ∼ P(λ) . Comme, pour tout n ∈ IN , P(X  n) = P(X = n)+P(X > n) ,
il s’agit de démontrer que, quand n tend vers +∞ , P(X > n) est négligeable de-
e−λ λn
vant P(X = n) = n!
· On a :
+∞ +∞ +∞
  e−λ λk  λk−n
P(X > n) = P(X = k) = = P(X = n) ·
k! (n + 1) · · · k
k=n+1 k=n+1 k=n+1

Pour k  n + 1 , on a la majoration :
 k−n
λk−n λk−n λ
0  = .
(n + 1) · · · k (n + 1)k−n n+1
 λ

k−n
Pour n > λ − 1 , n+1
est le terme général d’une série géométrique convergente (de la
variable k ) et l’on obtient :
+∞ +∞  k−n
 λk−n  λ λ
 = −−−−−→ 0,
(n + 1) · · · k n+1 n + 1 − λ n→+∞
k=n+1 k=n+1

ce qui donne le résultat voulu.

+∞ +∞
   
15.12 1. On sait que P X = i, Y = j = 1 . Pour tout n ∈ IN , on a :
i=0 j=0

 (i + j)λi+j  n  
1 nλn  n n(2λ)n
= nλn = = ·
i! j! i!j! n! i n!
i+j=n i+j=n i=0

D’autre part, on a :
+∞ +∞
 n(2λ)n  (2λ)n
= = (2λ)e2λ .
n! (n − 1)!
n=0 n=1

D’après le théorème de sommation par paquets, on a :


+∞ +∞ +∞
  (i + j)λi+j   (i + j)λi+j e−2λ
= = (2λ)e2λ donc a= ·
i! j! i! j! 2λ
i=0 j=0 n=0 i+j=n

631
Chapitre 15. Espaces probabilisés

2. Pour tout i ∈ IN , on a :
+∞ +∞
    (i + j)λi+j
P(X = i) = P X = i, Y = j = a
i! j!
j=0 j=0

+∞ +∞
iλi  λj λi  λj
=a +a
i! j! i! (j − 1)!
j=0 j=1

i λ i+1 λ
iλ e λ e aeλ λi (i + λ)
=a +a = ·
i! i! i!
e−2λ e−λ λi−1 (i + λ)
Comme a = , on obtient P(X = i) = ·
2λ 2 i!
e−λ λj−1 (j + λ)
Par symétrie de la loi conjointe, on en déduit P(Y = j) = pour
2 j!
tout j ∈ IN .

15.13 1. Pour k ∈ IN∗ , on note Πk l’événement « obtenir pile au k -ième lancer » et Fk l’événement
contraire.
Soit (i, j) ∈ IN2 . Si i  j , on a {X = i} ∩ {Y = j} = ∅ , et si i < j :

{X = i} ∩ {Y = j} = F1 ∩ · · · ∩ Fi−1 ∩ Πi ∩ Fi+1 ∩ · · · ∩ Fj−1 ∩ Πj .

On en déduit :

0 si ij
P(X = i, Y = j) =
p2 (1 − p)j−2 si i < j.

2. Pour tout i ∈ IN∗ , on a :


+∞ +∞
 
P(X = i) = P(X = i, Y = j) = p2 (1 − p)j−2
j=i+1 j=i+1

p2 (1 − p)i−1
= = p(1 − p)i−1 .
1 − (1 − p)

Sans surprise, on trouve que X suit la loi géométrique G(p) .


La variable aléatoire Y est à valeurs dans [[2, +∞[[ . Pour j  2 , on a :
j−1 j−1
 
P(Y = j) = P(X = i, Y = j) = p2 (1 − p)j−2 = (j − 1)p2 (1 − p)j−2 .
i=1 i=1

15.14 1. On remarque qu’une suite (xn )n∈IN de réels converge vers x si, et seulement si :
1
∀k ∈ IN∗ ∃n ∈ IN ∀p  n |xp − x|  ,
k
1
car pour tout ε > 0 , il existe k ∈ IN∗ tel que  ε.
k

632
Solutions des exercices

On a donc, pour tout ω ∈ Ω ,


1
ω ∈ B ⇐⇒ ∀k ∈ IN∗ ∃n ∈ IN ∀p  n |Xp (ω) − X(ω)| 
k
 
1
⇐⇒ ∀k ∈ IN∗ ∃n ∈ IN ∀p  n ω ∈ |Xp − X| 
k
⇐⇒ ∀k ∈ IN∗ ω ∈ Ck

⇐⇒ ω ∈ Ck .
k∈IN∗

On a donc B = Ck .
k∈IN∗
 
Chaque Ck est un événement car, pour tout p ∈ IN , |Xp − X|  k1 est un événe-
ment, donc Ck est une union dénombrable d’intersections dénombrables d’événements.
On en déduit que B est un événement. La suite (Ck )k∈IN∗ étant décroissante, on a, par
continuité décroissante :
P(B) = lim P(Ck ).
k→+∞

2. On obtient, en considérant l’événement contraire :


  
 
∀ε > 0 P |Xp − X|  ε = 1.
n∈IN pn

1
En prenant ε = , on obtient P(Ck ) = 1 . En faisant tendre k vers l’infini, on en
k
déduit P(B) = 1 : la suite (Xn )n∈IN converge donc presque sûrement vers X .
  
3. Supposons que P |Xn − X| > ε converge pour tout ε > 0 . Soit ε > 0 . Pour n ∈ IN ,
on a, par sous-additivité de P :
  +∞

 
P |Xp − X| > ε  P(|Xp − X| > ε).
pn p=n
 
Le reste d’ordre n − 1 de la série de terme général P |Xp − X| > ε tend vers 0 quand n
tend vers +∞ donc a fortiori :
 
 
lim P |Xp − X| > ε = 0.
n→+∞
pn
 
  
La suite |Xp − X| > ε est décroissante donc, par continuité décroissante,
pn n∈IN
on a :
    
   
P |Xp − X| > ε = lim P |Xp − X| > ε = 0.
n→+∞
n∈IN pn pn

De la question précédente, on déduit que la suite (Xn )n∈IN converge presque sûrement
vers X .

633
Chapitre 16 : Conditionnement – Indépendance

I Probabilités conditionnelles . . . . . . . . . . . . . . . . 636


1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . 636
2 Formules liées aux probabilités conditionnelles . . . . . . 636
3 Lois conditionnelles . . . . . . . . . . . . . . . . . . . . . 638
II Indépendance . . . . . . . . . . . . . . . . . . . . . . . . . 639
1 Indépendance des événements . . . . . . . . . . . . . . . 639
2 Indépendance des variables aléatoires . . . . . . . . . . . . 641
3 Suites de variables aléatoires indépendantes . . . . . . . . 646
Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 652
Conditionnement –
Indépendance 16
Dans tout le chapitre, (Ω, A, P) désigne un espace probabilisé. Sauf mention plus
précise, les événements et les variables aléatoires considérés le sont sur cet espace
probabilisé.

I Probabilités conditionnelles
Les définitions qui suivent généralisent simplement les définitions vues en première
année dans le cas d’un univers fini.
1 Définition
Théorème 1
Pour tout événement A de de probabilité non nulle, l’application :
PA : A −→ IR
P(B ∩ A)
B �−→
P(A)
est une probabilité sur (Ω, A), appelée la probabilité conditionnelle sachant A.
Pour tout événement B , PA (B) qui est encore notée P(B | A) est appelée la
probabilité conditionnelle de B sachant A.
Démonstration page 648

Remarque Pour tous événements A et B tels que P(A) �= 0 , on a :


P(A ∩ B) = P(A)PA (B).
Si P(A) = 0 , on pose par convention P(A)PA (B) = 0 , si bien que l’égalité précédente
reste vérifiée car alors P(A ∩ B) = 0 , puisqueA ∩ B ⊂ A.

2 Formules liées aux probabilités conditionnelles


Formule des probabilités composées
Théorème 2 (Formule des probabilités composées)
Soit n  2 un entier naturel. Pour toute famille (A1 , . . . , An ) d’événements tels
que P(A1 ∩ · · · ∩ An−1 ) �= 0 , on a :
P(A1 ∩ · · · ∩ An ) = P(A1 )P(A2 | A1 ) · · · P(An | A1 ∩ · · · ∩ An−1 ).
Démonstration page 648
I Probabilités conditionnelles

Formule des probabilités totales


Théorème 3 (Formule des probabilités totales)
Soit (Ai )i∈I un système quasi-complet d’événements. Pour B ∈ A, on a :
 
P(B) = P(B ∩ Ai ) = P(B | Ai ) P(Ai ).
i∈I i∈I

Démonstration. La première égalité a été démontrée dans la proposition 3 de la page 604.


En écrivant P(B ∩ Ai ) = P(B | Ai ) P(Ai ) , pour tout i ∈ I , on obtient la deuxième égalité.

Remarque On rappelle la convention adoptée (cf. remarque de la page précédente).


Si P(Ai ) = 0 , alors on pose P(B | Ai )P(Ai ) = 0 .

Ex. 1. Dans une population donnée, on suppose qu’il existe p ∈ ]0, 1[ et α > 0 tels que la
probabilité pn qu’une famille ait exactement n enfants vérifie pn = αpn , pour tout n  1 .
On suppose qu’un enfant a la même probabilité d’être une fille ou un garçon. Déterminons la
probabilité qu’une famille ait exactement deux filles.
Pour k ∈ IN , on considère les événements Ek « la famille a exactement k enfants » et Fk « la
famille a exactement k filles ». Pour calculer P(F2 ) , on applique la formule des probabilités
totales avec le système complet d’événements (En )n∈IN . On obtient :
+∞

P(F2 ) = P(F2 | En )P(En ).
n=0
n  1 n
Pour n  2 , P(F2 | En ) = : sachant qu’il y a n enfants, la loi du nombre de filles
 2 1 2 1
est binomiale de paramètre n, 2 car chaque enfant a la probabilité 2
d’être une fille. Cette
probabilité est évidemment nulle si n < 2 . On obtient :
+∞     +∞  p n αp2 
+∞  p n−2
 n 1 n α
P(F2 ) = αpn = n(n − 1) = n(n − 1) .
2 2 2 2 8 2
n=2 n=2 n=2

Par le théorème de dérivation des séries entières, on a, pour tout x ∈ ]−1, 1[ :


+∞
 d2
 1  2
n(n − 1)xn−2 = = ·
dx2 1−x (1 − x)3
n=2

On en déduit :
αp2 2 2αp2
P(F2 ) =  3 = ·
8 1− 2p (2 − p)3

Formule de Bayes
Théorème 4 (Formule de Bayes)
Si A et B sont deux événements de probabilité non nulle, on a :
P(B | A) P(A)
P(A | B) = ·
P(B)

Démonstration. Cela résulte de la définition des probabilités conditionnelles.

637
Chapitre 16. Conditionnement – Indépendance

Ex. 2. On reprend les données de l’exemple 1 de la page précédente. La probabilité qu’une famille
ait deux enfants sachant qu’elle a deux filles est :

P(F2 | E2 )P(E2 ) 1
αp2 (2 − p)3
P(E2 | F2 ) = = 4
= ·
P(F2 ) 2αp2 8
(2−p)3

3 Lois conditionnelles
Définition 1
Soit X une variable aléatoire discrète et A un événement de probabilité non nulle.
La loi conditionnelle de X sachant A est la loi de X dans l’espace probabi-
lisé (Ω, A, PA ). Elle est donc déterminée par la donnée, pour tout x ∈ X(Ω), de :
 
PA X = x = P (X = x | A) .

Remarques
• Les lois conditionnelles sont des lois de variables aléatoires ; elles en ont les pro-
priétés.
• Assez fréquemment, l’événement A est de la forme {Y = y} , où Y est une autre
variable aléatoire sur le même espace probabilisé.

Ex. 3. Si la variable aléatoire X suit la loi géométrique de paramètre p ∈ ]0, 1[ , on a, pour tout
couple d’entiers naturels (k, ℓ) :
   
 P {X > k + ℓ} ∩ {X > k}
 P X > k+ℓ
P X >k+ℓ|X >k = =   ,
P(X > k) P X>k

car {X > k + ℓ} ⊂ {X > k} , et donc :

  q k+ℓ  
P X >k+ℓ|X >k = = qℓ = P X > ℓ .
qk
Exo
16.1 La loi conditionnelle de X − k sachant {X > k} est la même que la loi de X . Si l’on pense à X
comme à une durée, on peut dire que X ne tient pas compte du passé. On dit que la variable
Exo
aléatoire X est sans mémoire.
16.2

Proposition 5
Soit (X, Y ) un couple de variables aléatoires discrètes. Alors, pour tout x ∈ X(Ω),
on a :   
P(X = x) = P(Y = y) P X = x | Y = y .
y∈Y (Ω)

Démonstration. Cela résulte de la formule des probabilités totales appliquée au système


complet d’événements ({Y = y})y∈Y (Ω) .

Remarques
• On a évidemment une formule symétrique pour P(Y = y).

638
II Indépendance

• Ainsi, connaissant l’une des lois marginales et la probabilité conditionnelle de


Exo l’autre variable par rapport à celle-ci, on obtient la loi conjointe et la loi marginale
16.3
de la deuxième variable.

II Indépendance
1 Indépendance des événements
Les définitions qui suivent généralisent les définitions vues en première année dans le
cas d’un univers fini.
Indépendance entre deux événements

Définition 2
Deux événements A et B sont dits indépendants si :
P(A ∩ B) = P(A) × P(B).

Proposition 6
Deux événements A et B tels que P(A) �= 0 sont indépendants si, et seulement
si, P(B | A) = P(B).

Remarques
• Si l’événement A est négligeable, alors il est indépendant de tout événement B .
En effet on a P(A) = 0 et a fortiori P(A ∩ B) = 0 .
• L’indépendance est une notion probabiliste. Elle dépend de la probabilité dont est
muni (Ω, A).

Proposition 7
Si A et B sont deux événements indépendants, alors les événements A et B sont
indépendants.
Démonstration page 648

Remarque On en déduit que si A est un événement presque sûr, il est indépen-


dant de tout événement B . En effet A est de probabilité nulle donc A et B sont
indépendants, comme nous l’avons déjà vu.

Indépendance d’une famille d’événements.

Définition 3
Soit (Ai )i∈I une famille quelconque d’événements.
On dit que les événements Ai , pour i ∈ I , sont mutuellement indépendants si,
pour toute partie finie J de I , on a :
  
P Ai = P(Ai ).
i∈J i∈J

639
Chapitre 16. Conditionnement - Indépendance

Remarques
• Souvent, pour une famille d’événements mutuellement indépendants, on dit sim-
plement indépendants.
• Si les événements Ai , pour i ∈ I sont mutuellement indépendants, alors ils sont
deux à deux indépendants, comme on le voit en prenant pour J un ensemble à
deux éléments.
Comme dans le cas des univers finis, la réciproque est fausse.
• L’indépendance ne dépend pas de l’ordre des événements. Si (Ai )i∈I est une
famille d’événements mutuellement indépendants, il en est de même de la fa-
mille (Aσ(i) )i∈I , où σ est une permutation de I .
• Si (Ai )i∈I est une famille d’événements mutuellement indépendants, alors, pour
toute partie I ′ de I , (Ai )i∈I ′ est encore une famille d’événements mutuellement
indépendants.

Proposition 8
Si (Ai )i∈I est une famille d’événements mutuellement indépendants, et si, pour
Exo tout i ∈ I , Bi est égal à Ai ou Ai , alors (Bi )i∈I est une famille d’événements
16.8 mutuellement indépendants.
Démonstration page 648

Ex. 4. Second lemme de Borel-Cantelli


Soit (An ) une suite d’événements d’un espace probabilisé (Ω, A, P) . On suppose que la sé-

rie P(An ) diverge et que les événements An sont mutuellement indépendants. Montrons que
 
+∞ +∞
l’événement B = Ap est presque sûr. On rappelle que B est l’événement « une infinité
k=0 p=k
d’événements An sont réalisés ».
 
+∞ +∞
On a B = Ap . Les événements An sont aussi mutuellement indépendants donc, pour
k=0 p=k
tout k ∈ IN , on a, par continuité décroissante :
 +∞
  
N  N
 N

   
P Ap = lim P Ap = lim P Ap = lim 1 − P(Ap ) .
N→+∞ N→+∞ N→+∞
p=k p=k p=k p=k
−x
Sachant que 0  1 − x  e pour tout réel x ∈ [0, 1] , on a :
N N
 N

    
0 (1 − P(Ap ))  exp − P(Ap )  exp − P(Ap ) .
p=k p=k p=k

 N

La série P(Ap ) diverge donc lim P(Ap ) = +∞ . On en déduit :
N→+∞
p=k
 +∞
  N
  
P Ap = lim 1 − P(Ap ) = 0.
N→+∞
p=k p=k

Ainsi, B est négligeable, car réunion dénombrable d’événements négligeables, et l’événement


contraire B est presque sûr.

640
II Indépendance

Ex. 5. On considère une suite de lancers de pile ou face.


Montrons que tout motif fini m = a1 . . . ak , où chaque aj est égal à 0 ou 1 , apparaît presque
sûrement une infinité de fois. Notons A l’événement « le motif m apparaît une infinité de fois »
et pour n ∈ IN , notons An l’événement « le motif m aux lancers nk, . . . , (n + 1)k − 1 ».
Pour tout n ∈ IN , par indépendance des résultats des différents lancers, on
a P(An ) = pi (1 − p)k−i > 0 , où i est le nombre de aj égaux à 1 (pour 1  j  k ).
On note que les différents événements An sont incompatibles. Si n1 , . . . , nj sont des entiers
naturels tels que n1 < · · · < nj , alors, toujours par indépendance des résultats des lancers :
 
P An1 ∩ · · · ∩ Anj = pij (1 − p)(k−i)j = P(An1 ) · · · P(Anj ).

Le événements An sont donc mutuellement indépendants. La série P(An ) est divergente donc
le second lemme de Borel-Cantelli montre que l’événement B « une infinité d’événements An
sont réalisés » est presque sûr. Comme de plus B ⊂ A , on a a fortiori P(A) = 1 .

Remarque En tenant compte du premier lemme de Borel-Cantelli (exemple 10 de


la page 605), on voit que si les événements An sont mutuellement indépendants, la
 +∞
+∞ 
probabilité de Ap , c’est-à-dire la probabilité qu’une infinité d’événements An
k=0 p=k
se réalisent, ne peut être que 0 ou 1 .

2 Indépendance des variables aléatoires


Indépendance de deux variables aléatoires
Définition 4
Deux variables aléatoires discrètes X et Y , à valeurs dans E et F respectivement
sont dites indépendantes si, pour toute partie A de E et toute partie B de F ,
les événements {X ∈ A} et {Y ∈ B} sont indépendants, c’est-à-dire vérifient :
 
P {X ∈ A} ∩ {Y ∈ B} = P(X ∈ A) P(Y ∈ B).

Notation La relation « X et Y sont indépendantes » se note X ⊥


⊥Y.

Attention L’indépendance est une notion qui dépend de la probabilité choisie.


Proposition 9
Deux variables aléatoires discrètes X et Y à valeurs dans E et F respectivement
sont indépendantes si, et seulement si, :
 
∀(x, y) ∈ E × F P X = x, Y = y = P(X = x) P(Y = y).
Démonstration page 649
Reformulation Les variables X et Y sont indépendantes si, et seulement si, la
distribution de probabilités de (X, Y ) est égale au produit des distributions de pro-
babilités de X et de Y .

Ex. 6. Une variable presque sûrement constante est indépendante de toute variable aléatoire
discrète, car un événement de probabilité 0 ou 1 est indépendant de tout événement.

641
Chapitre 16. Conditionnement - Indépendance

 
Remarque Ainsi, si X et Y sont indépendantes, alors P X = x, Y = y s’écrit
comme produit d’une fonction de x et d’une fonction de y .
La réciproque est vraie comme le montre l’exemple suivant.

Ex. 7. On suppose que la loi conjointe du couple (X, Y ) s’écrit :

∀(x, y) ∈ X(Ω) × Y (Ω) P(X = x, Y = y) = ϕ(x) ψ(y).

où ϕ et ψ sont des fonctions définies respectivement sur X(Ω) et Y (Ω) .


En sommant sur x ∈ X(Ω) , on obtient, pour tout y ∈ Y (Ω) :
 
P(Y = y) = P(X = x, Y = y) = ϕ(x) ψ(y) = C ′ ψ(y),
x∈X(Ω) x∈X(Ω)


où C ′ = ϕ(x) .
x∈X(Ω)

De même, pour tout x ∈ X(Ω) , on a P(X = x) = Cϕ(x) , où C = ψ(y) .
y∈Y (Ω)

De P(Y = y) = 1 , on tire CC ′ = 1 et donc, pour tout (x, y) ∈ X(Ω) × Y (Ω) :
y∈Y (Ω)

  
P(X = x, Y = y) = Cϕ(x) C ′ ψ(y) = P(X = x) P(Y = y).

Les variables aléatoires X et Y sont donc indépendantes et à une constante multiplicative près,
les fonctions ϕ et ψ sont les distributions de probabilités de X et de Y .

Exo Point méthode Connaissant la loi de deux variables aléatoires indépendantes X


16.11 et Y , on peut en déduire la loi de toute variable aléatoire Z fonction de X
et Y . Pour tout z ∈ Z(Ω), on écrit {Z = z} comme réunion d’événements de
Exo
16.12 la forme {X = x} ∩ {Y = y}.

Ex. 8. Si X et Y sont deux variables aléatoires indépendantes, à valeurs dans IN , on a, pour



n
tout n ∈ IN , {X + Y = n} = {X = k} ∩ {Y = n − k} et donc, par additivité :
k=0

n n
 
P(X + Y = n) = P(X = k, Y = n − k) = P(X = k) P(Y = n − k).
k=0 k=0

Ex. 9. Si X et Y sont deux variables aléatoires indépendantes, à valeurs dans ZZ , on a, pour



tout n ∈ ZZ , {X + Y = n} = {X = k} ∩ {Y = n − k} et donc :
k∈Z
Z

+∞ +∞
 
P(X + Y = n) = P(X = k, Y = n − k) = P(X = k) P(Y = n − k).
k=−∞ k=−∞

642
II Indépendance

Ex. 10. Stabilité de la loi de Poisson


Soit X et Y des variables aléatoires indépendantes, suivant des lois de Poisson de paramètres
respectifs λ et µ . Déterminons la loi de X + Y .
La variable X + Y est à valeurs dans IN et, pour tout n dans IN :

n n
        e−λ λk e−µ µn−k
P X +Y =n = P X =k P Y =n−k =
k! (n − k)!
k=0 k=0
n  
1  n k n−k
= e−(λ+µ) λ µ
n! k
k=0
−(λ+µ)
e
= (λ + µ)n ,
n!

d’après la formule du binôme. Donc X + Y suit la loi de Poisson de paramètre λ + µ .

Proposition 10
Soit (X, Y ) un couple de variables aléatoires discrètes. Il y a équivalence entre :
(i) X ⊥
⊥Y ;
 
(ii) pour tout y de Y (Ω) tel que P Y = y �= 0 , la loi conditionnelle de X
sachant {Y = y} est égale à la loi de X .
Démonstration page 649

Proposition 11 (Transfert d’indépendance)


Si X et Y sont des variables aléatoires discrètes indépendantes, alors, pour toute
fonction f définie sur X(Ω) et toute fonction g définie sur Y (Ω), les variables
aléatoires f (X) et g(Y ) sont indépendantes.
Démonstration page 650

Indépendance de n variables aléatoires

Définition 5
Les variables aléatoires discrètes X1 , . . . , Xn à valeurs dans E1 , . . . , En sont dites
mutuellement indépendantes si, pour toutes parties A1 ⊂ E1 , . . .,An ⊂ En :
n
  
P {X1 ∈ A1 } ∩ · · · ∩ {Xn ∈ An } = P(Xi ∈ Ai ).
i=1

Remarques
• On dit souvent indépendantes au lieu de mutuellement indépendantes.
• L’indépendance d’un n-uplet de variables aléatoires ne dépend pas de l’ordre de
ces variables.

643
Chapitre 16. Conditionnement - Indépendance
Proposition 12
Les variables aléatoires discrètes X1 , . . . , Xn à valeurs dans E1 , . . . , En , sont mu-
tuellement indépendantes si, et seulement si, pour tout (x1 , . . . , xn ) ∈ E1 ×· · ·×En ,
on a :
n
  
Exo P {X1 = x1 } ∩ · · · ∩ {Xn = xn } = P(Xi = xi ).
16.13 i=1
Démonstration page 650

Reformulation Les variables X1 , . . . , Xn sont indépendantes si, et seulement si, la


distribution de probabilités de (X1 , . . . , Xn ) est égale au produit des distributions de
probabilités de X1 , . . . , Xn .

Remarque
• Si les variables X1 , . . . , Xn sont mutuellement indépendantes, alors la probabi-
 
n 
lité P {Xi = xi } s’écrit comme un produit d’une fonction de x1 , . . ., d’une
i=1
fonction de xn .
• Comme dans le cas de deux variables aléatoires (cf. exemple 7 de la page 642),
on peut démontrer que si la loi conjointe peut s’écrire sous cette forme, alors les
variables X1 , . . . , Xn sont mutuellement indépendantes (cf. exercice 16.16 pour
une preuve).

Proposition 13
Si (X1 , . . . , Xn ) est une famille de variables aléatoires discrètes, mutuellement indé-
Exo pendantes, alors toute sous-famille est formée de variables mutuellement indépen-
16.14 dantes.
Démonstration page 651

Attention Si les variables aléatoires discrètes X1 , . . . , Xn sont mutuellement indé-


pendantes, alors elles sont indépendantes deux à deux. Comme dans le cas fini, la
réciproque est fausse.

Corollaire 14
Si les variables aléatoires X1 , . . . , Xn , à valeurs dans E1 , . . . , En respectivement,
sont mutuellement indépendantes, alors, pour toutes parties A1 , . . . , An respective-
ment de E1 , . . . , En , les événements {X1 ∈ A1 }, . . . , {Xn ∈ An } sont indépendants.

Démonstration. Si I est une partie non vide de [[1, n]] , alors d’après la proposi-
tion 13, (Xi )i∈I est une famille de variables aléatoires mutuellement indépendantes et par
définition :
  
P {Xi ∈ Ai } = P(Xi ∈ Ai ).
i∈I i∈I

Cela montre l’indépendance des événements {X1 ∈ A1 } , . . ., {Xn ∈ An } .

644
II Indépendance
Proposition 15 (Transfert d’indépendance)
Soit (X1 , . . . , Xn ) un n-uplet de variables aléatoires discrètes, mutuellement indé-
pendantes.
Si pour tout i ∈ [[1, n]], la fonction fi est définie sur Xi (Ω), les variables aléa-
toires f1 (X1 ), . . . , fn (Xn ) sont mutuellement indépendantes.
Démonstration page 651

Remarque La proposition précédente peut se généraliser à des variables aléatoires


fonctions de plusieurs variables aléatoires Xk (pour 1  k  n). Commençons par le
cas de deux fonctions.

Proposition 16
Soit X1 , . . . , Xn des variables aléatoires discrètes indépendantes à valeurs respecti-
vement dans des ensembles E1 , . . . , En , et 1  p < n.
Si f est une fonction définie sur E1 × · · · × Ep et g une fonction définie
sur Ep+1 × · · · × En , alors f (X1 , . . . , Xp ) et g(Xp+1 , . . . , Xn ) sont indépendantes.
Démonstration page 651

Remarque En particulier, si les variables Xk sont complexes, alors les va-


riables X1 + · · · + Xp et Xp+1 + · · · + Xn sont indépendantes.

Ex. 11. Montrons que, si X1 , . . . , Xn sont des variables aléatoires mutuellement indépendantes,
telles que Xk suive la loi de Poisson de paramètre λk pour tout k ∈ [[1, n]] , alors la variable

n
aléatoire X1 + · · · + Xn suit la loi de Poisson de paramètre λk .
k=1
On procède par récurrence sur n , la propriété étant évidente pour n = 1 et ayant été démontrée
pour n = 2 dans l’exemple 10 de la page 643. Supposons que la propriété soit vraie au rang n
et considérons n + 1 variables indépendantes X1 , . . . , Xn+1 suivant des lois de Poisson de
paramètres respectifs λ1 , . . . , λn+1 . Les variables aléatoires X1 , . . . , Xn sont alors indépendantes
et donc, par hypothèse de récurrence, la variable X1 + · · · + Xn suit la loi de Poisson de
n

paramètre λk . Les variables X1 , . . . , Xn , Xn+1 étant mutuellement indépendantes, il en
k=1
est de même des variables X1 + · · · + Xn et Xn+1 . D’après le cas de deux variables, leur
n n+1
 
somme X1 + · · · + Xn + Xn+1 suit la loi de Poisson de paramètre λk + λn+1 = λk .
k=1 k=1
Cela termine la démonstration par récurrence.

Ce qui précède peut se généraliser à plus de deux fonctions.


Proposition 17 (Lemme des coalitions)
Soit (X1 , . . . , Xn ) un n-uplet de variables aléatoires, mutuellement indépen-
dantes, k un entier naturel non nul, I1 , . . . , Ik des sous-ensembles non vides et
disjoints de [[1, n]]. Pour tout j entre 1 et k , on considère une variable aléatoire Yj
qui est une fonction des variables Xi pour i ∈ Ij .
Alors les variables Y1 , . . . , Yk sont indépendantes.

645
Chapitre 16. Conditionnement - Indépendance

Démonstration. On montre que les k variables (Xi )i∈I1 , (Xi )i∈I2 , . . . , (Xi )i∈Ik sont mu-
tuellement indépendantes, comme dans la proposition 16. On en déduit que Y1 , . . . , Yk sont
mutuellement indépendantes, d’après la proposition 15 de la page précédente.

3 Suites de variables aléatoires indépendantes


Définition 6
Une suite (Xn )n∈IN de variables aléatoires réelles discrètes est appelée suite de
variables aléatoires mutuellement indépendantes si, pour toute partie finie I
de IN, les variables aléatoires réelles discrètes Xi , où i décrit I , sont mutuellement
indépendantes.

Remarque Il suffit de vérifier que, pour tout entier n, les variables X0 , . . . , Xn


sont mutuellement indépendantes. En effet, toute sous-famille finie de (Xn )n∈IN est
contenue dans une sous-famille de la forme (X0 , . . . , Xn ). D’après la proposition 13
de la page 644, elle est constituée de variables aléatoires mutuellement indépendantes
dès que les variables X0 , . . . , Xn sont mutuellement indépendantes.

Suite de variables aléatoires discrètes de lois données


Nous admettrons le théorème suivant.
Théorème 18
Pour toute suite (Pn ) de lois de probabilité discrètes, il existe un espace proba-
Exo
bilisé (Ω, A, P) et une suite (Xn ) de variables aléatoires discrètes, indépendantes
16.15 sur (Ω, A, P) telle que, pour tout n ∈ IN, la loi PXn soit Pn .

Remarques
• En particulier, si P est une loi de probabilité discrète, il existe un espace proba-
bilisé (Ω, A, P) et une suite (Xn ) de variables aléatoires discrètes, indépendantes
sur (Ω, A, P) telle que, pour tout n ∈ IN, la loi de Xn soit P . On dit alors que les
variables sont indépendantes identiquement distribuées (abrégé en i.i.d.)
Une telle suite modélise une suite d’épreuves identiques aux résultats indépen-
dants.

Ex. 12. Si P est la loi de Bernoulli de paramètre p , on obtient une modélisation du jeu de
pile ou face. Pour tout n ∈ IN∗ , {Xn = 1} et {Xn = 0} sont des événements, qu’on appelle
respectivement obtenir pile et face ou succès et échec à la n -ième épreuve ; les variables Xn
étant indépendantes, les événements {Xn = 1} , pour n ∈ IN∗ , sont indépendants.
Ex. 13. De la même façon, si P est la loi uniforme sur [[1, 6]] , on modélise l’expérience
aléatoire consistant à lancer un dé une infinité dénombrable de fois.

• Ce théorème est d’une grande importance pratique, car la construction d’un espace
probabilisé modélisant le jeu de pile ou face est très difficile.

646
II Indépendance

Ex. 14. Soit p ∈ ]0, 1[ et (Xn )n∈IN∗ une suite de variables aléatoires i.i.d., suivant la loi de
Bernoulli de paramètre p . On note T le nombre de tirages nécessaires pour obtenir un succès
(c’est-à-dire un 1 ) pour la première fois et +∞ si l’on n’a jamais de succès.
Pour tout n ∈ IN∗ , {T = n} = {X1 = 0, . . . , Xn−1 = 0, Xn = 1} est un événement, et :
 n−1
 
P(T = n) = P(X1 = 0, . . . , Xn−1 = 0, Xn = 1) = P(Xi = 0) P(Xn = 1) = (1−p)n−1 p.
i=1


+∞
D’autre part, {T = +∞} = {Xk = 0} est également un événement et, par continuité
k=1
décroissante :
 +∞
  
n 
P(T = +∞) = P {Xk = 0} = lim P {Xk = 0} = lim (1 − p)n = 0.
n→+∞ n→+∞
k=1 k=1

Ainsi T est une variable aléatoire discrète qui suit la loi géométrique de paramètre p .

647
Chapitre 16. Conditionnement - Indépendance

Démonstrations
Théorème 1 Montrons que PA est une probabilité sur (Ω, A) .
• L’application PA est à valeurs dans [0, 1] car on a 0  P(B ∩ A)  P(A) , pour tout
événement B .
P(Ω ∩ A)
• On a PA (Ω) = = 1.
P(A)
• Soit (Bn )n∈IN une suite d’événements deux à deux incompatibles. La famille (Bn ∩ A)n∈IN
est aussi une suite d’événements deux à deux incompatibles. On a alors par σ -additivité :
     +∞

 
P Bn ∩ A =P (Bn ∩ A) = P(Bn ∩ A).
n∈IN n∈IN n=0
On a donc :  
   
+∞
  P Bn ∩ A P(Bn ∩ A) +∞

n∈IN n=0
PA Bn = = = PA (Bn ).
P(A) P(A)
n∈IN n=0

Théorème 2 Pour tout entier k ∈ [[1, n − 1]] , on a :


A1 ∩ · · · ∩ An−1 ⊂ A1 ∩ · · · ∩ Ak ,
d’où P(A1 ∩ · · · ∩ Ak )  P(A1 ∩ · · · ∩ An−1 ) > 0 . Toutes les probabilités conditionnelles sont
donc définies. Il suffit alors d’écrire :
n

P(A1 ) P(A2 | A1 ) · · · P(An | A1 ∩ · · · ∩ An−1 ) = P(A1 ) P (Ak | A1 ∩ · · · ∩ Ak−1 )
k=2
n
 
 P A1 ∩ · · · ∩ Ak−1 ∩ Ak
= P(A1 )  
k=2
P A1 ∩ · · · ∩ Ak−1
 
= P A1 ∩ · · · ∩ An−1 ∩ An ,
car le produit de droite est télescopique : tous les termes se simplifient deux à deux à part le
dernier.
Proposition 7 Comme A et B sont indépendants, on a P(A ∩ B) = P(A)P(B) .
De l’égalité P(A ∩ B) = P(B) − P(A ∩ B) , on déduit :
 
P(A ∩ B) = P(B) − P(A)P(B) = 1 − P(A) P(B) = P(A)P(B),

ce qui montre que A et B sont indépendants.


  
Proposition 8 Montrons que P Bi = P(Bi ) , pour tout partie finie J non vide de I , par
i∈J i∈J

récurrence sur le nombre n d’indices de J tels que Bi = Ai .


  
• Si n = 0 , il s’agit de démontrer que P Ai = P(Ai ) , pour toute partie non vide J
i∈J i∈J
de I , ce qui résulte de la définition de l’indépendance des événements Ai , pour i ∈ I .
• Supposons que la propriété soit vraie au rang n et montrons-la au rang n + 1 . Soit J une
partie finie non vide de I telle que card {i ∈ J : Bi = Ai } = n + 1 et k ∈ J tel
que Bk = Ak . On a :
  
Bi = Bi \ Bi ∩ Ak .
i∈J i∈J \{k} i∈J \{k}

648
Démonstrations

On en déduit :
       
P Bi =P Bi −P Bi ∩ Ak .
i∈J i∈J \{k} i∈J \{k}

Par hypothèse de récurrence, on a :


       
P Bi ∩ Ak = P(Bi ) P(Ak ) et P Bi = P(Bi ),
i∈J \{k} i∈J \{k} i∈J \{k} i∈J \{k}

car card {i ∈ J \ {k} : Bi = Ai } = n. On en déduit :


    

P Bi = P(Bi ) 1 − P(Ak )) = P(Bi ) P(Ak ) = P(Bi ),
i∈J i∈J \{k} i∈J \{k} i∈J

ce qui termine la récurrence.


Proposition 9
• Si les variables X et Y sont indépendantes, en prenant A = {x} et B = {y} dans la
définition, on obtient l’égalité P(X = x, Y = y) = P(X = x) P(Y = y) .
• Démontrons la réciproque. Soit A ⊂ E et B ⊂ F . Les ensembles X(Ω) et Y (Ω) sont
au plus dénombrables, donc il en est de même de leurs sous-ensembles A′ = A ∩ X(Ω)
et B ′ = B ∩ Y (Ω) , puis de A′ × B ′ . On a :
 
{X ∈ A} = {X ∈ A′ } = {X = x} et {Y ∈ B} = {Y ∈ B ′ } = {Y = y}.
x∈A′ y∈B ′

On en déduit {X ∈ A} ∩ {Y ∈ B} = {X = x} ∩ {Y = y} .
(x,y)∈A′ ×B ′

On a une réunion dénombrable d’événements incompatibles. On en déduit, par σ -additivité :


  
P {X ∈ A} ∩ {Y ∈ B} = P(X = x, Y = y)
(x,y)∈A′ ×B ′

= P(X = x)P(Y = y).
(x,y)∈A′ ×B ′
 
Comme P(X ∈ A) = P(X = x) et P(Y ∈ B) = P(Y = y) , on obtient, par
x∈A′ y∈B ′
produit de deux familles sommables :
 
P {X ∈ A} ∩ {Y ∈ B} = P(X ∈ A) P(Y ∈ B).
Proposition 10 Montrons l’équivalence entre (i) et (ii) .
 
• Supposons que X et Y soient indépendantes. Soit y ∈ Y (Ω) tel que P Y = y �= 0 . On
a, pour tout x ∈ X(Ω) , en exploitant l’indépendance de X et Y :
P(X = x, Y = y) P(X = x)P(Y = y)
P{Y =y} (X = x) = = = P(X = x).
P(Y = y) P(Y = y)
La loi conditionnelle de X sachant {Y = y} est égale à la loi de X : donc (ii) est vérifié.
• Supposons que (ii) soit vérifié. Soit y ∈ Y (Ω) .
∗ Si P(Y = y) = 0 , alors {Y = y} est indépendant de {X = x} pour tout x ∈ X(Ω) ,
car un événement négligeable est indépendant de tout événement.
∗ Sinon on a, pour tout x ∈ X(Ω) :
P(X = x, Y = y) = P{Y =y} (X = x) P (Y = y) = P (X = x) P (Y = y) .
Les variables aléatoires X et Y sont donc indépendantes.

649
Chapitre 16. Conditionnement – Indépendance

Proposition 11 Pour tout (x, y) ∈ f (X)(Ω) × g(Y )(Ω) , on a :


       
P f (X) = x, g(Y ) = y = P X ∈ f −1 {x} ∩ Y ∈ g −1 {y}

et, par indépendance de X et Y :


     
P f (X) = x, g(Y ) = y = P X ∈ f −1 ({x}) P Y ∈ g −1 ({y})
= P(f (X) = x) P(g(Y ) = y).

Ainsi f (X) et g(Y ) sont indépendantes.

Proposition 12

• Supposons X1 , . . . , Xn mutuellement indépendantes. Soit (x1 , . . . , xn ) ∈ E1 × · · · × En . En


appliquant la définition de l’indépendance avec, pour tout i ∈ [[1, n]] , Ai = {xi } , on obtient :
n
  
P {X1 = x1 } ∩ · · · ∩ {Xn = xn } = P(Xi = xi ).
i=1

• Réciproquement, supposons que l’on ait :


n
  
∀(x1 , . . . , xn ) ∈ E1 × · · · × En P {X1 = x1 } ∩ · · · ∩ {Xn = xn } = P(Xi = xi ).
i=1

Pour tout i ∈ [[1, n]] , on considère Ai ⊂ Ei ; on pose A′i = Ai ∩ Xi (Ω) et l’on écrit :

{Xi ∈ Ai } = {Xi ∈ A′i } = {Xi = xi }.
xi ∈A′i

On obtient :
     
{Xi ∈ Ai } = {Xi ∈ A′i } = {Xi = xi } ,
1in 1in (xi )1in ∈A 1in


où A = A′i . Chaque A′i est au plus dénombrable car inclus dans Xi (Ω) qui est au
1in
plus dénombrable. Il en est de même de leur produit A . On a donc une réunion au plus
dénombrable d’événements incompatibles. On en déduit :
      
P {Xi ∈ Ai } = P {Xi = xi }
1in (xi )1in ∈A 1in

   
= P(Xi = xi ) .
(xi )1in ∈A 1in

 

Comme la famille P(Xi = xi ) est un produit de n familles sommables,
1in (xi )1in ∈A
on obtient :
         
P {Xi ∈ Ai } = P(Xi = xi ) = P Xi ∈ Ai .
1in 1in xi ∈A′i 1in

650
Démonstrations

Proposition 13 Soit I ⊂ [[1, n]] et, pour tout i ∈ I une partie Ai de Xi (Ω) .
On pose Ai = Ei si i ∈
/ I . On a alors {Xi ∈ Ai } = Ω pour i ∈
/ I . On obtient :
� �  
� � � �
P {Xi ∈ Ai } = P {Xi ∈ Ai } = P(Xi ∈ Ai ) = P(Xi ∈ Ai ),
i∈I i∈[[1,n]] i∈[[1,n]] i∈I

ce qui prouve que (Xi )i∈I est une famille de variables aléatoires indépendantes.

Proposition 15 Soit A1 , . . . , An des parties de f1 (X1 )(Ω), . . . , fn (Xn )(Ω) respectivement. On a :


� � � �
P {f1 (X1 ) ∈ A1 } ∩ · · · ∩ {fn (Xn ) ∈ An } = P {X1 ∈ f1−1 (A1 )} ∩ · · · ∩ {Xn ∈ fn−1 (An )}
� � � �
= P X1 ∈ f1−1 (A1 ) · · · P Xn ∈ fn−1 (An )
� � � �
= P f1 (X1 ) ∈ A1 · · · P fn (Xn ) ∈ An ,

ce qui montre l’indépendance des variables aléatoires f1 (X1 ), . . . , fn (Xn ) .


Proposition 16
• Les variables aléatoires V1 = (X1 , . . . , Xp ) et V2 = (Xp+1 , . . . , Xn ) sont indépendantes. En
effet, on a, pour tout (x1 , . . . , xn ) ∈ X1 (Ω) × · · · × Xn (Ω) :
� � � �
P V1 = (x1 , . . . , xp ), V2 = (xp+1 , . . . , xn ) = P X1 = x1 , . . . , Xn = xn
n

= P(Xk = xk )
k=1
p n
� �
= P(Xk = xk ) P(Xk = xk )
k=1 k=p+1
� � � �
= P V1 = (x1 , . . . , xp ) P V2 = (xp+1 , . . . , xn ) ,

car X1 , . . . , Xp d’une part, et Xp+1 , . . . , Xn d’autre part, sont indépendantes.


• On en déduit que f (X1 , . . . , Xp ) et g(Xp+1 , . . . , Xn ) sont indépendantes, d’après la propo-
sition 11 de la page 643.

651
Chapitre 16. Conditionnement - Indépendance

S’entraîner et approfondir
Probabilités conditionnelles
16.1 Soit X une variable aléatoire à valeurs dans IN∗ . On suppose que X est sans mémoire,
→638
c’est-à-dire que, pour tout couple d’entiers naturels (k, ℓ) , on a :
 
P(X > k) > 0 et P X > k + ℓ | X > k = P(X > ℓ).
Montrer que X suit une loi géométrique.
 
Indication. On montrera que la suite P(X > n) n∈IN
est géométrique.

16.2 Soit X une variable aléatoire suivant la loi géométrique de paramètre p ∈ ]0, 1[ . Déterminer
→638
la loi conditionnelle de X sachant A où A est l’événement « X est pair ».

16.3 Soit p ∈ ]0, 1[ et λ > 0 , ainsi que X et Y deux variables aléatoires sur le même espace
→639
probabilisé, à valeurs dans IN . On suppose que X suit la loi de Poisson de paramètre λ
et que, pour n ∈ IN , la loi conditionnelle de Y sachant {X = n} est la loi binomiale de
paramètre (n, p) . Déterminer la loi de Y .

16.4 Taux de panne


Soit X une variable aléatoire discrète, à valeurs dans IN∗ , vérifiant :
∀n ∈ IN∗ P(X  n) > 0. (1)
On appelle taux de panne associé à X la suite réelle (xn )n∈IN∗ définie par :
∀n ∈ IN∗ xn = P(X = n | X  n).
1. Exprimer pn = P(X = n) en fonction des xk .
2. (a) Montrer que l’on a 0  xn < 1 , pour tout n ∈ IN∗ , et que la série de terme général xn
diverge.
(b) Réciproquement, soit (xn )n∈IN∗ une suite à valeurs dans [0, 1[ telle que la série de
terme général xn diverge. Montrer qu’il existe une variable aléatoire dont le taux de
panne est la suite (xn ) .
3. Montrer que la variable X suit une loi géométrique si, et seulement si, son taux de panne
est constant.

16.5 Des joueurs notés (jn )n∈IN∗ s’affrontent à pile ou face, avec une pièce équilibrée, de la façon
suivante : j1 et j2 commencent, le perdant est éliminé et le gagnant rencontre j3 , le perdant
est éliminé et le gagnant rencontre j4 , . . . Est déclaré vainqueur le joueur qui gagne trois
parties consécutives et le jeu s’arrête alors.
Pour n  1 , on note pn la probabilité que jn gagne le tournoi et qn la probabilité qu’il
joue.
1
1. Montrer que pn = qn .
8
2. (a) Que vaut qn pour 1  n  4 .
1 1
(b) Montrer que, pour n  5 , qn = qn−1 + qn−2 .
2 4
3. Calculer pn pour tout n .

652
Exercices

16.6 Un banquier se rend chaque jour de son domicile à sa banque, puis de sa banque à son
domicile. Il possède un unique parapluie. À chaque fois qu’il part, s’il pleut et si le parapluie
est à sa disposition, alors il le prend. S’il ne pleut pas, il le laisse.
On suppose que la probabilité qu’il pleuve vaut constamment p ∈ ]0, 1[ (on pose q = 1 − p ).
Pour n ∈ IN∗ , on note pn la probabilité que le parapluie soit disponible là où se trouve le
banquier (au domicile ou à sa banque) au bout de n trajets et qn = 1 − pn . La probabilité
qu’il soit disponible initialement est p0 , quelconque.
   
pn+1 pn
1. Montrer qu’il existe S ∈ M2 (IR) tel que, pour tout n ∈ IN , on ait =S .
qn+1 qn
2. En déduire que la suite (pn )n∈IN converge. Calculer p∞ = lim pn .
n→+∞

16.7 La ruine des joueurs


Deux joueurs A et B ayant pour capitaux initiaux respectivement a et b euros ( (a, b) ∈ IN2 )
s’affrontent dans un jeu constitué d’une succession de parties indépendantes. À chaque partie,
A a la probabilité p ∈ ]0, 1[ de gagner et B la probabilité q = 1 − p . À l’issue de chaque
partie, le perdant donne 1 euro au gagnant. Le jeu s’arrête lorsque l’un des joueurs est ruiné.
On note R(a, b) la probabilité que A finisse ruiné.
1. Montrer que si a  1 et b  1 , alors R(a, b) = pR(a + 1, b − 1) + qR(a − 1, b + 1) .
2. Calculer R(a, b) .
Indication. On pourra remarquer que la capital total a + b reste fixe au cours de la
partie.
3. Montrer que presque sûrement, le jeu se termine au bout d’un nombre fini de parties.
4. Calculer la limite de R(a, b) quand b tend vers +∞ et a reste fixe.

Événements indépendants
16.8 Soit (Ai )i∈I une famille d’événements indépendants, ainsi que I1 , . . . , In des parties finies
→640
et deux à deux disjointes de I .

Pour 1  j  n , on pose Bj = Ai .
i∈Ij

1. Montrer que (B1 , . . . , Bn ) est une famille d’événements indépendants.


 
2. Montrer qu’il en est de même si l’on remplace Ai par Ai dans la définition de
i∈Ij i∈Ij

certains événements Bj .

16.9 Soit (An )n∈IN une suite d’événements, mutuellement indépendants.


   
n  
1. Montrer que P An = 1 − lim P Ai .
n∈IN n→+∞ i=0

2. On suppose que, pour tout n ∈ IN , P(An ) �= 1 .


  
Montrer que P An = 1 si, et seulement si, la série de terme général P(An ) diverge.
n∈IN
1
3. On suppose que, pour tout n ∈ IN , P(An ) = ·
(n + 2)2
  
(a) Calculer P An .
n∈IN
(b) Calculer la probabilité qu’un seul événement de la suite (An )n∈IN se réalise.

653
Chapitre 16. Conditionnement - Indépendance

16.10 Soit (An )n∈IN une suite d’événements d’un espace probabilisé (Ω, A, P) . On pose, pour
tout n ∈ IN :
   
Bn = Ak et Cn = Ak puis B= Bn et C= Cn .
kn kn n∈IN n∈IN

On dit que la suite (An )n∈IN converge si B = C et, par définition, sa limite A est
alors A = B = C .
1. Montrer que si la suite (An )n∈IN converge, alors A est un événement et la
 
suite P(An ) n∈IN converge vers P(A) .
2. On suppose que, pour tout n ∈ IN , les événements Bn et Cn sont indépendants.
(a) Montrer que B et C sont indépendants.
(b) Montrer que si, de plus, la suite (An )n∈IN converge, alors P(A) ∈ {0, 1} .

Variables aléatoires indépendantes


16.11 Soit X et Y des variables aléatoires indépendantes, suivant des lois de Poisson de paramètres
→642
respectifs λ et µ , ainsi que n ∈ IN .
Déterminer la loi conditionnelle de X sachant {X + Y = n} .

16.12 Pour a < b , notons Na,b le nombre de clients se présentant dans un magasin dans l’intervalle
→642
de temps [a, b[ . Soit a < b < c ; on suppose que les variables Na,b et Nb,c sont indépendantes
et que, pour tout n ∈ IN , l’événement {Na,c = n} est de probabilité non nulle et la loi de Na,b
sachant {Na,c = n} est B(n, p) , avec p = (b − a)/(c − a) .
1. Montrer que pour tout (k, ℓ) ∈ IN2 :
 
P(Na,b = k) P(Nb,c = ℓ) k+ℓ
= pk (1 − p)ℓ .
P(Na,c = k + ℓ) k
2. En déduire qu’il existe une constante λ telle que :
λ
∀n ∈ IN∗ P(Na,b = n) = P(Na,b = n − 1).
n
3. En déduire que Na,b suit la loi de Poisson de paramètre λ .

16.13 Soit X1 , . . . , Xn des variables aléatoires indépendantes de loi géométrique de paramètres


→644
respectifs p1 , . . . , pn . Montrer que Y = min(X1 , . . . , Xn ) suit aussi une loi géométrique.

16.14 Montrer que des événements A1 , . . . , An sont mutuellement indépendants si, et seulement
→644
si, les variables aléatoires 1A1 , . . . , 1An sont mutuellement indépendantes.

16.15 Temps d’attente du r -ième succès


→646
Soit (Xn )n∈IN∗ une suite de variables aléatoires i.i.d., suivant la loi de Bernoulli de para-
mètre p ∈ ]0, 1[ . Pour tout r ∈ IN∗ , on considère la variable aléatoire Yr telle que Yr = n si
l’on obtient le r -ième 1 au rang n et Yr = +∞ si l’on n’obtient jamais r 1 .
Montrer que Yr est une variable aléatoire. Déterminer la loi de Yr . On dit que Yr suit la
loi de Pascal de paramètre (r, p) .

654
Exercices

16.16 On suppose que la loi conjointe du n -uplet de variables aléatoires discrètes (X1 , . . . , Xn )
s’écrit :
n

∀(x1 , . . . , xn ) ∈ X1 (Ω) × · · · × Xn (Ω) P(X1 = x1 , . . . , Xn = xn ) = ϕk (xk ),
k=1

où pour tout k ∈ [[1, n]] , ϕk est une fonction définie sur Xk (Ω) .
Montrer que les variables X1 , . . . , Xn sont indépendantes et que, à une constante multipli-
cative près, la fonction ϕk , pour k ∈ [[1, n]] , est la distribution de probabilités de Xk .

16.17 On considère X et Y deux variables aléatoires à valeurs dans IN , indépendantes et de même


loi. On pose D = X − Y et I = min(X, Y ) .
1. On suppose que pour tout k dans IN , P(X = k) = pq k , où p ∈ ]0, 1[ et q = 1 − p .
(a) Déterminer la loi de (D, I) .
(b) Déterminer les lois marginales de D et I . Vérifier que D et I sont indépendantes.
2. On suppose que les variables D et I sont indépendantes et que P(X = n) �= 0 pour
tout n ∈ IN .
Montrer qu’il existe p ∈ ]0, 1[ , tel que, pour tout k ∈ IN :

P(X = k) = pq k avec q = 1 − p.

16.18 Une caractérisation de la loi de Poisson


On effectue une épreuve aléatoire dont le résultat est un entier naturel n ; on procède alors
à n épreuves de Bernoulli indépendantes de paramètre p ∈ ]0, 1[ . On note S le nombre de
succès et E le nombre d’échecs.
Toute cette expérience aléatoire peut être modélisée par un espace probabilisé (Ω, A, P) , sur
lequel on considère une variable aléatoire discrète N à valeurs dans IN et, pour tout n ∈ IN∗ ,
une variable Xn suivant la loi de Bernoulli de paramètre p ∈ ]0, 1[ telles que (N, X1 , X2 , . . .)
soit une suite de variables indépendantes.
On suppose que P(N = n) �= 0 pour tout n ∈ IN .
On a alors S = X1 + · · · + XN et E = N − SN .
1. On suppose que N suit la loi de Poisson de paramètre λ > 0 .
Montrer que les variables S et E suivent aussi des lois de Poisson, dont on déterminera
les paramètres et sont indépendantes.
2. Montrer réciproquement que si S et E sont indépendantes, alors N suit une loi de
Poisson. Pour cela, on montrera :
(a) qu’il existe deux suites (un )n∈IN et (vn )n∈IN telles que :

∀(m, n) ∈ IN2 (m + n)! P(N = m + n) = um vn ;


(b) que les suites (un )n∈IN et (vn )n∈IN sont géométriques.

16.19 Soit (Xn )n∈IN∗ une suite de variables aléatoires i.i.d., suivant la loi de Bernoulli de pa-
ramètre p ∈ ]0, 1[ . Pour tout k ∈ IN∗ , on note Yr le temps d’attente du r -ième 1 . On
pose Z1 = Y1 et pour k  2 , Zk = Yk − Yk−1 .
Démontrer que (Zn )n∈IN∗ est une suite de variables aléatoires discrètes i.i.d..

655
Chapitre 16. Conditionnement - Indépendance

16.20 Toutes les variables considérées dans cet exercice sont à valeurs dans ZZ . Une variable aléa-
toire à valeurs dans ZZ est dite symétrique si :
∀n ∈ ZZ P(X = n) = P(X = −n).
1
1. (a) Montrer que si X est symétrique, alors on a P(X > 0)   P(X  0) .
2
(b) Montrer que si X et Y sont deux variables aléatoires symétriques indépendantes,
alors X + Y est symétrique.
2. On considère des variables aléatoires symétriques X1 , . . . , Xn indépendantes et x ∈ IR+ .

k

Pour k ∈ [[1, n]] , on pose Sk = Xj et, de plus, on note :


j=1
 
Ωk = max Sj  x ∩ {Sk > x} si k2 et Ω1 = {S1 > x}.
1jk−1

(a) Montrer que X1 + · · · + Xn est symétrique.


(b) Montrer que, pour k ∈ [[1, n]] , on a :
1
{Sn − Sk  0} ∩ Ωk ⊂ {Sn > x} ∩ Ωk puis P ({Sn − Sk  0} ∩ Ωk )  P(Ωk ).
2
 

n
(c) Prouver que Ωk = max Sj > x .
k=1 1jn
 
(d) En déduire l’inégalité de Paul Lévy : P max Sj > x  2P(Sn > x).
1jn

⋆ 16.21 Chaînes de Markov  


Soit N ∈ IN∗ , P = pi,j 1i,jN ∈ MN (IR) une matrice telle que :
n
2

∀(i, j) ∈ [[1, N ]] pi,j  0 et ∀i ∈ [[1, N ]] pi,j = 1
j=1

(on dit que P est une matrice stochastique) et (Xn )n∈IN une suite de variables aléatoires
discrètes, à valeurs dans [[1, N ]] telle que, pour tout n ∈ IN et tous x0 , . . . , xn+1 dans [[1, N ]] ,
on ait :
P(Xn+1 = xn+1 | X0 = x0 , . . . , Xn = xn ) = P(Xn+1 = xn+1 | Xn = xn ) = pxn ,xn+1 ,
quand les probabilités conditionnelles sont définies. On dit que (Xn )n∈IN est une chaîne de
Markov homogène et P est appelée matrice de transition de la chaîne.
1. Soit x0 ∈ [[1, N ]] tel que P(X0 = x0 ) �= 0 .
(a) Montrer que, pour n ∈ IN∗ et x1 , . . . , xn dans [[1, N ]] , on a :
P(X1 = x1 , . . . , Xn = xn | X0 = x0 ) = px0 ,x1 px1 ,x2 . . . pxn−1 ,xn .
(b) En déduire que :
P(Xn = xn | X0 = x0 ) = p(n)
x0 ,xn ,
(n)
où px0 ,xn est le coefficient d’indice (x0 , xn ) de la matrice P n .
2. Soit n ∈ IN , k ∈ IN∗ et x0 , . . . , xn+k dans [[1, N ]] tels que P(X0 = x0 , . . . , Xn = xn ) �= 0 .
Montrer que :
P(Xn+1 = xn+1 , . . . , Xn+k = xn+k | X0 = x0 , . . . , Xn = xn )
= P(X1 = xn+1 , . . . , Xk = xn+k | X0 = xn ).

656
Exercices

+∞

16.22 Soit P l’ensemble des nombres premiers. Pour s > 1 , on note ζ(s) = n−s et X une
n=1
variable aléatoire à valeurs dans IN∗ dont la loi est définie par :
n−s
∀n ∈ IN∗ P(X = n) = ·
ζ(s)
1. Justifier que l’on définit bien ainsi la loi d’une variable aléatoire.
2. Pour tout n ∈ IN∗ , on considère An : « n divise X ». Montrer que (Ap )p∈P est une
famille d’événements indépendants. En déduire une preuve probabiliste de :
 1

1
1− s = ·
p ζ(s)
p∈P

1
3. Montrer que la probabilité qu’aucun carré différent de 1 ne divise X vaut ·
ζ(2s)

16.23 Soit (Xn )n1 une suite de variables aléatoires i.i.d., suivant la loi géométrique de para-
mètre p ∈ ]0, 1[ . On note q = 1 − p . On cherche à calculer, pour tout entier n  2 , la
probabilité de l’événement :
An = {X1 < · · · < Xn }.
Pour (n, k) ∈ IN2 , avec n  2 et k  1 , on pose :
un = P(An ), Bn,k = An ∩ {X1 = k} et vn,k = P(Bn,k ).

n
Enfin, pour n ∈ IN∗ , on note πn = (1 − q j ) .
j=1

1. Calculer u2 .

+∞
2. Montrer, pour n  3 et k ∈ IN∗ , on a vn,k = pq k−1 vn−1,j .
j=k+1

3. En déduire que, pour n  2 et k ∈ IN∗ , vn,k = 1


πn−1
(pq k−1 )n q αn , où αn est un entier
que l’on précisera.
1 βn γn
4. En déduire que, pour n  2 , un = πn
p q , où βn et γn sont des entiers que l’on
précisera.

657
Chapitre 16. Conditionnement - Indépendance

Solutions des exercices


16.1 Posons, pour tout n ∈ IN , un = P(X > n) . On a un �= 0 .
Comme {X > n + 1} ⊂ {X > n} , on a :
 
un+1 P(X > n + 1) P {X > n + 1} ∩ {X > n}
= =
un P(X > n) P(X > n)
 
= P X > n + 1 | X > n = P(X > 1) = u1 .

La suite (un ) est géométrique de raison u1 , donc un = u1 × un−1


1 = un
1 , pour tout n  1 .
Cela reste vrai pour n = 0 , car u0 = P(X > 0) = 1 . On en déduit, pour tout n ∈ IN∗ :

P(X = n) = P(X > n − 1) − P(X > n) = un−1 − un = un−1


1 − un n−1
1 = u1 (1 − u1 ).

On sait que u1 �= 0 . D’autre part, u1 �= 1 , car sinon P(X = n) = 0 pour tout n  1 ,


ce qui est impossible car X est à valeurs dans IN∗ . Ainsi 1 − u1 ∈ ]0, 1[ et X suit la loi
géométrique de paramètre 1 − u1 .

16.2 On a :
+∞ +∞
  pq
P(A) = P(X = 2k) = pq 2k−1 = ,
1 − q2
k=1 k=1

P({X = n} ∩ A)
donc P(A) �= 0 . Pour n ∈ IN∗ , P(X = n | A) = ·
P(A)
P(X = n)
Si n est impair, alors P(X = n | A) = 0 et si n est pair, alors P(X = n | A) = ·
P(A)
On en déduit, pour tout k ∈ IN∗ :

pq 2k−1
P(X = 2k | A) = pq = (1 − q 2 )(q 2 )k−1 .
1−q 2

On voit que la loi conditionnelle de X sachant A est la loi de 2Z , où Z suit la loi géométrique
de paramètre 1 − q 2 .

16.3 • Soit (m, k) ∈ IN2 . Par définition de la loi binomiale, on a :


m
  pk (1 − p)m−k si k ∈ [[0, m]]
P Y =k|X=m = k
0 si k > m,

et donc, par définition de la loi conditionnelle :


 
P(Y = k, X = m) = P X = k | Y = m P(Y = m)
 
m λm −λ
pk (1 − p)m−k e si k ∈ [[0, m]]
= k
m!
0 si k > m.

658
Solutions des exercices

• On en déduit que, pour tout entier naturel k :



+∞

P(Y = k) = P(Y = k, X = m)
m=0
+∞  
 m λm −λ
= pk (1 − p)m−k e
k m!
m=k

+∞ m−k  
1 −λ  (1 − p)λ
k
= (pλ) e
k! (m − k)!
m=k

1 (pλ)k −pλ
= (pλ)k e−λ e(1−p)λ = e .
k! k!
Donc Y suit la loi de Poisson de paramètre pλ .

16.4 1. On commence par exprimer P(X  n) en fonction des xk . On a {X = n} ⊂ {X  n} ,


P(X = n)
pour tout n ∈ IN∗ , donc xn = . On en déduit :
P(X  n)
xn P(X  n) = P(X = n) = P(X  n) − P(X  n + 1),
c’est-à-dire :
P(X  n + 1) = (1 − xn )P(X  n).
Comme P(X  1) = 1 , on en déduit, pour tout n ∈ IN∗ , en itérant cette relation :
n−1
 n−1

P(X  n) = (1 − xk ) puis pn = P(X  n) − P(X  n + 1) = xn (1 − xk ).
k=1 k=1

2. (a) On a xn ∈ [0, 1] , car xn est la probabilité d’un événement. Si xn = 1 , alors, d’après


la question 1, P(X  n + 1) = 0 , ce qui est contraire à l’hypothèse. Ainsi xn ∈ [0, 1[ .
On a pour tout n  1 :
n

ln P(X  n + 1) = ln(1 − xk ).
k=1

De lim P(X  n + 1) = 1 − lim P(X  n) = 0 (cf. exercice 15.10 de la page 623),


n→+∞ n→+∞
on déduit la divergence de la série de terme général ln(1 − xn ) . Celle-ci implique la
divergence de la série de terme général xn .

En effet, si xn convergeait, alors la suite (xn ) tendrait vers 0 . On au-
rait − ln(1 − xn ) ∼ xn , ce qui impliquerait la convergence de la série de terme général
positif − ln(1 − xn ) par théorème de comparaison.

n−1
(b) On pose, pour tout n ∈ IN∗ , pn = xn (1 − xk ) . Alors pn ∈ [0, 1] .
k=1
On a pour tout n  1 :
n−1 n
 
pn = (1 − xk ) − (1 − xk ).
k=1 k=1

On en déduit :
n n
 
pk = 1 − (1 − xk ).
k=1 k=1

659
Chapitre 16. Conditionnement - Indépendance

n

La série de terme général xk diverge donc lim (1 − xk ) = 0 car :
n→+∞
k=1
n n n
  
ln (1 − xk ) = ln(1 − xk )  − xk → −∞.
k=1 k=1 k=1


+∞
On obtient pk = 1 . La suite (pk )k∈IN∗ définit la loi d’une variable aléatoire Y à
k=1
valeurs dans IN∗ .

n−1
Soit n ∈ IN∗ . On a xk �= 1 pour tout k  1 , donc P(Y < n) = pk < 1 . On en
k=1
déduit P(Y  n) > 0 . Enfin on a :

n−1
xn (1 − xk )
pn pn k=1
P(Y = n | Y  n) = = = = xn ,
P(Y  n) 1 − P(Y < n) 
n−1
(1 − xk )
k=1

donc (xn ) est le taux de panne de la variable aléatoire Y .


3. • Si X suit la loi géométrique de paramètre p , on a, pour tout n ∈ IN∗ :
P(X = n) = (1 − p)n−1 p, P(X  n) = (1 − p)n−1 et xn = p.
• Si le taux de panne est constant, égal à p , alors p ∈ [0, 1[ et, pour tout n  1 , on

n−1
a pn = xn (1 − xk ) = p(1 − p)n−1 .
k=1

On voit que p ne peut pas être nul, car pn = 1 , donc p ∈ ]0, 1[ et X suit la loi
n∈IN∗
géométrique de paramètre p .

16.5 1. Pour n ∈ IN∗ , on note Jn l’événement « le joueur jn joue » et Gn l’événement « le


joueur jn gagne ». Pour tout n ∈ IN∗ , on a :
 1 3
1
pn = P(Gn ) = P(Gn ∩ Jn ) = P(Gn | Jn ) P(Jn ) = qn = qn ,
2 8
car si jn joue, alors il gagne si, et seulement s’il est vainqueur de trois parties successives.
2. (a) Pour n  4 , le joueur jn est sûr de jouer car on joue en tout au moins trois parties.
On a donc qn = 1 si 1  n  4 .
(b) Pour n  5 , le joueur jn entre en jeu contre jn−1 ou jn−2 . En effet, si k  3 , jk entre
en jeu contre un joueur jℓ avec ℓ < k puis, au plus, joue contre jk+1 et jk+2 . Ainsi,
si k  n − 3 , jk ne peut pas rencontrer jn . On note Jn1 (respectivement Jn2 ) l’événe-
ment « jn joue et rencontre jn−1 » (respectivement « jn joue et rencontre jn−2 »).
Ces événements sont incompatibles. On obtient donc :
qn = P(Jn ) = P(Jn1 ) + P(Jn2 ) = P(Jn1 ∩ Jn−1 ) + P(Jn2 ∩ Jn−2 )

= P(Jn1 | Jn−1 ) P(Jn−1 ) + P(Jn2 | Jn−2 ) P(Jn−2 )


1 1
=
qn−1 + qn−2 .
2 4
En effet, si jn−1 est rentré dans la partie, pour qu’il rencontre jn , il faut et il suffit
qu’il gagne sa première partie contre un adversaire rentré avant lui ; de même, une

660
Solutions des exercices

fois que jn−2 est rentré dans la partie, pour qu’il rencontre jn , il faut et il suffit
qu’il gagne sa première partie contre un adversaire rentré avant lui et qu’il gagne
contre jn−1 .
3. La suite (qn )n3 vérifie une relation de récurrence linéaire sur deux termes d’équation

1 1 1± 5
caractéristique x2 − x − = 0 , de solutions · Il existe donc (α, β) ∈ IR2 tel
2 4 4
que, pour tout n  3 :
 √ n  √ n
1− 5 1+ 5
qn = α +β .
4 4

Pour gérer plus facilement les conditions initiales, on considère la suite (qn′ )n∈IN vérifiant
1 ′ 1 ′
la relation de récurrence qn′ = qn−1 + qn−2 , avec q3′ = q3 et q4′ = q4 . On a alors qn′ = qn
 2
√ n 4  √ n
′ 1− 5 1+ 5
pour n  3 et qn = α +β pour tout n ∈ IN .
4 4
On obtient q2′ = 2 , q1′ = 0 et q0′ = 8 . Les conditions q0′ = 8 et q1′ = 0 permettent de
√ √
4(1 + 5) 4( 5 − 1)
déterminer α = √ et β = √ · On obtient, pour tout n  3 :
5 5
 √ n−1  √ n−1 
4 1+ 5 1− 5
qn = √ −
5 4 4
 √ n−1  √ n−1 
1 1 1+ 5 1− 5
pn = qn = √ − .
8 2 5 4 4

16.6 1. On note An (respectivement Bn ) l’événement « le parapluie est disponible (respecti-


vement indisponible) au bout de n trajets ». Pour n ∈ IN , on applique la formule des
probabilités totales, avec le système complet d’événements (An , Bn ) . On obtient :
pn+1 = P(An+1 ) = P(An ∩ An+1 ) + P(Bn ∩ An+1 ).
Si pn �= 0 , alors P(An+1 | An ) = p , car si le parapluie est disponible après n dé-
placements, il faut que le banquier l’emporte, c’est-à-dire qu’il pleuve, pour qu’il reste
disponible après n + 1 déplacements ; on a donc P(An ∩ An+1 ) = p pn . Cette formule
reste valable si pn = 0 , car alors on a également P(An ∩ An+1 ) = 0 .
On a Bn ⊂ An+1 , car si après n déplacements le parapluie n’est pas disponible, il le
deviendra après n+1 déplacements. On a donc P(Bn ∩An+1 ) = P(Bn ) = qn . On obtient :
pn+1 = p pn + qn .
On trouve de même :
qn+1 = q pn + 0 qn
     
pn+1 pn p 1
et donc =S , avec S = .
qn+1 qn q 0
2. On diagonalise S : les valeurs propres sont 1 et −q ; une base de vecteurs propres
   
1 −1
est , . On obtient :
q 1
     
1 0 1 −1 1 1 1
S=P P −1 où P = et P −1 = .
0 −q q 1 1 + q −q 1

661
Chapitre 16. Conditionnement - Indépendance

On a, pour tout n ∈ IN :
       
pn p0 1 0 p0
= Sn =P P −1 .
qn q0 0 (−q)n q0

On en déduit que les suites (pn ) et (qn ) convergent. On note p∞ et q∞ leurs limites.
On a :
          
p∞ 1 0 p0 1 1 1 p0 1 1
=P P −1 = = ,
q∞ 0 0 q0 1+q q q q0 1+q q

1
car p0 + q0 = 1 . On a donc p∞ = ·
1+q

16.7 L’espace probabilisé qui modélise cette situation est celui d’un jeu infini de pile ou face. En
effet, on a une suite de parties indépendantes, à deux issues.
1. Pour (a, b) ∈ IN2 , on note Aa,b l’événement « si les joueurs débutent la partie avec des
capitaux respectifs de a et b euros, alors A finira ruiné ». En appliquant la formule des
probabilités totales, avec le système complet d’événements (G1 , G1 ) , où G1 est l’événe-
ment « A gagne la première partie », on trouve, pour a  1 et b  1 :

R(a, b) = P(Aa,b ) = P(G1 ) P(Aa,b | G1 ) + P(G1 ) P(Aa,b | G1 )


= pR(a + 1, b − 1) + qR(a − 1, b + 1).

En effet, si A gagne la première partie, il dispose avant d’entreprendre les parties suivantes
de a + 1 euros et B de b − 1 euros. Le raisonnement est le même dans l’autre cas.
2. Tout au long de la partie, le capital total des deux joueurs reste constant.
On le note N . Ainsi, R(a, b) = R(a, N − a) ne dépend que de a : on le note ua .
On a donc ua = pua+1 + qua−1 , c’est-à-dire :
1 q
ua+1 = ua − ua−1 .
p p
1 q
On a une suite récurrente linéaire d’ordre 2 d’équation caractéristique x2 − x + = 0 .
p p
q
Une des racines est 1 , l’autre est donc ·
p
1
• Premier cas : p �= q , c’est-à-dire p �= ·
2  a
2 q
Il existe (α, β) ∈ IR tel que, pour tout a ∈ [[0, N ]] , ua = α + β .
p
On remarque que u0 = 1 , car si le capital de A est nul, il est ruiné d’emblée. De
même, uN = 0 , car alors c’est B qui est ruiné. On en déduit :
 q N  q a  q N
p 1 p
− p
α=−  q N , β =  q N puis ua =  q N ·
1− p
1− p
1− p

En reprenant la notation initiale, on a :


 q a  q a+b
p
− p
R(a, b) =  q a+b ·
1− p

662
Solutions des exercices

1
• Second cas : p = q , c’est-à-dire p = ·
2
2
Il existe (α, β) ∈ IR tel que, pour tout a ∈ [[0, N ]] , ua = α + βa .
1 a
De u0 = 1 et uN = 0 , on tire α = 1 et β = − et donc ua = 1 − · On conclut :
N N
b
R(a, b) = ·
a+b
3. La probabilité de ruine S(a, b) du joueur B quand les capitaux initiaux sont a et b
s’obtient à partir de R(a, b) en échangeant les rôles, c’est-à-dire en échangeant p et q
d’une part, a et b d’autre part. On obtient :
 p b  p a+b
q
− q a
S(a, b) =  p a+b si p �= q et S(a, b) = si p = q.
1− a+b
q

Le jeu s’arrête quand l’un des joueurs est ruiné. La probabilité que la partie s’arrête au
bout d’un nombre fini de parties est donc R(a, b) + S(a, b) . Si p �= q , on obtient :
q a pb − q a+b q a pb − pa+b
R(a, b) + S(a, b) = a+b a+b
+ a+b = 1.
p −q q − pa+b
Ce résultat est évident pour p = q . Il est donc presque sûr que le jeu s’arrêtera au bout
d’un nombre fini de parties.
4. Si p  q , on trouve lim R(a, b) = 1 .
b→+∞
 a
p
Si p > q , on trouve lim R(a, b) = .
b→+∞ q

16.8 1. Soit J ⊂ [[1, n]] . On a, par indépendance de la famille (Ai )i∈I :


     
P Bj =P Ai = P(Ai )
j∈J
 
i∈ Ij i∈ Ij
j∈J j∈J

   
= P(Ai ) = P(Bj ).
j∈J i∈Ij j∈J

Donc (B1 , . . . , Bn ) est une famille d’événements indépendants.


  
2. Posons Cj = Bj si Bj = Ai et Cj = Bj = Ai si Bj = Ai . Alors l’Indépen-
i∈Ij i∈Ij i∈Ij

dance de (C1 , . . . , Cn ) résulte de la proposition 8 et de la première question de l’exercice.


En appliquant de nouveau la proposition 8, on en déduit que (B1 , . . . , Bn ) est une famille
d’événements indépendants.

16.9 1. On a :      
P An = 1−P An =1−P An
n∈IN n∈IN n∈IN

donc, par continuité décroissante et indépendance des événements An :


  
n  n

P An = 1 − lim P Ai = 1 − lim P(Ai ).
n→+∞ n→+∞
n∈IN i=0 i=0

663
Chapitre 16. Conditionnement - Indépendance

� � n

� � �
2. D’après la question précédente, P An = 1 équivaut à lim P Ai = 0.
n∈IN n→+∞
i=0
Comme tous les termes du produit sont strictement positifs, cela équivaut à :
n
� � �
lim ln P(Ai ) = −∞,
n→+∞
i=0
� � �
c’est-à-dire à la divergence de la série ln P(An ) .
� �
• Si P (An ) ne tend pas vers 0 , alors les séries de termes généraux ln P(An ) et P(An )
sont grossièrement divergentes.
� �
• Si lim P(An ) = 0 , alors ln P(An ) = ln 1 − P(An ) ∼ −P(An ) . Les séries de terme
n→+∞ � �� �
0
� �
général ln P(An ) et P(An ) ont même nature.
� �

Ainsi, on a P An = 1 si, et seulement si, la série de terme général P(An ) diverge.
n∈IN

3. La condition P(An ) �= 1 pour tout n ∈ IN est réalisée.


(a) Pour tout n ∈ IN , on a :
n n � � n
� � 1 � (i + 1)(i + 3)
P(Ai ) = 1− =
(i + 2)2 (i + 2)2
i=0 i=0 i=0

(n + 1)!(n + 3)! n+3


= � �2 = ·
2 (n + 2)! 2(n + 2)

On en déduit : �� �
n+3 1
P An = 1 − lim = ·
n→+∞ 2(n + 2) 2
n∈IN

(b) Notons Bn l’événement « seul l’événement An se réalise ». On a, par continuité


décroissante et indépendance :
 
� �
�  � 
P(Bn ) = P An ∩ Ai = lim P An ∩ Ai 
N→+∞
i�=n 0iN
i=n

= lim P(An ) P(Ai ).
N→+∞
0iN
i=n

Pour N > n , on a, d’après le calcul mené dans la question précédente :


� P(An ) �
P(An ) P(Ai ) = P(Ai )
0iN
P(An ) 0iN
i=n

1 N +3
= × ·
(n + 1)(n + 3) 2(N + 2)
1
On en déduit : P(Bn ) = ·
2(n + 1)(n + 3)

L’événement B « un seul événement An se réalise » est Bn .
n∈IN

664
Solutions des exercices

C’est une réunion dénombrable d’événements incompatibles donc :


 +∞  
1
+∞
1 1 1
P(B) = = −
2(n + 1)(n + 3) 4 n+1 n+3
i=0 i=0
 
1 1 1 1 3
= lim 1+ − − = ·
4 N→+∞ 2 N +1 N +2 8

16.10 1. On suppose que la suite (An )n∈IN converge. Pour tout n ∈ IN , Bn et Cn sont des
événements donc B et C sont des événements (car une réunion ou une intersection d’un
nombre dénombrable d’événements est un événement). Comme A = B = C , on en déduit
que A est un événement.
La suite (Bn )n∈IN est décroissante et (Cn )n∈IN est croissante donc, par continuité mono-
tone :
P(A) = P(B) = lim P(Bn ) et P(A) = P(C) = lim P(Cn ).
n→+∞ n→+∞

On a de plus, Cn ⊂ An ⊂ Bn , donc P(Cn )  P(An )  P(Bn ) puis, par encadrement :


lim P(An ) = P(A).
n→+∞

2. (a) Les suites (Bn )n∈IN et (Cn )n∈IN sont décroissantes. Il en est donc de même de la
 
suite Bn ∩ Cn n∈IN . Comme :
    
B∩C = Bn Cn = (Bn ∩ Cn ),
n∈IN n∈IN n∈IN

on a, par continuité décroissante et indépendance des événements Bn et Cn :


P(B ∩ C) = lim P(Bn ∩ Cn ) = lim P(Bn ) P(Cn )
n→+∞ n→+∞

= lim P(Bn ) lim P(Cn ) = P(B) P(C).


n→+∞ n→+∞

Les événements B et C sont donc indépendants. On sait qu’alors il en est de même


de B et C .
(b) On a B = C = A . Donc d’après la question précédente, A est indépendant de
lui-même. On a donc :
P(A) = P(A ∩ A) = P(A) P(A),
donc P(A) ∈ {0, 1} .

16.11 Il a été démontré dans l’exemple 10 de la page 643 que X + Y suit une loi de Poisson de
paramètre λ + µ . On a, pour k ∈ IN :
P(X = k, X + Y = n) P(X = k, Y = n − k)
P(X = k | X + Y = n) = =
P(X + Y = n) P(X + Y = n)
P(X = k)P(Y = n − k)
= ·
P(X + Y = n)
Cette probabilité est nulle si k > n et on obtient, si k  n :
e−λ λk e−µ µn−k     k  n−k
k! (n−k)! n λk µn−k n λ µ
P(X = k | X +Y = n) = = = .
e−(λ+µ) (λ+µ)n k (λ + µ)n k µ+λ µ+λ
n!
 
λ
La loi de X sachant {X + Y = n} est la loi binomiale de paramètre n, λ+µ
.

665
Chapitre 16. Conditionnement - Indépendance

16.12 1. Il est clair que Na,c = Na,b +Nb,c . On a, pour tout (k, ℓ) ∈ IN2 , par indépendance de Na,b
et Nb,c :
P(Na,b = k) P(Nb,c = ℓ) = P(Na,b = k, Nb,c = ℓ) = P(Na,b = k, Na,c − Na,b = ℓ)
= P(Na,b = k, Na,c = k + ℓ)
= P(Na,c = k + ℓ) P(Na,b = k | Na,c = k + ℓ)
 
k+ℓ
= P(Na,c = k + ℓ) pk (1 − p)ℓ .
k
En divisant par P(Na,c = k + ℓ) qui n’est pas nul, on obtient le résultat voulu.
2. De la première question, on déduit P(Na,b = k) �= 0 et P(Nb,c = ℓ) �= 0 , pour
tout (k, ℓ) ∈ IN2 , car le second membre de l’égalité ne s’annule pas.
On obtient, en particulier, pour tout k ∈ IN :
P(Na,b = k) P(Nb,c = 0)
= pk
P(Na,c = k)
et, pour tout k ∈ IN∗ :
P(Na,b = k − 1) P(Nb,c = 1)
= kpk−1 (1 − p).
P(Na,c = k)
En divisant ces deux égalités, on obtient :
P(Na,b = k) P(Nb,c = 0) p
= ,
P(Na,b = k − 1) P(Nb,c = 1) k(1 − p)
P(Na,b = k) λ p P(Nb,c = 1)
c’est-à-dire, pour tout k ∈ IN∗ , = , où λ = ·
P(Na,b = k − 1) k (1 − p) P(Nb,c = 0)
3. Par récurrence immédiate à partir du résultat de la question précédente, on obtient :
λk
∀k ∈ IN P(Na,b = k) = P(Na,b = 0).
k!

+∞
Sachant que P(Na,b = k) = 1 , on a eλ P(Na,b = 0) = 1 et donc P(Na,b = 0) = e−λ .
k=0
Ainsi Na,b suit la loi P(λ) .

16.13 La variable Y est à valeurs dans IN∗ . Pour tous réels x1 , . . . , xn , y , on a :


min(x1 , . . . , xn )  y ⇐⇒ ∀i ∈ [[1, n]] xi  y.

Pour tout k ∈ IN , on a donc {Y  k} = {X1  k} ∩ · · · ∩ {Xn  k} , d’où l’on déduit, par
indépendance des variables Xi :
P(Y  k) = P({X1  k} ∩ · · · ∩ {Xn  k})
n n
 n k−1
  k−1

= P(Xi  k) = (1 − pi ) = (1 − pi ) .
i=1 i=1 i=1

On obtient :
 n
k−1  n

 
P(Y = k) = P(Y  k) − P(Y  k + 1) = (1 − pi ) 1− (1 − pi ) .
i=1 i=1


n
Ainsi, Y suit la loi géométrique de paramètre 1 − (1 − pi ) .
i=1

666
Solutions des exercices

16.14 On remarque que, pour tout événement A , on a {1A = 1} = A et {1A = 0} = A .


• Supposons les événements A1 , . . . , An mutuellement indépendants.
On a, pour tout (x1 , . . . , xn ) ∈ {0, 1}n :

P(1A1 = x1 , . . . , 1An = xn ) = P (B1 ∩ · · · ∩ Bn ) ,

où Bi = Ai si xi = 1 et Bi = Ai si xi = 0 . Les événements A1 , . . . , An étant indépen-


dants, il en est de même des événements B1 , . . . , Bn . On a donc :
n n
� �
P(1A1 = x1 , . . . , 1An = xn ) = P(Bi ) = P (1Ai = xi ) .
i=1 i=1

Les variables 1A1 , . . . , 1An sont donc mutuellement indépendantes.


• Supposons les variables aléatoires mutuellement indépendantes. Soit I une partie non
vide de [[1, n]] . D’après la proposition 13 de la page 644, (1Ai )i∈I est encore une famille
de variables aléatoires mutuellement indépendantes, donc on a :
� � � �
� � � �
P Ai =P {1Ai = 1} = P(1Ai = 1) = P(Ai ).
i∈I i∈I i∈I i∈I

Les événements A1 , . . . , An sont donc mutuellement indépendants.

16.15 L’application Yr est à valeurs dans l’ensemble dénombrable IN∗ ∪ {+∞} .


• Soit k ∈ IN∗ . Si k < r , on a {Yr = k} = ∅ et si k  r , on a :
� �  
� � �
{Yr = k} = {Xi = 1} ∩ {Xi = 0} ∩ {Xr = 1}.
I⊂[[1,k−1]] i∈I i∈[[1,k−1]]\I
card I=r−1

En effet, la k -ième épreuve correspond au r -ième 1 et dans les k − 1 premières épreuves,


il doit y avoir r − 1 1 (et donc k − r 0 ). Ainsi {Yr = k} ∈ A et :
� � � �
k − 1 r−1 k−r k − 1 r k−r
P(Yr = k) = p q p= p q ,
r−1 r−1
�k−1�
car c’est la réunion disjointe de r−1
événements de probabilité pr q k−r .

• On a {Yr = +∞} = {Yr = k} , donc {Yr = +∞} est un événement. Il est inclus
k∈IN∗
dans l’événement H : « il existe un rang à partir duquel toutes les épreuves donnent 0 »
� �
qui peut s’écrire H = {Xk = 0} . On a, pour tout n ∈ IN∗ :
n∈IN kn

�� � ��
N �
P {Xk = 0} = lim P {Xk = 0} = lim q N−n+1 = 0.
N→+∞ N→+∞
kn k=n

L’événement H qui est une réunion dénombrable d’événements négligeables est donc
négligeable. A fortiori l’événement {Yr = +∞} est négligeable.

667
Chapitre 16. Conditionnement - Indépendance

16.16 Soit k ∈ [[1, n]] . Pour tout xk ∈ Xk (Ω) , on a :



P(Xk = xk ) = P(X1 = x1 , . . . , Xn = xn ),
(x1 ,...,xk−1 ,xk+1 ,...,xn )∈Ak

où Ak = X1 (Ω) × · · · × Xk−1 (Ω) × Xk+1 (Ω) × · · · × Xn (Ω) . On en déduit :


n
 
P(Xk = xk ) = ϕi (xi ) = Ck ϕk (xk ),
(x1 ,...,xk−1 ,xk+1 ,...,xn )∈Ak i=1
 
où Ck = ϕi (xi ) . La fonction ϕk est bien à constante multi-
(x1 ,...,xk−1 ,xk+1 ,...,xn )∈Ak 1in
i�=k
plicative près la distribution de probabilités de Xk .

n
En posant C = Ck , l’hypothèse peut se réécrire :
k=1
n

∀(x1 , . . . , xn ) ∈ X1 (Ω) × · · · × Xn (Ω) C P(X1 = x1 , . . . , Xn = xn ) = P(Xk = xk ).
k=1

En sommant sur (x1 , . . . , xn ) ∈ X1 (Ω) × · · · × Xn (Ω) , on obtient :


n
 
C= P(Xk = xk ) = 1,
k=1 xk ∈Xk (Ω)

car on reconnaît un produit de familles sommables. On a ainsi :


n

∀(x1 , . . . , xn ) ∈ X1 (Ω) × · · · × Xn (Ω) P(X1 = x1 , . . . , Xn = xn ) = P(Xk = xk ),
k=1

donc les variables aléatoires X1 , . . . , Xn sont indépendantes.

16.17 1. (a) On a D(Ω) = ZZ et I(Ω) = IN . Soit (k, ℓ) ∈ ZZ × IN .


• Si k  0 , alors on a :
{D = k} ∩ {I = ℓ} = {X − Y = k} ∩ {Y = ℓ} = {X = k + ℓ} ∩ {Y = ℓ}
et donc, par indépendance de X et Y :
P(D = k, I = ℓ) = P(X = k + ℓ)P(Y = ℓ) = pq k+ℓ pq ℓ = p2 q k+2ℓ .
• Si k < 0 , alors on a :
{D = k} ∩ {I = ℓ} = {X − Y = k} ∩ {X = ℓ} = {X = ℓ} ∩ {Y = −k + ℓ}
et donc, par indépendance de X et Y :
P(D = k, I = ℓ) = P(X = ℓ)P(Y = −k + ℓ) = pq ℓ pq −k+ℓ = p2 q −k+2ℓ .
Dans tous les cas, on trouve P(D = k, I = ℓ) = p2 q |k|+2ℓ .
(b) On peut écrire, pour (k, ℓ) ∈ ZZ × IN :
P(D = k, I = ℓ) = p2 q |k| q 2ℓ = (p2 q |k| )q 2ℓ ,
produit d’une fonction de k et d’une fonction de ℓ . D’après l’exemple 7 de la page 642,
les variables D et I sont indépendantes et, à une constante multiplicative près, la
famille (q 2ℓ )ℓ∈IN est la distribution de probabilité de I .

+∞
Comme q 2ℓ = 1
1−q 2
, on a donc :
ℓ=0

∀ℓ ∈ IN P(I = ℓ) = (1 − q 2 )q 2ℓ = p(1 + q) q 2ℓ .

668
Solutions des exercices

On en déduit, pour tout k ∈ ZZ :


P(D = k, I = ℓ) pq |k|
P(D = k) = = ·
P(I = ℓ) 1+q
2. Soit ℓ ∈ IN . Comme précédemment, on a :
∀k ∈ IN {D = k} ∩ {I = ℓ} = {X = k + ℓ} ∩ {Y = ℓ}.
Par indépendance de X et Y d’une part, de D et I d’autre part, on en déduit :
P(D = k)P(I = ℓ) = P(X = k + ℓ)P(Y = ℓ) = P(X = k + ℓ)P(X = ℓ) �= 0,
par hypothèse. On a en particulier, pour tout k ∈ IN :
P(D = k)P(I = 0) = P(X = k)P(X = 0)
P(D = k)P(I = 1) = P(X = k + 1)P(X = 1).
En divisant les égalités, on obtient :
P(X = k + 1) P(I = 1)P(X = 0)
= ·
P(X = k) P(I = 0)P(X = 1)
Ce rapport est indépendant de k et strictement positif. On le note q .
 
La suite P(X = k) est géométrique de raison q .

Pour tout k ∈ IN , on a P(X = k) = P(X = 0)q k . La série P(X = k) converge et a
pour somme 1 donc q < 1 et P(X = 0) = 1 − q . En posant p = 1 − q , on a le résultat
voulu.

16.18 1. Pour tout n ∈ IN , la loi conditionnelle de S sachant {N = n} est la loi de la somme


de n variables de Bernoulli indépendantes de paramètre p , c’est-à-dire la loi binomiale
de paramètre (n, p) . D’autre part, N suit une loi de Poisson de paramètre λ . On montre,
comme dans l’exercice 16.3 de la page 652, que S suit la loi de Poisson de paramètre λp .
De la même façon, la loi de E sachant N = n est la loi binomiale de paramètre (n, 1 − p)
donc E suit la loi de Poisson de paramètre λ(1 − p) .
On remarque que S + E = N . On a donc, pour tout (m, n) ∈ IN2 :
P({S = m} ∩ {E = n}) = P({S = m} ∩ {N = m + n})
= P(N = m + n) P(S = m | N = m + n)
 
e−λ λm+n m+n m
= p (1 − p)n
(m + n)! m
e−λp (λp)m e−λ(1−p) (λ(1 − p))n
= ×
m! n!
= P(S = m) P(E = n).
Le variables aléatoires S et E sont indépendantes.
2. On suppose que S et E sont indépendantes. On a donc pour tout (m, n) ∈ IN2 ,
P(S = m) P(E = n) = P({S = m} ∩ {E = n})
= P({S = m} ∩ {N = m + n})
= P(N = m + n) P(S = m | N = m + n)
 
m+n m
= P(N = m + n) p (1 − p)n .
m

669
Chapitre 16. Conditionnement - Indépendance

On en déduit :
m! P(S = m) n! P(E = n)
P(N = m + n)(m + n)! = × = um vn ,
pm (1 − p)n

m! P(S = m) n! P(E = n)
en posant um = et vn = ·
pm (1 − p)n
Pour (m, n) ∈ IN∗ × IN , on a :

um−1 vn+1 = um vn = P(N = m + n)(m + n)! �= 0


vn+1 um
et donc = ·
vn um−1
vn+1 um
Le rapport est égal à donc est indépendant de n : la suite (vn ) est donc
vn um−1
géométrique. On note λ > 0 sa raison. On en déduit, pour tout n ∈ IN :
u0 vn u0 v0 λn
P(N = n) = = ·
n! n!

+∞

l’égalité P(N = n) = 1 impose u0 v0 = e−λ : N suit donc la loi de Poisson de


n=0
paramètre λ .

16.19 On pose q = 1 − p . Il a été démontré dans l’exercice 16.15 de la page 654 que Yr est une
variable aléatoire discrète presque sûrement à valeurs dans IN∗ , pour tout r ∈ IN∗ . Donc Zn
est une variable aléatoire discrète presque sûrement à valeurs dans IN∗ , pour tout n ∈ IN∗ .
Soit n ∈ IN∗ . Pour (k1 , . . . , kn ) ∈ (IN∗ )n , on a :

P(Z1 = k1 , . . . , Zn = kn ) = P(Y1 = k1 , Y2 = k1 + k2 , . . . , Yn = k1 + · · · + kn ).
En posant ℓ1 = k1 , ℓ2 = k1 + k2 , . . . , ℓn = k1 + · · · + kn , on obtient :
 
{Z1 = k1 , . . . , Zn = kn } = {Xℓi = 1} ∩ {Xj = 0}
1in j∈[[1,k1 +···+kn ]]\{ℓ1 ,...,ℓn }

et donc, par indépendance des variables Xk :

P(Z1 = k1 , . . . , Zn = kn ) = pn q k1 +k2 +...+kn −n .


Cela peut s’écrire :
n

P(Z1 = k1 , . . . , Zn = kn ) = pq ki −1 .
i=1

D’après l’exercice 16.16 de la page 655, cela prouve l’indépendance des variables Z1 , . . . , Zn
et montre que la famille (pq k−1 )k∈IN∗ est à une constante mutiplicative près, la distribution

+∞
de probabilités de Xn . Comme pq k−1 = 1 , cette constante vaut 1 et Zn suit la loi G(p) .
k=1
Comme cela est vrai pour tout n ∈ IN∗ , on conclut que (Zn )n∈IN∗ est une suite de variables
aléatoires discrètes i.i.d. de loi G(p) .

670
Solutions des exercices

 
16.20 1. (a) On a P(X < 0) = P(X = −n) = P(X = n) = P(X > 0) . On en déduit :
n∈IN∗ n∈IN∗

1 − P(X = 0) 1 1 + P(X = 0) 1
P(X > 0) =  et P(X  0) =  ·
2 2 2 2
(b) On a, pour tout n ∈ ZZ :
 
P(X + Y = n) = P(X = i) P(Y = j) = P(X = i) P(Y = n − i).
Z2
(i,j)∈Z i∈Z
Z
i+j=n

On en déduit, en utilisant le fait que X et Y sont symétriques, puis un changement


d’indice :

P(X + Y = −n) = P(X = i) P(Y = −n − i)
i∈Z
Z

= P(X = −i) P(Y = n + i)
i∈Z
Z

= P(X = j) P(Y = n − j) = P(X + Y = n).
j∈Z
Z

2. (a) Cela se déduit de la question 1 par récurrence sur n , en utilisant le fait que,
si X1 , . . . , Xn sont indépendantes, alors Xn est indépendante de X1 + · · · + Xn−1 ,
d’après le lemme des coalitions.
(b) Soit k ∈ [[1, n]] .
• On a {Sn − Sk  0} ∩ Ωk ⊂ {Sn  Sk } ∩ {Sk > x} ⊂ {Sn > x} et donc :
{Sn − Sk  0} ∩ Ωk ⊂ {Sn > x} ∩ Ωk .
• On a :
{Sn − Sk  0} ∩ Ωk = {Xk+1 + · · · + Xn  0} ∩ Ωk .
On peut écrire Ωk sous la forme {f (X1 , . . . , Xk ) ∈ Ak } , où f est une application
de IRk dans IR et Ak une partie de ZZ . Les variables X1 , . . . , Xn étant indépen-
dantes, il en est de même de Xk+1 + · · · + Xn et de f (X1 , . . . , Xk ) . On en déduit
l’indépendance des événements {Sn − Sk  0} et Ωk . On a donc :
P ({Sn − Sk  0} ∩ Ωk ) = P(Sn − Sk  0) P (Ωk ) .
La variable Sn − Sk est symétrique, comme somme de variables symétriques in-
1
dépendantes, donc P(Sn − Sk  0)  · D’où l’inégalité voulue.
 2
(c) Soit ω ∈ Ω . Alors ω ∈ max Sj > x si, et seulement s’il existe j ∈ [[1, n]] , tel
1jn
que ω ∈ {Sj > x} . En considérant k , le plus petit des tels entiers j , on en déduit
que ω ∈ Ωk . On a donc :
  n

max Sj > x ⊂ Ωk .
1jn
k=1

Comme l’inclusion inverse est évidente, on a bien l’égalité.


(d) Les événements Ωk , pour 1  k  n , sont incompatibles donc :
  n

P max Sj > x = P(Ωk ).
1jn
k=1

671
Chapitre 16. Conditionnement - Indépendance

En utilisant la question (b), on obtient :


P(Ωk )  2P ({Sn − Sk  0} ∩ Ωk )  2P ({Sn > x} ∩ Ωk ) .
On en déduit :
  n

P max Sj > x 2 P ({Sn > x} ∩ Ωk ) .
1jn
k=1

Les événements {Sn > x} ∩ Ωk , pour 1  k  n , sont incompatibles donc :


n
  n
 
 
P {Sn > x} ∩ Ωk = P {Sn > x} ∩ Ωk
k=1 k=1
 
 
= P {Sn > x} ∩ max Sj > x = P(Sn > x).
1jn

D’où le résultat.

16.21 1. (a) On démontre la propriété par récurrence sur n .


Pour n = 1 , on a P(X1 = x1 | X0 = x0 ) = px0 ,x1 par définition.
Supposons la propriété vraie au rang n − 1 ( n  2 ) et montrons-la au rang n .
 
• Si P X0 = x0 , . . . , Xn−1 = xn−1 �= 0 , la probabilité conditionnelle :

P(X0 = x0 , . . . , Xn = xn )
P(X1 = x1 , . . . , Xn = xn | X0 = x0 ) =
P(X0 = x0 )
peut s’écrire :
P(X0 = x0 , . . . , Xn = xn ) P(X0 = x0 , . . . , Xn−1 = xn−1 )
× ,
P(X0 = x0 , . . . , Xn−1 = xn−1 ) P(X0 = x0 )
c’est-à-dire :
P(Xn = xn | X0 = x0 , . . . , Xn−1 = xn−1 ) × P(X1 = x1 , . . . , Xn−1 = xn−1 | X0 = x0 ).
En utilisant l’hypothèse de récurrence et la définition d’une chaîne de Markov, on
obtient :
P(X1 = x1 , . . . , Xn = xn | X0 = x0 ) = pxn−1 ,xn × (px0 ,x1 · · · pxn−2 ,xn−1 )
= px0 ,x1 · · · pxn−2 ,xn−1 pxn−1 ,xn .

• Si P(X0 = x0 , . . . , Xn−1 = xn−1 ) = 0 , alors on a a fortiori :


P(X1 = x1 , . . . , Xn = xn | X0 = x0 ) = 0
et l’égalité reste vérifiée car px0 ,x1 · · · pxn−2 ,xn−1 = 0 par hypothèse de récurrence.
La propriété est donc vérifiée pour tout n ∈ IN .
(b) Pour obtenir la loi conditionnelle de Xn sachant {X0 = x0 } , il faut sommer l’égalité
précédente par rapport à x1 , . . . , xn−1 . On obtient, pour x0 et xn dans [[1, N ]] :

P(Xn = xn | X0 = x0 ) = px0 ,x1 px1 ,x2 · · · pxn−1 ,xn ,
(x1 ,...,xn−1 )∈[[1,N]]n−1

(n)
somme qui est égale à px0 ,xn , comme on le voit en itérant la formule donnant les
coefficients du produit de deux matrices.

672
Solutions des exercices

2. L’événement {X0 = x0 } qui contient {X0 = x0 , . . . , Xn = xn } est a fortiori de probabi-


lité non nulle et l’on a :
P(Xn+1 = xn+1 , . . . , Xn+k = xn+k | X0 = x0 , . . . , Xn = xn )
P(X0 = x0 , . . . , Xn+k = xn+k )
=
P(X0 = x0 , . . . , Xn = xn )
P(X1 = x1 , . . . , Xn+k = xn+k | X0 = x0 )
=
P(X1 = x1 , . . . , Xn = xn | X0 = x0 )

n+k−1
pxi ,xi+1 n+k−1

i=0
= = pxi ,xi+1 = P(X1 = xn+1 , . . . , Xk = xn+k | X0 = xn ),

n−1
pxi ,xi+1 i=n
i=0

d’après la question précédente.

+∞
n−s  n−s
16.22 1. Les réels , pour n ∈ IN∗ , sont positifs et = 1 par définition, donc on définit
ζ(s) ζ(s)
n=1
bien la loi d’une variable aléatoire.

2. Pour tout n ∈ IN∗ , An = {X = nj} est un événement et :
j∈IN∗

+∞ +∞ +∞
 1  n−s  −s
P(An ) = P(X = jn) = (jn)−s = j = n−s .
ζ(s) ζ(s)
j=1 j=1 j=1

Soit p1 , . . . , pk des nombres premiers distincts. Ces nombres sont deux à deux premiers
entre eux donc, d’après le théorème de Gauss :
Ap1 ∩ · · · ∩ Apk = Ap1 ···pk .
On en déduit :
k k
 
P(Ap1 ∩ · · · ∩ Apk ) = P(Ap1 ...pk ) = (p1 · · · pk )−s = p−s
i = P(Api ).
i=1 i=1

Les événements de la famille (Ap )p∈P sont donc indépendants.


On en déduit que (Ap )p∈P est aussi une famille d’événements indépendants.
Notons (pn )n1 la suite des entiers premiers rangés par ordre croissant. On a :

 1
   1
 N 
 1

1− = 1− = lim 1−
ps psn N→+∞ psn
p∈P n∈IN∗ n=1

N
 
N 
= lim P(Apn ) = lim P A pn ,
N→+∞ N→+∞
n=1 n=1

par indépendance des événements. Par ailleurs, on a, par continuité décroissante :



N   +∞
 
lim P A pn =P A pn .
N→+∞
n=1 n=1

673
Chapitre 16. Conditionnement - Indépendance


+∞
Mais Apn = {1} , car 1 est le seul entier naturel qui n’ait pas de diviseur premier.
n=1
1
Comme P({1}) = , on en déduit :
ζ(s)
 1
 1
1− = ·
ps ζ(s)
p∈P

3. Notons E l’événement « aucun carré différent de 1 ne divise X ». L’événement E


est réalisé si, et seulement si, le carré d’aucun nombre premier ne divise X . On a

donc E = Ap2 . Si p1 , . . . , pk des nombres premiers distincts, alors p21 , . . . , p2k sont
p∈P
deux à deux premiers entre eux donc Ap2 ∩ · · · ∩ Ap2 = Ap2 ···p2 . On en déduit, en
1 k 1 k
raisonnant comme dans la question précédente :
k
  
P A p2 ∩ · · · ∩ A p2 = P(Ap2 ).
1 k i
i=1

Les événements de la famille (Ap2 )p∈P sont donc indépendants. Par indépendance des
événements Ap2 on obtient alors :
  
N  N

P(E) = P A p2 = lim P Ap2n = lim P(Ap2n )
N→+∞ N→+∞
p∈P n=1 n=1

N
  1 
= lim 1−
N→+∞ p2s
n
n=1
 1  1
= 1− = ,
p2s ζ(2s)
p∈P

d’après la question précédente.

16.23 1. On a, puisque X1 et X2 sont indépendantes :


+∞

P(X1 = X2 ) = P(X1 = X2 = k)
k=1
+∞

= P(X1 = k)P(X2 = k)
k=1
+∞
 p2 p
= (pq k−1 )2 = = ·
1 − q2 1+q
k=1

Les variables aléatoires (X1 , X2 ) et (X2 , X1 ) ont même loi, donc :


 
1 − P(X1 = X2 ) 1 p q
P(X1 < X2 ) = P(X1 > X2 ) = = 1− = ·
2 2 1+q 1+q
2. Pour n  2 et k  1 , on a :
vn,k = P(X1 < · · · < Xn , X1 = k) = P(X1 = k, k < X2 < · · · < Xn )
= P(X1 = k)P(k < X2 < · · · < Xn )

= pq k−1 P(k < X2 < · · · < Xn ),

674
Solutions des exercices

car X1 est indépendante de (X2 , . . . , Xn ) . On en déduit :


+∞

vn,k = pq k−1 P(X2 = j, X2 < · · · < Xn ).
j=k+1

Comme (X2 , . . . , Xn ) a même loi que (X1 , . . . , Xn−1 ) , on obtient :


+∞ +∞
 
vn,k = pq k−1 P(X1 = j, X1 < · · · < Xn−1 ) = pq k−1 vn−1,j .
j=k+1 j=k+1

3. On démontre, par récurrence sur n , que, pour n  2 , il existe αn ∈ IN tel que :


1
∀k ∈ IN∗ vn,k = (pq k−1 )n q αn .
πn−1
• Pour k ∈ IN∗ , on a :
v2,k = P(X1 = k, X1 < X2 ) = P(X1 = k, X2 > k)

= P(X1 = k)P(X2 > k) = pq k−1 q k .


1 1 1
Comme π1
= 1−q
= p
, on obtient :
1 2 2k−1 1
v2,k = p q = (pq k−1 )2 q,
π1 π1
ce qui est le résultat voulu avec α2 = 1 .
• Si la propriété est vraie au rang n − 1 , on a, pour k ∈ IN∗ :
+∞ +∞
  1
vn,k = pq k−1 vn−1,j = pq k−1 (pq j−1 )n−1 q αn−1
πn−2
j=k+1 j=k+1

+∞
pn q k−1 q αn−1  n−1 j−1 pn q k−1 q αn−1 q (n−1)k
= (q ) = ·
πn−2 πn−2 1 − q n−1
j=k+1

Comme πn−2 (1 − q n−1 ) = πn−1 , on a :


1
vn,k = (pq k−1 )n q αn−1 +n−1 ,
πn−1
ce qui est le résultat voulu avec αn = αn−1 + n − 1 .
n(n−1)
Comme α2 = 1 , on a αn = 1 + · · · + (n − 1) = 2
pour n  2 .

+∞
4. On a, pour n  2 , An = Bn,k et comme ces événements sont incompatibles, on
k=1
obtient, pour n  2 :
+∞ +∞
 1  1 n αn 1 1 n αn
un = vn,k = pn q αn (q n )k−1 = p q = p q .
πn−1 πn−1 1 − qn πn
k=1 k=1

n(n−1)
C’est le résultat voulu avec βn = n et γn = αn = 2
·

675
Chapitre 17 : Espérance – Variance

I Espérance . . . . . . . . . . . . . . . . . . . . . . . . . . . 678
1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . 678
2 Espérance des lois usuelles . . . . . . . . . . . . . . . . . . 679
3 Propriétés de l’espérance . . . . . . . . . . . . . . . . . . 680
II Variance . . . . . . . . . . . . . . . . . . . . . . . . . . . . 684
1 Variables aléatoires dont le carré est d’espérance finie . . 684
2 Définition et propriétés de la variance . . . . . . . . . . . 684
3 Variance des lois usuelles . . . . . . . . . . . . . . . . . . 685
III Covariance . . . . . . . . . . . . . . . . . . . . . . . . . . 686
1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . 686
2 Bilinéarité . . . . . . . . . . . . . . . . . . . . . . . . . . . 686
3 Variables décorrélées . . . . . . . . . . . . . . . . . . . . . 686
4 Variance d’une somme . . . . . . . . . . . . . . . . . . . . 687
IV Inégalités probabilistes et loi faible des grands nombres 688
1 Inégalités probabilistes . . . . . . . . . . . . . . . . . . . . 688
2 Loi faible des grands nombres . . . . . . . . . . . . . . . . 688
V Fonctions génératrices . . . . . . . . . . . . . . . . . . . 689
1 Définition - Propriétés . . . . . . . . . . . . . . . . . . . . 689
2 Fonctions génératrices des lois usuelles . . . . . . . . . . . 691
3 Somme de variables aléatoires indépendantes . . . . . . . 692
Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 703
Espérance – Variance 17

Dans tout le chapitre, IK désigne IR ou C. Sauf mention plus précise, les variables
aléatoires discrètes sont définies sur un espace probabilisé (Ω, A, P).

I Espérance
1 Définition
Définition 1
Soit X une variable aléatoire discrète, à valeurs dans IR+ ∪ {+∞} . L’espérance
 
de X , notée E(X), est la somme dans [0, +∞] de la famille x P(X = x) x∈X(Ω) :

E(X) = x P(X = x).
x∈X(Ω)

Remarque Si P(X = +∞) = 0 , alors E(X) = E(X1{X<+∞} ), car par défini-


tion (+∞) × 0 = 0 . Sinon E(X) = +∞.

+∞

Ex. 1. Si X est une variable aléatoire à valeurs dans IN , on a E(X) = n P(X = n) et la som-
n=0
  
mabilité de la famille x P(X = x) x∈IN
équivaut à la convergence de la série n P(X = n) .

Proposition 1
Si X est une variable aléatoire à valeurs dans IN ∪ {+∞} , on a :
+∞
 +∞

E(X) = P(X > n) = P(X  n).
n=0 n=1
Démonstration page 694
I Espérance
Définition 2
Soit X une variable aléatoire discrète à valeurs dans IK. On dit que X est d’espé-
 
rance finie si la famille x P(X = x) x∈X(Ω) est sommable. Dans ce cas, l’espérance
de X , notée E(X), est la somme de cette famille :

E(X) = x P(X = x).
x∈X(Ω)

Remarques
• Soit X une variable aléatoire discrète. Si X est positive, elle possède une es-
pérance finie ou infinie. Sinon, X peut ne pas posséder d’espérance (si la fa-
 
mille x P(X = x) x∈X(Ω) n’est pas sommable).

• Si Ω est fini, la variable aléatoire X est d’espérance finie et la définition de


l’espérance coïncide avec celle qui a été donnée en première année.

Ex. 2. Si X est une variable aléatoire presque sûrement égale à a ∈ IK , alors E(X) = a .
 
Ex. 3. Pour tout événement A , on a E 1A = P(A) .

Ex. 4. Une variable aléatoire discrète bornée X est d’espérance finie.


En effet, il existe alors M ∈ IR+ tel que, pour tout x ∈ X(Ω) , |x|  M et donc :

∀x ∈ X(Ω) |x P(X = x)|  M P(X = x).

La famille (M P(X = x))x∈X(Ω) est sommable de somme M , donc (x P(X = x))x∈X(Ω) est
également sommable et X est d’espérance finie.
1
Ex. 5. La série de terme général est convergente, de somme 1 . Donc il existe une
n(n + 1)
variable aléatoire X à valeurs dans IN∗ dont la loi est donnée par :

1
∀n ∈ IN∗ P(X = n) = ·
n(n + 1)

La série de terme général n P(X = n) diverge donc E(X) = +∞ .


 
Ex. 6. La famille de réels positifs 1
n2 +1 n∈Z
Z
est sommable de somme S > 0 . Donc il existe
une variable aléatoire X à valeurs dans ZZ dont la loi est donnée par :

1
∀n ∈ ZZ P(X = n) = ·
S(n2 + 1)

 
La série de terme général n P(X = n) diverge donc a fortiori la famille n P(X = n) n∈Z
Z
n’est
pas sommable. Ainsi, X n’a pas d’espérance.

679
Chapitre 17. Espérance — Variance

2 Espérance des lois usuelles


Proposition 2
Si la variable aléatoire X suit une loi géométrique de paramètre p ∈ ]0, 1[ , alors
son espérance est finie et E(X) = 1p ·

Démonstration. On applique la formule démontrée dans la proposition 1 de la page 678. On


obtient, avec q = 1 − p :
+∞ +∞
  1 1
E(X) = P(X > n) = qn = = ·
1−q p
n=0 n=0

Proposition 3
Si la variable aléatoire X suit une loi de Poisson de paramètre λ, alors son espérance
est finie et E(X) = λ.

nλn λn−1
Démonstration. Pour n ∈ IN∗ , on a n P(X = n) = e−λ = λe−λ ·
n! (n − 1)!
+∞
 λn−1
De = eλ , on déduit que E(X) = λe−λ eλ = λ . Donc X est d’espérance finie.
(n − 1)!
n=1

3 Propriétés de l’espérance
Formule de transfert
Théorème 4 (Formule de transfert)
Soit X une variable aléatoire discrète, à valeurs dans un ensemble quelconque, et f
une fonction à valeurs complexes définie sur X(Ω). Alors la variable aléatoire f (X)
 
est d’espérance finie si, et seulement si, la famille f (x) P(X = x) x∈X(Ω) est som-
mable. On a alors : 
 
E f (X) = f (x) P(X = x).
x∈X(Ω)
Démonstration (non exigible) page 694

Ex. 7. Si X est une variable aléatoire discrète complexe d’espérance finie, alors X est d’espé-
 
rance finie, car |x|P(X = x) x∈X(Ω) est sommable par définition et :

E(X) = x P(X = x) = E(X).
x∈X(Ω)

Ex. 8. Considérons la variable aléatoire eitX , où X suit la loi de Poisson de paramètre λ


et t ∈ IR .
Cette variable est d’espérance finie, car elle est bornée : |eitX | = 1 . On a, par la formule de
transfert :

+∞ 
+∞
λn  (λeit )n
+∞
it it
E(eitX ) = eitn P(X = n) = eitn e−λ = e−λ = e−λ eλe = eλ(e −1) .
n! n!
n=0 n=0 n=0

680
I Espérance

Remarques
• La formule de transfert permet le calcul de l’espérance de f (X) sans qu’il soit
besoin de déterminer sa loi : il suffit de connaître celle de X .
• Si f est définie plus généralement sur un ensemble E contenant X(Ω), on peut
remplacer la famille (f (x) P(X = x))x∈X(Ω) par la famille (f (x) P(X = x))x∈E .
• La formule s’applique en particulier quand X est un couple ou un n-uplet de
variables aléatoires. Le calcul de l’espérance du produit de deux variables aléatoires
en donne un exemple.

Ex. 9. Soit X et Y sont deux variables aléatoires discrètes complexes. On pose Z = (X, Y ) et
l’on écrit XY = u(Z) , où u est l’application de IR2 dans IR définie par u(x, y) = xy .
D’après la formule de transfert, XY est d’espérance finie si, et seulement si, la famille :
    
u(x, y) P Z = (x, y) c’est-à-dire xy P(X = x, Y = y)
(x,y)∈Z(Ω) (x,y)∈Z(Ω)
 
est sommable. Si (x, y) ∈ X(Ω) × Y (Ω) \ (X, Y )(Ω) , alors P(X = x, Y = y) = 0 . Il revient
 
donc au même de dire que la famille xy P(X = x, Y = y)) (x,y)∈X(Ω)×Y (Ω)
est sommable.
Dans le cas où XY est d’espérance finie, on a, toujours par la formule de transfert :
 
E(XY ) = xy P(X = x, Y = y) = xy P(X = x, Y = y).
(x,y)∈(X,Y )(Ω) (x,y)∈X(Ω)×Y (Ω)

Inégalité triangulaire
Proposition 5 (Inégalité triangulaire)
Si X est une variable aléatoire discrète complexe, alors X est d’espérance finie si,
et seulement si, |X| est d’espérance finie et l’on a alors :
   
E(X)  E |X| .
Démonstration page 695

Proposition 6
Soit X et Y deux variables aléatoires discrètes, respectivement complexe et réelle,
telles que |X|  Y . Si Y est d’espérance finie, alors X est d’espérance finie.
Démonstration page 695
Principe de démonstration. Considérer Z = (X, Y ) , ainsi que les projec-
tions π1 : (x, y) �→ x et π2 : (x, y) �→ y et appliquer la formule de transfert.
Linéarité
Théorème 7 (Linéarité de l’espérance)
Si X et Y sont deux variables aléatoires discrètes à valeurs dans IK, d’espérance
finie, et λ ∈ IK , alors les variables aléatoires X + Y et λX sont d’espérance finie.
De plus, on a :
E(λX) = λE(X) et E(X + Y ) = E(X) + E(Y ).
Démonstration page 696
Principe de démonstration. On applique la formule de transfert à X et f : x �→ λx , puis
à (X, Y ) et f : (x, y) �→ x + y .

681
Chapitre 17. Espérance — Variance

Remarque L’ensemble des variables aléatoires discrètes sur l’espace probabi-


lisé (Ω, A, P) à valeurs dans IK , d’espérance finie, est un IK -espace vectoriel,
noté L1 (Ω, A, P), ou plus simplement L1 , et l’espérance est une forme linéaire sur
cet espace vectoriel.

Ex. 10. Si X est une variable aléatoire discrète complexe, d’espérance finie, alors X est aussi
X +X X −X
d’espérance finie, égale à E(X) . On en déduit que Re X = et Im X = sont
2 2i
des variables d’espérance finie : E(Re X) = Re E(X) et E(Im Z) = Im E(Z) .

Remarque Si X et Y sont des variables aléatoires discrètes positives et λ ∈ IR+ ,


on a, dans IR+ ∪ {+∞} , E(λX) = λE(X) et E(X + Y ) = E(X) + E(Y ).
Si X et Y sont d’espérance finie, cela résulte du théorème 7 de la page précédente.
Si par exemple E(X) = +∞ alors E(X + Y ) = +∞ car X + Y  X ; de plus,
si λ > 0 , on a aussi E(λX) = +∞, d’après la formule de transfert.

Point méthode Pour déterminer l’espérance d’une variable aléatoire discrète dont
on ne sait pas déterminer la loi, on peut chercher à la décomposer en somme de
Exo
17.1 variables aléatoires discrètes d’espérance connue.

Ex. 11. Soit (Xn )n∈IN∗ une suite de variables aléatoires i.i.d., de loi uniforme sur {−1, 1} . On
pose, pour n ∈ IN∗ , Sn = X1 + · · · + Xn et Nn = card {k ∈ [[1, n]] : Sk = 0} . On a donc une
marche aléatoire dans ZZ et l’on cherche le nombre de fois où l’on repasse par l’origine pendant
les n premiers déplacements. Déterminons E(Nn ) .

n 
n
On écrit Nn = 1{Sk =0} . On a donc par linéarité E(Nn ) = P(Sk = 0) .
k=1 k=1
Pour avoir Sk = 0 , il faut et il suffit que, parmi les variables X1 , . . . , Xn il y ait autant de
j)
(2j
valeurs −1 que de valeurs 1 . On a donc P(Sk = 0) = 0 si k est impair et P(S2j = 0) = 22j ·
On obtient :
n
⌊  
2 ⌋ 2j
j
E(Nn ) = ·
22j
j=1

En utilisant la formule de Stirling et la sommation des relations de comparaison, on peut montrer


que :

2n
E(Nn ) ∼ ·
n→+∞ π

Définition 3
Une variable aléatoire discrète complexe d’espérance nulle est dite centrée.

682
I Espérance
Corollaire 8
Si X est une variable aléatoire discrète complexe d’espérance finie, alors X − E(X)
est centrée.

Démonstration. La variable aléatoire constante E(X) a pour espérance E(X) . Donc, par
linéarité, la variable aléatoire X − E(X) est d’espérance finie et :
 
E X − E(X) = E(X) − E(X) = 0.

Positivité, croissance
Dans cette section, les variables aléatoires sont réelles.

Proposition 9 (Positivité de l’espérance)


Soit X une variable aléatoire discrète, à valeurs dans IR+ . Alors on a :
E(X)  0.
De plus E(X) = 0 équivaut à X = 0 presque sûrement.
Démonstration page 697

Corollaire 10 (Croissance de l’espérance)


Soit X et Y deux variables aléatoires discrètes, d’espérance finie, telles que X  Y .
Alors on a :
E(X)  E(Y ).
De plus E(X) = E(Y ) équivaut à X = Y presque sûrement.

Démonstration. On applique la proposition 9 à la variable aléatoire Y − X , puis on utilise


la linéarité de l’espérance.

Espérance du produit de variables indépendantes

Théorème 11
Si X et Y sont deux variables aléatoires discrètes complexes indépendantes, d’es-
pérance finie, alors XY est d’espérance finie et :
Exo
17.2 E(XY ) = E(X)E(Y ).
Démonstration page 697

Cette propriété se généralise à n variables aléatoires indépendantes.


Proposition 12
Si X1 , . . . , Xn sont des variables aléatoires complexes d’espérance finie, mutuelle-
n
ment indépendantes, alors Xk est d’espérance finie et :
k=1

n  n
E Xk = E(Xk ).
k=1 k=1
Démonstration page 697

683
Chapitre 17. Espérance — Variance

II Variance
Dans cette section, les variables aléatoires sont réelles.
1 Variables aléatoires dont le carré est d’espérance finie
Notation On note L2 (Ω, A, P) ou, plus simplement, L2 l’ensemble des variables
aléatoires discrètes réelles sur (Ω, A, P) telles que X 2 soit d’espérance finie.

Terminologie Si X 2 est d’espérance finie, on dit aussi que X possède un moment


d’ordre 2.

Lemme 13
Si X et Y appartiennent à L2 (Ω, A, P), alors XY est dans L1 (Ω, A, P).
Démonstration page 697
1
Principe de démonstration. Montrer que |XY |  (X 2 + Y 2 ) .
2

Proposition 14
Soit X une variable aléatoire discrète. Si X 2 est d’espérance finie, alors X est
d’espérance finie.

Démonstration. Comme X ainsi que la variable aléatoire constante, égale à 1 , sont dans L2 ,
leur produit, qui vaut X , est d’espérance finie, d’après le lemme 13.

Reformulation On a donc L2 (Ω, A, P) ⊂ L1 (Ω, A, P).

Proposition 15
L’ensemble L2 (Ω, A, P) est un IR-espace vectoriel.
Démonstration page 698

Théorème 16 (Inégalité de Cauchy-Schwarz)


Si les variables aléatoires discrètes X et Y appartiennent à L2 (Ω, A, P), alors XY
Exo
est d’espérance finie et :
17.3 E(XY )2  E(X 2 )E(Y 2 ).
Démonstration page 698

2 Définition et propriétés de la variance


Remarque Si X ∈ L2 (Ω, A, P), alors X est d’espérance finie et, comme les variables
aléatoires constantes sont dans L2 (Ω, A, P), X − E(X) ∈ L2 (Ω, A, P).

Définition 4
Soit X ∈ L2 . On appelle variance de X le réel positif V(X) défini par :
 
V(X) = E (X − E(X))2 .

Terminologie Si X ∈ L2 , on dit aussi que X est de variance finie.

684
II Variance

Remarque La variance est la moyenne du carré de la distance entre les valeurs de X


et E(X). Elle mesure donc la dispersion de X par rapport à sa moyenne.

Théorème 17 (Formule de Kœnig-Huygens)


Si X ∈ L2 , alors V(X) = E(X 2 ) − E(X)2 .
Démonstration page 698

Ex. 12. Soit X dans L2 . Étudions à quelle condition on a V(X) = 0 .


 
On a V(X) = E (X − E(X))2 , donc, d’après la proposition 9 de la page 683, V(X) = 0
équivaut à :
   
P X − E(X) = 0 = 1, c’est-à-dire à P X = E(X) = 1.
• Si cette condition est réalisée, alors X est presque sûrement constante, égale à E(X) .
• Réciproquement, s’il existe a ∈ IR tel que P(X = a) = 1 , alors :
 
E(X) = a, P X − E(X) = 0 = 1 et donc V(X) = 0.

La variance de X est donc nulle si, et seulement si, X est presque sûrement constante.

Proposition 18
Si (a, b) est un couple de réels et X ∈ L2 , alors aX + b ∈ L2 et :
V(aX + b) = a2 V(X).
Démonstration page 698

Définition 5

Soit X ∈ L2 . L’écart-type de X est le réel σ(X) = V(X).

Définition 6
Soit X ∈ L2 . Si E(X) = 0 et σ(X) = 1 , la variable aléatoire X est dite centrée
réduite.

Proposition 19
Si X est une variable aléatoire discrète de variance finie non nulle, la variable
X − E(X)
aléatoire discrète X ∗ = est une variable aléatoire discrète centrée réduite
σ(X)
appelée variable aléatoire réelle centrée réduite associée à X .
Démonstration page 698

3 Variance des lois usuelles


Proposition 20
Si la variable aléatoire discrète X suit la loi géométrique de paramètre p ∈ ]0, 1[ ,
1−p
alors elle est dans L2 et V(X) = ·
p2
 Démonstration
 page 698
Principe de démonstration. Commencer par calculer E X(X − 1) .

685
Chapitre 17. Espérance — Variance
Proposition 21
Si la variable aléatoire discrète X suit la loi de Poisson de paramètre λ, alors elle
est dans L2 et V(X) = λ.
Démonstration page 699
 
Principe de démonstration. Commencer par calculer E X(X − 1) .

III Covariance
Dans cette section, toutes les variables aléatoires sont réelles.
1 Définition
Si X et Y sont dans L2 , alors il en est de même de X − E(X) et Y − E(Y ),
  
donc X − E(X) Y − E(Y ) est d’espérance finie d’après le lemme 13 de la page 684.
Cela justifie la définition suivante.
Définition 7
Soit X et Y dans L2 . On appelle covariance de X et Y , ou du couple (X, Y ),
le réel noté Cov(X, Y ) défini par :
  
Cov(X, Y ) = E X − E(X) Y − E(Y ) .

Remarque Pour tout X ∈ L2 , on a Cov(X, X) = V(X).

Théorème 22 (Formule de Kœnig-Huygens)


Soit X et Y dans L2 . On a :
Exo
17.4 Cov(X, Y ) = E(XY ) − E(X) E(Y ).
Démonstration page 699

2 Bilinéarité
Exo
17.5 Proposition 23
Exo L’application (X, Y ) �−→ Cov(X, Y ) est une forme bilinéaire symétrique positive
17.6 sur L2 .
Démonstration page 699

3 Variables décorrélées
Proposition 24
Si X et Y appartiennent à L2 et sont indépendantes, alors on a Cov(X, Y ) = 0 .

Démonstration. Cela résulte directement du théorème 11 de la page 683.

Remarque Si X et Y appartiennent à L1 et sont indépendantes, alors, d’après le


théorème 11 de la page 683, XY ∈ L1 et E(XY ) = E(X)E(Y ), donc on peut défi-
nir Cov(X, Y ) et l’on trouve encore Cov(X, Y ) = 0 .

686
III Covariance
Définition 8
Si un couple (X, Y ) de variables aléatoires discrètes réelles possède une covariance
nulle, on dit que les variables aléatoires X et Y sont décorrélées.

Remarque Il découle de ce qui précède que deux variables aléatoires discrètes réelles,
indépendantes et d’espérance finie, sont décorrélées.
Comme on l’a vu en première année dans le cas des variables finies, la réciproque est
fausse : deux variables décorrélées ne sont pas nécessairement indépendantes.

4 Variance d’une somme

Théorème 25
Pour toute famille (X1 , . . . , Xn ) de variables aléatoires discrètes appartenant à L2 ,
la variable aléatoire discrète X1 + · · · + Xn est dans L2 et :
n
 
V(X1 + · · · + Xn ) = V(Xk ) + 2 Cov(Xi , Xj ).
k=1 1i<jn
Démonstration page 699

Corollaire 26
Pour toute famille (X1 , . . . , Xn ) de variables aléatoires discrètes appartenant à L2 ,
deux à deux décorrélées, on a :
n

V(X1 + · · · + Xn ) = V(Xk ).
k=1

Remarques
• La propriété est vérifiée en particulier si les variables sont deux à indépendantes
et a fortiori si elles sont mutuellement indépendantes.

• Cette formule montre l’intérêt de décomposer une variable aléatoire en somme de


variables aléatoires indépendantes plus simples.

Ex. 13. Soit (Xn ) une suite de variables aléatoires mutuellement indépendantes, suivant toutes
la loi de Bernoulli de paramètre p ∈ ]0, 1[ . Pour tout k ∈ IN∗ , on note Yk le temps d’attente
du k -ième 1 . On pose Z1 = Y1 et Zk = Yk − Yk−1 pour k  2 . Il a été démontré dans
l’exercice 16.19 de la page 655 que (Zn )n∈IN∗ est une suite de variables aléatoires indépendantes,
1 1−p
suivant la loi G(p) et donc d’espérance et de variance ·
p p2

k
k k(1 − p)
De l’égalité Yk = Zi , on déduit E(Yk ) = et V(Yk ) = ·
i=1 p p2

687
Chapitre 17. Espérance — Variance

IV Inégalités probabilistes et loi faible des grands


nombres
1 Inégalités probabilistes
Théorème 27 (Inégalité de Markov)
Toute variable aléatoire discrète, réelle positive, d’espérance finie, vérifie l’inégalité :
  E(X)
∀a > 0 P X a  ·
a
Démonstration page 699

Ex. 14. Soit X une variable aléatoire discrète réelle et a ∈ IR . Si eX est d’espérance finie, alors
on a :
E(eX )
P(X  a) = P(eX  ea )  = E(eX−a ).
ea

Théorème 28 (Inégalité de Bienaymé-Tchebychev)


Toute variable aléatoire discrète réelle X de L2 vérifie l’inégalité :
   V(X)
∀ε > 0 P X − E(X)  ε  ·
ε2
Démonstration page 700

Remarque Les inégalités de Markov et Bienaymé-Tchebychev sont des inégalités


de concentration, c’est-à-dire des inégalités qui majorent la probabilité qu’une va-
riable aléatoire dévie d’une certaine valeur, généralement son espérance.

2 Loi faible des grands nombres


Théorème 29 (Loi faible des grands nombres)
Soit (Xn ) une suite de variables aléatoires discrètes réelles i.i.d. sur le même espace
probabilisé, de variance finie.
n


On pose m = E(X1 ) et pour tout n ∈ IN , Sn = Xk . On a alors :
k=1
  
 Sn 
∀ε > 0 lim P  − m  ε = 0.
n→+∞ n
Démonstration page 700

Remarques
• La loi faible des grands nombres exprime le fait qu’en un certain sens la
 
Sn
suite converge vers m.
n
• Le résultat subsiste si les variables Xn ne sont pas mutuellement indépendantes,
mais seulement deux à deux indépendantes, ou même deux à deux non corrélées.

688
V Fonctions génératrices

Ex. 15. Soit (Xn )n∈IN∗ une suite de variables i.i.d. suivant la loi de Bernoulli de para-
mètre p ∈ ]0, 1[ , modélisant une suite d’épreuves identiques indépendantes. Si l’on appelle succès

n
Sn
le fait d’obtenir 1 , alors Sn = Xk représente le nombre de succès et Yn = n
la fréquence
k=1
 
de succès sur les n premières épreuves, et l’on a, pour tout ε > 0 , lim P |Yn − p|  ε = 0 .
n→+∞

Souvent la valeur de p n’est pas connue. La suite (Yn )n∈IN∗ est alors appelée un estimateur
de p .

Approfondissement Il existe également des lois fortes des grands nombres. On


peut démontrer par exemple que, si (Xn )n∈IN∗ est une suite de variables aléatoires
réelles i.i.d., d’espérance finie m, alors il existe un événement négligeable A, tel que :
Sn (ω)
∀ω ∈ Ω \ A lim = m.
n→+∞ n
 
Sn
On dit que la suite converge presque sûrement vers m.
n n∈IN∗

V Fonctions génératrices
1 Définition - Propriétés
Définition 9
Pour toute variable aléatoire X à valeurs dans IN, on appelle fonction génératrice
de X la fonction GX de la variable réelle définie par GX (t) = E(tX ).

Remarque D’après la formule de transfert, la fonction GX est définie en t si, et



seulement si, la série P(X = n)tn converge absolument et l’on a alors :
+∞

GX (t) = P(X = n)tn .
n=0

Proposition 30
Soit X une variable
 aléatoirenà valeurs dans IN.
La série entière P(X = n)t est de rayon de convergence supérieur ou égal à 1 ;
elle converge normalement sur le disque fermé de centre 0 et de rayon 1 . La fonc-
tion GX est définie et continue sur [−1, 1].
Démonstration page 700

Remarques
• D’après les propriétés des séries entières, la fonction GX est aussi définie et de
classe C ∞ sur ]−R, R[ , où R est le rayon de convergence de la série entière.
• Si X est une variable finie, alors GX est définie sur IR et c’est une fonction
polynomiale.

689
Chapitre 17. Espérance — Variance
Proposition 31
La loi d’une variable aléatoire X à valeurs dans IN est déterminée de manière unique
par GX . Plus précisément, on a :
(n)
∀n ∈ IN P(X = n) = n! GX (0).
Deux variables aléatoires à valeurs dans IN ont donc même loi si, et seulement si,
elles ont même fonction génératrice.

Démonstration. Cela résulte immédiatement de la formule donnant les coefficients du déve-


loppement d’une fonction en série entière.

Théorème 32
Une variable aléatoire X à valeurs dans IN est d’espérance finie si, et seulement
si, GX est dérivable en 1 et l’on a alors :
E(X) = G′X (1).
Démonstration (non exigible) page 700
Démonstration. Supposons que X soit d’espérance finie, et montrons que GX est dérivable
en 1 et G′X (1) = E(X) .

Notons R  1 le rayon de convergence de la série P(X = n)tn . La fonction GX est dérivable
sur ]−R, R[ et :
+∞

∀t ∈ ]−R, R[ G′X (t) = nP(X = n)tn−1 .
n=1

• Si R > 1 , la fonction GX est dérivable en 1 et :


+∞

G′X (1) = nP(X = n) = E(X).
n=1

• Supposons R = 1 . La fonction GX est continue sur [0, 1] et dérivable sur [0, 1[ .



D’autre part, la série nP(X = n) converge, car X est d’espérance finie, donc d’après le

+∞ +∞ 
théorème d’Abel radial, G′X (t) = nP(X = n)tn−1 tend vers nP(X = n) = E(X)
n=1 n=1
quand t tend vers 1 par valeurs inférieures.
On en déduit, par le théorème de la limite de la dérivée, que GX est dérivable en 1
et G′X (1) = E(X) .

La réciproque n’est pas exigible.

Théorème 33
Une variable aléatoire X à valeurs dans IN appartient à L2 si, et seulement si, GX
est deux fois dérivable en 1 et l’on a alors G′′X (1) = E(X(X − 1)).
Démonstration (non exigible) page 701

690
V Fonctions génératrices
Corollaire 34
Si la fonction génératrice d’une variable aléatoire X à valeurs dans IN est deux fois
dérivable en 1 , alors X ∈ L2 et l’on a :
V(X 2 ) = G′′X (1) + G′X (1) − G′X (1)2 .

Remarques
• L’existence et le calcul de l’espérance et de la variance d’une variable aléatoire
ne posent aucun problème quand la série définissant la fonction génératrice a un
rayon de convergence strictement supérieur à 1 .

• Il résulte de la démonstration du théorème 32 de la page ci-contre que GX est


dérivable en 1 si, et seulement si, GX est dérivable à gauche en 1 . Il suffit donc,
pour montrer que X est d’espérance finie, de considérer la restriction de GX
à [0, 1]. La même remarque s’applique pour la dérivée seconde.

2 Fonctions génératrices des lois usuelles

Déterminons les fonctions génératrices des lois usuelles et retrouvons ainsi leur espérance et leur
variance. Dans les trois premiers exemples, on posera q = 1 − p .
Ex. 16. Si X ∼ B(p) , la variable X est finie donc GX est définie sur IR par :

GX (t) = P(X = 0)t0 + P(X = 1)t = q + pt.

On en déduit, pour tout réel t , G′X (t) = p et G′′X (t) = 0 .


 
On a donc E(X) = p et E X(X − 1) = 0 , puis V(X) = p − p2 = pq .

Ex. 17. Si X ∼ B(n, p) , la variable X est finie donc GX est définie sur IR par :

n n  
 k
 n
GX (t) = P(X = k)t = pk q n−k tk
k
k=0 k=0
n  
 n  n
= (pt)k q n−k = q + pt .
k
k=0

On en déduit, pour tout réel t :

G′X (t) = np(q + pt)n−1 et G′′X (t) = n(n − 1)p2 (q + pt)n−2 .

 
On a donc E(X) = np et E X(X − 1) ) = n(n − 1)p2 , puis :

V(X) = n(n − 1)p2 + np − (np)2 = npq.

691
Chapitre 17. Espérance — Variance

Ex. 18. Si X ∼ G(p) , la série de terme général P(X = n)tn = pt(qt)n−1 est une série
géométrique qui converge absolument si, et seulement si, |qt| < 1 . On a :

  ∞

1 1 pt
∀t ∈ − , GX (t) = pt(tq)n−1 = ·
q q 1 − qt
n=1

 
On en déduit, pour tout t ∈ − q1 , 1
q
:

p 2pq
G′X (t) = et G′′X (t) = ·
(1 − qt)2 (1 − qt)3

On a donc :

p 1   2q
E(X) = G′X (1) = = et E X(X − 1 ) = G′′X (1) = ,
(1 − p)2 p p2

2q 1 1 q
puis V(X) = + − 2 = 2·
p2 p p p

(λt)n
Ex. 19. Si X ∼ P(λ) , la série de terme général P(X = n)tn = e−λ converge absolument
n!
pour tout réel t et :

+∞
 (λt)n
∀t ∈ IR GX (t) = e−λ = e−λ eλt = eλ(t−1) .
n!
n=0

On a, pour tout réel t , G′X (t) = λeλ(t−1) et G′′X (t) = λ2 eλ(t−1) .


 
On en déduit E(X) = G′X (1) = λ et E X(X − 1) = G′′X (1) = λ2 , puis V(X) = λ .

3 Somme de variables aléatoires indépendantes

Théorème 35
Soit X1 , . . . , Xn des variables aléatoires indépendantes à valeurs dans IN.

n
On pose Sn = Xk . Alors, pour tout réel t tel que GXk (t) soit défini pour
k=1
tout k ∈ [[1, n]], GSn (t) est défini et :
n

Exo GSn (t) = GXk (t).
17.17 k=1
Démonstration page 702

À l’aide du théorème 35, on peut redémontrer les théorèmes de stabilité de la loi


binomiale et de la loi de Poisson.

692
V Fonctions génératrices

Ex. 20. Soit X1 , . . . , Xk des variables aléatoires indépendantes, telles que, pour tout i ∈ [[1, k]] ,

n
la variable Xi suive la loi binomiale de paramètre (ni , p) . On pose X = Xi . On a alors,
i=1
pour tout réel t ,

k k k
  
GX (t) = GXi (t) = (1 − p + pt)ni = (1 − p + pt)n où n= ni .
i=1 i=1 i=1

On reconnaît la fonction génératrice d’une loi binomiale de paramètre (n, p) .


D’après la proposition 31 de la page 690, X suit la loi binomiale de paramètre (n, p) .
Ex. 21. Soit X1 , . . . , Xk des variables aléatoires indépendantes, telles que, pour tout i ∈ [[1, k]] ,
la variable Xi suive la loi de Poisson de paramètre λi .

n
On pose X = Xi . On a alors, pour tout réel t :
i=1

k k k
  
GX (t) = GXi (t) = eλi (t−1) = eλ(t−1) où λ= λi .
i=1 i=1 i=1

On reconnaît la fonction génératrice d’une loi de Poisson de paramètre λ . D’après la proposi-


tion 31 de la page 690, X suit la loi de Poisson de paramètre λ .

693
Chapitre 17. Espérance — Variance

Démonstrations
Proposition 1 Démontrons d’abord la première égalité.
• Si P(X = +∞) > 0 , alors E(X) = +∞ . D’autre part, on a, pour tout n ∈ IN :
P(X > n)  P(X = +∞) > 0,
 
+∞
donc P(X > n) diverge et P(X > n) = +∞ . L’égalité est établie.
n=0

• Si P(X = +∞) = 0 , on considère la suite double (ak,n )(k,n)∈IN2 définie par :



P(X = k) si n < k
ak,n =
0 sinon.
On a :
+∞ +∞
 
∀n ∈ IN ak,n = P(X = k) = P(X > n),
k=0 k=n+1

+∞ k−1
 
∀k ∈ IN ak,n = P(X = k) = k P(X = k).
n=0 n=0

D’après le théorème de Fubini sur les sommes doubles de réels positifs, on a :


+∞ +∞ +∞ +∞ +∞ +∞
     
E(X) = kP(X = k) = an,k = an,k = P(X > n).
k=0 k=0 n=0 n=0 k=0 n=0

La deuxième formule s’obtient par un changement d’indice.


Théorème 4 On sait que f (X)(Ω) = f (X(Ω)) . Pour tout y ∈ f (X)(Ω) , on pose :
Iy = {x ∈ X(Ω) : f (x) = y} = f −1 ({y}) .
On a alors {f (X) = y} = {X ∈ Iy } et comme Iy est au plus dénombrable, car inclus
dans X(Ω) :

P(f (X) = y) = P(X = x).
x∈Iy

L’ensemble X(Ω) est la réunion disjointe des Iy , pour y ∈ f (X)(Ω) .


 
• Supposons que la famille f (x) P(X = x) x∈X(Ω)
soit sommable. Pour tout y ∈ f (X)(Ω) ,
 
la sous-famille f (x) P(X = x) x∈Iy
est sommable, de somme :

f (x) P(X = x) = y P(f (X) = y).
x∈Iy

On applique le théorème de sommation par paquets. On sait qu’alors la fa-


 
mille y P(f (X) = y) y∈f (X)(Ω) est sommable et que :
 
y P(f (X) = y) = f (x) P(X = x).
y∈f (X)(Ω) x∈X(Ω)

Autrement dit, f (X) est d’espérance finie et :



E(f (X)) = f (x)P(X = x).
x∈X(Ω)

694
Démonstrations

• Supposons réciproquement que la variable aléatoire f (X) soit d’espérance finie, c’est-à-dire

que la famille yP(f (X) = y))y∈f (X)(Ω) soit sommable. Cela équivaut à la sommabilité de
 
la famille |y| P(f (X) = y) y∈f (X)(Ω)
.
Montrons la sommabilité de la famille (f (x) P(X = x))x∈X(Ω) . Soit I une partie finie
de X(Ω) . Alors J = f (I) est une partie finie de f (X)(Ω) donc, par définition de la somme
d’une famille de réels positifs :

 
|y|P(f (X) = y)  |y| P(f (X) = y).
y∈J y∈f (X)(Ω)

Mais, par ailleurs, I est inclus dans f −1 (J) donc :

   
|y| P(f (X) = y) = |y| P(X = x) = |f (x)| P(X = x)
y∈J y∈J x∈Iy y∈J x∈Iy

= |f (x)|P(X = x)
x∈f −1 (J )

 |f (x)|P(X = x).
x∈I

On a donc, pour toute partie I finie de X(Ω) :

 
|f (x)|P(X = x)  |y|P(f (X) = y).
x∈I y∈f (X)(Ω)

 
Cela montre que la famille |f (x)| P(X = x) x∈X(Ω)
est sommable et donc que la fa-
 
mille f (x) P(X = x) x∈X(Ω
est sommable et, en utilisant le premier point, on retrouve
l’égalité souhaitée.

Proposition 5 D’après la formule de transfert, |X| est d’espérance finie si, et seulement si, la
 
famille |x| P(X = x) x∈X(Ω) est sommable, ce qui équivaut par définition au fait que la fa-
 
mille x P(X = x) x∈X(Ω)
soit sommable, c’est-à-dire que X soit d’espérance finie.

Si X est d’espérance finie, de E(X) = x P(X = x) on tire :
x∈X(Ω)

 
 
   

|E(X)| =  x P(X = x)  |x| P(X = x) = E(|X|),
x∈X(Ω)  x∈X(Ω)

la dernière égalité résultant de la formule de transfert.

695
Chapitre 17. Espérance — Variance

Proposition 6 Considérons le couple de variables aléatoires Z = (X, Y ) et les deux projections


canoniques de C×IR , π1 : (x, y) �→ x et π2 : (x, y) �→ y . On a donc X = π1 (Z) et Y = π2 (Z) .
Comme Y est d’espérance finie, d’après la formule de transfert, appliquée à la variable aléatoire Z
 
et à la fonction π2 , la famille yP(Z = (x, y) (x,y)∈Z(Ω) est sommable et :
  
E(Y ) = y P Z = (x, y) .
(x,y)∈Z(Ω)

Si (x, y) ∈ Z(Ω) , alors il existe ω ∈ Ω tel que (x, y) = (X(ω), Y (ω)) .


Comme |X|  Y , on alors |x|  y . On a donc, pour tout (x, y) ∈ Z(Ω) :
   
|x|P Z = (x, y)  yP Z = (x, y) .
 
Comme la famille yP(Z = (x, y)) (x,y)∈Z(Ω)
est sommable, il en est de même de la fa-
   
mille |x| P(Z = (x, y)) (x,y)∈Z(Ω)
, c’est-à-dire de x P(Z = (x, y)) (x,y)∈Z(Ω)
. On en déduit,
par la formule de transfert, appliquée à la variable aléatoire Z et à la fonction π1 , que X est
d’espérance finie.
Théorème 7  
1. La famille xP(X = x) x∈X(Ω)
étant sommable, il en est de même de la fa-
 
mille λx P(X = x) x∈X(Ω)
, donc d’après la formule de transfert appliquée à X et à la
fonction x �→ λx , la variable aléatoire λX est d’espérance finie et :
 
E(λX) = λx P(X = x) = λ x P(X = x) = λE(X).
x∈X(Ω) x∈X(Ω)

2. On écrit X + Y = f (X, Y ) , où f est l’application (x, y) �→ x + y et l’on applique la formule


de transfert à (X, Y ) et à la fonction f .
Comme (X, Y )(Ω) ⊂ X(Ω) × Y (Ω) , X + Y est d’espérance finie si, et seulement si, la
 
famille (x + y) P(X = x, Y = y) (x,y)∈X(Ω)×Y (Ω)
est sommable. Or on a :

|x + y|P(X = x, Y = y)  |x| P(X = x, Y = y) + |y| P(X = x, Y = y),


donc il suffit de montrer la sommabilité des deux familles :
   
|x| P(X = x, Y = y) (x,y)∈X(Ω)×Y (Ω)
et |y| P(X = x, Y = y) (x,y)∈X(Ω)×Y (Ω)
.

Montrons-le pour la première famille. Pour tout x ∈ X(Ω) , on a :


 
|x| P(X = x, Y = y) = |x| P(X = x, Y = y) = |x| P(X = x).
y∈Y (Ω) y∈Y (Ω)

La famille (|x| P(X = x))x∈X(Ω) est sommable car X est d’espérance finie.
Le théorème de sommation par paquets permet de conclure que la fa-
 
mille |x| P(X = x, Y = y)) (x,y)∈X(Ω)×Y (Ω) est sommable.
 
On montre de même que la famille |y| P(X = x, Y = y) (x,y)∈X(Ω)×Y (Ω)
est sommable.
Ainsi X + Y possède une espérance donnée par :

E(X + Y ) = (x + y) P(X = x, Y = y)
(x,y)∈X(Ω)×Y (Ω)
 
= x P(X = x, Y = y) + y P(X = x, Y = y).
(x,y)∈X(Ω)×Y (Ω) (x,y)∈X(Ω)×Y (Ω)

696
Démonstrations

La formule de transfert, appliquée à la variable aléatoire Z et aux fonctions (x, y) �→ x


et (x, y) �→ y respectivement, permet de conclure :
E(X + Y ) = E(X) + E(Y ).

Proposition 9
 
• La famille x P(X = x) x∈X(Ω)
est à termes positifs, donc sa somme E(X) est positive.

• Si X = 0 presque sûrement alors, pour tout x ∈ X(Ω) \ {0} , on a P(X = x) = 0 . On en


déduit x P(X = x) = 0 pour tout x ∈ X(Ω) et donc E(X) = 0 .
• Réciproquement, si E(X) = 0 , on a alors, pour tout x ∈ X(Ω) , 0  xP(X = x)  E(X) = 0
et donc P(X = x) = 0 si x �= 0 . On en déduit :

P(X = 0) = 1 − P(X = x) = 1.
x∈X(Ω)\{0}

Théorème 11
Supposons X et Y indépendantes. On a P(X = x, Y = y) = P(X = x)P(Y = y) , pour
tout (x, y) ∈ X(Ω) × Y (Ω) . D’après le théorème de transfert, XY est d’espérance finie si, et
seulement si, la famille (xyP(X = x) P(Y = y))(x,y)∈X(Ω)×Y (Ω) est sommable.
   
Par hypothèse, les familles x P(X = x) et y P(Y = y) sont sommables. On en déduit
que la famille (xyP(X = x) P(Y = y))(x,y)∈X(Ω)×Y (Ω) , qui est le produit de ces deux familles
sommables, est sommable et que sa somme est :
    
x P(X = x) y P(Y = y) ,
x∈X(Ω) y∈Y (Ω)

ce qui est le résultat voulu.

Proposition 12 On fait une démonstration par récurrence sur n . La propriété est évidente
pour n = 1 et a déjà été démontrée pour n = 2 dans le théorème 11 de la page 683.
Supposons que la propriété soit vraie au rang n et considérons X1 , . . . , Xn , Xn+1 des variables
indépendantes. Alors, les variables X1 , . . . , Xn sont également indépendantes et d’espérance

n
finie donc Xk est d’espérance finie :
k=1
 n
 n
 
E Xk = E(Xk ) par hypothèse de récurrence.
k=1 k=1

D’autre part, d’après le lemme des coalitions, Xn+1 est indépendante de X1 · · · Xn ; en utilisant

n+1
la propriété au rang 2 , on trouve que Xk est d’espérance finie et :
k=1
n+1   n
  n
 n+1
   
E Xk =E Xk E(Xn+1 ) = E(Xk ) E(Xn+1 ) = E(Xk ).
k=1 k=1 k=1 k=1

1 2
Lemme 13 On a |XY |  (X + Y 2 ) , car (|X| − |Y |)2  0 . Les variables aléatoires X 2 et Y 2
2
1
étant d’espérance finie, il en est de même de (X 2 +Y 2 ) . On en déduit que XY est d’espérance
2
finie, d’après la proposition 6 de la page 681.

697
Chapitre 17. Espérance — Variance

Proposition 15 La variable aléatoire nulle appartient à L2 (Ω, A, P) .


Si X et Y sont deux variables aléatoires réelles discrètes admettant un moment d’ordre 2 et λ
est un réel, on a (λX + Y )2 = λ2 X 2 + 2λXY + Y 2 . Par hypothèse les variables X 2 et Y 2 sont
d’espérance finie. Il en est de même de XY , d’après le lemme 13. La variable aléatoire (λX +Y )2
est donc d’espérance finie, comme combinaison linéaire de variables aléatoires d’espérance finie,
donc λX + Y ∈ L2 (Ω, A, P) .

Théorème 16 Le fait que XY soit d’espérance finie est assuré par le lemme 13 de la page 684.
Pour tout λ ∈ IR , la variable (λX + Y )2 = λ2 X 2 + 2λXY + Y 2 est d’espérance finie, comme
combinaison linéaire de variables aléatoires ayant une espérance finie. Son espérance est positive
car c’est une variable aléatoire positive. Par linéarité de l’espérance, on obtient :
 
∀λ ∈ IR λ2 E(X 2 ) + 2λE(XY ) + E(Y 2 ) = E (λX + Y )2  0.

• Si E(X 2 ) = 0 , alors X 2 est presque sûrement nulle, donc X et XY sont presque sûrement
nulles. On a donc E(XY ) = 0 et E(XY )2 = E(X 2 )E(Y 2 ) .
 
• Si E(X 2 ) �= 0 , la fonction trinôme λ �→ E (λX + Y )2 garde un signe constant. Son
discriminant est donc négatif, ce qui donne l’inégalité voulue.

Théorème 17 Si X ∈ L2 , alors X 2 et X sont d’espérance finie. De :


 2
X − E(X) = X 2 − 2E(X) X + E(X)2 ,
on déduit par linéarité :
 
V(X) = E(X 2 ) − 2E(X)E(X) + E E(X)2

= E(X 2 ) − 2E(X)2 + E(X)2

= E(X 2 ) − E(X)2 .

Proposition 18 La variable X admet un moment d’ordre 2 ainsi que la variable constante égale
à b donc aX + b ∈ L2 . On a E(aX + b) = aE(X) + b et donc :
 2  2
aX + b − E(aX + b) = a2 X − E(X) .
On en déduit, par linéarité de l’espérance :
   
V(aX + b) = E a2 (X − E(X))2 = a2 E (X − E(X))2 = a2 V(X).

E(X) − E(X)
Proposition 19 Par linéarité de l’espérance, on a E(X ∗ ) = = 0 . En utilisant la
σ(X)
proposition 18, on obtient :
V(X)
V(X ∗ ) = = 1.
σ(X)2

Proposition 20 Pour n ∈ IN∗ , on a n(n − 1)P(X = n) = n(n − 1)p(1 − p)n−1 .


+∞
 d2
 1  2
De n(n − 1)xn−2 = = pour tout x ∈ ]−1, 1[ , on déduit que la
dx2 1−x (1 − x)3
n=2
variable aléatoire X(X − 1) possède une espérance finie donnée par la formule de transfert :
+∞
 2 2(1 − p)
E(X(X − 1)) = p(1 − p) n(n − 1)(1 − p)n−2 = p(1 − p) = ·
p3 p2
n=2

698
Démonstrations

1
Comme E(X) = , on en déduit par linéarité :
p
2(1 − p) 1 1 1−p
V(X) = E(X(X − 1)) + E(X) − E(X)2 = + − 2 = ·
p2 p p p2
Proposition 21 Pour n  2 , on a :
n(n − 1)λn λn−2
n(n − 1) P(X = n) = e−λ = λ2 e−λ ·
n! (n − 2)!
+∞
 λn−2
De = eλ , on déduit que X(X − 1) possède une espérance finie et :
(n − 2)!
n=2

E(X(X − 1)) = λ2 e−λ eλ = λ2 .


On en déduit :
V(X) = E(X(X − 1)) + E(X) − E(X)2 = λ.
Théorème 22 On a :
  
X − E(X) Y − E(Y ) = XY − E(Y )X − E(X)Y + E(X) E(Y ).
Chaque variable aléatoire apparaissant ci-dessus est d’espérance finie et l’on a, par linéarité :
Cov(X, Y ) = E(XY ) − E(Y ) E(X) − E(X) E(Y ) + E(X) E(Y ) = E(XY ) − E(X) E(Y ).
Proposition 23
Soit X , Y et X ′ trois variables aléatoires appartenant à L2 et λ ∈ IR .
 
• On a Cov(X, X) = E (X − E(X))2 = V(X)  0 .
• La symétrie est immédiate par définition de la covariance.
• Comme L2 est un espace vectoriel, X + X ′ appartient à L2 . Ainsi le couple (X + X ′ , Y )
possède une covariance. Par linéarité de l’espérance, on obtient :
 
Cov(X + X ′ , Y ) = E (X + X ′ )Y − E(X + X ′ )E(Y )
 
= E(XY ) + E(X ′ Y ) − E(X) + E(X ′ ) E(Y )

= E(XY ) − E(X)E(Y ) + E(X ′ Y ) − E(X ′ )E(Y )

= Cov(X, Y ) + Cov(X ′ , Y ),

et de même :
Cov(λX, Y ) = E(λXY ) − E(λX)E(Y ) = λE(XY ) − λE(X)E(Y ) = λCov(X, Y ).
• La linéarité par rapport à la deuxième variable résulte de la symétrie et de la linéarité par
rapport à la première variable.

Théorème 25 Les variables X1 , . . . , Xn appartiennent à l’espace vectoriel L2 donc il en est de


même de X1 + · · · + Xn et l’on obtient, par bilinéarité de la covariance :

V(X1 + · · · + Xn ) = Cov (X1 + · · · + Xn , X1 + · · · + Xn ) = Cov(Xi , Xj ).
1i,jn

Sachant que Cov(Xi , Xi ) = V(Xi ) et Cov(Xi , Xj ) = Cov(Xj , Xi ) , on obtient :


n
 
V(X1 + · · · + Xn ) = V(Xk ) + 2 Cov(Xi , Xj ).
k=1 1i<jn

699
Chapitre 17. Espérance — Variance

Théorème 27 Soit ω ∈ Ω .
X(ω)
• Si ω ∈ {X  a} , alors on a 1{Xa} (ω) = 1  , car X(ω)  a et a > 0 .
a
X(ω) X
• Dans le cas contraire, on a 1{Xa} (ω) = 0  , car est une variable positive.
a a
X
Ainsi, 1{Xa}  donc, par croissance de l’espérance :
a
  E(X)
X
P(X  a) = E(1{Xa} )  E = ·
a a
 2
Théorème 28 La variable X − E(X) est positive et possède une espérance égale à V(X) .
D’après l’inégalité de Markov, on a pour tout ε > 0 :
 2  V(X)
P X − E(X)  ε2  ·
ε2
   
Comme les événements |X − E(X)|  ε et (X − E(X))2  ε2 sont égaux, on a le résultat
voulu.
 
Sn 1 n
Théorème 29 Par linéarité de l’espérance, on a E = E(Xk ) = m . D’autre part,
n n k=1
comme les variables Xk sont deux à deux non corrélées, puisque mutuellement indépendantes,
et appartiennent à L2 , on a, d’après le corollaire 26 de la page 687 :
  n
Sn V(Sn ) 1  nV(X1 ) V(X1 )
V = = V(Xk ) = = ·
n n2 n2 n2 n
k=1

On a donc, pour ε > 0 , d’après l’inégalité de Bienaymé-Tchebychev :


 
S
       V n V(X1 )
 Sn   Sn Sn  n
P  − m  ε = P  −E ε  2
 2
·
n n n ε nε
Le résultat découle de cette inégalité.
Proposition 30 On a :
∀n ∈ IN ∀t ∈ [−1, 1] |P(X = n)tn |  P(X = n).
 
Comme P(X = n) converge, la série P(X = n)tn converge normalement sur [−1, 1] .
Donc GX est définie sur [−1, 1] et est continue sur [−1, 1] , car somme d’une série de fonctions
continues convergeant normalement.
La convergence sur [−1, 1] montre que le rayon de convergence de la série entière est supérieur
ou égale à 1 .

Théorème 32 L’équivalence entre nP(X = n) converge et GX est dérivable en 1 est une
conséquence immédiate du lemme suivant.
Lemme

Soit (an ) une suite à termes positifs telle la série an converge. On note f la somme de la
 n
série entière an t . La fonction f est dérivable en 1 si, et seulement si, la série de terme
général nan converge et l’on a alors :
+∞

f ′ (1) = nan .
n=1

700
Démonstrations


Démonstration. On note R le rayon de convergence de la série an tn . Comme la série
converge pour t = 1 , on a R  1 . La fonction f est dérivable sur ]−R, R[ et :
+∞

∀t ∈ ]−R, R[ f ′ (t) = nan tn−1 .
n=1


+∞ 
Si R > 1 , la fonction f est dérivable en 1 et f ′ (1) = nan , donc nan converge. On
n=1
suppose désormais R = 1 . On a, pour tout t ∈ [0, 1[ :
+∞ +∞
f (t) − f (1)  tn − 1 
= an = an (tn−1 + · · · + t + 1).
t−1 t−1
n=1 n=1

f (t) − f (1)
La fonction t �→ est donc croissante sur [0, 1[ et positive. Elle possède donc une
t−1
+∞
limite L en 1 dans [0, +∞] . On pose également S = nan ∈ [0, +∞] .
n=1

f (t) − f (1)
• On a pour tout t ∈ [0, 1[ ,  S donc, par passage à la limite, L  S .
t−1
• Pour tout entier N ∈ IN∗ , on a :
N
 f (t) − f (1)
an (tn−1 + · · · + t + 1)  ,
t−1
n=1


N
puis, en faisant tendre t vers 1 , nan  L .
n=1
En faisant tendre N vers +∞ , on obtient S  L .
On a donc L = S . On en déduit :

f dérivable en 1 ⇐⇒ L < +∞ ⇐⇒ S < +∞ ⇐⇒ nan converge.


+∞
On a alors f ′ (1) = S = nan .
n=1

Théorème 33 La variable X appartient à L2 si, et seulement si, la série de terme gé-


néral n2 P(X = n) converge, c’est-à-dire si, et seulement si, la série de terme géné-
ral n(n − 1)P(X = n) converge. En effet, ces séries à termes positifs ont des termes généraux
équivalents. En cas de convergence, on a, d’après la formule de transfert :
+∞
  
n(n − 1)P(X = n) = E X(X − 1) .
n=2

On note R  1 le rayon de convergence de la série P(X = n)tn . La fonction GX est deux
fois dérivable sur ]−R, R[ et :
+∞

∀t ∈ ]−R, R[ G′′X (t) = n(n − 1)P(X = n)tn−2 .
n=2

+∞ 
Si R > 1 , la fonction GX est deux fois dérivable en 1 et G′′X (1) = n(n − 1)P(X = n) donc
n=2

la série n(n − 1)P(X = n) converge. On suppose désormais R = 1 .

701
Chapitre 17. Espérance — Variance

• Si la fonction GX est deux fois dérivable en 1 , elle est en particulier dérivable en 1 et


d’après le théorème 32 de la page 690 on a :

+∞ 
+∞

∀t ∈ [0, 1] G′X (t) = P(X = n)ntn−1 = (n + 1)P(X = n + 1)tn .


n=1 n=0

D’après le lemme utilisé dans la démonstration du théorème 32, appliqué à la série entière
définissant G′X , la dérivabilité de G′X en 1 implique la convergence de la série de terme
général n(n + 1)P(X = n + 1) . De plus, on a :
∞ ∞
 
G′′X (1) = n(n + 1)P(X = n + 1)(n + 1) = n(n − 1)P(X = n).
n=1 n=2

• Réciproquement, si la série de terme général n(n − 1)P(X = n) converge, alors la série de


terme général nP(X = n) converge a fortiori donc, d’après le théorème 32 de la page 690,
la fonction GX est dérivable en 1 et :

+∞ 
+∞

∀t ∈ [0, 1] G′X (t) = nP(X = n)tn−1 = (n + 1)P(X = n + 1)tn .


n=1 n=0

La série de terme général n(n + 1)P(X = n + 1) converge donc, d’après le lemme utilisé
dans la démonstration du théorème 32 de la page 690, la fonction G′X est dérivable en 1 et,


d’après le premier point, G′′X (1) = n(n − 1)P(X = n) .


n=2

Théorème 35 Soit t ∈ IR tel que, pour tout k ∈ [[1, n]] , GXk (t) est défini, c’est-à-dire tXk est
d’espérance finie. Les variables aléatoires X1 , . . . , Xn sont indépendantes donc, par transfert
d’indépendance, les variables tX1 , . . . , tXn sont également indépendantes.

n
De plus, on a tSn = tXk . Alors d’après la proposition 12 de la page 683, tSn est aussi
k=1
d’espérance finie et :
  
n
 
E tSn = E t Xk .
k=1

Autrement dit, GSn (t) est défini et :


n

GSn (t) = GXk (t).
k=1

702
Exercices

S’entraîner et approfondir
Espérance, variance, covariance
17.1 Soit n ∈ IN∗ . On considère une suite (Xk )k∈IN∗ de variables aléatoires discrètes i.i.d., de
→682
loi uniforme sur [[1, n]] . On cherche à calculer le nombre moyen de tirages nécessaires pour
obtenir tous les numéros de 1 à n .
1. Pour 1  k  n , on note Tk le nombre de tirages nécessaires pour obtenir k numéros
distincts et l’on pose Z1 = T1 et Zk = Tk − Tk−1 pour 2  k  n .
Montrer que les variables aléatoires Zk pour 2  k  n suivent une loi géométrique dont
on précisera le paramètre.
2. En déduire l’espérance de Tn .

17.2 Soit X et Y deux variables aléatoires discrètes. Démontrer que X et Y sont indépendantes
→683
si, et seulement si, pour toutes fonctions f et g , définies respectivement sur X(Ω) et Y (Ω)
à valeurs complexes, bornées, on a :
     
E f (X)g(Y ) = E f (X) E g(Y ) .

17.3 1. Soit X et Y dans L2 (Ω, A, P) . À quelle condition a-t-on égalité dans l’inégalité de
Cauchy-Schwarz, c’est-à-dire E(XY )2 = E(X 2 )E(Y 2 ) ?
→684

1
2. Soit X une variable discrète réelle strictement positive. Montrer que E(X)E X
 1.
Étudier les cas d’égalité.

17.4 Soit (Xn )n∈IN∗ une suite de variables de Bernoulli de paramètre p ∈ ]0, 1[ , indépendantes.
→686
On pose q = 1 − p . On dit que la première série est de longueur n si les premières épreuves
ont donné le même résultat et la (n + 1) -ième un résultat différent. De même la deuxième
série commence à l’épreuve qui suit la dernière épreuve de la première série et s’arrête avant
le changement suivant. On note L1 et L2 respectivement la longueur de la première et de
la seconde série.
(p − q)2
Démontrer que Cov(L1 , L2 ) = − ·
pq

17.5 Soit X et Y dans L2 (Ω, A, P) .


→686
1. Montrer que Cov(X, Y )2  V(X)V(Y ) .
2. Montrer que, si V(X) �= 0 , l’égalité Cov(X, Y )2 = V(X)V(Y ) est obtenue si, et seulement
s’il existe (a, b) ∈ IR2 tel que Y = aX + b presque sûrement.

17.6 Soit X1 , . . . , Xn des variables aléatoires discrètes appartenant à L2 .


→686  
On considère la matrice M = Cov(Xi , Xj ) 1i,jn
∈ Mn (IR) .

1. Montrer que M ∈ Sn+ (IR) .


2. Montrer que M ∈ Sn++ (IR) si, et seulement s’il n’existe pas de relation affine de la
forme z1 X1 + · · · + zn Xn = b (où (z1 , . . . , zn , b) ∈ IRn+1 et (z1 , . . . , zn ) �= 0 ) presque
sûre entre les variables X1 , . . . , Xn .

703
Chapitre 17. Espérance — Variance

17.7 Formule du crible


1. Soit A1 , . . . , An des événements d’un espace probabilisé (Ω, A, P) .

n
Montrer que 1A1 ∪···∪An = 1 − (1 − 1Ai ) . En déduire la formule du crible :
i=1
  

n  n
 
k−1
P Ai = (−1) P Ai .
i=1 k=1 I⊂[[1,n]] i∈I
card (I)=k

2. Soit n ∈ IN∗ et (Xk )k∈IN∗ une suite de variables aléatoires i.i.d. de loi uniforme sur [[1, n]] .
On note X la variable aléatoire égale au nombre de tirages nécessaires pour obtenir
tous les numéros entre 1 et n au moins une fois (et à +∞ si on n’obtient jamais les n
numéros). Pour j ∈ [[1, n]] et m ∈ IN , on note Bj,m l’événement : « au bout de m tirages,
le numéro j n’est pas encore apparu ».
(a) Calculer P(Bj1 ,m ∩ · · · ∩ Bjk ,m ) , où j1 , . . . , jk sont des indices distincts entre 1 et n .
n
   m
n n−k
(b) En déduire que P(X > m) = (−1)k−1 .
k n
k=1
Calculer lim P(X > m) . Interpréter.
m→+∞
n
n

(c) Montrer que E(X) = n (−1)k−1 k
·
k
k=1
 1 1

(d) Montrer que E(X) = n 1 + + ··· + ·
2 n

17.8 On considère une suite (Xn )n∈IN∗ une suite i.i.d. de variables de Bernoulli de para-
mètre p ∈ ]0, 1[ . On se donne un entier r ∈ IN∗ . Pour n ∈ IN∗ , on note An l’événement « au
cours des n premières épreuves, on a obtenu r 1 consécutifs (au moins une fois) » et Πn sa
probabilité.
1. (a) Donner les valeurs de Π0 , Π1 , . . . , Πr .
(b) Montrer que, pour n  r , on a Πn+1 = Πn + (1 − Πn−r )pr (1 − p) .
(c) Montrer que la suite (Πn )n∈IN est convergente. Calculer sa limite.
2. Soit T la variable aléatoire discrète égale au temps d’attente de r 1 consécutifs. On
a donc T = k si k est le plus petit des entiers n tels que Xn−r+1 = . . . = Xn = 1
et T = +∞ si l’on n’obtient jamais r 1 consécutifs.
(a) Déduire de la question 1 que P(T = +∞) = 0 .
(b) Montrer en utilisant la proposition 1 de la page 678 que :
1 − pr
E(T ) = ·
(1 − p)pr

17.9 Soit X une variable aléatoire discrète positive, d’espérance finie.


1
Montrer que P(X  x) = o x
, quand x tend vers +∞ .
Indication. Commencer par le cas où X(Ω) ⊂ IN .

704
Exercices


⋆⋆ 17.10 Soit (En )n∈IN une suite d’événements de (Ω, A, P) . On suppose que P(En ) converge.

+∞
1. Soit Z = 1En (on convient que Z = +∞ si la série diverge). Prouver que Z est une
n=0
variable aléatoire discrète.
2. Montrer que P(Z = +∞) = 0 .
3. Montrer que Z est d’espérance finie.

17.11 On lance une pièce de monnaie (la probabilité d’obtenir pile étant p ∈ ]0, 1[ ) jusqu’à l’ob-
tention du premier pile. Soit N la variable aléatoire représentant le nombre de lancers né-
cessaire. Si N = n , on relance ensuite n fois la pièce et l’on appelle X la variable aléatoire
représentant le nombre de piles obtenu.
1. Déterminer la loi de N , celle du couple (N, X) , puis la loi de X .
2. Montrer que X a même loi que le produit de deux variables indépendantes Y et Z telles
que Y suive une loi de Bernoulli et Z une loi géométrique de même paramètre.
3. En déduire l’espérance et la variance de X .

⋆⋆ 17.12 Fonction caractéristique


 
Soit X une variable aléatoire discrète réelle. On pose, pour t ∈ IR , ΦX (t) = E eitX . La
fonction ΦX est appelée fonction caractéristique de la variable aléatoire X .
1. Montrer que ΦX est définie et continue sur IR .
2. On suppose que X est dans L2 . Montrer que ΦX est de classe C 2 et exprimer E(X)
et V(X) à l’aide de ΦX .
3. On suppose que X est à valeurs dans ZZ . Montrer que :
 2π
1
∀k ∈ ZZ P(X = k) = ΦX (t)e−itk dt.
2π 0
En déduire que la fonction ΦX caractérise la loi de X .

Inégalités probabilistes
17.13 Inégalité de Kolmogorov
Soit X1 , . . . , Xn des variables aléatoires réelles discrètes, indépendantes, appartenant à L2 ,
centrées, ainsi que a ∈ IR∗+ . On pose, pour tout i ∈ [[1, n]] :
     
Si = X1 + · · · + Xi , Bi = |S1 | < a ∩ · · · ∩ |Si−1 | < a ∩ |Si |  a .
1. Montrer que, pour i ∈ [[1, n]] , les variables Si 1Bi et Sn − Si sont indépendantes. En
déduire que :
     
E Sn2 1Bi = E Si2 1Bi + E (Sn − Si )2 1Bi  a2 P(Bi ).
 
2. On pose C = sup(|S1 |, . . . , |Sn |)  a .

n
(a) Montrer que P(C) = P(Bi ) .
i=1
(b) En déduire l’inégalité de Kolmogorov :
V(Sn )
P(C)  ·
a2

705
Chapitre 17. Espérance — Variance

⋆ 17.14 1. Montrer :
1 − x −t 1 + x t
∀x ∈ [−1, 1] ∀t ∈ IR etx  e + e.
2 2
2. Soit X une variable aléatoire centrée telle que |X|  1 et t ∈ IR . Montrer que etX est
  t2
d’espérance finie et que E etX e 2 .

3. Soit (Xn )n∈IN∗ une suite de variables aléatoires discrètes indépendantes, centrées
et (cn )n∈IN∗ une suite de réels positifs, telles que |Xn |  cn , pour tout n ∈ IN∗ .

n
Soit n ∈ IN∗ . On note Sn = Xk . Montrer que :
k=1
 n 
1
P(|Sn | > ε)  2 exp c2k − ε .
2
k=1

17.15 Une action vaut initialement 1 euro. À chaque instant n  1 , sa valeur est multipliée par
une quantité aléatoire Zn . On suppose que les variables Zn sont indépendantes et de même
loi, telles que :
1
P(Zn = 1 + a) = P(Zn = 1 − a) = avec a ∈ ]0, 1[.
2
On note Xn la valeur de l’action à l’instant n et l’on pose Yn = ln(Zn ) . On définit, pour
tout entier naturel non nul n , la variable :
Y1 + · · · + Yn
Yn = ·
n
1. Calculer, pour tout n  0 , l’espérance et la variance de Xn . Déterminer la limite
de V(Xn ) quand n tend vers l’infini.
2. Montrer qu’il existe δ > 0 tel que :
 
lim P Yn > −δ = 0.
n→+∞

3. En déduire que pour tout ε > 0 :


lim P(Xn > ε) = 0.
n→+∞

⋆ 17.16 On dispose de n urnes et de N = na boules, où a et n sont des entiers naturels non


nuls. Ces boules sont réparties de façon indépendante et équiprobable entre les urnes. On
Yn
nomme Yn la variable aléatoire donnant le nombre d’urnes vides et Sn = ·
n
1. Calculer E(Sn ) et V(Sn ) .
2. Montrer :
∀ε > 0 lim P(|Sn − e−a |  ε) = 0.
n→+∞

Fonctions génératrices
17.17 Soit ℓ , m et n des entiers naturels non nuls tels que n = ℓm , ainsi que X et Y des variables
→692
aléatoires indépendantes à valeurs dans IN ; on pose Z = X + Y . On suppose que X suit la
loi uniforme sur [[0, ℓ − 1]] et que Z suit la loi uniforme sur [[0, n − 1]] .
Déterminer la fonction génératrice de Y . En déduire la loi de Y .

706
Exercices

17.18 Dans une salle de cinéma, il arrive X personnes souhaitant voir le film. On suppose que X
suit la loi géométrique de paramètre p . La capacité de la salle est de n places. On note Y
le nombre de personnes ne pouvant entrer dans la salle.
1. Déterminer la loi de Y .
2. Déterminer la fonction génératrice de Y .
3. Calculer l’espérance de Y .

⋆⋆ 17.19 Soit n ∈ IN∗ . On désigne par Ω l’ensemble des permutations de [[1, n]] que l’on munit de la
probabilité uniforme. Pour σ ∈ Ω et i ∈ [[1, n]] , on dit que σ(i) est un maximum provisoire
de σ si :
 
σ(i) = max σ(1), σ(2), . . . , σ(i) .
On désigne par Xn la variable aléatoire représentant le nombre de maximums provisoires des
permutations de [[1, n]] . Pour 1  k  n , on note Zk la variable indicatrice de l’événement
« σ(k) est un maximum provisoire ».
1. Déterminer la loi de Zk pour tout k ∈ [[1, n]] .
2. On admet que les variables Z1 , . . . , Zn sont indépendantes.
(a) Déterminer E(Xn ) et V(Xn ) (sous forme de sommes) et un équivalent de E(Xn ) et
de V(Xn ) quand n tend vers +∞ .
(b) Déterminer la fonction génératrice gn de Xn .
En déduire P(Xn = 1) , P(Xn = 2) et P(Xn = n) .
3. Montrer que les variables Z1 , . . . , Zn sont indépendantes.

⋆ 17.20 Somme aléatoire de variables aléatoires


Soit (Xn )n1 une suite de variables aléatoires discrètes à valeurs dans IN , de même loi,
et N une variable aléatoire à valeurs dans IN . On suppose que N et les variables Xn ,
pour n ∈ IN∗ , forment une suite de variables aléatoires indépendantes. On pose :
n

S0 = 0 et ∀n ∈ IN∗ Sn = Xk
k=1

et l’on définit SN : Ω −→ IN .
ω �−→ SN(ω) (ω)
1. Montrer que SN est une variable aléatoire.
2. Montrer que GSN = GN ◦ GX1 sur [0, 1] .
3. Montrer que, si X1 et N sont d’espérance finie, alors SN est d’espérance finie et vérifie
la première formule de Wald :
E(SN ) = E(X1 ) E(N ).

4. Montrer que, si X1 et N sont dans L2 , alors SN ∈ L2 et vérifie la seconde formule


de Wald :
V(SN ) = V(X1 ) E(N ) + E(X1 )2 V(N ).

707
Chapitre 17. Espérance — Variance

17.21 Marche aléatoire dans Z Z : premier retour à l’origine


Soit p ∈ ]0, 1[ et (Xn )n∈IN∗ une suite de variables aléatoires discrètes i.i.d. dont la loi est
définie par :
P(Xn = 1) = p et P(Xn = −1) = 1 − p.
n

On pose S0 = 0 et, pour tout n ∈ IN∗ , Sn = Xk .
k=1
La suite (Sn ) est appelée marche aléatoire dans Z Z . On peut imaginer un mobile partant
de l’origine et se déplaçant à chaque instant (entier) de ±1 , les déplacements successifs étant
indépendants. Alors Sn représente la position du mobile au bout de n déplacements.
1. (a) Déterminer un = P(Sn = 0) , pour tout n ∈ IN .

(b) On note f (x) la somme de la série entière un xn . Montrer que :

1
∀x ∈ ]−1, 1[ f (x) =  ·
1 − 4p(1 − p)x2

2. Pour tout entier naturel non nul k , on note Ak l’événement « le mobile retourne pour la
première fois à l’origine au bout n déplacements », c’est-à-dire :
 k−1
 
Ak = {Sk = 0} ∩ {Si �= 0} .
i=1

On pose vk = P(Ak ) , pour tout k  1 et v0 = 0 .


(a) Montrer que, pour tout entier naturel n non nul, on a :
n

P(Sn = 0) = P ({Sn = 0} ∩ Ak ) .
k=1


n

(b) En déduire que, pour tout entier naturel non nul n , on a un = un−k vk .
k=0

3. On note g(x) la somme de la série entière vn xn .
(a) Montrer que le rayon de la série entière définissant g(x) est supérieur ou égal à 1 .
Montrer que :
f (x) − 1 
∀x ∈ ]−1, 1[ g(x) = = 1 − 1 − 4p(1 − p)x2 .
f (x)
(b) Déterminer la probabilité de l’événement A : « il existe n ∈ IN∗ tel que Sn = 0 ».
1
On suppose dans le reste de l’exercice que p = ·
2
4. (a) Soit T la variable aléatoire égale au premier indice n non nul pour lequel l’événe-
ment {Sn = 0} est réalisé, si un tel indice existe, et +∞ sinon.
Montrer que P(T = +∞) = 0 .
 

2 2n−2
n−1
(b) Montrer que pour tout n ∈ IN , on a v2n = ·
n4n
(c) La variable T est-elle d’espérance finie ?

708
Solutions des exercices

Solutions des exercices


17.1 1. Soit k ∈ [[2, n]] et (i, j) ∈ (IN∗ )2 . Si P(Tk−1 = i) �= 0 , on a :
P(Zk = j | Tk−1 = i) = P(Tk − Tk−1 = j | Tk−1 = i) = P(Tk = i + j | Tk−1 = i).
Si {Tk−1 = i} est réalisé, les variables aléatoires X1 , . . . , Xi−1 ont donné k − 2 valeurs
différentes et Xi une valeur différente des k − 2 précédentes. Alors {Tk = i + j} est
réalisé si, et seulement si, :
• les variables aléatoires Xi+1 , . . . , Xi+j−1 redonnent l’une des k − 1 valeurs déjà ob-
k−1
tenues, ce qui, pour chaque variable aléatoire, se fait avec la probabilité ;
n
• Xi+j donne une valeur différente des précédentes, ce qui se fait avec une probabi-
k−1
lité 1 − ·
n
Par indépendance des variables aléatoires Xi+1 , . . . , Xi+j , on obtient :
   
k − 1 j−1 k−1
P(Zk = j | Tk−1 = i) = 1− ·
n n

Ce résultat ne dépend pas de i , donc pour tout j ∈ IN , on a :
+∞

P(Zk = j) = P(Zk = j | Tk−1 = i)P(Tk−1 = i)
i=1

 j−1   +∞
k−1 k−1 
= 1− P(Tk−1 = i)
n n
i=1
 k − 1 j−1  k−1

= 1− ·
n n
n−k+1
La variable Zk suit la loi géométrique de paramètre ·
n

n
2. On a Tn = Zk . La variable aléatoire Z1 = T1 est la variable certaine égale à 1 .
k=1
n
Pour 2  k  i , on a E(Zk ) = ·
n−k+1
Comme la formule est valable pour k = 1 , on obtient :
n n n
  n 1
E(Tn ) = E(Zk ) = =n ·
n−k+1 j
k=1 k=1 j=1

17.2 Si f et g sont bornées, les variables aléatoires f (X) , g(Y ) et f (X)g(Y ) sont bornées, donc
sont d’espérance finie.
• Si X et Y sont indépendantes, il en est de même de f (X) et g(Y ) , par transfert
d’indépendance, et l’égalité découle directement du théorème 11 de la page 683.
     
• Réciproquement supposons que E f (X)g(Y ) = E f (X) E g(Y ) , pour toutes fonc-
tions f et g bornées.
Soit (x, y) ∈ X(Ω) × Y (Ω) . Prenons f = 1{x} et g = 1{y} . On a alors :
f (X) = 1{X=x}, g(Y ) = 1{Y =y} et f (X)g(Y ) = 1{X=x}∩{Y =y} .
L’hypothèse se traduit par P(X = x, Y = y) = P(X = x)P(Y = y) . Cela est vrai pour
tout (x, y) ∈ X(Ω) × Y (Ω) , ce qui établit l’indépendance de X et Y .

709
Chapitre 17. Espérance — Variance

17.3 1. • Si X est presque sûrement nulle, on a E(XY )2 = E(X 2 )E(Y 2 ) = 0 .


• Sinon, l’égalité E(XY )2 = E(X 2 )E(Y 2 ) équivaut à la nullité du discriminant de
 
la fonction trinôme λ �→ E (λX + Y )2 , c’est-à-dire à l’existence de λ ∈ IR tel
 
que E (λX + Y )2 = 0 . Cette dernière condition est réalisée si, et seulement si, on
a Y = −λX presque sûrement.
On conclut qu’il y a égalité dans l’inégalité de Cauchy-Schwarz si, et seulement si :
P(X = 0) = 1 ou ∃α ∈ IR P(Y = αX) = 1,
c’est-à-dire si, et seulement si, X et Y sont presque sûrement proportionnelles.
1
2. On suppose que X et sont d’espérance finie sinon l’inégalité est évidente. On applique
X

l’inégalité de Cauchy-Schwarz aux variables X et √1X qui sont dans L2 . On obtient :
  1
√ 1
1=E X√  E(X)E ·
X X
Le cas d’égalité correspond à l’égalité dans l’inégalité de Cauchy-Schwarz, c’est-à-dire

d’après la première question à X et √1X presque sûrement proportionnelles, soit encore
à X presque sûrement constante.

17.4 • Pour (m, n) ∈ (IN∗ )2 , on a :


{L1 = m, L2 = n}
 
= {X1 = · · · = Xm = 1} ∩ {Xm+1 = · · · = Xm+n = 0} ∩ {Xm+n+1 = 1}
 
∪ {X1 = · · · = Xm = 0} ∩ {Xm+1 = · · · = Xm+n = 1} ∩ {Xm+n+1 = 0}
et donc :
P(L1 = m, L2 = n) = pm+1 q n + q m+1 pn .
On en déduit, pour tout m ∈ IN∗ :
+∞ +∞
   
P(L1 = m) = P(L1 = m, L2 = n) = pm+1 q n + q m+1 pn
n=1 n=1
q p
= pm+1 + q m+1 = qpm + pq m .
1−q 1−p
On trouve de même que, pour tout n ∈ IN∗ :
P(L2 = n) = p2 q n−1 + q 2 pn−1 .
+∞ +∞
 
On vérifie au passage que P(L1 = m) = P(L2 = n) = 1 , ce qui montre que L1
m=1 n=1
et L2 sont bien des variables aléatoires à valeurs dans IN∗ , définies presque sûrement.
• On calcule l’espérance de L1 et de L2 . On obtient :
+∞ +∞ +∞
  
E(L1 ) = m(qpm + pq m ) = p mpm−1 q + q mq m−1 p.
m=1 m=1 m=1

On reconnaît dans les deux sommes l’espérance de variables géométriques de paramètres q


et p respectivement. On obtient :
p q
E(L1 ) = + ·
q p

710
Solutions des exercices

On trouve de même :
p q
E(L2 ) = + = 2.
p q
• On a :

E(L1 L2 ) = mnP(L1 = m, L2 = n)
(m,n)∈(IN∗ )2

= mn(pm+1 q n + q m+1 pn )
(m,n)∈(IN∗ )2

+∞  
+∞  
+∞  
+∞ 
m+1 n m+1 n
= mp nq + mq np ·
m=1 n=1 m=1 n=1

On reconnaît dans chaque terme, à une constante près, l’espérance d’une variable suivant
une loi géométrique. On obtient :
p q q p 1 1
E(L1 L2 ) = + = + ·
q p2 p q2 q p
Finalement, on a :

1 1 2p 2q −(p + q) + 2p2 + 2q 2
Cov(L1 , L2 ) = E(L1 L2 ) − E(L1 ) E(L2 ) = + − − =−
q p q p pq
et donc, puisque p + q = 1 :

−(p + q)2 + 2p2 + 2q 2 (p − q)2


Cov(L1 , L2 ) = − =− ·
pq pq

17.5 1. • Supposons V(X) = 0 .


On sait qu’alors X est presque sûrement constante (cf. exemple 12 de la page 685).
Elle est donc indépendante de Y . On a donc Cov(X, Y ) = 0 , ce qui donne le résultat.
• Supposons V(X) > 0 . Soit f la fonction définie sur IR par λ �→ V(λX + Y ) . On a,
pour tout réel λ :

f (λ) = λ2 V(X) + 2 λ Cov(X, Y ) + V(Y ).

Pour tout λ , on a f (λ)  0 . La fonction trinôme f garde un signe constant donc son
 
discriminant est négatif. On obtient ∆ = 4 (Cov(X, Y ))2 − V(X)V(Y )  0 ce qui
donne l’inégalité voulue.
2. L’égalité Cov(X, Y )2 = V(X)V(Y ) équivaut à ∆ = 0 et donc à l’existence de λ0 ∈ IR
tel que :
f (λ0 ) = V(λ0 X + Y ) = 0.
On sait qu’une variable aléatoire de L2 est de variance nulle si, et seulement si, elle est
presque sûrement constante.
Ainsi V(λ0 X + Y ) = 0 équivaut à λ0 X + Y est presque sûrement constante, c’est-à-dire
   
à l’existence de b ∈ IR tel que P λ0 X + Y = b = 1 , c’est-à-dire P Y = −λ0 X + b = 1 ,
ce qui est le résultat voulu avec a = −λ0 .

711
Chapitre 17. Espérance — Variance
 
z1
 ..  dans M (IR) . On a, par bilinéarité
17.6 1. La matrice M appartient à Sn (IR) . Soit Z =  . n,1

zn
de la covariance :
� ��
n �
ZT M Z = zi zj Cov(Xi , Xj ) = V zi Xi  0,
1i,jn i=1

donc M ∈ Sn+ (IR) .


2. La matrice M n’appartient pas à Sn++ (IR) si, et seulement si, 0 ∈ sp(M ) . On démontre
donc que 0 ∈ sp(M ) équivaut à l’existence d’une relation affine presque sûre entre les
variables X1 , . . . , Xn .
 
z1
 
• Si 0 ∈ sp(M ) et  ...  est un vecteur propre associé, on obtient :
zn
��
n �
V zi Xi = Z T M Z = 0,
i=1


n
donc zi Xi est presque sûrement constante. Il existe b ∈ IR tel que :
i=1
��
n �
P zi Xi = b = 1.
i=1

• Réciproquement, supposons qu’il existe (z1 , . . . , zn ) ∈ IRn non nul et b ∈ IR tels


� �

n
que P zi Xi = b = 1 . Alors on a, pour tout i ∈ [[1, n]] :
i=1
� n
� � n

0 = Cov(Xi , b) = Cov Xi , zj Xj = Cov(Xi , Xj )zj ,
j=1 j=1

donc 0 est valeur propre de M , un vecteur propre associé étant (z1 , . . . , zn ) .


n
17.7 1. L’application 1 − (1 − 1Ai ) est à valeurs dans {0, 1} . Pour tout ω ∈ Ω , on a :
i=1
n n
� � � �
1− 1 − 1Ai (ω) = 1 ⇐⇒ ∃i ∈ [[1, n]] 1Ai (ω) = 1 ⇐⇒ ω ∈ Ai .
i=1 i=1


n
On en déduit 1 − (1 − 1Ai ) = 1 �
n . En développant, on obtient :
i=1 Ai
i=1
� �
1�
n =1− (−1)card I 1Ai
Ai
I⊂[[1,n]] i∈I
i=1

n
� � �
= (−1)card I−1 1� A = (−1)k−1 1� A .
i i
I⊂[[1,n]] i∈I k=1 I⊂[[1,n]] i∈I
I�=∅ card I=k

712
Solutions des exercices

Sachant que pour tout événement A , on a E(1A ) = P(A) , on en déduit, par linéarité de
l’espérance :

n  n
  
 k−1

P Ai = (−1) P Ai .
i=1 k=1 I⊂[[1,n]] i∈I
card I=k

2. (a) En posant I = {j1 , . . . , jk } , on a :


m

Bj1 ,m ∩ · · · ∩ Bjk ,m = {Xi ∈
/ I}.
i=1

Les variables Xi (pour i ∈ IN∗ ) étant indépendantes, on en déduit :



m  m
n−k
P(Bj1 ,m ∩ · · · ∩ Bjk ,m ) = / I) =
P(Xi ∈ .
n
i=1


n
(b) On a {X > m} = Bj,m . On en déduit en appliquant la formule du crible :
j=1


n   
P(X > m) = (−1)k−1 P Bj,m
k=1 I⊂[[1,n]] j∈I
card I=k

n
   m
n n−k
= (−1)k−1 .
k n
k=1

On en déduit lim P(X > m) = 0 car on a une combinaison linéaire de suites


m→+∞
géométriques de raison appartenant à [0, 1[ . La suite ({X > m}) décroît donc, par
continuité décroissante :
  
0= lim P(X > m) = P {X > m} = P(X = +∞).
m→+∞
m∈IN∗

La variable aléatoire X est presque sûrement à valeurs dans IN∗ .


(c) On a, d’après la proposition 1 de la page 678 :
+∞
 +∞ n
    m
n n−k
E(X) = P(X > m) = (−1)k−1
k n
m=0 m=0 k=1
n
  
+∞  
n n−k m
= (−1)k−1
k n
k=1 m=0


n  
n 1
= (−1)k−1
k 1 − n−k
n
k=1
n
n
 k−1 k
=n (−1) ·
k
k=1
n

n
k−1 k
tk
(d) Pour tout t ∈ [0, 1] , on pose f (t) = n (−1) · La fonction f est dérivable
k=1 k
et pour t ∈]0, 1] , on obtient :
n
   n  
n k−1 n n 1 − (1 − t)n
f ′ (t) = n (−1)k−1 t =− (−t)k = n ·
k t k t
k=1 k=1

713
Chapitre 17. Espérance — Variance

On en déduit :
 1  1  1
1 − (1 − t)n 1 − un
E(X) = f (1) = f ′ (t)dt = n dt = n du
0 0
t 0
1−u
et donc :
n−1   
 1
1 1
E(X) = n uj du = n 1 + +··· + ·
0
2 n
j=0

Remarque
On retrouve par une autre méthode le résultat de l’exercice 17.1 de la page 703.

17.8 1. (a) On a Π0 = Π1 = · · · = Πr−1 = 0 et Πr = pr .


(b) On a clairement An ⊂ An+1 et donc Πn+1 − Πn = P(An+1 \ An ) .
L’événement An+1 \ An est réalisé si, et seulement si, on obtient r 1 consécutifs pour
la première fois comme valeurs de Xn−r+2 , . . . , Xn+1 , ce qui impose que Xn−r+1 = 0
et que l’on n’ait pas obtenu r succès consécutifs auparavant. On a donc :
An+1 \ An = An−r ∩ {Xn−r+1 = 0} ∩ {Xn−r+2 = 1} ∩ · · · ∩ {Xn+1 = 1}.
L’événement An−r ne dépend que X1 , . . . , Xn−r . Il est donc de la
forme {(X1 , . . . , Xn−r ) ∈ C} , où C ⊂ IRk . Par le lemme des coalitions, la
variable aléatoire (X1 , . . . , Xn−r ) est indépendante de (Xn−r+1 , . . . , Xn+1 ) . On
a donc :
   
Πn+1 − Πn = P An−r P Xn−r+1 = 0, Xn−r+2 = 1, . . . , Xn+1 = 1
= (1 − Πn−r ) (1 − p) pr .

(c) La suite (Πn )n∈IN est croissante et majorée par 1 donc convergente. On
note L sa limite. Par passage à la limite dans la relation précédente, on ob-
tient L − L = (1 − L)(1 − p)pr , et donc L = 1 , puisque p ∈ ]0, 1[ .
2. (a) Comme la suite (An ) est croissante, on a :
 

P An = lim Πn = 1.
n→+∞
n∈IN∗

Comme An = {T = +∞} , on en déduit que P(T = +∞) = 0 . L’application T
n∈IN∗
est presque sûrement finie.
Pour tout k ∈ IN∗ , on a, par définition {T = k} = Ak \ Ak−1 , donc {T = k} est un
événement et T est bien une variable aléatoire.
(b) Pour tout k ∈ IN , on a {T > k} = Ak et donc P(T > k) = 1 − Πk . D’après la
question 1, on a pour tout k  0 :
Πk+r+1 − Πk+r
1 − Πk = ·
(1 − p)pr
De la proposition 1 de la page 678, on déduit :
+∞
 lim Πn − Πr
Πk+r+1 − Πk+r n→+∞ 1 − pr
E(T ) = = = ·
(1 − p)pr (1 − p)pr (1 − p)pr
k=0

714
Solutions des exercices

17.9 Pour commencer, on suppose X(Ω) ⊂ IN . Pour x > 0 , on a :


+∞ +∞
 
0  x P(X  x) = x P(X = n)  nP(X = n),
n=⌈x⌉ n=⌈x⌉

où ⌈x⌉ est le plus petit entier supérieur ou égal à x . On reconnaît dans le terme de droite une

reste de la série nP(X = n) qui est convergente, puisque X est d’espérance finie. Quand x
tend vers +∞ , ⌈x⌉ tend aussi vers +∞ , donc le reste tend vers 0 . Ainsi, xP(X  x) tend
vers 0 , ce qui est le résultat voulu.
Dans le cas général, on considère la variable aléatoire Y = ⌊X⌋ + 1 , à valeurs dans IN , qui
vérifie l’inégalité X  Y . Soit x > 0 . On a {X  x} ⊂ {Y  x} et donc :
0  x P(X  x)  x P(Y  x).
D’après ce qui précède, xP(Y  x) tend vers 0 quand x tend vers +∞ , donc a for-
tiori xP(X  x) tend vers 0 .

17.10 1. L’application Z est à valeurs dans IN ∪ {+∞} , ensemble dénombrable.


• Soit n ∈ IN . Pour tout ω ∈ Ω , on a Z(ω) = n si, et seulement si, ω appartient
exactement à n des ensembles Ek (pour k ∈ IN ). On a donc :
     
{Z = n} = Ek ∩ Ek ,
I∈Pn (IN) k∈I k∈IN\I

où Pn (IN) est l’ensemble des parties de IN de cardinal n .


   
 
Pour tout I ∈ Pn (IN) , Ek ∩ Ek est un événement, car c’est l’inter-
k∈I k∈IN\I
section d’une famille dénombrable d’événements.

D’autre part, on peut écrire Pn (IN) = Pn ([[0, N ]]) , où Pn ([[0, N ]]) est l’ensemble
N∈IN
des parties de cardinal n de [[0, N ]] . Donc Pn (IN) est dénombrable, car infini et
réunion dénombrable d’ensembles finis.
Enfin, {Z = n} est un événement, car réunion dénombrable d’événements.
• D’autre part {Z = +∞} est l’ensemble des éléments de Ω qui appartiennent à une
infinité d’ensembles Ek ( k ∈ IN ). On a (cf. exemple 6 de la page 602) :
 
{Z = +∞} = Ep
n∈IN pn

donc {Z = +∞} est un événement.


Par conséquent, {Z = x} est un événement, pour tout x ∈ Z(Ω) , donc Z est une variable
aléatoire discrète.

2. La série P(En ) converge. Il résulte du premier lemme de Borel-Cantelli (cf. exemple 10
de la page 605) que :
  
P Ep =0 c’est-à-dire P(Z = +∞) = 0.
n∈IN pn

3. Comme Z  0 , elle possède une espérance dans [0, +∞] . Pour tout n ∈ IN , po-

n 
n 
n
sons Zn = 1Ei . On a alors E(Zn ) = E(1Ei ) = P(Ei ) .
i=0 i=0 i=0

715
Chapitre 17. Espérance — Variance

Les variables Zn sont à valeurs dans IN . D’après la proposition 1 de la page 678, on a,



+∞ 
+∞
pour tout n ∈ IN , E(Zn ) = P(Zn > k) et E(Z) = P(Z > k) .
k=0 k=0

Soit k ∈ IN . La suite (Zn ) converge simplement vers Z sur Ω . Soit ω ∈ Ω . Si Z(ω) > k
alors, pour n assez grand, on a Zn (ω) > k . On a donc :

{Z > k} ⊂ {Zn > k}.
n∈IN

Comme la suite {Zn > k})n∈IN est croissance (car (Zn ) est croissante), on a, par
continuité croissante :
 
P(Z > k)  P {Zn > k} = lim P(Zn > k).
n→+∞
n∈IN

Pour tout N ∈ IN , on a donc :


N +∞
 N
 
P(Z > k)  lim P(Zn > k)  lim E(Zn ) = P(Ei ).
n→+∞ n→+∞
k=0 k=0 i=0

Cela est valable pour tout N ∈ IN , donc Z est d’espérance finie et :


+∞

E(Z)  P(Ei ).
i=0


n
Mais d’autre part, on a Z  Zn et donc E(Z)  E(Zn ) = P(Ei ) pour tout n ∈ IN .
i=0

+∞ +∞ 
Par passage à la limite, on obtient E(Z)  P(Ei ) et donc E(Z) = P(Ei ) .
i=0 i=0

17.11 1. La variable N suit la loi géométrique de paramètre p . Pour n ∈ IN∗ , la loi condi-
tionnelle de X sachant {N = n} est la loi binomiale B(n, p) . On a donc, pour
tout (n, k) ∈ IN∗ × IN :
P(N = n, X = k) = P(N = n) P(X = k | N = n)
n
pk+1 (1 − p)2n−k−1 si kn
= k
0 si k > n.
Pour k ∈ IN , on en déduit P(X = k) , en sommant sur n (avec n  k et n  1 ).
• Pour tout k ∈ IN∗ , on a :
+∞  
 n
P(X = k) = pk+1 (1 − p)2n−k−1
k
n=k
+∞
pk+1 (1 − p)k−1  n!
= (1 − p)2(n−k) .
k! (n − k)!
n=k

On a, pour tout x ∈ ]−1, 1[ :


+∞
 n! dk
 1  k!
xn−k = = ·
(n − k)! dxk 1−x (1 − x)k+1
n=k

716
Solutions des exercices

On en déduit :
pk+1 (1 − p)k−1 k! (1 − p)k−1
P(X = k) = = ·
k! (1 − (1 − p)2 )k+1 (2 − p)k+1
• On a :
+∞
 p(1 − p) 1−p
P(X = 0) = p(1 − p)2n−1 = = ·
1 − (1 − p)2 2−p
n=1

2. Soit p′ ∈ ]0, 1[ . On considère deux variables aléatoires X et Y , indépendantes, Y suivant


une loi de Bernoulli de paramètre p′ et Z suivant une loi géométrique de paramètre p′ .
La variable aléatoire Y Z est à valeurs dans IN . On a :
• P(Y Z = 0) = P(Y = 0) = 1 − p′ ;
2
• pour k ∈ IN∗ , P(Y Z = k) = P(Y = 1, Z = k) = p′ (1 − p′ )k−1 .
1
On voit que X et Y Z ont même loi si, et seulement si, p′ = ·
2−p
3. On a, puisque Y et Z sont indépendantes :
1
E(X) = E(Y Z) = E(Y )E(Z) = p′ = 1.
p′

On a, de même, par indépendance de Y 2 et Z 2 :


 
E(X 2 ) = E(Y 2 Z 2 ) = E(Y 2 )E(Z 2 ) = E(Y ) V(Z) + E(Z)2
 
1 − p′ 1 2 − p′
= p′ + ′2 = = 3 − 2p.
p′ 2 p p′
On en déduit V(X) = 2(1 − p) .

17.12 1. Pour tout t ∈ IR , on a |eitX | = 1 : la variable eitX est bornée donc d’espérance finie,
donc ΦX (t) est définie.
Soit D un ensemble dénombrable tel que X(Ω) ⊂ D (si X(ω) est finie, on prend par
exemple D = X(Ω) ∪ IN ) que l’on écrit D = {xn | n ∈ IN} . On a alors, pour tout t ∈ IR ,

ΦX (t) = eitxn P(X = xn ),
n∈IN

car si x �∈ X(Ω) , alors P(X = xn ) = 0 .


On considère pour tout ∈ IN , la fonction un : t �→ eitxn P(X = xn ) . Les fonctions un
sont continues sur IR . D’autre part, pour tout t ∈ IR , on a |un (t)| = P(X = xn ) .
 
Comme P(X = xn ) converge, la série de fonctions un converge normalement sur IR .
Donc ΦX est continue sur IR .
2. On a, pour tout réel t et tout n ∈ IN :
u′n (t) = ixn eitxn P(X = xn ) et u′′n (t) = −x2n eitxn P(X = xn ).
On en déduit :
|u′n (t)| = |xn |P(X = xn ) et |u′′n (t)| = x2n P(X = xn ).
Comme X ∈ L2 , les variables aléatoires X et X 2 sont d’espérance finie donc les sé-
  2  ′
ries |xn |P(X = xn ) et xn P(X = xn ) convergent. Les séries de fonctions un
 ′′
et un convergent donc normalement sur IR .

717
Chapitre 17. Espérance — Variance

Du théorème de dérivation des séries de fonctions on déduit que ΦX est de classe C 2


et que :
 
∀t ∈ IR Φ′X (t) = ixn eitxn P(X = xn ) et Φ′′X (t) = − x2n eitxn P(X = xn ).
∈IN ∈IN

On a, en particulier : Φ′X (0) =i xn P(X = xn ) = iE(X) et Φ′′X (0) = −E(X 2 ) . On en
∈IN
déduit :
 2
E(X) = −iΦ′X (0) et V(X) = −Φ′′X (0) + Φ′X (0) .
3. Dans cette question D = ZZ . On a :
 2π  2π    2π
−itk it(xn −k)
ΦX (t)e dt = P(X = xn )e = P(X = xn ) eit(xn −k) dt,
0 0 n∈IN n∈IN 0

 it(xn −k)
car la série P(X = xn )e converge uniformément par rapport à t . Pour
 2π
tout j ∈ ZZ∗ , on a eitj dt = 0 . Comme xn ∈ ZZ , pour tout n ∈ IN , il ne reste qu’un
0
 2π
terme non nul dans la somme, pour xn = k . On a donc ΦX (t)e−itk dt = 2πP(X = k) .
0
Connaissant la fonction ΦX , on peut calculer P(X = k) pour tout k ∈ ZZ , donc la
fonction ΦX détermine la loi de X .

17.13 1. On a, pour i ∈ [[1, n]] :


Bi = {|S1 | < a} ∩ · · · ∩ {|Si−1 | < a} ∩ {|Si |  a},
donc Si 1Bi est une fonction des variables aléatoires X1 , . . . , Xi . D’autre part, on
n

a Sn −Si = Xk , donc Sn −Si est une fonction des variables aléatoires Xi+1 , . . . , Xn .
k=i+1
Les variables aléatoires X1 , . . . , Xn étant indépendantes, il en est de même de Si 1Bi
et Sn − Si , d’après le lemme des coalitions.
Les variables aléatoires Xi sont dans L2 , donc il en est de même des variables aléa-
toires Si . Les variables aléatoires Sn2 1Bi , Si2 1Bi et (Sn − Si )2 1Bi ont une espérance
finie, car, elles sont positives et inférieures respectivement à Sn2 , Si2 et (Sn − Si )2 , qui
ont une espérance finie. On a, par linéarité de l’espérance :
   
E Sn2 1Bi − E Si2 1Bi = E ((Sn − Si )(Sn + Si ) 1Bi )
 
= E (Sn − Si )2 1Bi + 2E ((Sn − Si )Si 1Bi ) .

Les variables aléatoires Si 1Bi et Sn − Si sont indépendantes donc :


E ((Sn − Si )Si 1Bi ) = E (Si 1Bi ) E(Sn − Si ) = 0,
n

car E(Sn − Si ) = E(Xk ) = 0 . On a donc l’égalité voulue.
k=i+1

Soit ω ∈ Ω .
• Si ω ∈ Bi , alors Si2 (ω) 1Bi (ω) = Si2 (ω)  a2 1Bi (ω) .
/ Bi , alors Si2 (ω) 1Bi (ω) = a2 1Bi (ω) = 0 .
• Si ω ∈

718
Solutions des exercices

On a donc Si2 1Bi  a2 1Bi , d’où l’on déduit, par croissance de l’espérance :
 
E Si2 1Bi  a2 E (1Bi ) = a2 P(Bi ).
 
Comme E (Sn − Si )2 1Bi  0 , car c’est l’espérance d’une variable positive, on a a
 
fortiori E Sn2 1Bi 2
 a P(Bi ) .
2. (a) On a :
C = B1 ∪ · · · ∪ Bn .
Les événements B1 , . . . , Bn étant incompatibles, on en déduit :
n

P(C) = P(Bi ).
i=1

(b) De la question 1, on déduit :


n
 n

1   2  1 
P(C)  2 E Sn 1Bi  2 E Sn2 1Bi .
a a
i=1 i=1
 

n 
n  
Mais 1Bi = 1C  1 , donc E Sn2 1Bi  E Sn2 = V(Sn ) , car E(Sn ) = 0 .
i=1 i=1
On obtient :
V(Sn )
P(C)  ·
a2

1−x 1+x
17.14 1. Soit x ∈ [−1, 1] et t ∈ IR . On remarque que (−t) + t = xt .
2 2
1−x 1+x
Comme et sont deux réels positifs, de somme 1 , on obtient par convexité
2 2
de la fonction exp :
 
1−x 1+x 1 − x −t 1 + x t
etx = exp (−t) + t  e + e.
2 2 2 2
2. Comme |X|  1 , on a, d’après la première question, pour tout réel t :
1 − X −t 1 + X t
etX 
e + e.
2 2
La variable X est d’espérance finie, donc il en est de même de la variable aléatoire qui
est dans le membre de droite de l’inégalité et, par linéarité, on a :
 
1 − X −t 1 + X t e−t   et  
E e + e = 1 − E(X) + 1 + E(X) = ch(t),
2 2 2 2
car X est centrée. Comme la variable aléatoire etX est positive, on en déduit qu’elle est
 
également d’espérance finie et que E etX  ch(t) .
 t2n
+∞
Mais on a ch(t) = · On remarque que, pour n ∈ IN∗ , on a :
n=0 (2n)!
(2n)! = n! × ((n + 1) × · · · × (2n))  n! 2n ,
car il y a dans le produit n termes supérieurs à 2 . Cela reste vrai pour n = 0 .
On en déduit :
+∞ +∞
 t2 2
 t2n  2 t2
ch(t)  = =e 2 .
n! 2n n!
n=0 n=0
  t2
On a donc E etX  e 2 .

719
Chapitre 17. Espérance — Variance

3. On peut supposer que les ck pour 1  k  n sont non nuls. En effet si ck = 0 ,


alors Xk = 0 et on peut les supprimer des deux membres de l’inégalité.
Xk
On pose Yk = , pour tout k . La variable Yk est centrée et |Yk |  1 , donc on a,
ck
    t2 c2
k
d’après la question 2, E etXk = E etck Yk  e 2 , pour tout réel t . On a :

n  n

etSn = exp tXk = etXk .
k=1 k=1

tXk
Les variables aléatoires e sont indépendantes, car fonctions de variables indépen-
dantes, donc :
n
 n
  n 
 tSn
  tXk
 t2 c2
k t2  2
E e = E e  e 2 = exp ck .
2
k=1 k=1 k=1
 |Sn | ε
  Sn ε
  −Sn

La chaîne d’inclusions e >e ⊂ e >e ∪ e > eε donne :
     
P(|Sn | > ε) = P e|Sn | > e ε
 P eSn > e ε
+ P e−Sn > eε .
On en déduit, en appliquant l’inégalité de Markov :
   
E eSn E e−Sn
P(|Sn | > ε)  + ·
eε eε
 
En appliquant la majoration de E etSn pour t = 1 et t = −1 , on obtient :
 n 
exp 1
2
c2k  n 
k=1 1
P(|Sn | > ε)  2 = 2 exp c2k −ε .
eε 2
k=1

n

17.15 1. Pour n ∈ IN∗ , on a Xn = Zk . Pour tout k  1 , on a E(Zk ) = 1 et, comme les
k=1
variables Zk sont indépendantes :
n

E(Xn ) = E(Zk ) = 1.
k=1

(1 − a)2 + (1 + a)2
Pour tout k  1 , on a E(Zk2 ) = = 1 + a2 . Par indépendance des
2
variables Zk2 , on en déduit :
n

E(Xn2 ) = E(Zk2 ) = (1 + a2 )n puis V(Xn ) = (1 + a2 )n − 1.
k=1

Ainsi, V(Xn ) tend vers +∞ quand n tend vers +∞ .


2. Les variables aléatoires Yk sont finies donc appartiennent à L2 . On obtient par la formule
de transfert :
1  
∀k  1 E(Yk ) = ln(1 − a) + ln(1 + a) = ln 1 − a2 .
2
Les variables Yk sont indépendantes, car fonctions des variables Zk qui sont indépen-

dantes, de même loi, possèdent une espérance finie ln 1 − a2 et une variance finie donc,

720
Solutions des exercices

d’après la loi faible des grands nombres, on a :


   
∀ε > 0 lim P 
Yn − ln 1 − a2   ε = 0.
n→+∞
 √   √  
Comme Yn > ln 1 − a2 + ε ⊂ Yn − ln 1 − a2   ε , on a a fortiori :
  
∀ε > 0 lim P Yn > ln 1 − a2 + ε = 0.
n→+∞
   
On a ln 1− a2 )
< 0 , donc on peut choisir ε ∈ 0, − ln 1 − a2 ) .
√  
On pose alors δ = − ln 1 − a2 −ε . On a bien δ > 0 et P Yn > −δ tend vers 0 quand n
tend vers l’infini.
ln Z1 + · · · + ln Zn ln Xn
3. On remarque que Yn = = · On a donc :
n n
     
Yn > −δ = ln Xn > −nδ = Xn > e−nδ .
Comme lim e−nδ = 0 , il existe n0 ∈ IN∗ tel que, pour n  n0 , on ait e−nδ  ε .
n→+∞

Pour n  n0 , on a {Xn > ε} ⊂ {Xn > e−nδ } et donc :


 
n > −δ .
0  P(Xn > ε)  P Y
On en déduit que P(Xn > ε) tend vers 0 quand n tend vers l’infini.

17.16 1. Numérotons les urnes de 1 à n et considérons pour 1  i  n , la variable Xi indicatrice



n
de l’événement « la i -ème urne est vide ». Il est clair que Yn = Xi .
i=1

L’événement {Xi = 1} est réalisé si, et seulement si, toutes les boules ont été placées
 
n − 1 na
dans l’une des n − 1 autres urnes. On a donc P(Xi = 1) = . Comme Xi suit
n
une loi de Bernoulli, on en déduit :
 na  na   na 
n−1 n−1 n−1
E(Xi ) = et V(Xi ) = 1− .
n n n
Par linéarité de l’espérance, on a :
 
1
n
n − 1 na
E(Sn ) = E(Xi ) = .
n n
i=1

D’autre part, on a :

n
 
1
V(Sn ) = 2 V(Xi ) + 2 Cov(Xi , Xj ) .
n
i=1 1i<jn

Calculons les covariances. Pour i �= j , on a :


   na
n−2
E(Xi Xj ) = P(Xi Xj = 1) = P Xi = 1, Xj = 1 = ,
n
car il faut et il suffit que les na boules soient placées dans les n − 2 urnes restantes.
On a donc :
   
n − 2 na n − 1 2na
Cov(Xi , Xj ) = − .
n n

721
Chapitre 17. Espérance — Variance

Toutes les variances sont égales, ainsi que toutes les covariances. On en déduit :
 
1
V(Sn ) = 2 nV(X1 ) + n(n − 1)Cov(X1 , X2 )
n
 na  2na  na
1 n−1 n−1 n−1 n−2
= − + ,
n n n n n
après simplification.

lim E(Sn ) = lim ena ln(1− n ) = e−a .


1
2. On a
n→+∞ n→+∞
 2na  na
n−1 n−2
De lim = lim = e−2a , on déduit :
n→+∞ n n→+∞ n
lim V(Sn ) = 0.
n→+∞

Soit ε > 0 . Puisque lim E(Sn ) = e−a , il existe n0 ∈ IN∗ tel que, pour tout n  n0 ,
n→+∞

on ait |E(Sn ) − e−a |  ε2 . Pour n  n0 , on a par inégalité triangulaire :


  ε
|Sn − E(Sn )|  |Sn − e−a | − E(Sn ) − e−a   |Sn − e−a | − ·
2
On en déduit :
   ε

|Sn − e−a |  ε ⊂ |Sn − E(Sn )|  .
2
On a donc, pour n  n0 :
    4V(Sn )
ε
P |Sn − e−a |  ε  P |Sn − E(Sn )|   ,
2 ε2
d’après l’inégalité de Bienaymé-Tchebychev. Comme lim V(Sn ) = 0 , on en déduit :
n→+∞

lim P(|Sn − e−a |  ε) = 0.


n→+∞

17.17 Les variables X , Z et Y (car Y  Z ) sont finies, donc leurs fonctions génératrices sont
définies sur IR . Pour tout t ∈ IR \ {1} , on a :
ℓ−1
1 i tℓ − 1 tn − 1
GX (t) = t = et, de même, GZ (t) = ·
ℓ ℓ(t − 1) n(t − 1)
i=0

Les variables X et Y étant indépendantes, on a GZ = GX GY et donc :


m−1
GZ (t) ℓ(tn − 1) tℓm − 1 1  ℓi
∀t ∈ IR \ {1} GY (t) = = = = t ·
GX (t) n(tℓ − 1) m(tℓ − 1) m
i=0

Cette égalité est encore valable pour t = 1 par continuité.


1
On en déduit que P(Y = ℓi) = , pour tout i ∈ [[0, m − 1]] . Ainsi Y suit la loi uniforme
m
sur {0, ℓ, 2ℓ, . . . , (m − 1)ℓ} .

722
Solutions des exercices

17.18 On pose q = 1 − p .
1. On a P(Y = 0) = P(X  n) = 1 − P(X > n) = 1 − q n .
Pour k  1 , on a P(Y = k) = P(X = n + k) = pq n+k−1 .
2. On en déduit, sous réserve d’absolue convergence :
+∞

GY (t) = (1 − q n ) + pq n+k−1 tk .
k=1

q n pt
Ainsi, GY (t) est défini pour |tq| < 1 et GY (t) = 1 − q n + ·
1 − qt
3. Comme 1 ∈ ]−1/q, 1/q[ , la fonction GY est dérivable en 1 , donc Y est d’espérance
finie :
qn p q n pq qn
E(Y ) = G′Y (1) = + = ·
1−q (1 − q)2 p

17.19 1. Soit k ∈ [[1, n]] . Pour construire une permutation σ ∈ {Zk = 1} , on commence par choisir
 
les images par σ des entiers entre 1 et k (il y a nk choix). Alors σ ∈ {Zk = 1} si, et
seulement si, σ(k) est le plus grand de ces k entiers. Les k − 1 autre éléments peuvent
être attribués arbitrairement comme images par σ de 1, . . . , k − 1 , ce qui donne (k − 1)!
choix. Enfin, pour compléter σ , les éléments de [[k + 1, n]] doivent être mis en bijection
avec les n − k éléments restants : il y a (n − k)! choix. On obtient :
 
n card ({Zk = 1}) 1
card ({Zk = 1}) = (k − 1)!(n − k)! et P(Zk = 1) = = ·
k n! k
1
Ainsi Zk suit la loi de Bernoulli de paramètre k
·

n
2. (a) Il est clair que Xn = Zk . On a donc :
k=1
n n
  1
E(Xn ) = E(Zk ) = ·
k
k=1 k=1

De plus, comme Z1 , . . . , Zn sont indépendantes, on a :



n 
n   
n 
n
1 1 1 1
V(Xn ) = V(Zk ) = 1− = − ·
k k k k2
k=1 k=1 k=1 k=1

On a E(Xn ) ∼ ln n et V(Xn ) ∼ ln n quand n tend vers +∞ .



n
(b) De l’indépendance des variables Zk , on déduit gn = hk , où hk est la fonction
k=1
génératrice de Zk . Pour tout réel t , on a :
1 t k−1+t
hk (t) = P(Zk = 0) + t P(Zk = 1) = 1 − + = ·
k k k
On en déduit :
n n−1
 k−1+t 1 
gn (t) = = (k + t).
k n!
k=1 k=0

Le coefficient de tk dans gn (t) est P(Xn = k) . On obtient :


n−1 
1 1 1 1
P(Xn = 1) = , P(Xn = 2) = et P(Xn = n) = ·
n n k n!
k=1

723
Chapitre 17. Espérance — Variance

3. Montrons que (Z1 , . . . , Zn ) sont indépendantes.


Soit p ∈ [[1, n − 1]] . Fixons (ε1 , . . . , εp+1 ) ∈ {0, 1}p+1 et montrons que :

P(Z1 = ε1 , . . . , Zp+1 = εp+1 ) = P Z1 = ε1 , . . . , Zp = εp )P(Zp+1 = εp+1 ). (⋆)

Une récurrence immédiate sur p donnera alors :



P(Z1 = ε1 , . . . , Zn = εn ) = P Z1 = ε1 ) · · · P(Zn = εn ).

Puisque Zp+1 suit une loi de Bernoulli, on peut sans perte de généralité suppo-
ser εp+1 = 1 .
Rappelons que pour tout événement A ∈ P(Ω) , on a P(A) = card A
card Ω
= card A
n!
·

• Détaillons le calcul de card Z1 = ε1 , . . . , Zp+1 = εp+1 } . Pour construire une permu-
tation σ appartenant à cet événement :
∗ on fixe l’ensemble A = {σ(1), . . . , σ(p)} , partie à p éléments dans [[1, n]] ;
 
∗ on construit la liste σ(1), . . . , σ(p) ; on constate que le nombre de manière d’or-
donner l’ensemble A de telle sorte à ce les maximums provisoires soient aux en-
droits souhaités ne dépend que de (ε1 , . . . , εp ) et pas de l’ensemble A , car il ne
dépend que des positions relatives des σ(i) et non de leurs valeurs exactes ; no-
tons α le nombre de ces possibilités ;
∗ on fixe σ(p + 1) pour que ce soit un maximum provisoire, c’est-à-dire strictement
supérieur à max A : n − max A possibilités ;
 
∗ on construit le reste de la permutation σ(p+2), . . . , σ(n) , ce qui donne (n−p−1)!
possibilités.
 
On a donc card Z1 = ε1 , . . . , Zp+1 = εp+1 } = α (n − max A)(n − p − 1)!
A∈Pp ([[1,n]])

donc :
α (n − p − 1)! 
P(Z1 = ε1 , . . . , Zp+1 = εp+1 ) = (n − max A).
n!
A∈Pp ([[1,n]]

• En raisonnant de manière semblable, on trouve :


   
card Z1 = ε1 , . . . , Zp = εp } = α (n − p)! = α (n − p)! card Pp ([[1, n]])
A∈Pp ([[1,n]])
α n!
=
p!
donc :
α
P(Z1 = ε1 , . . . , Zp = εp ) = ·
p!
• Enfin, on a :

card {Zp+1 = 1} = p! (n − max A)(n − p − 1)!
A∈Pp ([[1,n]])

donc :
p! (n − p − 1)! 
P(Zp+1 = 1) = (n − max A).
n!
A∈Pp ([[1,n]])

Les résultat obtenus nous offrent bien la relation (⋆) souhaitée.

724
Solutions des exercices

17.20 1. Pour tout n ∈ IN , Sn est une variable aléatoire discrète comme somme de variables
aléatoires discrètes. On a :
• SN (Ω) ⊂ IN , donc SN (Ω) est au plus dénombrable ;
 
• pour tout k ∈ IN , {SN = k} = {SN = k} ∩ {N = n} = {Sn = k} ∩ {N = n} ,
n∈IN n∈IN
donc {SN = k} , union dénombrable d’événements, est un événement.
Par conséquent, SN est une variable aléatoire discrète.
2. Pour tout t ∈ [0, 1] , on a :
 
GSN (t) = tk P(SN = k) = tk P(SN = k, N = n).
k∈IN k∈IN n∈IN
 k

Comme t P(SN = k, N = n) (k,n)∈IN2
est une famille de réels positifs, on peut échanger
l’ordre de sommation. Pour n ∈ IN , on a :
 
tk P(SN = k, N = n) = tk P(Sn = k, N = n)
k∈IN k∈IN

= tk P(Sn = k)P(N = n),
k∈IN

car Sn et N sont indépendantes. On en déduit :



tk P(SN = k, N = n) = GSn (t)P(N = n) = GX1 (t)n P(N = n),
k∈IN


n
car GSn (t) = GX1 +···+Xn (t) = GXi (t) = GX1 (t)n , par indépendance des va-
i=1
riables Xi . On obtient finalement :
  
∀t ∈ [0, 1] GSN (t) = GX1 (t)n P(N = n) = GN GX1 (t) ,
n∈IN

ce qui est le résultat voulu.


3. Les fonctions GN et GX1 sont dérivables en 1 , car N et X1 sont d’espérance finie
et GX1 (1) = 1 . On en déduit que GSN est dérivable en 1 à gauche, donc dérivable en 1
(cf. remarque page 691). Ainsi la variable aléatoire SN est d’espérance finie :
E(SN ) = G′SN (1) = G′N (GX1 (1)) G′X1 (1) = G′N (1)G′X1 (1) = E(N )E(X1 ).

4. Les fonctions GN et GX1 sont deux fois dérivable en 1 , car N et X1 appartiennent à L2 .


On en déduit que GSN est deux fois dérivable en 1 à gauche donc deux fois dérivable
en 1 et :
G′′SN (1) = G′N (GX1 (1)) G′′X1 (1) + G′′N (GX1 (1)) G′X1 (1)2

= G′N (1)G′′X1 (1) + G′′N (1)G′N (1)2 .


On a donc :
E (SN (SN − 1)) = E(N )E (X1 (X1 − 1)) + E (N (N − 1)) E(X1 )2
     
= E(N ) E X12 − E(X1 ) + E(N 2 ) − E(N ) E (X1 )2 .
On en déduit :
 
V(SN ) = E SN (SN − 1) + E(SN ) − E(SN )2 = V(X1 )E(N ) + E(X1 )2 V(N ),
après simplifications.

725
Chapitre 17. Espérance — Variance

17.21 1. (a) On a Sn = 0 si, et seulement si, parmi les n variables Xi pour 1  i  n , il y


en a autant qui prennent la valeur 1 et la valeur −1 . Cela nécessite n pair. On a
donc un = 0 si n est impair et, si n est pair :
   
n n n n   n2
un = n p 2 (1 − p) 2 = n p(1 − p) .
2 2

(b) On dispose du développement en série entière usuel suivant :


+∞ 2n
1  n
tn
∀t ∈ ]−1, 1[ √ = ·
1−t 4n
n=0

Or 4p(1 − p) ∈ [0, 1] donc pour x ∈ ]−1, 1[ on a 4p(1 − p)x2 ∈ [0, 1[ ⊂ ]−1, 1[ , d’où :
+∞
2n
1  n
(4p(1 − p))n x2n
 =
1 − 4p(1 − p)x2 4n
n=0


+∞

= u2n x2n = f (x),


n=0

car un = 0 si n est impair.


2. (a) Les événements Ak pour 1  k  n sont incompatibles et :

{Sn = 0} ⊂ Ak .
1kn


n
On a donc {Sn = 0} = ({Sn = 0} ∩ Ak ) et comme il s’agit d’événements incom-
k=1
patibles :
n

P(Sn = 0) = P ({Sn = 0} ∩ Ak ) .
k=1
(b) Soit k ∈ [[1, n]] . Comme :
S1 = X1 , S2 = X1 + X2 , . . . , Sk = X1 + X2 + · · · Xk ,
on peut écrire Ak sous la forme :
Ak = {f (X1 , X2 , . . . , Xk ) ∈ Nk } ,
en posant f (x1 , . . . , xk ) = (x1 , x1 + x2 , . . . , x1 + · · · + xk ) et Nk = IN∗k−1 × {0} . On
a alors :
   
P {Sn = 0} ∩ Ak = P {Xk+1 + · · · + Xn = 0} ∩ {f (X1 , X2 , . . . , Xk ) ∈ Nk }
   
= P Xk+1 + · · · + Xn = 0 P f (X1 , X2 , . . . , Xk ) ∈ Nk ,
car les variables aléatoires Xk+1 + · · · + Xn et f (X1 , . . . , Xk ) sont indépendantes
(puisque de X1 , . . . , Xn sont indépendantes). On obtient :
   
P {Sn = 0} ∩ Ak = P Xk+1 + · · · + Xn = 0 P(Ak ).
Les variables aléatoires Xi sont indépendantes et suivent la même loi, donc la loi
de Xk+1 + · · · + Xn est la même que celle de X1 + · · · + Xn−k = Sn−k . On a donc :
   
P {Sn = 0} ∩ Ak = P Sn−k = 0 P(Ak ) = un−k vk .
Comme de plus v0 = 0 , on obtient, d’après la question précédente :
n

un = P(Sn = 0) = un−k vk .
k=0

726
Solutions des exercices

3. (a) Comme 0  vn  1 , le rayon de la série entière définissant g(x) est supérieur ou égal
à 1 . La fonction f g possède un développement en série entière dont les coefficients
sont obtenus par produit de Cauchy.
n

Pour n  1 , on a un−k vk = un . Pour n = 0 , u0 v0 = 0 . On obtient :
k=0


+∞

∀x ∈ ]−1, 1[ f (x)g(x) = un xn = f (x) − 1.


n=1

On en déduit :
f (x) − 1 
∀x ∈ ]−1, 1[ g(x) = = 1 − 1 − 4p(1 − p)x2 .
f (x)
(b) On a :

A= Ak .
n∈IN∗

Comme les Ak sont deux à deux incompatibles, on en déduit :


+∞ +∞
 
P(A) = P(Ak ) = vk = g(1).
k=1 k=1

On a pour x ∈ ]−1, 1[ , g(x) = 1 − 1 − 4p(1 − p)x2 .
 
La série vn est convergente. Donc la série vn xn est une série de fonctions
continues, normalement convergente sur [−1, 1] . La fonction g est donc continue
sur [−1, 1] et :
P(A) = g(1) = lim g(x) = 1 − |2p − 1|.
x→1−
1
• Si p = , on a P(A) = 1 . Il est presque sûr que le mobile repassera à l’origine.
2
1
• Si p �= , on a P(A) < 1 . Le mobile peut ne pas repasser à l’origine.
2
4. (a) Il est presque sûr qu’il existe n ∈ IN tel que {Sn = 0} est réalisé et donc un plus
petit entier n pour lequel {Sn = 0} est réalisé, donc T est presque sûrement finie.
Pour tout k ∈ IN∗ , on a {T = k} = Ak . Or Ak est un événement, donc T est bien
une variable aléatoire.
(b) On a, pour tout x ∈ ]−1, 1[ :
+∞
  2n
  2 2n−2
n−1
x
g(x) = 1 − 1− x2 = ·
n4n
n=1

On a donc : 2n−2

2 n−1
∀n ∈ IN v2n =
n4n
et, bien entendu, vn = 0 si n est impair.
(c) La variable T est d’espérance finie si, et seulement si, la série de terme général 2nv2n
converge. En utilisant la formule de Stirling, on obtient :
1
2nv2n ∼ √ ·

La série diverge, donc T n’est pas d’espérance finie.

727
Chapitre 18 : Équations différentielles linéaires

I Équations différentielles linéaires d’ordre 1 . . . . . . . 730


1 Définitions et notations . . . . . . . . . . . . . . . . . . . 730
2 Structure de l’ensemble des solutions . . . . . . . . . . . . 732
3 Traduction matricielle : systèmes différentiels linéaires . . 733
4 Théorème de Cauchy linéaire . . . . . . . . . . . . . . . . 734
II Exponentielle d’un endomorphisme, d’une matrice . . 736
1 Exponentielle d’un endomorphisme . . . . . . . . . . . . . 736
2 Exponentielle d’une matrice . . . . . . . . . . . . . . . . . 738
III Systèmes différentiels à coefficients constants . . . . . 742
1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . 742
2 Expression des solutions de l’équation homogène . . . . . 742
3 Résolution pratique de l’équation homogène . . . . . . . . 744
IV Équations différentielles linéaires scalaires d’ordre n . 747
1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . 747
2 Traduction sous la forme d’un système différentiel linéaire
d’ordre 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . 748
V Équations différentielles linéaires scalaires d’ordre 2 . 749
1 Wronskien . . . . . . . . . . . . . . . . . . . . . . . . . . . 750
2 Recherche d’une solution particulière : méthode de varia-
tion des constantes . . . . . . . . . . . . . . . . . . . . . . 751
3 Quelques techniques classiques d’obtention de solutions
d’une équation scalaire d’ordre 2 . . . . . . . . . . . . . . 753
4 Résolution de l’équation homogène (E0 ) quand on en
connaît une solution non nulle . . . . . . . . . . . . . . . 756
5 Exemples de résolution d’équations non normalisées . . . 758
Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 767
Équations
différentielles 18
linéaires

En première année ont été abordées :


• les équations différentielles linéaires d’ordre 1 de la forme :
y ′ + a(t) y = b(t) avec a : I → IK et b : I → IK continues ;
• les équations différentielles linéaires d’ordre 2 à coefficients constants de la forme :
y ′′ + a y ′ + b y = c(t) avec (a, b) ∈ IK2 et c : I → IK continue.
Les objectifs du cours de seconde année sont, toujours en restant dans le cas linéaire :
• pour les équations d’ordre 1 , étendre l’étude aux cas de fonctions à valeurs vec-
torielles (dans un espace de dimension finie) ;
• pour les équations d’ordre 2 , étendre l’étude au cas de coefficients non constants.
Dans ce chapitre, IK désigne IR ou C, I un intervalle de IR d’intérieur non vide, et E
un IK -espace vectoriel de dimension finie muni d’une norme �·� .

I Équations différentielles linéaires d’ordre 1


1 Définitions et notations
Notation Dans tout ce chapitre, afin d’alléger les écritures, si u est un endomor-
phisme de E et e un vecteur de E , alors la valeur de u en e, notée traditionnelle-
ment u(e), sera souvent notée u · e.

Définition 1
• On appelle équation différentielle linéaire du premier ordre toute équa-
tion de la forme :
x′ = a(t) · x + b(t), (E)
où a : I → L(E) et b : I → E sont deux applications continues.
• L’application b est appelée second membre de l’équation (E).
• On appelle équation homogène (ou sans second membre) associée à (E)
l’équation :
x′ = a(t) · x. (E0 )
I Équations différentielles linéaires d’ordre 1
Définition 2
Soit a : I → L(E) et b : I → E deux applications continues. On appelle solution
de l’équation différentielle x′ = a(t) · x + b(t) toute application dérivable ϕ : I → E
Exo
vérifiant :
18.1 ∀t ∈ I ϕ′ (t) = a(t) · ϕ(t) + b(t).

Remarques
• Sans la convention « u · e » donnée plus haut, la relation ci-dessus s’écrit :
 
∀t ∈ I ϕ′ (t) = a(t) ϕ(t) + b(t),
et l’équation est notée :
x′ = a(t)(x) + b(t).

• On pourra noter x′ (t) = a(t)·x(t)+ b(t) l’équation (E) si l’on veut préciser le nom
de la variable libre, en particulier s’il y a ambiguïté sur le nom de cette variable.
• Les applications a et b sont supposées continues, x est continue car dérivable et
l’application bilinéaire (u, y) → u · y est également continue sur L(E) × E car
définie sur un espace vectoriel de dimension finie, donc une solution de (E) est au
moins de classe C 1 .

Dans la suite de cette partie, a : I → L(E) et b : I → E sont deux deux applications


continues et (E) est l’équation différentielle x′ = a(t) · x + b(t).
Notation Pour a : I → L(E) et x : I → E , notons a · x l’application :

a·x : I −→ E
t �−→ a(t) · x(t).

Avec cette notation, l’équation différentielle (E) s’écrit :


x′ = a · x + b. (E)

Problème de Cauchy

Définition 3
• On dit qu’une solution ϕ de l’équation différentielle (E) vérifie la condition
initiale (t0 , x0 ) ∈ I × E si l’on a :
ϕ(t0 ) = x0 .

• On appelle problème de Cauchy, l’équation (E) munie d’une condition ini-


tiale (t0 , x0 ) ∈ I × E :
(E) : x′ = a(t) · x + b(t) et x(t0 ) = x0 .

• Résoudre ce problème de Cauchy, c’est trouver toutes les solutions ϕ de (E)


vérifiant la condition initiale ϕ(t0 ) = x0 .

731
Chapitre 18. Équations différentielles linéaires

Mise sous forme intégrale d’un problème de Cauchy

Proposition 1
Soit (t0 , x0 ) ∈ I × E . Une application ϕ : I → E est une solution du problème de
Cauchy :
(E) : x′ = a(t) · x + b(t) et x(t0 ) = x0
si, et seulement si, elle est continue et vérifie :
 t  t
∀t ∈ I ϕ(t) = x0 + a(s) · ϕ(s) ds + b(s) ds.
t0 t0
Démonstration page 761

2 Structure de l’ensemble des solutions


L’application :
L : C 1 (I, E) → C 0 (I, E)
x �→ x′ − a · x

est bien définie, c’est une application linéaire, et l’on constate que les équations (E)
et (E0 ) se formulent naturellement à l’aide de L :

(E) : L(x) = b et (E0 ) : L(x) = 0.

Le théorème de Cauchy linéaire (cf. théorème 4 de la page 734) montrera que L


est surjective. Les propriétés générales des équations linéaires donnent alors les deux
résultats suivants.

Proposition 2
• L’ensemble S0 des solutions de l’équation homogène (E 0 ) est un sous-espace
vectoriel de C 1 (I, E) ; c’est le noyau de l’application linéaire L introduite ci-
dessus.
• Si ϕp est une solution particulière de (E), l’ensemble S des solutions de l’équa-
tion (E) s’écrit :
S = ϕp + S0 .
C’est donc un sous-espace affine de C 1 (I, E) de direction S0 .

Proposition 3 (Principe de superposition)


Soit (α1 , α2 ) ∈ IK2 et (b1 , b2 ) ∈ C 0 (I, E)2 tels que b = α1 b1 + α2 b2 .
Si ϕ1 et ϕ2 sont respectivement solutions des équations :
x′ = a(t) · x + b1 (t) et x′ = a(t) · x + b2 (t),
alors la fonction α1 ϕ1 + α2 ϕ2 est solution de (E) : x′ = a(t) · x + b(t).

732
I Équations différentielles linéaires d’ordre 1

3 Traduction matricielle : systèmes différentiels linéaires


Convention Dans la suite, on identifie Mn,1 (IK) et IKn .

Définition 4
On appelle système différentiel linéaire du premier ordre toute équation
différentielle linéaire du premier ordre de la forme :
X ′ = A(t) X + B(t),
avec A : I → Mn (IK) et B : I → IKn continues, et où la fonction inconnue
est X : I → IKn .
Un tel système s’écrit :


 x1 = a1,1 (t) x1 + ··· + a1,n (t) xn + b1 (t)
 ′


.. .. .. ..
. . . . (Sys)




 x′ = a (t) x + · · · + an,n (t) xn + bn (t)
n n,1 1

où les ai,j , appelées coefficients, et les bi , appelées seconds membres, sont des
applications continues de I dans IK.

Interprétation Si l’on munit l’espace vectoriel E d’une base B , alors l’équation


différentielle :
x′ = a(t) · x + b(t) (E)
se traduit matriciellement par le système différentiel linéaire du premier ordre :

X ′ = A(t) X + B(t) (Sys)

où, pour tout t ∈ I :


• A(t) est la matrice de a(t) dans la base B ;

• B(t) est la matrice colonne des coordonnées de b(t) dans la base B .


En effet, une application ϕ : I → E est solution de (E) si, et seulement si, :

∀t ∈ I X ′ (t) = A(t) X(t) + B(t)

où X(t) est la matrice colonne des coordonnées de ϕ(t) dans la base B .

Remarque Si n = 1 , alors le système différentiel (Sys) s’écrit :

x′1 = a1,1 (t) x1 + b1 (t),

et n’est rien d’autre qu’une équation différentielle linéaire scalaire d’ordre 1 .

733
Chapitre 18. Équations différentielles linéaires

4 Théorème de Cauchy linéaire


On rappelle que a et b désignent des applications continues sur I à valeurs respec-
tivement dans L(E) et E . On considère l’équation différentielle linéaire du premier
ordre :
x′ = a(t) · x + b(t). (E)
La démonstration du théorème fondamental suivant n’est pas exigible.
Théorème 4 (Théorème de Cauchy linéaire)
Pour tout (t0 , x0 ) ∈ I × E, il existe une et une seule solution ϕ de l’équation (E)
vérifiant la condition initiale ϕ(t0 ) = x0 .
Autrement dit, le problème de Cauchy :
x′ = a(t) · x + b(t) et x(t0 ) = x0
possède une unique solution.
Démonstration (non exigible) page 761

Remarque Le théorème de Cauchy linéaire a été démontré dans le cours de première


année pour les équations différentielles linéaires scalaires (E = IK ) du premier ordre
en exhibant la forme explicite des solutions. Pour ces équations, de la forme :
x′ + a(t)x = b(t) avec a : I → IK et b : I → IK continues,
l’unique solution prenant la valeur x0 au point t0 ∈ I est :
  t 
   
t �→ exp −F (t) x0 + exp F (u) b(u) du ,
t0

où F est la primitive de a sur I s’annulant en t0 .


Cette forme explicite ne s’étend pas au cas général (dim E  2 ).
Remarques
• La partie « existence » du théorème de Cauchy linéaire assure que l’ensemble des
solutions de (E) est non vide (car I × E est non vide).
• On utilise souvent l’unicité pour établir des propriétés des solutions de (E) sans
résoudre l’équation.

Ex. 1. Deux solutions distinctes de (E) ne se croisent pas. Autrement dit, si ϕ1 et ϕ2 sont
deux solutions distinctes de (E) , on a :

∀t ∈ I ϕ1 (t) �= ϕ2 (t).

En effet, s’il existait t0 ∈ I tel que ϕ1 (t0 ) = ϕ2 (t0 ) , alors les fonctions ϕ1 et ϕ2 seraient toutes
deux solutions du problème de Cauchy :

x′ = a(t) · x + b(t) et x(t0 ) = ϕ1 (t0 ) = ϕ2 (t0 ).

et donc, par propriété d’unicité, on aurait ϕ1 = ϕ2 .


Ex. 2. En particulier, une solution non nulle de l’équation homogène (E0 ) ne s’annule en aucun
point de I . En effet, la fonction nulle étant solution de l’équation homogène, elle n’en croise
aucune autre.

734
I Équations différentielles linéaires d’ordre 1

Ex. 3. Soit T ∈ IR∗+ . Supposons I = IR et a et b T -périodiques. Si ϕ est une solution de (E) ,


alors ϕT : t �→ ϕ(t + T ) est encore une solution de (E) . En effet, on a :
∀t ∈ IR ϕ′T (t) = ϕ′ (t + T ) = a(t + T ) · ϕ(t + T ) + b(t + T ) = a(t) · ϕT (t) + b(t).
On en déduit que :
ϕ est T -périodique ⇐⇒ ϕT = ϕ ⇐⇒ ϕT (0) = ϕ(0) ⇐⇒ ϕ(T ) = ϕ(0).

Formulation en termes de systèmes différentiels linéaires


Soit A : I → Mn (IK) et B : I → IKn des applications continues. Pour
tout (t0 , X0 ) ∈ I × IKn , le problème de Cauchy :
Exo (Sys) : X ′ = A(t) · x + B(t) et X(t0 ) = X0
18.2
possède une unique solution.
Espace des solutions de l’équation homogène
Proposition 5
Soit t0 ∈ I . Notons S0 l’espace vectoriel des solutions de l’équation homo-
gène (E0 ) : x′ = a(t) · x. L’application :
δt0 : S0 → E
ϕ �→ ϕ (t0 )
est un isomorphisme d’espaces vectoriels.

Démonstration. L’application δt0 est évidemment linéaire, et elle est bijective puisque, pour
tout x0 ∈ E , le théorème de Cauchy linéaire assure l’existence d’un et un seul élément ϕ ∈ S0
tel que ϕ(t0 ) = x0 , c’est-à-dire δt0 (ϕ) = x0 .

Corollaire 6
L’espace S0 est de dimension finie égale à celle de E.

Corollaire 7
Si ϕ1 , . . . , ϕn sont des solutions de l’équation homogène (E0 ), alors les trois asser-
tions suivantes sont équivalentes :
(i) la famille (ϕ1 , . . . , ϕn ) est une base de S0 ;
 
(ii) il existe t0 ∈ I tel que la famille ϕ1 (t0 ), . . . , ϕn (t0 ) soit une base de E ;
 
(iii) pour tout t ∈ I , la famille ϕ1 (t), . . . , ϕn (t) est une base de E .

Démonstration.
• L’implication (iii) ⇒ (ii) est évidente.
• (ii) ⇒ (i) . Soit t0 ∈ I tel que la famille (ϕ1 (t0 ), . . . , ϕn (t0 )) soit une base de E . En
reprenant les notations de la proposition 5, la famille (ϕ1 , . . . , ϕn ) est l’image de la base
 
ϕ1 (t0 ), . . . , ϕn (t0 ) de E par l’isomorphisme δt−1
0
. C’est donc une base de S0 .
• (i) ⇒ (iii) . Supposons que (ϕ1 , . . . , ϕn ) soit une base de S0 . Fixons t ∈ I et montrons
que (ϕ1 (t), . . . , ϕn (t)) est une base de E . C’est le cas, à nouveau grâce à la proposi-
tion 5, car la famille (ϕ1 (t), . . . , ϕn (t)) apparaît comme l’image par l’isomorphisme δt de la
base (ϕ1 , . . . , ϕn ) de S0 .

735
Chapitre 18. Équations différentielles linéaires

Ex. 4. Considérons l’équation homogène (E0 ) : x′ = a(t)·x et t0 ∈ I . Soit B = (e1 , . . . , en ) une


base de E . Pour tout k ∈ [[1, n]] , il existe une unique solution ϕk de (E0 ) telle que ϕk (t0 ) = ek .
Alors (ϕ1 , . . . , ϕk ) est une base de S0 . Soit (λ1 , . . . , λn ) ∈ IKn . On a, pour tout ϕ ∈ S0 :

n n
 
ϕ= λk ϕk ⇐⇒ ϕ(t0 ) = λk e k .
k=1 k=1

Point méthode Le fait de connaître la dimension de S0 se révèle très utile. En


effet, si l’on dispose de n fonctions ϕ1 , . . . , ϕn de I dans E de dimension n, alors
pour prouver que la famille (ϕ1 , . . . , ϕn ) est une base de S0 , il suffit de démontrer
au choix :
• que ϕ1 , . . . , ϕn appartiennent à S0 et forment une famille libre ;
   
• que S0 ⊂ Vect ϕ1 , . . . , ϕn . On a alors S0 = Vect ϕ1 , . . . , ϕn , pour des rai-

sons de dimension, et la famille (ϕ1 , . . . , ϕn est génératrice, donc est une base
de S0 . Il n’est pas nécessaire de démontrer préalablement que les fonctions ϕk
appartiennent à S0 .

II Exponentielle d’un endomorphisme, d’une matrice


1 Exponentielle d’un endomorphisme
Dans la suite, on munit L(E) d’une norme sous-multiplicative, c’est-à-dire vérifiant :

∀(a, b) ∈ L(E)2 �a ◦ b�  �a� �b�,


par exemple la norme subordonnée à une norme de E .

Définition et premières propriétés

Proposition 8
ak
Soit a ∈ L(E). La série de terme général est absolument convergente.
k!

Démonstration. La norme �·� utilisée sur L(E) étant sous-multiplicative, on a :


 k
 a  �a�k
∀k ∈ IN   ·
 k!  k!

 �a�k
Donc, par comparaison, la convergence de la série (série numérique de l’exponentielle)
k!
 
 ak 
entraîne celle de la série  ·
 k! 

D’où la définition suivante.

736
II Exponentielle d’un endomorphisme, d’une matrice
Définition 5
Soit a ∈ L(E). On appelle exponentielle de a et l’on note exp(a) ou ea , la somme
ak
de la série absolument convergente de terme général :
k!
+∞ k
 a
exp(a) = ·
k!
k=0

Ex. 5. Pour tout t ∈ IR , on a :


+∞
 +∞ 
 (t IdE )k  tk
exp(t IdE ) = = IdE = et IdE .
k! k!
k=0 k=0

En particulier, on a exp(0) = IdE .


Ex. 6. Si a ∈ L(E) est nilpotente et si p ∈ IN est tel que ap = 0 , alors on a :
p−1 k
 a
∀k  p ak = 0 et donc exp(a) = ·
k!
k=0

Proposition 9
L’application exp : L(E) −→ L(E) est continue.
a �−→ exp(a)
Démonstration page 763
Principe de démonstration. Utiliser le théorème de continuité des séries de fonctions.

Proposition 10
Soit a ∈ L(E). L’application ϕ : IR −→ L(E) est de classe C 1 et sa dérivée
t �−→ exp(ta)
est donnée par :
∀t ∈ IR ϕ′ (t) = a ◦ exp(ta) = exp(ta) ◦ a.
Démonstration page 764
Principe de démonstration. Utiliser le théorème de dérivation des séries de fonctions.

Remarque On obtient par récurrence que l’application ϕ : t �→ exp(ta) est de


classe C ∞ et, pour tout p ∈ IN, on a :
∀t ∈ IR ϕ(p) (t) = ap ◦ exp(ta) = exp(ta) ◦ ap .

Propriété fondamentale de l’exponentielle


Proposition 11
Soit a et b des endomorphismes de E qui commutent. Alors on a :
 
exp a + b = exp(a) ◦ exp(b) = exp(b) ◦ exp(a).
Démonstration page 764
 
Principe de démonstration. On montre que les applications t �→ exp t(a + b)
et t �→ exp(ta) ◦ exp(tb) sont solutions du même problème de Cauchy.

737
Chapitre 18. Équations différentielles linéaires
Corollaire 12
 −1
Soit a ∈ L(E). L’endomorphisme exp(a) est inversible et exp(−a) = exp(a) .

Démonstration. Comme a et −a commutent, il vient de la proposition 11 de la page


précédente :
exp(a) ◦ exp(−a) = exp(−a) ◦ exp(a) = exp(0) = IdE .
Corollaire 13
Soit a ∈ L(E). On a alors :
 
∀(s, t) ∈ IR2 exp(sa) ◦ exp(ta) = exp (s + t)a .

Démonstration. Cela résulte directement de la proposition 11 de la page précédente, car sa


et ta commutent.

2 Exponentielle d’une matrice


Définition
Proposition 14
Ak
Soit A ∈ Mn (IK). La série de terme général est absolument convergente.
k!

Démonstration. Même démonstration que pour l’exponentielle d’un endomorphisme.

Définition 6
Soit A ∈ Mn (IK). On appelle exponentielle de A et l’on note exp(A) ou eA , la
Ak
somme de la série absolument convergente de terme général :
k!
+∞
 Ak
exp(A) = ·
k!
k=0

Ex. 7. Pour tout t ∈ IR , on a exp(t In ) = et In et, en particulier, exp(0) = In .



p−1
Ak
Ex. 8. Si A ∈ Mn (IK) est nilpotente, et si p ∈ IN est tel que Ap = 0 , alors exp(A) = k!
·
k=0

Ex. 9. Soit V est un vecteur propre de A associé à la valeur propre λ .


 

N
(tA)k 
N
(λt)k
Soit t ∈ IR . On a pour tout N ∈ IN , k!
V = k!
V . L’application M �→ M V
k=0 k=0
de Mn (IK) dans IKn étant continue, car linéaire avec un espace vectoriel de départ de dimension
finie, on en déduit, en faisant tendre N vers +∞ , etA V = eλt V .
 
0 1
Ex. 10. Soit A = ∈ M2 (IR) . On a A2 = I2 donc, pour tout n ∈ IN , A2n = I2
1 0
et A2n+1 = A . On en déduit :
+∞ +∞
 1  1
exp(A) = I2 + A = ch(1)I2 + sh(1)A.
(2n)! (2n + 1)!
n=0 n=0

738
II Exponentielle d’un endomorphisme, d’une matrice

Remarque Soit A et B deux matrices semblables de Mn (IK) et P ∈ GLn (IK) telle


que A = P BP −1 . On a alors :
�N N
� ��
N �
Ak P B k P −1 Bk
∀N ∈ IN = =P P −1 .
k! k! k!
k=0 k=0 k=0

L’endomorphisme Mn (IK) −→ Mn (IK) étant continu, car linéaire entre espaces


M �−→ P M P −1
de dimension finie, on obtient, en passant à la limite :
exp(A) = P exp(B)P −1 .

Exo Exemples de calculs


18.3

Ex. 11. Soit A = Diag(λ1 , . . . , λn ) une matrice diagonale. On a alors :


 

N
λk
  1
(0)
λk1 (0)  k! 
N
�  k=0 
 ..  Ak  .. 
∀k ∈ IN Ak =  .  puis ∀N ∈ IN = . .
k!  
(0) λkn k=0  �
N
λk

(0) n
k!
k=0

Par passage à la limite, on obtient :


 
eλ1 (0)
 .. 
exp(A) =  . .
(0) eλ n

Ex. 12. Supposons A diagonalisable. On peut donc écrire :

A = P DP −1 avec P ∈ GLn (IK) et D = Diag(λ1 , . . . , λn ).

On a alors, d’après la remarque qui précède :


 
eλ1 (0)
 ..  −1
exp(A) = P exp(D)P −1 = P  . P .
(0) eλ n

Ex. 13. Soit T une matrice triangulaire supérieure de Mn (IK) de coefficient diago-
naux λ1 , . . . , λn . Pour tout k ∈ IN , la matrice T k est triangulaire supérieure de coefficients

N
Tk
diagonaux λk1 , . . . , λkn . Pour tout N ∈ IN , la matrice k!
est donc triangulaire supérieure.
k=0
Comme l’ensemble des matrices triangulaires supérieures est un espace vectoriel de dimension
finie, donc fermé, on en déduit que exp(T ) est triangulaire supérieure.
Ses termes diagonaux sont eλ1 , . . . , eλn .

739
Chapitre 18. Équations différentielles linéaires
 
A1
 .. 
Ex. 14. Si A ∈ Mn (IK) est diagonale par blocs et s’écrit A =  . ,
Am
où A1 , . . . , Am sont des matrices carrées, on obtient, en effectuant des produits par blocs :
 

N
Ak
1
 k! 
N
�  k=0 
Ak  .. 
∀N ∈ IN = . 
k!  
k=0  �
N
Ak

m
k!
k=0

puis, par passage à la limite :


 
exp(A1 )
 .. 
exp(A) =  . .
exp(Am )

Lien entre exponentielle d’endomorphisme et exponentielle de matrice


Proposition 15
Si A est la matrice d’un endomorphisme a dans une base B de E , alors exp(A)
est la matrice dans B de exp(a).
Démonstration page 765

Propriétés de l’exponentielle d’une matrice


Les résultats suivants résultent de la traduction dans une base des propriétés de
l’exponentielle d’un endomorphisme. En effet, si Φ désigne l’application qui à un
endomorphisme de IKn associe sa matrice dans la base canonique, on a d’après la
proposition 15 :
∀A ∈ Mn (IK) exp(A) = Φ ◦ exp ◦Φ−1 (A),
où Φ et Φ−1 sont continues et sont des morphismes d’algèbres. Les propriétés de
l’exponentielle d’une matrice en découlent.
Proposition 16
L’application exp : Mn (IK) −→ Mn (IK) est continue.
A �−→ exp(A)

Proposition 17
Soit A ∈ Mn (IK). L’application ϕ : IR −→ Mn (IK) est de classe C 1 et sa
t �−→ exp(tA)
dérivée est donnée par :
∀t ∈ IR ϕ′ (t) = A exp(tA) = exp(tA)A.

Remarque Plus généralement, l’application ϕ : t �→ exp(tA) est de classe C ∞ et,


pour tout p ∈ IN, on a :
∀t ∈ IR ϕ(p) (t) = Ap exp(tA) = exp(tA) Ap .

740
II Exponentielle d’un endomorphisme, d’une matrice

Proposition 18
Soit A et B des matrices de Mn (IK) qui commutent. Alors on a :
 
exp(A) exp(B) = exp A + B = exp(B) exp(A).

Corollaire 19
Pour A ∈ Mn (IK), la matrice exp(A) est inversible et l’on a :
 −1
exp(−A) = exp(A) .

Proposition 20
Soit A ∈ Mn (IK). On a :
 
∀(s, t) ∈ IR2 exp(sA) exp(tA) = exp (s + t)A .

Spectre de l’exponentielle d’une matrice complexe

Proposition 21
Soit n ∈ IN∗ et A ∈ Mn (C). Si les valeurs propres de A, comptées avec ordre de
multiplicité, sont λ1 , . . . , λn , alors celles de exp(A) sont eλ1 , . . . , eλn .
Démonstration page 765

Attention Ce résultat est faux en général pour le spectre réel d’une matrice réelle.
 
0 π
Ex. 15. Soit A = ∈ M2 (IR) . Les valeurs propres complexes de A sont ±iπ ,
−π 0
donc A n’a pas de valeur propre réelle. D’après la proposition 21, exp(A) a une seule valeur
complexe −1 = e−iπ = eiπ . Le spectre réel de exp(A) est également {−1} .

Corollaire 22
Soit a un endomorphisme d’un C-espace vectoriel de dimension finie E . Si les
valeurs propres de a, comptées avec ordre de multiplicité, sont λ1 , . . . , λn , alors
celles de exp(a) sont eλ1 , . . . , eλn .

   
Ex. 16. Montrons que det exp(A) = exp tr(A) , pour toute matrice A ∈ Mn (C) .
En notant λ1 , . . . , λn les valeurs propres de A , comptées avec ordre de multiplicité, les valeurs
propres de exp(A) sont eλ1 , . . . , eλn . On a donc :

n
 
n 
   
det exp(A) = eλk = exp λk = exp tr(A) .
k=1 k=1

741
Chapitre 18. Équations différentielles linéaires

III Systèmes différentiels à coefficients constants


1 Définition
Définition 7
L’équation différentielle linéaire :
x′ = a(t) · x + b(t)
est dite à coefficients constants si la fonction a : I −→ L(E) est constante.
t �−→ a(t)
On identifie alors a à un élément de L(E) et l’on note l’équation :
x′ = a · x + b(t).

Si l’on dispose d’une base B de E et si A et B(t) sont respectivement les matrices


de a et b(t) dans la base B , alors l’équation précédente s’écrit matriciellement :
X ′ = A X + B(t).

2 Expression des solutions de l’équation homogène


Version vectorielle

Proposition 23 (Résolution d’un problème de Cauchy)


Soit a ∈ L(E) et (t0 , x0 ) ∈ IR × E . L’application :
ϕ : IR −→ E  
t �−→ exp (t − t0 )a · x0
est l’unique solution du problème de Cauchy :
x′ = a · x et x(t0 ) = x0 .

Démonstration. L’application ϕ est solution du problème de Cauchy considéré puisque :


d     

∀t ∈ IR ϕ′ (t) = exp t − t0 )a .x0 = a ◦ exp (t − t0 )a · x0 = a · ϕ(t)
dt
et  
ϕ(t0 ) = exp (t0 − t0 )a · x0 = exp(0) · x0 = IdE ·x0 = x0 .
D’après le théorème de Cauchy linéaire, c’est l’unique solution.

Remarque Les solutions sont toutes définies sur IR. Par restriction, on obtient les
solutions sur un intervalle I .

Corollaire 24
Soit a ∈ L(E) et x0 ∈ E . L’application :
ϕ : IR −→ E
t �−→ exp(ta) · x0
est l’unique solution sur IR du problème de Cauchy :
x′ = a · x et x(0) = x0 .

742
III Systèmes différentiels à coefficients constants

Version matricielle
Proposition 25 (Résolution d’un problème de Cauchy)
Soit A ∈ Mn (IK) et (t0 , X0 ) ∈ IR × IKn . L’application :
 
ϕ : t �→ exp (t − t0 )A X0
est l’unique solution du problème de Cauchy :
X ′ = AX et X(t0 ) = X0 .

Corollaire 26
Soit A ∈ Mn (IK) et X0 ∈ IKn . L’application :
ϕ : IR −→ Mn (IK)
t �−→ exp(tA)X0
est l’unique solution sur IR du problème de Cauchy :
X ′ = AX et X(0) = X0 .

Ex. 17. Si V est un vecteur propre de A associé à la valeur propre λ , alors l’applica-
tion ϕ : t �→ eλt V est l’unique solution sur IR du problème de Cauchy : X ′ = A X et X(0) = V .
En effet, comme on l’a vu dans l’exemple 9 de la page 738, etA V = eλt V .

Solution de l’équation avec second membre


Il est aussi possible de donner une expression d’une équation à coefficients constants
avec second membre à l’aide de l’exponentielle.
Ex. 18. Soit ϕ la solution du problème de Cauchy :

(E) : x′ = a · x + b(t) et x(t0 ) = x0 .

La fonction ψ : t �→ exp(−ta) · ϕ(t) est aussi de classe C 1 et, pour tout t ∈ I :

Ψ′ (t) = − exp(−ta) ◦ a · ϕ(t) + exp(−ta).ϕ′ (t)


 
= − exp(−ta) ◦ a · ϕ(t) + exp(−ta) a · ϕ(t) + b(t)) = exp(−ta) · b(t).

Sachant que Ψ(t0 ) = exp(−t0 a) · x0 , on en déduit :


 t
∀t ∈ I ψ(t) = exp(−t0 a) · x0 + exp(−sa) · b(s) ds
t0

et donc :
 t
∀t ∈ I ϕ(t) = exp(ta) · ψ(t) = exp(ta) exp(−t0 a) · x0 + exp(ta) exp(−sa) · b(s) ds
t0
 t
   
= exp (t − t0 )a · x0 + exp (t − s)a · b(s) ds.
t0

On voit l’analogie avec la solution d’un équation linéaire scalaire du premier ordre, obtenue par
la méthode de variation de la constante.

743
Chapitre 18. Équations différentielles linéaires

3 Résolution pratique de l’équation homogène


On s’intéresse dans cette partie à une équation homogène de la forme :
X ′ = AX (E0 )
avec A ∈ Mn (IK), dont les solutions sont les fonctions t �→ etA V , où V est un vecteur
quelconque de IKn d’après le corollaire 26 de la page précédente.
Cas où A est diagonalisable
On a vu qu’il était facile de calculer l’exponentielle d’une matrice diagonalisable (cf.
exemple 12 de la page 739) et donc d’exprimer les solutions de (E0 ) dans ce cas. Si :
A = P DP −1 avec P ∈ GLn (IK) et D = Diag(λ1 , . . . , λn ),
On a alors :
 
etλ1 (0)
 ..  −1
exp(tA) = P exp(D)P −1 = P  . P .
(0) eλn t
On peut aussi donner une expression simple d’une base de S .
Proposition 27
Supposons la matrice A diagonalisable. Soit (V1 , . . . , Vn ) une base de vecteurs
propres de A et (λ1 , . . . , λn ) la liste des valeurs propres associées. Alors, en no-
tant, pour tout k ∈ [[1, n]] :
ϕk : IR −→ IKn
� → eλk t Vk
t −
Exo la famille (ϕ1 , . . . , ϕn ) est une base de S .
18.4 Démonstration page 765

Remarques
• Dans le cas où A est à coefficients réels, on peut s’intéresser aux solutions com-
plexes ou réelles de l’équation. Lorsqu’il y a ambiguïté, on note SC et SIR pour
éviter toute confusion.
• Si A est diagonalisable dans IR et si (V1 , . . . , Vn ) est une base de vecteurs propres
réels, alors les applications ϕk : t →
� eλk t Vk de la proposition 27 sont à valeurs
réelles et l’on a :
SC = VectC (ϕ1 , . . . , ϕn ) et SIR = VectIR (ϕ1 , . . . , ϕn ).

Cas où A est diagonalisable dans C mais pas dans IR


Si A ∈ Mn (IR) est diagonalisable dans C mais pas dans IR , le paragraphe précédent
nous fournit les solutions complexes. On souhaite déterminer les solutions réelles
Ex. 19. Considérons une application ϕ : IR → Cn . Alors, dans le C -espace vectoriel des fonctions
de IR dans Cn , on a :
� �
Vect(ϕ, ϕ) = Vect Re(ϕ), Im(ϕ) .
� �
• On a Vect(ϕ, ϕ) ⊂ Vect Re(ϕ), Im(ϕ) du fait des deux relations :

ϕ = Re(ϕ) + i Im(ϕ) et ϕ = Re(ϕ) − i Im(ϕ).

744
III Systèmes différentiels à coefficients constants

 
• L’inclusion réciproque Vect Re(ϕ), Im(ϕ) ⊂ Vect(ϕ, ϕ) vient des relations :

ϕ+ϕ ϕ−ϕ
Re(ϕ) = et Im(ϕ) = ·
2 2i

Point méthode Si A ∈ Mn (IR) est diagonalisable dans C mais pas dans IR, on peut
déterminer l’ensemble SIR des solutions réelles de (E0 ) à partir de la diagonalisation
de A.
1. On forme une base de vecteurs propres complexes de A telle que :
• les vecteurs propres associés à des valeurs propres réelles appartiennent
à IRn ;
• vis-à-vis des valeurs propres non réelles, on forme des couples de vecteurs
propres conjugués (i.e. de la forme (V, V )).
2. Dans la base (ϕ1 , . . . , ϕn ) de SC évoquée dans la proposition 27 de la page
ci-contre, on voit alors apparaître :
• pour les valeurs propres réelles, des applications de la forme t �→ eλt V , qui
sont à valeurs dans IRn ;
• pour les valeurs propres non réelles, des couples de la
 
forme t �→ eλt V, t �→ eλt V , c’est-à-dire de la forme (ϕ, ϕ)
 
3. On change les couples de la forme (ϕ, ϕ) en Re(ϕ), Im(ϕ) .
L’exemple 19 de la page précédente assure que la nouvelle famille ainsi obtenue
est encore une base de SC . Cette base de SC :
• est constituée de solutions de (E0 ) à valeurs dans IRn , i.e. d’éléments de SIR ;
• est libre dans le C-espace vectoriel F(IR, C), donc l’est également dans le IR-
Exo
espace vectoriel F (IR, IR).
18.5 Comme elle comporte n éléments et que dim SIR = n, c’est une base de SIR .

Ex. 20. Résolvons dans C puis dans IR le système différentiel X ′ = AX avec :


 
1 −1 2
A= 2 −1 3 .
0 0 1

• Pour x ∈ C , on a :
   
 x−1 1 −2   x−1 
   1  = (x − 1)(x2 + 1).
χA (x) =  −2 x+1 −3  = (x − 1)  −2 x + 1 
 0 0 x−1 

On a donc sp(A) = {1, i, −i} . La matrice A est donc diagonalisable dans C mais pas
dans IR .
• Après calculs :
 
1
∗ le vecteur V1 = 4 est vecteur propre associé à la valeur propre 1 ;
2

745
Chapitre 18. Équations différentielles linéaires
 
1+i
∗ le vecteur V2 = 2 est vecteur propre associé à la valeur propre i ; par suite,
0
comme A est à coefficients réels, le vecteur V2 est vecteur propre associé à la valeur
propre −i .
• Ainsi, une base de SC est donnée par (X1 , X2 , X2 ) avec :

X1 : t �→ et V1 et X2 : t �→ eit V2 .

 
• Comme Vect(X2 , X2 ) = Vect Re(X2 ), Im(X2 ) (cf. exemple 19 de la page 744), on en
 
déduit que la famille X1 , Re(X2 ), Im(X2 ) est une base de SC , et donc de SIR car elle est
formée d’applications à valeurs dans IR3 . De manière plus explicite, on a :

     
1 cos t − sin t cos t + sin t
t
X1 (t) = e 4 , Re(X2 )(t) = 2 cos t , Im(X2 )(t) = 2 sin t .
2 0 0

Cas où la matrice A n’est pas diagonalisable dans C

Point méthode Dans le cas où A est seulement trigonalisable :


1. on trigonalise en écrivant A = P T P −1 avec T triangulaire supérieure ;
2. en posant Y = P −1 X et en traduisant sur Y le système différentiel X ′ = AX ,
on obtient le système différentiel Y ′ = T Y ; ce système différentiel est triangu-
laire et on peut le résoudre ligne par ligne, du bas vers le haut ;
3. on obtient alors les solutions cherchées à l’aide de la relation X = P Y .

Remarques
Exo • Dans la démarche précédente :
18.6
∗ il n’est pas nécessaire de calculer P −1 ;
∗ lorsque l’on trigonalise A, on cherchera à obtenir la matrice triangulaire la plus
simple possible afin d’obtenir le système différentiel Y ′ = T Y le plus simple
possible.

• La technique consistant à obtenir un système différentiel plus simple par réduction


Exo de la matrice A peut aussi s’appliquer pour un système différentiel avec second
18.7 membre de la forme X ′ = AX + B(t).

Exo • Si l’on décompose Cn en somme de sous-espaces caractéristiques, on se ramène au


18.8
cas où A s’écrit λIn + N , avec λ ∈ C et N nilpotente (cf. exercice 18.11).

746
III Équations différentielles linéaires scalaires d’ordre n

IV Équations différentielles linéaires scalaires


d’ordre n
On suppose ici que n est un entier naturel non nul.
1 Définition
Définition 8
• On appelle équation différentielle linéaire scalaire d’ordre n une équation
de la forme :
n−1

(n)
x + ak (t)x(k) = b(t), (E)
k=0

où (ak )k∈[[0,n−1]] est une famille de n applications continues de I dans IK et b


une application continue de I dans IK.
• L’application b ∈ C (I, IK) s’appelle le second membre de (E).
• On dit que l’équation (E) est à coefficients constants si toutes les fonctions ak
sont constantes et qu’elle est homogène ou sans second membre si b = 0.
• On appelle équation homogène associée à (E), l’équation :
n−1

x(n) + ak (t)x(k) = 0. (E0 )
k=0

Définition 9
On appelle solution de l’équation différentielle linéaire (E) toute application n fois
dérivable ϕ : I → IK vérifiant :
n−1

∀t ∈ I ϕ(n) (t) + ak (t) ϕ(k) (t) = b(t).
k=0

Dans la suite de cette section, on considère une équation (E) de ce type.


Remarques
• L’équation (E) dans la définition 8 est écrite sous une forme dite normalisée,
ce qui signifie que le coefficient devant x(n) vaut 1 . Si une équation différentielle
linéaire scalaire d’ordre n apparaît sous une forme non normalisée, c’est-à-dire :
αn (t) x(n) + αn−1 (t) x(n−1) + · · · + α0 (t) x = b(t).
alors :
∗ si la fonction αn ne s’annule pas sur I , on divise par αn pour se ramener à
une forme normalisée ;
∗ sinon, le problème est plus délicat : quelques exemples de telles équations seront
vus dans la partie V.5 page 758.
• Puisque les applications a0 , . . . , an−1 , b sont a minima supposées continues, toute
solution de (E) est de classe C n .

747
Chapitre 18. Équations différentielles linéaires

2 Traduction sous la forme d’un système différentiel linéaire


d’ordre 1
Nous reprenons ici les notations de la définition 8 de la page précédente.
Considérons les applications A : I → Mn (IK) et B : I → IKn définies par :
 
0 1  
 
 ..
 . ..
.
..
.

  0 
 (0)   . 
 .   .. 
.. ..  et B(t) =  
 ..
A(t) =  . .  

.

   0 
   
 0 ··· ··· 0 1 
  b(t)
−a0 (t) −a1 (t) · · · · · · −an−1 (t)

Remarque Pour tout t, la matrice A(t) est la transposée de la matrice compagnon


(cf. page 102) du polynôme X n + an−1 (t)X n−1 + · · · + a0 (t) .
Les applications A et B ainsi définies permettent de traduire l’équation différentielle
scalaire (E) sous la forme d’un système différentiel d’ordre 1 .
Proposition 28
Une fonction ϕ : I → IK est solution de l’équation différentielle (E) si, et seule-
 
ϕ(t)
 .. 
ment si, l’application Φ : t �−→  .  est solution du système différentiel
ϕ(n−1)
(t)
d’ordre 1 :
X ′ = A(t)X + B(t). (EM)
Démonstration page 766

La proposition précédente ramène ainsi l’étude des équations différentielles scalaires


d’ordre n à celle des systèmes différentiels du premier ordre. Les résultats qui suivent
sont donc des conséquences immédiates de ceux établis dans la partie I.
Proposition 29 (Structure de l’ensemble des solutions)
• L’ensemble S0 des solutions de l’équation homogène (E0 ) est un sous-espace
vectoriel de C n (I, IK).
• Si ϕP est une solution de (E), alors l’ensemble S des solutions sur I de l’équa-
tion de (E) est le sous-espace affine de C n (I, IK) passant par ϕP et de direc-
tion S0 :
S = ϕp + S0 .

Problème de Cauchy
Reprenons les notations de la proposition 28.
Le théorème de Cauchy linéaire pour les systèmes différentiels nous assure que pour
tout couple (t0 , X0 ) ∈ I × IKn , il existe une unique solution Φ au système différen-
tiel (EM) vérifiant la condition initiale :
Φ(t0 ) = X0 .

748
V Équations différentielles linéaires scalaires d’ordre 2
 
ϕ(t0 )
 .. 
Puisque Φ(t0 ) =  .  , on constate que fixer une condition initiale de la
ϕ(n−1) (t0 )
forme Φ(t0 ) = X0 revient à fixer les valeurs de ϕ(t0 ), . . . , ϕ(n−1) (t0 ). Cela mène à la
version suivante du théorème de Cauchy linéaire :

Théorème 30 (Théorème de Cauchy linéaire)


Pour tout (t0 , x0 , . . . , xn−1 ) ∈ I × IKn , il existe une et une seule solution ϕ de (E)
vérifiant :
∀k ∈ [[0, n − 1]] ϕ(k) (t0 ) = xk .

Ex. 21. Sans calculs, le théorème de Cauchy linéaire assure l’existence et l’unicité de la solution
sur IR du problème de Cauchy suivant :
� �
x′′ + sin(t) x′ + cos(t) x = t et x(0), x′ (0) = (1, 0).

Espace des solutions de l’équation homogène

Proposition 31
Soit t0 ∈ I. L’application :
S0 −→ �IKn �
ϕ �−→ ϕ(t0 ), . . . , ϕ(n−1) (t0 )
est un isomorphisme d’espaces vectoriels.

Corollaire 32
Exo L’espace S0 des solutions de l’équation différentielle homogène (E0 ) est de dimen-
18.13 sion n.

V Équations différentielles linéaires scalaires


d’ordre 2
Nous étudions dans ce qui suit une équation linéaire scalaire du second ordre de la
forme :
x′′ + a1 (t)x′ + a0 (t)x = b(t) (E)
où a0 , a1 et b sont des fonctions continues de I dans IK . Cette équation est un cas
particulier des équations linéaires scalaires d’ordre n étudiées dans la partie précé-
dente. On a donc :
• l’espace vectoriel S0 des solutions de l’équation homogène (E0 ) associée à (E) est
de dimension 2 ;
• si ϕP est une solution de (E), alors l’ensemble S des solutions de (E) est le
sous-espace affine :
S = ϕP + S0 ;

749
Chapitre 18. Équations différentielles linéaires

• le théorème de Cauchy linéaire assure l’existence et l’unicité d’une solution ϕ


de (E) vérifiant une condition initiale de la forme :
 
ϕ(t0 ), ϕ′ (t0 ) = (x0 , x1 ) avec (t0 , x0 , x1 ) ∈ I × IK2 .

Remarque Comme pour les équations linéaires d’ordre 1 , on déduit de l’unicité des
propriétés qualitatives des solutions.

Ex. 22. Les zéros (c’est-à-dire les points d’annulation) d’une solution ϕ non nulle de l’équation
linéaire scalaire homogène du second ordre :

x′′ + a1 (t)x′ + a0 (t)x = 0 (E)

sont isolés. Autrement dit, si ϕ(t0 ) = 0 , alors il existe r > 0 tel que ϕ ne s’annule pas
sur [t0 − r, t0 + r] \ {t0 } .
 
Comme ϕ n’est pas la fonction nulle, on a ϕ(t0 ), ϕ′ (t0 ) �= (0, 0) , car la fonction nulle est la
 
seule solution f de (E) telle que f (t0 ), f ′ (t0 ) = (0, 0) . On a donc ϕ′ (t0 ) �= 0 . On en déduit :

ϕ(t) ϕ(t) − ϕ(t0 )


lim = lim = ϕ′ (t0 ) �= 0.
t→t0 t − t0 t→t0 t − t0
ϕ(t)
Cela implique qu’il existe r > 0 tel que t−t0
�= 0 , c’est-à-dire ϕ(t) �= 0 , sur [t0 −r, t0 +r]\{t0 } .

1 Wronskien
Définition 10
Soit ϕ1 et ϕ2 deux solutions de l’équation homogène (E0 ).
On appelle wronskien de la famille (ϕ1 , ϕ2 ) l’application :
Wϕ1 ,ϕ2 : I −→ IK  
ϕ1 (t) ϕ2 (t)
t �−→ det .
ϕ′1 (t) ϕ′2 (t)

Remarque On a :
Wϕ1 ,ϕ2 = ϕ1 ϕ′2 − ϕ′1 ϕ2 .
Comme ϕ1 et ϕ2 sont solutions de (E0 ), elles sont deux fois dérivables, donc Wϕ1 ,ϕ2
est dérivable. De plus, sa dérivée se simplifie ainsi :
Wϕ′ 1 ,ϕ2 = ϕ1 ϕ′′2 − ϕ′′1 ϕ2 .

Proposition 33
Le wronskien d’un couple (ϕ1 , ϕ2 ) ∈ (S0 )2 est solution sur I de l’équation différen-
tielle linéaire homogène d’ordre 1 :
x′ + a1 (t)x = 0.

Démonstration. L’expression obtenue pour la dérivée du wronskien de (ϕ1 , ϕ2 ) est :


Wϕ′ 1 ,ϕ2 = ϕ1 ϕ′′2 − ϕ′′1 ϕ2 ,

750
V Équations différentielles linéaires scalaires d’ordre 2

et donc, puisque ϕ1 et ϕ2 sont solutions de (E0 ) :


   
Wϕ′ 1 ,ϕ2 = ϕ1 − a1 ϕ′2 − a0 ϕ2 − − a1 ϕ′1 − a0 ϕ1 ϕ2
 
= −a1 ϕ1 ϕ′2 − ϕ′1 ϕ2
= −a1 Wϕ1 ,ϕ2 ,

donc Wϕ1 ,ϕ2 est solution de l’équation x′ + a1 (t)x = 0 .

Ex. 23. Si l’équation différentielle considérée est de la forme :

(E) : x′′ + q(t)x = 0 avec q : I → IK une fonction continue,

alors le wronskien Wϕ1 ,ϕ2 d’un couple (ϕ1 , ϕ2 ) ∈ (S0 )2 vérifie Wϕ′ 1 ,ϕ2 = 0 et donc, I étant
un intervalle, il est constant sur I .

Le wronskien est un outil qui permet de caractériser les bases de solutions.


Proposition 34
Soit ϕ1 et ϕ2 des solutions de (E 0 ). Notons W le wronskien de (ϕ1 , ϕ2 ).
Les trois assertions suivantes sont équivalentes :
(i) (ϕ1 , ϕ2 ) est une base de S0 ;
(ii) ∃t ∈ I W (t) �= 0 ;
Exo (iii) ∀t ∈ I W (t) �= 0 .
18.14 Démonstration page 766

2 Recherche d’une solution particulière : méthode de variation


des constantes
Supposons connue (ϕ1 , ϕ2 ) une base de l’espace S0 des solutions de l’équation ho-
mogène (E0 ). La méthode de variation des constantes consiste alors à chercher
une solution particulière de (E) sous la forme :
ϕ = λ1 ϕ1 + λ2 ϕ2 avec λ1 et λ2 dérivables.
On a alors :
ϕ′ = λ1 ϕ′1 + λ2 ϕ′2 + λ′1 ϕ1 + λ′2 ϕ2 .
Si l’on impose la condition supplémentaire λ′1 ϕ1 + λ′2 ϕ2 = 0 , on a alors :
ϕ′′ = λ1 ϕ′′1 + λ2 ϕ′′2 + λ′1 ϕ′1 + λ′2 ϕ′2 ,
ce qui donne :
ϕ′′ + a1 ϕ′ + a0 ϕ = λ1 (ϕ′′1 + a1 ϕ′1 + a0 ϕ1 ) +λ2 (ϕ′′2 + a1 ϕ′2 + a0 ϕ2 ) +λ′1 ϕ′1 + λ′2 ϕ′2
     
=0 =0

= λ′1 ϕ′1 + λ′2 ϕ′2 .


Ainsi, pour que ϕ soit solution de (E) il suffit d’avoir :
 ′
λ1 ϕ1 + λ′2 ϕ2 = 0
λ′1 ϕ′1 + λ′2 ϕ′2 = b.

751
Chapitre 18. Équations différentielles linéaires

Puisque la famille (ϕ1 , ϕ2 ) est une base de S0 , son wronskien ne s’annule pas. Donc,
pour tout t ∈ I , le système :
 ′
λ1 (t)ϕ1 (t) + λ′2 (t)ϕ2 (t) = 0
λ′1 (t)ϕ′1 (t) + λ′2 (t)ϕ′2 (t) = b(t)
permet de déterminer λ′1 (t) et λ′2 (t). Les fonctions λ′1 et λ′2 obtenues sont alors
continues comme quotients de fonctions continues. En primitivant, on obtient une
solution ϕ de (E).

Point méthode (Méthode de variation des constantes) Si l’on connaît une


base (ϕ1 , ϕ2 ) de l’espace des solutions de (E0 ), alors on peut rechercher une solution
particulière de (E) sous la forme :
ϕ = λ1 ϕ1 + λ2 ϕ2 avec λ1 et λ2 dérivables sur I .
Une telle fonction ϕ est solution de (E) si :
 ′
λ1 ϕ1 + λ′2 ϕ2 = 0
λ′1 ϕ′1 + λ′2 ϕ′2 = b.
On peut alors déterminer λ′1 et λ′2 , puis λ1 et λ2 par calcul de primitives.

Ex. 24. Considérons l’équation différentielle :

(E) : x′′ + x = tan t,

sur un intervalle I de la forme ]− π2 + kπ, π2 + kπ[ , où k ∈ ZZ .


L’équation homogène est à coefficients constants et une base de l’ensemble des solutions
est (sin, cos) . On applique la méthode de la variations des constantes, en cherchant une so-
lution de (E) sous la forme λ1 sin +λ2 cos , avec λ1 et λ2 dérivables sur I . Il suffit d’avoir :

λ′1 (t) sin t + λ′2 (t) cos t = 0
∀t ∈ I
λ′1 (t) cos t − λ′2 (t) sin t = tan t,

ce qui après résolution donne :

sin2 t
∀t ∈ I λ′1 (t) = sin t et λ′2 (t) = − ·
cos t
On peut choisir λ1 (t) = − cos t . Pour déterminer λ2 , on écrit :

cos2 t − 1 1 cos t cos t cos t


λ′2 (t) = = cos t − = cos t − = cos t − − ,
cos t cos t 1 − sin2 t 2(1 + sin t) 2(1 − sin t)
 
ce qui montre que l’on peut choisir λ2 (t) = sin t − 12 ln 1+sin t
1−sin t
· On obtient la solution de (E)
donnée par :
cos t
 1 + sin t 
∀t ∈ I ϕ(t) = − ln ·
2 1 − sin t
Le solutions réelles de (E) sur I sont les fonctions :
 
cos t 1 + sin t
t �→ − ln + λ sin t + µ cos t avec (λ, µ) ∈ IR2 .
2 1 − sin t

752
V Équations différentielles linéaires scalaires d’ordre 2

3 Quelques techniques classiques d’obtention de solutions


d’une équation scalaire d’ordre 2
Ces techniques peuvent s’appliquer également aux équations non normalisées.
Recherche de solutions « simples »
Selon l’allure de l’équation, il peut être pertinent de rechercher une solution sous une
forme explicite : fonctions polynomiales, exponentielles, trigonométriques, . . .
Ex. 25. Cherchons les solutions polynomiales de l’équation :

(t2 + 2t − 1)x′′ + (t2 − 3)x′ − (2t + 2)x = 0. (E0 )

Le polynôme P est une solution de (E0 ) si, et seulement si,


′′
Q = (X 2 + 2X − 1)P + (X 2 − 3)P ′ − (2X + 2)P = 0.

Si αn X n est le terme de plus haut degré de P , le terme de degré n + 1 de Q est : nαn − 2αn .
Il doit être nul. Comme αn �= 0 , n = 2 . On cherche donc P de la forme :

P = α2 X 2 + α1 X + α0 avec α2 �= 0.

En reportant dans l’équation (E0 ) et, par unicité des coefficients, on obtient que t �→ P (t) est

α1 = 0
solution de (E0 ) si, et seulement si, Par suite, les solutions polynomiales
α0 = −α2 .
de (E0 ) sont les fonctions :
t �→ λ (t2 − 1) avec λ ∈ IR.

Exo Recherche de solutions développables en série entière


18.15
Ex. 26. Considérons sur IR l’équation homogène :

(E0 ) : tx′′ + 2x′ + tx = 0.

Recherchons les solutions de (E0 ) développables en série entière.


• Soit ϕ une fonction développable en série entière sur un intervalle de la forme ]−r, r[
avec r > 0 . Pour t ∈ ]−r, r[ , on a :

+∞ +∞ +∞
  
ϕ(t) = an tn ϕ′ (t) = nan tn−1 et ϕ′′ (t) = n(n − 1)an tn−2 .
n=0 n=1 n=2

On a, pour tout t ∈ ]−r, r[ :

+∞ +∞ +∞
  
A(t) = tϕ′′ (t) + 2ϕ′ (t) + tϕ(t) = t n(n − 1)an tn−2 + 2 nan tn−1 + t an tn ,
n=2 n=1 n=0

puis en réindexant les sommes pour obtenir dans chacune d’entre elles des tn :
+∞ +∞ +∞
  
A(t) = n(n + 1)an+1 tn + 2 (n + 1)an+1 tn + an−1 tn ,
n=1 n=0 n=1

753
Chapitre 18. Équations différentielles linéaires

ce qui donne, en regroupant les sommes :


+∞
 
A(t) = 2a1 + (n + 1)(n + 2)an+1 + an−1 tn .
n=1

Par unicité du développement en série entière, on en déduit :

ϕ solution de (EH) ⇐⇒ A est la fonction nulle


⇐⇒ a1 = 0 et ∀n  1 (n + 1)(n + 2)an+1 + an−1 = 0
(−1)n
⇐⇒ ∀n ∈ IN a2n+1 = 0 et a2n = a0 .
(2n + 1)!

• ∗ Si ϕ est une solution de (E0 ) développable en série entière, on a donc :


+∞
(−1)n
ϕ(t) = a0 t2n .
(2n + 1)!
n=0

∗ Réciproquement :
 (−1)n
⋆ le rayon de convergence de la série entière t2n vaut +∞ (on le montre
(2n + 1)!
par exemple par le critère de d’Alembert) ;
⋆ d’après les calculs effectués dans la première partie du raisonnement, la fonction :

+∞
 (−1)n
ϕ1 : t �→ t2n
(2n + 1)!
n=0

est solution de (E0 ) sur IR .


L’ensemble des solutions de (E0 ) développables en séries entières est Vect(ϕ1 )
• On peut simplifier l’expression de cette solution ϕ1 en remarquant que :

+∞
 (−1)n
∀t ∈ IR t ϕ1 (t) = t2n+1 = sin t,
(2n + 1)!
n=0

et donc finalement :

sin t
ϕ1 (0) = 1 et ∀t ∈ IR∗ ϕ1 (t) = ·
t

Exo Changement de variables


18.16
Dans certains cas, l’équation différentielle (E) se traduit de manière plus simple
 
sur une fonction de la forme u �→ x θ(u) (idéalement, une équation à coefficients
constants). La résolution de cette équation plus simple peut permettre d’en déduire
les solutions de l’équation initiale.
Cette technique n’est pas réservée aux équations homogènes, comme le montre
l’exemple suivant.

754
V Équations différentielles linéaires scalaires d’ordre 2

Ex. 27. Considérons, sur ]0, +∞[ , l’équation différentielle linéaire d’ordre 2 :

(E) : t2 x′′ + 3 t x′ + 4 x = t ln t.
Résolvons (E) grâce au changement de variable t = eu .
• Soit f une solution de (E) .
∗ Considérons la fonction :
g : IR −→ IR
u �−→ f (eu ).
Comme f est deux fois dérivable sur ]0, +∞[ , g est deux fois dérivable sur IR et l’on a,
pour tout u ∈ IR :

g ′ (u) = eu f ′ (eu ) et g ′′ (u) = eu f ′ (eu ) + (eu )2 f ′′ (eu ).


On constate alors que, pour u ∈ IR :

g ′′ (u) + 2 g ′ (u) + 4 g(u) = (eu )2 f ′′ (eu ) + 3 eu f ′ (eu ) + 4 f (eu ).


La fonction f étant solution de (E) , on obtient, pour tout u ∈ IR :

g ′′ (u) + 2 g ′ (u) + 4 g(u) = u eu ,


et donc la fonction g est solution sur IR de l’équation différentielle :
 : x′′ + 2 x′ + 4 x = u eu .
(E)
Cette équation est une équation différentielle linéaire scalaire d’ordre 2 à coefficients
constants que l’on sait résoudre. Après l’avoir résolue, on en déduit qu’il existe (a, b) ∈ IR2
tel que, pour tout u ∈ IR :
√  √  7u − 4 u
g(u) = a e−u cos 3 u + b e−u sin 3u + e .
49
∗ Revenons sur la fonction f . Pour tout t ∈ ]0, +∞[ , on a :
 
f (t) = f eln t = g(ln t).

Par suite, on obtient l’expression suivante de f (t) pour t ∈ ]0, +∞[ :


a √  b √  7t ln t − 4t
f (t) = cos 3 ln t + sin 3 ln t + ·
t t 49
• Notons S l’ensemble des solutions.
∗ Puisque l’on travaille sur ]0, +∞[ , l’équation (E) peut être mise sous forme normalisée.
Si ϕP ∈ S , alors S = ϕP + S0 , où S0 est l’espace vectoriel de dimension 2 des solutions
de l’équation homogène.
 
∗ On a montré que S ⊂ ϕ + Vect ϕ1 , ϕ2 avec :

t ln t 4t 1 √  1 √ 
ϕ : t �→ − , ϕ1 : t �→ cos 3 ln t et ϕ2 : t �→ sin 3 ln t .
7 49 t t
L’inclusion entre deux sous-espace affines implique l’inclusion de leur direction. On a
   
donc S0 ⊂ Vect ϕ1 , ϕ2 et pour des raisons de dimension S0 = Vect ϕ1 , ϕ2 .
Comme ϕP est une solution de S , elle appartient à ϕ + S0 . On a donc :
 
S = ϕP + S0 = ϕ + S0 = ϕ + Vect ϕ1 , ϕ2 .

755
Chapitre 18. Équations différentielles linéaires

4 Résolution de l’équation homogène (E0 ) quand on en


connaît une solution non nulle
Supposons connue une solution ϕ1 non nulle de (E0 ). Comme dim(S0 ) = 2 , il reste
à déterminer une solution non proportionnelle à ϕ1 .
Méthode du wronskien
• Pour ϕ ∈ S0 , l’équation différentielle linéaire scalaire du premier ordre vérifiée par
le wronskien W de (ϕ1 , ϕ) permet d’en obtenir une expression, à une constante
proportionnelle près.
 
ϕ
• Sur un intervalle où ϕ1 ne s’annule pas, on peut considérer la fonction
ϕ1
dont la dérivée est donnée par :
 ′
ϕ ϕ′ ϕ1 − ϕ ϕ′1 W
= = 2·
ϕ1 ϕ21 ϕ1
ϕ
En primitivant, on obtient alors une expression de puis de ϕ.
ϕ1
Ex. 28. Supposons que l’on souhaite résoudre sur ]0, +∞[ l’équation différentielle :
x′ x
(E0 ) : x′′ + − 2 = 0.
t t
On constate que la fonction ϕ1 : t �→ t est solution.
• Soit ϕ une solution de (E0 ) . Le wronskien W de la famille (ϕ1 , ϕ) est solution sur I de
l’équation différentielle d’ordre 1 :
1
x′ + x = 0.
t
λ
En résolvant cette équation, on obtient W (t) = avec λ ∈ IR .
t
 
ϕ
D’autre part, comme ϕ1 ne s’annule pas sur ]0, +∞[ , on peut considérer la fonction
ϕ1
dont la dérivée vérifie :  ′
ϕ ϕ′ ϕ1 − ϕ ϕ′1 W
= = 2·
ϕ1 ϕ21 ϕ1
Ainsi, on a :
 ′
ϕ λ
∀t ∈ ]0, +∞[ = ·
ϕ1 t3
Il en résulte qu’il existe µ ∈ IR tel que pour tout t ∈ ]0, +∞[ :
ϕ(t) λ λ
=− 2 +µ puis ϕ(t) = − + µt.
ϕ1 (t) 2t 2t
1
On a donc ϕ ∈ Vect(ϕ1 , ϕ2 ) avec ϕ2 : t �→ ·
t
• On peut alors conclure la résolution de (E0 ) . On a obtenu :
S0 ⊂ Vect(ϕ1 , ϕ2 ).
Comme dim S0 = 2 , on a nécessairement S0 = Vect(ϕ1 , ϕ2 ) .

756
V Équations différentielles linéaires scalaires d’ordre 2

Remarque L’exemple précédent est favorable car la solution ϕ1 dont on est parti
ne s’annule pas sur l’intervalle de résolution. Il peut arriver que cette fonction ϕ1
s’annule, auquel cas il faut se restreindre à un sous-intervalle J ⊂ I sur lequel elle ne
s’annule pas. La relation :
∀t ∈ J ϕ = λ ϕ1 (t) + µ ϕ2 (t)
Exo obtenue ne permet pas de conclure directement ; en revanche, si ϕ2 est définie sur I
18.17 tout entier et que l’on pense qu’elle est solution, alors il est facile de le montrer.

Méthode alternative à la méthode précédente


Connaissant une solution non nulle ϕ1 de l’équation homogène (E0 ), on dispose
d’une méthode alternative à la méthode précédente. Elle consiste à rechercher d’autres
solutions de (E0 ) sous la forme :
ϕ = λ ϕ1 avec λ une fonction deux fois dérivable.
On a alors :
ϕ′ = λ′ ϕ1 + λ ϕ′1 et ϕ′′ = λ′′ ϕ1 + 2 λ′ ϕ′1 + λ ϕ′′1 ,
donc :
ϕ′′ + a1 ϕ′ + a0 ϕ = λ′′ ϕ1 + λ′ (2 ϕ′1 + a1 ϕ1 ) + λ (ϕ′′1 + a1 ϕ′1 + a0 ϕ1 ) .
  
=0

Donc λ doit vérifier l’équation :


λ′′ ϕ1 + λ′ (2ϕ′1 + a1 ϕ1 ) = 0.
La fonction λ′ est solution d’une équation différentielle linéaire d’ordre 1 . Sur un
intervalle où ϕ1 ne s’annule pas, on peut alors déterminer λ et obtenir une expression
de ϕ.

Ex. 29. Reprenons l’exemple 28 de la page précédente.


La fonction ϕ1 : t �→ t est solution et ne s’annule pas sur ]0, +∞[ . On cherche une solu-
tion sous la forme ϕ = λ ϕ1 . On obtient, pour tout t > 0 , tλ′′ (t) + 3λ′ (t) = 0 , c’est-à-
3λ′ (t)
dire λ′′ (t) = − · En intégrant, on obtient l’existence de α ∈ IR tel que :
t
α
∀t > 0 λ′ (t) = αe−3 ln t = ,
t3
puis l’existence de β tel que :

−α −α
∀t > 0 λ(t) = +β et donc ∀t > 0 ϕ(t) = + βt.
2t2 2t
1
On conclut comme par l’autre méthode que S0 = Vect(ϕ1 , ϕ2 ) avec ϕ2 : t �→ ·
t

757
Chapitre 18. Équations différentielles linéaires

5 Exemples de résolution d’équations non normalisées


Étant donné une équation différentielle linéaire scalaire de la forme :

an (t) x(n) + · · · + a0 (t) x = b(t), (E)


si la fonction an ne s’annule pas sur l’intervalle I de résolution, alors en divisant
par an (t), on se ramène à une équation normalisée. L’objectif de cette partie est de
traiter quelques exemples d’équations ne pouvant être mises sous forme normalisée.
Le plan d’étude d’équations non normalisées sera en général le suivant :

Point méthode (Étude d’une équation non normalisée) Pour résoudre une équa-
tion linéaire de la forme an (t)x(n) + · · · + a0 (t)x = b(t) lorsque la fonction an
possède des points d’annulation :
Exo
18.18 • on commence par résoudre l’équation sur tout intervalle sur lequel an ne s’annule
pas ;
Exo
18.19 • on cherche ensuite, par analyse-synthèse, les solutions sur l’intervalle entier.

Pour des équations différentielles linéaires non normalisées subsistent :


• le principe de superposition ;
• l’ensemble S0 des solutions de l’équation homogène est un espace vectoriel ;
• la structure de l’ensemble des solutions : s’il n’est pas vide, S = ϕP + S0 , où ϕP
est une solution particulière.
En revanche, certaines propriétés ne sont plus vérifiées :
• la dimension de S0 n’est pas nécessairement égale à l’ordre de l’équation ;
• l’existence et l’unicité de la solution à un problème de Cauchy n’est plus assurée :
il peut ne pas y avoir de solution, en avoir deux ou une infinité.

Ex. 30. Considérons sur IR l’équation différentielle :

(E) : (1 − t) x′ − x = t.

• Tout d’abord, on constate que l’équation se résout facilement sur les intervalles ]−∞, 1[
et ]1, +∞[ où elle se met sous forme normalisée :
∗ sur ]−∞, 1[ , les solutions sont :

λ + t2
t �→ avec λ ∈ IR ;
2(1 − t)

∗ sur ]1, +∞[ , les solutions sont :

µ + t2
t �→ avec µ ∈ IR.
2(1 − t)

758
V Équations différentielles linéaires scalaires d’ordre 2

• Recherchons par analyse-synthèse les solutions de (E) sur IR .


Analyse Soit ϕ une solution de (E) sur IR .
∗ Tout d’abord, ϕ est solution de (E) sur l’intervalle ]−∞, 1[ et sur l’intervalle ]1, +∞[ ,
donc il existe (λ, µ) ∈ IR2 tel que :

 λ + t2
 si t<1
2(1 − t)
ϕ(t) = 2
 µ+t
 si t > 1.
2(1 − t)
∗ De plus, ϕ est dérivable sur IR et donc continue. En particulier, ϕ est continue en 1 ,
et donc possède une limite finie en 1 .
Cela impose d’avoir λ = µ = −1 . On obtient :

t2 − 1 t+1
∀t ∈ IR∗ ϕ(t) = =−
2(1 − t) 2
puis, par continuité en 1 :
t+1
∀t ∈ IR ϕ(t) = − ·
2
Synthèse Réciproquement, on vérifie que la fonction :
t+1
ϕ : t �→ −
2
est solution de (E) sur IR . C’est donc l’unique solution de (E) sur IR .
Ex. 31. Considérons sur IR l’équation différentielle :

(E) : 2t2 x′′ − 5t x′ + 5x = 0.

• Sur les intervalles ]−∞, 0[ et ]0, +∞[ , l’équation se met sous forme normalisée donc l’en-
semble des solutions est un espace vectoriel de dimension 2 .
∗ Sur ]0, +∞[ , on cherche des solutions ϕ de la forme t �→ tα , avec α ∈ IR . On trouve
facilement que ϕ est solution de (E) sur ]0, +∞[ si, et seulement si, 2α2 − 7α + 5 = 0 ,
5
ce qui donne α = 1 ou α = 52 · Les fonctions t �→ t et t �→ t 2 n’étant pas colinéaires,
elles forment une base de solutions. Sur ]0, +∞[ , les solutions sont donc :
5
t �→ λt + µt 2 avec (λ, µ) ∈ IR2 .

∗ Sur ]−∞, 0[ , on cherche des solutions ϕ de la forme t �→ (−t)α , avec α ∈ IR . On trouve


encore que ϕ est solution de (E) sur ]−∞, 0[ si, et seulement si, 2α2 − 7α + 5 = 0 . On
conclut comme dans le premier cas. Sur ]−∞, 0[ , les solutions sont donc :
5
t �→ λt + µ(−t) 2 avec (λ, µ) ∈ IR2 .

• Recherchons par analyse-synthèse les solutions de (E) sur IR .


Analyse Soit ϕ une solution de (E) sur IR .
∗ Tout d’abord, ϕ est solution de (E) sur l’intervalle ]−∞, 0[ et sur l’intervalle ]0, +∞[ ,
donc il existe (λ, µ, σ, τ ) ∈ IR2 tel que :
� 5
λt + µ(−t) 2 si t<0
ϕ(t) = 5
σt + τ t 2 si t > 0.

759
Chapitre 18. Équations différentielles linéaires

∗ Comme ϕ est solution de l’équation en 0 , on doit avoir de plus ϕ(0) = 0.


∗ La fonction ϕ est dérivable sur ]−∞, 0[ et ]0, +∞[ et :
 3
′ λ − 52 µ(−t) 2 si t<0
ϕ (t) = 3
σ + 52 τ t 2 si t > 0.

La fonction ϕ′ est dérivable donc continue, ce qui impose λ = σ .


Synthèse Soit ϕ : IR → IR une fonction de la forme :
 5
λt + µ(−t) 2 si t0
ϕ(t) = 5
λt + τ t 2 si t  0.

Il n’y a pas d’ambiguïté dans la définition de ϕ(0) puisque les deux expressions donnent
la même valeur.
∗ Cette fonction est solution de l’équation sur ]−∞, 0[ et ]0, +∞[ .
∗ Par définition, elle est continue à droite et à gauche en 0 , donc continue en 0 .
3
∗ On a, pour t < 0 , ϕ′ (t) = λ − 52 µ(−t) 2 donc lim ϕ′ (t) = λ , donc ϕ′g (0) = λ . On
t→0−
montre de même que ϕ′d (0) = λ . Ainsi ϕ est dérivable en 0 , avec ϕ′ (0) = λ , et ϕ′
est continue sur IR .
∗ Le même raisonnement montre que ϕ′ est dérivable à droite et à gauche en 0 et
que (ϕ′ )′g (0) = (ϕ′ )′d (0) = 0 . Ainsi, ϕ′ est dérivable en 0 et ϕ′′ (0) = 0.
La fonction ϕ est donc solution de (E) sur IR .
• On constate que l’ensemble des solutions de (E) est un espace vectoriel de dimension 3 ,
engendré par exemple par les fonctions :
 5 
(−t) 2 si t<0 0 si t<0
ϕ1 = t �→ t, ϕ2 : t �→ et ϕ3 : t �→ 5
0 si t0 t2 si t  0.

760
Démonstrations

Démonstrations
Proposition 1
• Si ϕ : I → E est solution de (E) , alors ϕ est de classe C 1 , donc continue, et vérifie :
∀s ∈ I ϕ′ (s) = a(s) · ϕ(s) + b(s) et ϕ(t0 ) = x0 .
Alors, pour tout t ∈ I , on obtient, en intégrant entre t0 et t :
 t  t  t
ϕ(t) − x0 = ϕ(t) − ϕ(t0 ) = ϕ′ (s) ds = a(s) · ϕ(s) ds + b(s) ds.
t0 t0 t0

• Réciproquement, supposons que ϕ soit continue et vérifie :


 t  t
∀t ∈ I ϕ(t) = x0 + a(s) · ϕ(s) ds + b(s) ds.
t0 t0

∗ Alors, en évaluant en t0 , on a ϕ(t0 ) = x0 .


∗ De plus ϕ est dérivable sur I comme somme de fonctions dérivables, et l’on obtient en
dérivant :
∀t ∈ I ϕ′ (t) = a(t) · ϕ(t) + b(t).
Théorème 4 Le théorème va résulter essentiellement du lemme suivant.
Lemme
Soit (zn )n∈IN une suite de fonctions continues sur I à valeurs dans E telles que :
 t
∀n ∈ IN ∀t ∈ I zn+1 (t) = a(u) · zn (u) du.
t0

Alors, la série de fonctions zn converge normalement sur tout segment de I contenant t0 .

Démonstration. Soit K un segment de I contenant t0 . Les applications z0 et a étant


continues, leur restriction au segment K est bornée, donc il existe des constantes M et α telles
que :
∀t ∈ K �z0 (t)�  M et �a(t)�  α.
Montrons, en raisonnant par récurrence que, pour tout n ∈ IN :
 n
k α |t − t0 |
∀t ∈ K �zn (t)�  M ·
n!
• On a : ∀t ∈ K �z0 (t)�  M , ce qui est l’inégalité voulue au rang 0 .
• Supposons le résultat vrai au rang n ∈ IN .
L’espace E étant de dimension finie, il en est de même pour L(E) , si bien que l’application
bilinéaire :
L(E) × E −→ E
(u, x) �−→ u · x
est continue. Il existe donc (cf. remarque de la page 300) une constante k  0 telle que :
∀(u, x) ∈ L(E) × E �u · x�  k �u� �x�. (⋆)
Soit t ∈ K . On a :
   t 
   t   
zn+1 (t)   �a(s) · z (s)� ds  k �a(s)� �z (s)� ds  d’après l’inégalité (∗)
 n   n 
t0 t0
 t 
 
  k α �zn (s)� ds.
t0

761
Chapitre 18. Équations différentielles linéaires

L’hypothèse de récurrence nous donne de plus :


(k α |s − t0 |)n
∀s ∈ K �zn (s)�  M
n!
et donc, puisque le segment [t0 , t] (ou [t, t0 ] ) est inclus dans K :
 
M (k α)n+1   M (k α)n+1 |t − t0 |n+1
t
�zn+1 (t)�   |s − t0 | ds 
n
n! t0
n! n+1

(k α |t − t0 |)n+1
=M ·
(n + 1)!
Cela prouve le résultat au rang n + 1 et termine la récurrence.

On a alors, en notant ℓ la longueur du segment K :


  (k α ℓ)n
zn  M ·
∞ n!
 
Il en résulte, par comparaison, que la série zn  converge.


Cela prouve la convergence normale sur K de la série de fonctions zn .

Existence Soit (wn ) la suite de fonctions définie sur I par :


 t
 
∀t ∈ I w0 (t) = x0 et ∀n ∈ IN wn+1 (t) = x0 + a(s) · wn (s) + b(s) ds.
t0

Montrons que la suite de fonctions (wn ) converge uniformément sur tout segment de I
contenant t0 et que que la limite ϕ de (wn ) est solution du problème de Cauchy (P) .

• On considère la série zn avec zn = wn+1 − wn .
Pour n ∈ IN et t ∈ I , on a :
 t
 
zn+1 (t) = wn+2 (t) − wn+1 (t) = a(s) · wn+1 (s) − wn (s) ds
t0
 t
= a(s) · zn (s) ds.
t0

La suite (zn ) vérifie donc les hypothèses du lemme. Il en résulte que la série zn
converge normalement, donc uniformément, sur tout segment de I contenant t0 . Il en
découle que la suite (wn ) converge uniformément sur tout segment de I contenant t0 .
 
• Prouvons que la suite de fonctions t �→ a(t) · wn (t) + b(t) converge uniformément sur
tout segment de I contenant t0 vers la fonction t �→ a(t) · ϕ(t) + b(t) .
Soit K un segment de I contenant t0 . Puisque a est continue sur K , il existe une
constante α telle que :
∀t ∈ K �a(t)�  α.
Pour tout t ∈ K , on a, en utilisant l’inégalité ( ⋆ ) :
      
 a(t) · wn (t) + b(t) − a(t) · ϕ(t) + b(t)  = a(t) · wn (t) − ϕ(t) 
 
 k a(t) �wn (t) − ϕ(t)�
 
 k α wn (t) − ϕ(t).
Par suite, la convergence uniforme sur K de la suite (wn ) vers ϕ entraîne la convergence
 
uniforme sur K de la suite t �→ a(t)·wn (t)+b(t) vers la fonction t �→ a(t)·ϕ(t)+b(t) .

762
Démonstrations

• Soit t ∈ I . Par convergence uniforme sur le segment d’extrémités t0 et t , on a :


 t  t
   
a(s) · wn (s) + b(s) ds −→ a(s) · ϕ(s) + b(s) ds.
n→+∞
t0 t0

Ainsi, par passage à la limite quand n → +∞ dans la relation :


 t
 
wn+1 (t) = x0 + a(s) · wn (s) + b(s) ds,
t0

il vient :
 t
 
ϕ(t) = x0 + a(s) · ϕ(s) + b(s) ds.
t0

Comme on a de plus ϕ(t0 ) = x0 , la fonction ϕ est bien solution du problème de Cau-


chy (P) .

Unicité Soit ϕ1 et ϕ2 deux solutions du problème de Cauchy (P) . On pose h = ϕ1 − ϕ2 .


On a alors, pour tout t ∈ I :
 t  t
ϕ1 (t) = x0 + a(u) · ϕ1 (u)du + b(u)du
t0 t0

et
 t  t
ϕ2 (t) = x0 + a(u) · ϕ2 (u)du + b(u)du
t0 t0

et donc en faisant la différence :


 t
h(t) = a(u) · h(u)du.
t0

On applique le lemme avec z0 = h . La relation vérifiée par la fonction h entraîne que :


∀n ∈ IN zn = h.

La série de fonctions zn converge normalement sur tout segment de I contenant t0 . Ce
n’est possible que si h = 0 . On a donc ϕ1 = ϕ2 .

Proposition 9 Pour tout k ∈ IN , l’application uk : L(E) L(E) est continue. −→


ak
a �−→
k!

Montrons que la série d’applications uk converge normalement au voisinage de tout point
de L(E) . Il en résultera, par théorème de continuité des séries de fonctions, la continuité de
l’application :
+∞

exp = uk .
k=0

Soit a ∈ L(E) et M = �a� + 1 . Pour b ∈ BO (a, 1) , on a �b� < M et comme la norme utilisée
Mk
est sous-mutiplicative �uk (b)�  k!
· Il en résulte que :

Mk
∀k ∈ IN �uk �∞  ·
k!
 Mk
Puisque la série numérique k!
converge, il s’ensuit la convergence normale sur BO (a, 1) ,

de la série uk .

763
Chapitre 18. Équations différentielles linéaires

Proposition 10 Pour tout t ∈ IR , on a :


+∞ +∞
 (ta)k  tk ak
ϕ(t) = = uk (t) avec uk : t �→ ·
k! k!
k=0 k=0

Toutes les applications uk sont de classe C 1 et l’on a, pour k  1 :


 
tk−1 k
∀t ∈ IR u′0 (t) =0 et ∀k  1 u′k (t) = a .
(k − 1)!
Si K est un segment de IR , alors en notant M tel que K ⊂ [−M, M ] , le caractère sous-
multiplicatif de la norme utilisée sur L(E) donne :
 ′ M k−1
∀k  1 uk   �a�k .
∞ (k − 1)!
 M k−1
La convergence de la série numérique �a�k prouve ainsi la convergence normale sur le
 (k−1)!

segment K de la série d’applications uk .
D’après le théorème de dérivation des séries de fonctions, il s’ensuit que l’application ϕ est de
classe C 1 , et l’on a de plus, pour t ∈ IR :
+∞ +∞ +∞ k
  tk−1  t
ϕ′ (t) = u′k (t) = ak = ak+1 ,
(k − 1)! k!
k=1 k=1 k=0

puis en factorisant par a à droite ou à gauche, on obtient la formule souhaitée :


ϕ′ (t) = a ◦ exp(t a) = exp(t a) ◦ a.
Proposition 11 Notons ϕ : t �→ exp(t(a + b)) et ψ : t �→ exp(ta) ◦ exp(tb) . Ces applications
sont dérivables d’après la proposition 10 de la page 737. On obtient, pour tout t ∈ IR :
ϕ′ (t) = (a + b) ◦ exp(t(a + b))a = (a + b) ◦ ϕ(t).
Pour tout t ∈ IR , on a ψ ′ (t) = a ◦ exp(ta) ◦ exp(tb) + exp(ta) ◦ b ◦ exp(tb) .
Soit t ∈ IR . Justifions que les endomorphismes exp(ta) et b commutent.
p
 (ta)k
Pour tout p ∈ IN , cp = est un polynôme en a , donc, puisque a et b commutent, on
k!
k=0
a cp ◦ b = b ◦ cp . La suite (cp ) converge vers a et les applications :
L(E) −→ L(E) et L(E) −→ L(E)
u �−→ u◦b u �−→ b◦u
sont continues, car linéaires avec un espace de départ de dimension finie, donc on obtient, en
passant à la limite dans la relation cp ◦ b = b ◦ cp :
exp(ta) ◦ b = b ◦ exp(ta).
On a donc, pour tout t ∈ IR :
ψ ′ (t) = a ◦ exp(ta) ◦ exp(tb) + b ◦ exp(ta) ◦ exp(tb)
= (a + b) ◦ exp(ta) ◦ exp(tb) = (a + b) ◦ ψ(t).

De plus, on a ψ(0) = exp(0)2 = Id2E = IdE = ϕ(0) . Ainsi ϕ et ψ sont solutions du même
problème de Cauchy :
x′ = Φ · x et x(0) = IdE , où Φ : L(E) −→ L(E)
u �−→ (a + b) ◦ u.

764
Démonstrations

On a donc � �
∀t ∈ IR exp t(a + b) = exp(ta) ◦ exp(tb)
et en particulier :
exp(a + b) = exp(a) ◦ exp(b).
Par symétrie, on a aussi exp(a + b) = exp(b + a) = exp(b) ◦ exp(a) .
Proposition 15 En effet, si Φ est l’application qui à un endomorphisme associe sa matrice dans
la base B :
Φ : L(E) −→ Mn (IK)
u �−→ MatB (u),
alors on a Φ(a) = A et, par propriété de morphisme d’algèbres de ϕ :
��
N � N

ak Ak
∀N ∈ IN Φ = · (⋆)
k! k!
k=0 k=0

L’application Φ étant linéaire, elle est continue (car son espace de départ est de dimension

N � �
ak �
N
ak
� �
finie). De → exp(a) , on déduit donc Φ k!
→ Φ exp(a) . Comme d’autre
k! k=0
k=0
N
� Ak
part → exp(A) , on obtient, passage à la limite dans (⋆) :
k!
k=0
� �
Φ exp(a) = exp(A).

Proposition 21 On sait que A est trigonalisable dans Mn (C) : la matrice A s’écrit :


 
λ1 (⋆)
 .. 
A = P T P −1 avec P ∈ GLn (C) et T = . ·
(0) λn

Pour tout k ∈ IN , la matrice T k est triangulaire supérieure avec une diagonale constituée
de λk1 , . . . , λkn . Par suite, la matrice exp(T ) est aussi triangulaire supérieure, de la forme :
 
eλ1 (⋆)
 .. 
exp(T ) =  . .
(0) eλ n

Les valeurs propres de exp(T ) , comptées avec ordre de multiplicité, sont donc eλ1 , . . . , eλn .
Cela prouve le résultat souhaité, car les matrices exp(A) et exp(T ) sont semblables (cf. remarque
page 739), donc ont mêmes valeurs propres.

765
Chapitre 18. Équations différentielles linéaires

Proposition 27 Soit ϕ ∈ S et V = ϕ(0) ∈ IKn . On décompose le vecteur V dans la base de



n
vecteurs propres. On a donc V = αk Vk . La fonction ϕ est solution du problème de Cauchy
k=1

X ′ = AX et X(0) = V,
donc d’après la proposition 25 de la page 743, on a :
n n n
� � �
∀t ∈ IR ϕ(t) = etA V = αk etA Vk = αk eλk t Vk = αk ϕk (t),
k=1 k=1 k=1


n
d’après l’exemple 9 de la page 738, c’est-à-dire ϕ = αk ϕk . On a donc :
k=1

S ⊂ Vect(ϕ1 , . . . , ϕn )
et comme S est de dimension n , (ϕ1 , . . . , ϕn ) est une base de S .
 
ϕ(t)
 .. 
Proposition 28 Soit ϕ : I → IK et Φ : t �−→  .  . Pour tout t ∈ I , on a :
(n−1)
ϕ (t)
   
ϕ′ (t) ϕ′ (t)
 ..   .. 
Φ′ (t) =  .  et A(t)Φ(t) =  . .
 ϕ(n−1) (t)   ϕ(n−1) (t)

ϕ(n) (t) −a0 (t)ϕ(t) − · · · − an−1 (t)ϕ(n−1)
(t)
Par suite, on a Φ′ (t) = A(t)Φ(t) + B(t) si, et seulement si :
ϕ(n) (t) = −a0 (t)ϕ(t) − · · · − an−1 (t)ϕ(n−1) (t) + b(t).
Il en résulte que Φ est solution de l’équation différentielle :
X ′ = A(t)X + B(t)
si, et seulement si, ϕ est solution de l’équation différentielle :
x(n) + an−1 (t)xn−1 + · · · + a0 (t)x = b(t).
Proposition 34 Rappelons que nous disposons, pour tout t ∈ I , de l’isomorphisme suivant :
2
δt : S0 −→ IK
� �
ϕ(t)
ϕ �−→ .
ϕ′ (t)

• (iii) =⇒ (ii) . Évident.


• (ii) =⇒ (i) . Supposons (ii) . Soit t ∈ I tel que W (t) �= 0 .
� � � �
ϕ1 (t) ϕ2 (t)
Alors, les vecteurs et forment une base de IK2 . L’image de cette
ϕ′1 (t) ϕ′2 (t)
base par l’isomorphisme δt−1 étant la famille (ϕ1 , ϕ2 ) , on en déduit (i) .
• (i) =⇒ (iii) . Supposons que (ϕ1 , ϕ2 ) soit une base de S0 . Alors, pour tout t ∈ I , la
� � � �
ϕ1 (t) ϕ2 (t)
famille composée des vecteurs et est une base de IK2 , car c’est
ϕ′1 (t) ϕ′2 (t)
l’image par l’isomorphisme δt de la base (ϕ1 , ϕ2 ) de S0 .
Son déterminant, W (t) , est donc non nul.

766
Exercices

S’entraîner et approfondir
Équation différentielles linéaires d’ordre 1
18.1 Régularité des solutions
Soit k ∈ IN . Montrer que si les applications a : I → L(E) et b : I → E sont de classe C k ,
→731

alors toute solution de l’équation différentielle (E) : x′ = a(t) · x + b(t) est de classe C k+1 .
Que peut-on dire si a et b sont de classe C ∞ ?

� �
18.2 Soit A ∈ C I, Mn (IR) , B ∈ C(I, IRn ) et t0 ∈ I .
On considère le système différentiel réel :
→735

X ′ = A(t)X + B(t) (Sys)


n n
Montrer qu’une solution ϕ : I → C de (Sys) est réelle (c’est-à-dire à valeurs dans IR ) si,
et seulement si, ϕ(t0 ) ∈ IRn .

Exponentielle — Systèmes différentiels à coefficients constants


18.3 Soit A ∈ Mn (IK) telle que A2 − 3A + 2In = 0 .
→739
1. Pour k ∈ IN , exprimer Ak en fonction de A et In .
2. En déduire l’expression de exp(A) en fonction de A et In .

� �
2 1 1

18.4 Résoudre le système différentiel X = AX , avec A = 1 2 1 .
→744
1 1 2




 x = y
18.5 Résoudre dans IR le système différentiel (Sys) : y′ = z
→745 
 ′
z = x.

18.6 Résoudre le système différentiel X ′ = AX , avec :


→746
� �
4 1 −3
A= 2 1 −2 .
4 1 −3

18.7 Résoudre dans IR le système différentiel :


→746 �
x′ = x + 8y + et
(S) :
y′ = 2x + y.

18.8 Résoudre le système différentiel X ′ = AX , avec :


→746
� �
3 0 −1
A= −1 2 1 .
1 0 1

767
Chapitre 18. Équations différentielles linéaires

18.9 Soit A ∈ Mn (IR) et ϕ une solution réelle non nulle sur IR du système différentiel :
X ′ = AX.
1. Montrer que si A ∈ Sn++ (IR) , alors l’application t �→ �ϕ(t)� est une bijection de IR
sur IR∗+ (la norme �·� désignant la norme euclidienne sur IRn ).
2. Montrer que si A ∈ An (IR) , alors �ϕ� est constante.

18.10 Soit n ∈ IN∗ et A : IR → Mn (C) continue et périodique de période T > 0 .


Montrer que le système différentiel homogène :
(Sys) : X ′ = A(t) X
admet une solution non nulle ϕ pour laquelle il existe λ ∈ C tel que :
∀t ∈ IR ϕ(t + T ) = λ ϕ(t).

18.11 Soit n ∈ IN∗ et A ∈ Mn (C) . On s’intéresse au système différentiel :


(Sys) : X ′ = A X.
1. (a) Soit p ∈ IN∗ , λ ∈ C tel que Re(λ) < 0 et N ∈ Mp (C) une matrice nilpotente.
Montrer que :
 
exp t(λIp + N ) −→ 0.
t→+∞
 
Indication. On pourra commencer par exprimer exp t(λIp + N ) comme un poly-
nôme en N .
(b) Montrer que si chaque valeur propre de A est de partie réelle strictement négative,
alors toute solution du système (Sys) tend vers 0 en +∞ .
2. Donner une condition nécessaire et suffisante pour que toutes les solutions du sys-
tème (Sys) soient bornées sur IR .

18.12 Résoudre le système réel :



x′ = x − ty + t et
(Sys) : ′
y = tx + y.
Indication. On pourra chercher une équation différentielle vérifiée par x + iy .

Équations différentielles linéaires scalaires d’ordre n


18.13 On s’intéresse à une équation différentielle linéaire scalaire homogène à coefficients constants :
→749

n−1

x(n) + ak x(k) = 0. (E0 )


k=0

1. Montrer que, pour λ ∈ C , la fonction fλ : t �→ eλt est solution de (E0 ) si, et seulement
si, λ est racine du polynôme :
n−1

P = Xn + ak X k .
k=0

2. En déduire que si le polynôme P est scindé à racines simples λ1 , . . . , λn , alors l’en-


semble S0 des solutions de (E0 ) est :
 
S0 = Vect fλ1 , . . . , fλn .

768
Exercices

18.14 Justifier que les fonctions ϕ1 : t �→ cos(t) et ϕ2 : t �→ t ne sont pas solutions sur IR d’une
→751
même équation différentielle linéaire homogène de la forme :
x′′ + a(t) x′ + b(t) x = 0 avec a et b continues sur IR .

18.15 1. Déterminer les solutions réelles sur IR de l’équation différentielle :


→753

(E0 ) : (1 + t2 )x′′ + 4tx′ + 2x(t) = 0.


Indication. Rechercher les solutions développables en séries entières.
2. Résoudre ensuite :
1
(E) : (1 + t2 )x′′ + 4tx′ + 2x = ·
1 + t2

18.16 Résoudre sur IR l’équation différentielle :


→754
(E) : (1 + t2 )2 x′′ + 2 (t + 1)(1 + t2 ) x′ + x = 0.
Indication. On pourra exploiter le changement de variable t = tan u .

18.17 On souhaite résoudre sur ]0, +∞[ l’équation différentielle homogène :


→757
2 ′
(E0 ) : x′′ + x + x = 0.
t
sin t
1. Vérifier que la fonction ϕ1 : t �→ est solution.
t
2. En utilisant le wronskien, terminer la résolution de (E0 ) .

18.18 Résoudre sur IR l’équation différentielle :


→758
(E) : t x′ − 2 x = t3 .

18.19 Considérons, sur IR , l’équation homogène :


→758
(E0 ) : 4tx′′ + 2x′ − x = 0.
1. Déterminer une solution ϕ1 de (E0 ) développable en série entière vérifiant ϕ1 (0) = 1 .
2. On se place dans cette question sur l’intervalle ]0, +∞[ .
(a) Exprimer ϕ1 à l’aide de la fonction ch .
(b) À l’aide de la méthode du wronskien, conclure la résolution de (E0 ) .
3. On se place dans cette question sur l’intervalle ]−∞, 0[ .
(a) Exprimer ϕ1 à l’aide de la fonction cos .
(b) À l’aide de la méthode du wronskien, conclure la résolution de (E0 ) .
4. Résoudre l’équation (E0 ) sur IR .

18.20 Soit g : IR → IR une fonction de classe C 1 , croissante et bornée.


Montrer que toute solution sur IR de l’équation différentielle :
(E) : y ′′ + y = g
est bornée.

769
Chapitre 18. Équations différentielles linéaires

18.21 1. Soit f : IR+ → IR de classe C 1 et α ∈ IR∗+ tels que f ′ + αf tende vers 0 en +∞ .


Montrer que f et f ′ tendent vers 0 en +∞ .
2. Soit f : IR+ → IR de classe C 2 telle que f ′′ + 3f ′ + 2f tende vers 0 en +∞ .
Montrer que f , f ′ et f ′′ tendent vers 0 en +∞ .

18.22 Soit q : IR → IR continue. On considère l’équation différentielle :


(E) : y ′′ + q(t) y = 0.
Soit u et v deux solutions de (E) linéairement indépendantes.
1. Soit t0 un zéro (c’est-à-dire un point d’annulation) de u . Supposons que u s’annule sur
l’intervalle ]t0 , +∞[ . Montrer qu’il est licite de considérer t1 le plus petit zéro de u sur
l’intervalle ]t0 , +∞[ .
2. Montrer que, sur l’intervalle ]t0 , t1 [ , v s’annule une et une seule fois.

18.23 Soit a et b deux réels tels que a < b et (f, g) ∈ C([a, b], IR)2 . On suppose f  0 .
1. Montrer que la seule solution ϕ de l’équation homogène (E0 ) : x′′ + f (t)x = 0 telle
que ϕ(a) = ϕ(b) = 0 est la fonction nulle.
2. Montrer que l’équation différentielle (E) : x′′ +f (t)x = g(t) possède une unique solution ϕ
telle que ϕ(a) = ϕ(b) = 0 .

18.24 On considère l’équation différentielle :


(E) : y ′′ + q(t) y = 0,
où q : IR+ → IR est continue et intégrable sur IR+ .
1. Montrer que si ϕ est une solution bornée de (E) alors ϕ′ (t) tend vers 0 quand t tend
vers +∞ .
2. Montrer que (E) possède des solutions non bornées.

18.25 Soit (a, b) ∈ C(IR, IR)2 . On considère l’équation différentielle homogène :


(E) : y ′′ + a y ′ + b y = 0,
dont on note S0 l’espace des solutions.
Montrer l’équivalence entre les deux assertions :
(i) il existe une base (f, g) de S0 avec f paire et g impaire ;
(ii) la fonction a est impaire et la fonction b est paire.

18.26 Soit ϕ : IR → C une fonction continue et 2π -périodique. Existe-t-il une solution 2π -


périodique de l’équation différentielle (E) : y (4) + y = ϕ ?

18.27 Soit p : I → IK une fonction de classe C 1 et q : I → IK une fonction continue.


Montrer qu’il existe une fonction α : I → IK , deux fois dérivable et ne s’annulant pas, telle
que l’équation différentielle :
(E) : x′′ + p(t) x′ + q(t) x = 0
x
se traduise, sur la fonction z = , en une équation du type :
α
 ) : z ′′ + r(t) z = 0
(E avec r : I → IK continue.

770
Exercices

18.28 Équation d’Airy


On considère l’équation différentielle :
(E) : y ′′ − xy = 0.
Montrer, sans chercher à les expliciter à l’aide des fonctions usuelles, que toutes les solutions
de (E) sont développables en série entière sur IR .

18.29 On considère l’équation différentielle (E) : xy ′′ + y ′ + xy = 0 .


 π
1. Soit f : x �→ cos(x sin θ) dθ . Montrer que f est solution de (E) sur IR .
0
2. Soit S l’ensemble des solutions de (E) sur ]0, +∞[ et g ∈ S . On note ici encore f la
restriction de f à ]0, +∞[ . Montrer que (f, g) est une base de S si, et seulement si, g
n’est pas bornée au voisinage de 0 .

771
Chapitre 18. Équations différentielles linéaires

Solutions des exercices


18.1 Supposons que a et b sont de classe C k . Soit ϕ une solution de (E) .
Si ϕ n’est pas de classe C k+1 , alors il existe p  k tel que ϕ soit de classe C p mais pas de
classe C p+1 .
Comme a et ϕ sont de classe C p , et par bilinéarité de l’application :
L(E) × E −→ E
(u, e) �−→ u · e,
entre espaces de dimension finie, l’application t �→ a(t) · ϕ(t) est aussi de classe C p . Mais
alors, la relation :
∀t ∈ I ϕ′ (t) = a(t) · ϕ(t) + b(t)
entraîne que ϕ′ est de classe C p , et contredit le fait que ϕ n’est pas de classe C p+1 .
Si a et b sont de classe C ∞ , alors, pour tout k , a et b sont au moins de classe C k donc ϕ
également. Par conséquent, ϕ est de classe C ∞ .

18.2 • Si ϕ est une solution réelle de (Sys) alors on a :


∀t ∈ I ϕ(t) ∈ IRn ,
et donc en particulier ϕ(t0 ) ∈ IRn .
• Réciproquement, soit ϕ une solution du système (Sys) telle que ϕ(t0 ) ∈ IRn . Alors
l’application ϕ : t �→ ϕ(t) est aussi une solution de (Sys) puisque, pour tout t ∈ I , en
conjuguant la relation ϕ′ (t) = A(t) ϕ(t) + B(t) , on obtient, les matrices A(t) et B(t)
étant à coefficients réels :
ϕ′ (t) = A(t) ϕ(t) + B(t) = A(t) ϕ(t) + B(t)
autrement dit :
ϕ′ (t) = A(t) ϕ(t) + B(t).
Comme ϕ(t0 ) ∈ IRn , on a ϕ(t0 ) = ϕ(t0 ) = ϕ(t0 ) . Les fonctions ϕ et ϕ sont donc
solutions de (Sys) et vérifient la même condition initiale en t0 . Par unicité de la solution
à un problème de Cauchy, on a ϕ = ϕ , autrement dit ϕ est à valeurs dans IRn .

18.3 1. Notons P = X 2 − 3X + 2 . Soit k ∈ IN . Comme deg(P ) = 2 , le théorème de la division


euclidienne assure que l’on peut écrire :
X k = P Q + Rk avec deg(Rk )  1.
Comme P = (X − 2)(X − 1) , on obtient, en évaluant en 1 et en 2 la relation précé-
dente, Rk (1) = 1 et Rk (2) = 2k . On trouve finalement :
Rk = (2k − 1) X + (2 − 2k ).
Puis, comme P est annulateur de A , on a :
Ak = Rk (A) = (2k − 1) A + (2 − 2k ) In = 2k (A − In ) + (2In − A).
2. Pour tout N ∈ IN , on a, d’après la question précédente :
N
 
N  
N 
Ak 2k 1
= (A − In ) + (2In − A),
k! k! k!
k=0 k=0 k=0

et qui donne, en passant à la limite :


exp(A) = e2 (A − In ) + e (2In − A) = (e2 − e) A + (2e − e2 ) In .

772
Solutions des exercices

18.4 • Justifions que A est diagonalisable et obtenons ses éléments propres.


� �
1 1 1
On a A = I + J avec J = 1 1 1 .
1 1 1
La matrice J est de rang 1 . Son noyau est donc de dimension 2. Plus précisément, une
base de Ker J est donnée par (V1 , V2 ) avec :
� � � �
1 1
V1 = −1 et V2 = 0 .
0 −1
� �
1
On a tr(A) = 3 , donc 3 ∈ sp(J) , et V3 = 1 est vecteur propre associé.
1
La matrice J est donc diagonalisable et (V1 , V2 , V3 ) est une base de vecteurs propres
associée au triplet (0, 0, 3) de valeurs propres.
• Par suite, A est diagonalisable, et (V1 , V2 , V3 ) est une base de vecteurs propres associée
au triplet (1, 1, 4) de valeurs propres. Il en résulte qu’une base de l’espace des solutions
du système différentiel étudié est (X1 , X2 , X3 ) avec :
� � � � � �
1 1 1
t t 4t
X1 : t �→ e −1 , X2 : t �→ e 0 et X3 : t �→ e 1 .
0 −1 1

18.5 Le système différentiel (Sys) se traduit matriciellement :


� � � �
x 0 1 0

X = AX avec X= y et A= 0 0 1 .
z 1 0 0

L’étude des éléments propres de A montre que :


� � 2iπ
• sp(A) = 1, j, j (avec j = e 3 );
• une base de vecteurs propres associée à (1, j, j) est (V1 , V2 , V2 ) avec :
   
1 1
V1 =  1  et V2 =  j .
1 j
� �
Ainsi, une base de l’espace SC des solutions complexes de (Sys) est X1 , X2 , X2 avec :

X1 : t �→ et V1 et X2 : t �→ ejt V2
� �
et une base de l’espace SIR des solutions réelles est X1 , Re(X2 ), Im(X2 ) .
Explicitons Re(X2 ) et Im(X2 ) . Pour t ∈ IR , on a :
   √
3

1 eit 2

t

3  2iπ  −t
 i�t √3 + 2π � 
X2 (t) = e− 2 eit 2
 e 3 =e 2  e� √
2 3 
� 
−2iπ
e 3 i t 23 − 2π
e 3

773
Chapitre 18. Équations différentielles linéaires

ce qui donne :
 � t√3 �   � t√3 � 
cos 2
sin 2
t  � √ � −t  � √ �
Re(X2 )(t) = e− 2  cos t 2
3
+ 2π
3  et Im(X2 )(t) = e 2  sin t 23 + 2π
3 .
� √ � � √3 2π �
cos t 23 − 2π
3
sin t 2
− 3

18.6 • Le polynôme caractéristique de A est X(X − 1)2 .


� �
1
L’étude des éléments propres de A montre que Ker A = Vect(U1 ) , où U1 = 2
2
� �
1
et Ker(A − I3 ) = Vect(U2 ) , où U2 = 0 . La matrice A n’est donc pas diagonali-
1
sable. On cherche U3 tel que dans la base (U1 , U2 , U3 ) la matrice de l’endomorphisme
� �
0 0 0
canoniquement associé à A soit T = 0 1 1 .
0 0 1
� �
0
Pour cela, il faut et il suffit d’avoir (A − I3 )U3 = U2 . Le vecteur U3 = 1 convient.
0
� �
1 1 0
Ainsi, en notant P = 2 0 1 qui est inversible, on a A = P T P −1 .
2 1 0
En notant Y = P −1 X , on obtient :
X ′ = AX ⇐⇒ X ′ = P T P −1 X ⇐⇒ P −1 X ′ = T P −1 X ⇐⇒ Y ′ = T Y.
� �
y1

• Résolvons le système différentiel Y = T Y qui, en notant Y = y2 , s’écrit :
y3

y1′ = 0
y2′ = y2 + y3
y3′ = y3 .
La première et la troisième équation donnent l’existence de (k1 , k3 ) ∈ IR2 tel que :
∀t ∈ IR y1 (t) = k1 et y3 (t) = k3 et .
La seconde équation y2′ = y2 + k3 et est une équation différentielle d’inconnue y2 qui
donne l’existence de k2 ∈ IR tel que :
∀t ∈ IR y2 (t) = k2 et + k3 tet .
On obtient alors :
� � � � � �
1 0 0
∀t ∈ IR Y (t) = k1 0 + k2 et + k3 tet .
0 0 et
L’ensemble ST des solutions de Y ′ = T Y est donc ST = Vect(Y1 , Y2 , Y3 ) avec :
� � � � � �
1 0 0
Y1 : t �→ 0 , Y2 : t �→ et et Y3 : t �→ tet .
0 0 et

774
Solutions des exercices

• Finalement, en utilisant l’équivalence :


X ′ = AX ⇐⇒ Y ′ = T Y avec X = P Y,

on obtient que l’espace des solutions du système X = AX est :
Vect(X1 , X2 , X3 ) avec X1 = P Y1 , X2 = P Y2 et X3 = P Y3 .
De manière plus explicite, on a, pour tout t ∈ IR :
� � � � � �
1 1 t
t t
X1 (t) = 2 , X2 (t) = e 0 et X3 (t) = e 1 .
2 1 t

� �
x
18.7 Le système différentiel (S) s’écrit matriciellement, en notant X = :
y
� � � �
1 8 et
X ′ = A X + B(t) avec A= et B(t) = .
2 1 0
L’étude des éléments propres de A prouve que A est diagonalisable et que :
� � � �
−1 2 −2 5 0
A = P DP avec P = et D= .
1 1 0 −3

En notant Y = P −1 X , on a alors :
X ′ = A X + B(t) ⇐⇒ X ′ = P D P −1 X + B(t)

⇐⇒ P −1 X ′ = D P −1 X + P −1 B(t)

⇐⇒ Y ′ = D Y + P −1 B(t).
Si l’on trouve les solutions Y du dernier système différentiel ci-dessus, alors, via la rela-
tion X = P Y , on en déduira les solutions du système initial. On a :
 
� � et
1 1 2  
P −1 = et P −1 B(t) =  4 t  .
4 −1 2 e

4
� �
y1
En notant Y = , le système différentiel Y ′ = D Y + P −1 B(t) s’écrit :
y2


 y1′ et
= 5 y1 +
4

 y′ et
2 = −3 y2 − ·
4
Ce système est constitué de deux équations linéaires d’ordre 1 que l’on sait résoudre. Les
solutions obtenues sont :
� � � � � �
et 1 5t 1 −3t 0
Y : t �→ − + k1 e + k2 e avec (k1 , k2 ) ∈ IR2 ,
16 1 0 1
ce qui donne les solutions du système initial :
� � � � � �
et 0 2 −2
X : t �→ − + k1 e5t + k2 e−3t avec (k1 , k2 ) ∈ IR2 .
8 1 1 1

775
Chapitre 18. Équations différentielles linéaires

18.8 L’étude des éléments propres de A indique que 2 est valeur propre triple de A .
Comme A �= 2I3 , on en déduit que A n’est pas diagonalisable. Notons :
 
1 0 −1
N = A − 2I3 = −1 0 1 .
1 0 −1
La seule valeur propre de N est 0 donc N est nilpotente. On trouve N 2 = 0 .
Comme I3 et N commutent, on obtient, pour tout réel t :
 
  1+t 0 −t
2t 2t
exp(tA) = exp(2tI3 + tN ) = exp(2tI3 ) exp(tN ) = e I3 + tN = e −t 1 t .
t 0 1−t
Une base de l’ensemble des solutions de X ′ = AX est (X1 , X2 , X3 ) avec Xk : t �→ etA Ek ,
où Ek est le k -ième vecteur de la base canonique de Mn,1 (IR) . On obtient, pour tout réel t :
     
1+t 0 −t
2t 2t 2t
X1 (t) = e −t , X2 (t) = e 1 , X3 (t) = e t .
t 0 1−t
 
1
Remarque En remplaçant X1 par X1 + X3 : t �→ e2t 0 , on obtient une base plus
1
simple de l’ensemble des solutions.

18.9 1. On suppose que A ∈ Sn++ (IR) . Comme A est symétrique réelle, il existe une base ortho-
normée (V1 , . . . , Vn ) de vecteurs propres de A . De plus sp(A) ⊂ IR∗+ , donc les valeurs
propres associées λ1 , . . . , λn sont toutes strictement positives.
Pour tout k ∈ [[1, n]] , notons :
Xk : IR −→ IRn
t �−→ eλ k t Vk .
La famille (X1 , . . . , Xn ) est alors une base de l’espace S0 des solutions de X ′ = AX . Il
existe donc (α1 , . . . , αn ) ∈ IRn \ {(0, . . . , 0)} tel que :
n

ϕ= αk Xk .
k=1

Pour t ∈ IR , on a, puisque (V1 , . . . , Vn ) est une base orthonormée :


 2
   n  n
ϕ(t)2 = 

λk t 
αk e Vk  = α2k e2λk t .
 k=1  k=1

Comme les αk ne sont pas tous nuls et les λk sont tous strictement positifs, la fonc-
tion t �→ �ϕ(t)�2 est strictement croissante et tend vers +∞ en +∞ et vers 0 en −∞ .
Comme la fonction t �→ �ϕ(t)�2 est de plus continue, elle réalise une bijection strictement

croissante de IR sur IR∗+ . En composant par la fonction u �→ u , bijection strictement
∗ ∗
croissante de IR+ vers IR+ , on obtient le résultat souhaité.
2. Supposons A ∈ An (IR) . On note ψ : t �→ �ϕ(t)�2 = ϕ(t)T ϕ(t) . La fonction ψ est
dérivable et, pour tout t ∈ I , on a :
T  T  
ψ ′ (t) = ϕ′ (t) ϕ(t) + ϕ(t)T ϕ′ (t) = Aϕ(t) ϕ(t) + ϕ(t)T Aϕ(t) = ϕ(t)T AT + A ϕ(t) = 0.
L’application t �→ �ϕ(t)� est constante.

776
Solutions des exercices

18.10 Considérons l’application Ψ qui à une fonction X : IR → Cn associe la fonction :


Ψ(X) : IR −→ Cn
t �−→ X(t + T ).
Comme A est T -périodique, si X est solution de (Sys) , alors Ψ(X) l’est aussi (cf. exemple 3
de la page 735). Ainsi, l’application Ψ induit un endomorphisme de l’espace S des solutions
de (Sys) . Comme S est un C -espace vectoriel non nul de dimension finie (il est de dimen-
sion n ), cet endomorphisme induit admet au moins une valeur propre λ ∈ C . Un vecteur
propre associé à cette valeur propre λ est une solution non nulle ϕ de (Sys) vérifiant :
Ψ(ϕ) = λ ϕ c’est-à-dire ∀t ∈ IR ϕ(t + T ) = λ ϕ(t).

18.11 1. (a) Soit t ∈ IR . Puisque les matrices tλIp et tN commutent, on a :


� � � �
exp t(λIp + N ) = exp tλIp + tN = exp(λtIp ) exp(tN ) = eλt exp(tN ).
Puisque N est nilpotente et appartient à Mp (C) , on a :
p−1
� (tN )k
∀k  p Nk = 0 et donc exp(tN ) = ·
k!
k=0

Par suite :
p−1 λt k
� � � e t
exp t(λIp + N ) = N k.
k!
k=0
� �
Pour tout k ∈ [[0, p − 1]] , on a �eλt tk � = eRe(λ) t |t|k , et donc comme Re(λ) < 0 , les
croissances comparées donnent eλt tk −→ 0 . On en déduit :
t→+∞

eλt tk k
∀k ∈ [[0, p − 1]] N −→ 0,
k! t→+∞

puis :
� �
exp t(λIp + N ) −→ 0.
t→+∞

(b) • Si l’on note u l’endomorphisme de Cn canoniquement associé à A , on sait que Cn


s’écrit comme somme directe de ses sous-espaces caractéristiques. Ceux-ci sont
stables par u et u y induit la somme d’une homothétie et d’un endomorphisme
nilpotent. Matriciellement, cela signifie que A s’écrit :
 
A1
� P −1 �=  .. 
A=PA avec A .  (⋆)
Am
où, pour tout k ∈ [[1, m]] , Ak est un bloc diagonal de la forme :
Ak = λk Ipk + Nk avec λk ∈ sp(A) et Nk nilpotente.
 
tA1
�=  .. 
• Pour t ∈ IR , en écrivant tA .  et en effectuant des produits
tAm
par blocs, on constate que :
 
exp(tA1 )
� =  .. 
exp(tA) . .
exp(tAm )

777
Chapitre 18. Équations différentielles linéaires

Or, pour tout k ∈ [[1, m]] , comme Re(λk ) < 0 , le résultat de la première question
 −→ 0 .
donne exp(tAk ) −→ 0 . On a donc exp(tA)
t→+∞ t→+∞

• Comme A = P A  P −1 , on a exp(tA) = P exp(tA)


 P −1 (cf. remarque page 739).
Donc, par continuité de l’application M �→ P M P −1 , car linéaire en dimension
finie, on obtient :
exp(tA) −→ 0.
t→+∞

Cela répond à la question puisque les solutions du système différentiel :


(Sys) : X ′ = AX
sont les applications de la forme :
t �→ exp(tA) X0 avec X0 ∈ Cn .
2. • Supposons que toutes les solutions de (Sys) soient bornées.
∗ Soit λ une valeur propre de A . En prenant V un vecteur propre de A associé
à λ , l’application
X : t �→ eλt V
est solution de (Sys) . Pour t ∈ IR , on a �X(t)� = eRe(λ)t �V � et donc :
⋆ si Re(λ) > 0 , alors �X(t)� −→ +∞ ;
t→+∞
⋆ si Re(λ) < 0 , alors �X(t)� −→ +∞ .
t→−∞
Par suite, toutes les solutions de (Sys) étant bornées, on a sp(A) ⊂ iIR .
∗ Montrons maintenant que A est diagonalisable. Par l’absurde : supposons que cela
ne soit pas le cas. Reprenons la relation (⋆) utilisée à la question 1(b). Comme A
n’est pas diagonalisable, au moins un des blocs diagonaux Ak n’est pas une matrice
d’homothétie, donc est de taille au moins 2 avec une matrice nilpotente Nk non
nulle. Fixons une telle valeur de k , et notons :
r = max{i ∈ IN : Nki �= 0}.
On a, pour t ∈ IR :
r
 tj
exp(tAk ) = eλk t Nkj avec Nkr �= 0
j!
j=0

puis, comme λk ∈ iIR :


 r   r 
    tj j   |t|r 
 r! t j−r 

exp(tAk ) =  Nk  = 
j
Nk  .
 j!  r!  j! 
j=0 j=0
  
−→ �N r ��=0
k
t→+∞
 
Comme r  1 , il en résulte que exp(tAk ) −→ +∞ , et donc :
t→+∞
 
exp(tA) −→ +∞.
t→+∞
n
Si (E1 , . . . , En ) est une base de C , alors l’application :
Mn (C) −→ IR  
M �−→ max �M E1 �, . . . , �M En �
est une norme sur Mn (C) . La propriété :
 
exp(tA) −→ +∞
t→+∞

778
Solutions des exercices

appliquée avec cette norme donne que, parmi les fonctions :


t �→ exp(tA) Ek pour k ∈ [[1, n]]
au moins une n’est pas bornée. Ceci est en contradiction avec l’hypothèse initiale
car les fonctions précédentes sont solutions de (Sys) .

• Réciproquement, supposons A diagonalisable et sp(A) ⊂ iIR .


Il existe (V1 , . . . , Vn ) une base de vecteurs propres de A . En notant (λ1 , . . . , λn ) la
liste des valeurs propres associées, on a :

S = Vect(X1 , . . . , Xn ) avec ∀k ∈ [[1, n]] Xk : t �→ eλk t Vk .


Pour tout k ∈ [[1, n]] , le fait que λk soit imaginaire pure donne :
 λ t  
∀t ∈ IR e k  = 1 et donc Xk (t) = �Vk �.

Ainsi, les applications X1 , . . . , Xn sont bornées, ainsi que tous les éléments de S car
elles en sont des combinaisons linéaires.


18.12 Analyse Soit ϕ = ϕ1 , ϕ2 ) une solution de (Sys) .
On constate que la fonction ψ = ϕ1 + iϕ2 vérifie :

∀t ∈ IR ψ ′ (t) = (1 + it) ψ(t) + t et .


En résolvant l’équation scalaire d’ordre 1 :

z ′ = (1 + it) z + t et
(résolution de l’équation homogène, puis recherche d’une solution particulière par la
méthode de variation de la constante), on obtient l’existence d’une constante α ∈ C
telle que :
 
t2
∀t ∈ IR ψ(t) = α exp t + i + i et .
2
Puisque ϕ1 = Re(ψ) et ϕ2 = Im(ψ) , on obtient (en écrivant α sous forme algé-
brique α = a + ib ) :
      t2     t2  
ϕ1 (t) 0 t cos 2 t − sin
∀t ∈ IR = + ae  
t2
+ be  t22  .
ϕ2 (t) et sin 2
cos 2

Synthèse De la partie « analyse » du raisonnement il résulte que :


S ⊂ ϕP + Vect(ϕ1 , ϕ2 )
avec
    t2     t2  
0 t cos 2 t − sin
ϕP (t) = , ϕ1 (t) = e  
t2
et ϕ2 (t) = e  t22  .
et sin 2
cos 2

Comme on sait que S est un sous-espace affine dont la direction est l’espace vectoriel S0
de dimension 2 , on montre comme dans l’exemple 27 de la page 755 que l’inclusion
précédente est une égalité.

779
Chapitre 18. Équations différentielles linéaires

18.13 1. L’équivalence cherchée vient du fait que pour tout t ∈ IR , on a :


(k)
∀k ∈ [[0, n]] fλ (t) = λk eλt
et donc, pour tout t ∈ IR :
n−1 n−1
(n)
 (k) n λt

fλ (t) + ak fλ (t) =λ e + ak λk eλt = P (λ) 
eλt .
k=0 k=0 �=0

2. Supposons que P possède n racines simples λ1 , . . . , λn .


• Comme (E0 ) est une équation différentielle linéaire homogène scalaire d’ordre n , on
sait que son ensemble solution S0 est un espace vectoriel de dimension n .
• D’après la question précédente, pour tout k ∈ [[1, n]] , la fonction fλk : t �→ eλk t est
solution de (E0 ) . On a donc :
 
Vect fλ1 , . . . , fλn ⊂ S0 .
Comme dim S0 = n , pour prouver que l’inclusion précédente est une égalité, il suffit
de prouver que la famille (fλ1 , . . . , fλn ) est libre.
Pour k ∈ [[1, n]] , on a fλ′ k = λk fλk . Ainsi les fonctions fλ1 , . . . , fλn sont des vecteurs
propres pour la dérivation, associées à des valeurs propres distinctes. Elles forment
donc une famille libre.

18.14 Si une telle équation différentielle existait, alors les fonctions t �→ cos(t) et t �→ t , puisqu’elles
ne sont pas proportionnelles, formeraient une base de l’espace S0 des solutions. Et alors,
d’après la proposition 34 de la page 751, leur wronskien W ne s’annulerait pas sur IR . Or
ce wronskien est donné par :
W (t) = ϕ1 (t) ϕ′2 (t) − ϕ′1 (t) ϕ2 (t) = cos t + t sin t,
et le théorème des valeurs intermédiaires assure que W s’annule en au moins un point de
   
π π π
l’intervalle , π puisque W = > 0 et W (π) = −1 < 0 .
2 2 2

18.15 1. Supposons que ϕ soit une fonction développable en série entière sur un intervalle de la
forme ]−r, r[ avec r > 0 . Pour t ∈ ]−r, r[ , on a :

+∞ 
+∞ 
+∞

ϕ(t) = an tn ϕ′ (t) = n an tn−1 et ϕ′′ (t) = n(n − 1)an tn−2


n=0 n=1 n=2

et donc :
(1 + t2 )ϕ′′ (t) + 4tϕ′ (t) + 2ϕ(t)
+∞ +∞ +∞ +∞
   
= n(n − 1)an tn−2 + n(n − 1)an tn + 4 n an tn + 2 an tn
n=2 n=2 n=1 n=0
+∞ +∞
 
= (n + 2)(n + 1)an+2 tn + (n2 + 3n + 2)an tn
n=0 n=0


+∞

= (n + 2)(n + 1)(an+2 + an )tn .


n=0

780
Solutions des exercices

Par unicité du développement en série entière, ϕ est solution de (E0 ) si, et seulement si,
pour tout n ∈ IN , an+2 = −an . On en déduit, pour tout n ∈ IN ,
a2n = (−1)n a0 et a2n+1 = (−1)n a1 .

La série entière an tn a alors un rayon de convergence supérieur ou égal à 1 et la
somme ϕ de la série entière est solution de l’équation différentielle sur ]−1, 1[ . On a,
pour tout t ∈ ]−1, 1[ :
+∞
� +∞

ϕ(t) = a0 (−1)n t2n + a1 (−1)n t2n+1
n=0 n=0
+∞
+∞
� � a0 a1 t
= a0 (−t2 )n + a1 t (−t2 )n = + ·
1 + t2 1 + t2
n=0 n=0
a0 a1 t
Mais, pour tout (a0 , a1 ) ∈ IR , la fonction t �→ 1+t2
+ 1+t2
est de classe C 2 sur IR et on
vérifie facilement qu’elle est solution de (E0 ) sur IR . Comme (E0 ) peut être mise sous
forme normalisée, l’ensemble S0 de ses solution est de dimension 2 .
1 t
Les fonctions ϕ1 : t �→ et ϕ2 : t �→ formant une famille libre, on peut
1 + t2 1 + t2
conclure que :
S0 = Vect (ϕ1 , ϕ2 ) .
2. On applique la méthode de variations des constantes. On cherche une solution ϕ de (E)
sous la forme ϕ = ϕ1 λ1 + ϕ2 λ2 , avec λ1 et λ2 dérivables sur IR et vérifiant :


 1 t
 λ′ (t) + λ′ (t) = 0
∀t ∈ IR 1 + t2 1 1 + t2 2

 −2t 1 − t2 ′ 1
 λ′ (t) + λ (t) = ,
(1 + t2 )2 1 (1 + t2 )2 2 (1 + t2 )2
ce qui donne :
−t 1
λ′1 (t) = et λ′2 (t) = ·
1 + t2 1 + t2

On peut prendre λ1 (t) = − 21 ln(1 + t2 ) = − ln 1 + t2 et λ2 (t) = Arctan(t) , et donc :

− ln 1 + t2 + t Arctan(t)
∀t ∈ IR ϕ(t) = ·
1 + t2
Les solutions de (E) sont donc les fonctions :

− ln 1 + t2 + t Arctan(t) + λ + µt
t �→ avec (λ, µ) ∈ IR2 .
1 + t2

18.16 Analyse Soit f une solution de (E) .


� �
• Considérons la fonction g : − π2 , π
2
−→ IR
u �−→ f (tan u).
� �
Comme f est deux fois dérivable sur IR , g est deux fois dérivable sur − π2 , π
2
.
� �
Fixons u ∈ − π2 , π
2
. On a, en notant t = tan u :

g ′ (u) = (1 + t2 ) f ′ (t)
et
g ′′ (u) = (1 + t2 )2 f ′′ (t) + 2 t (1 + t2 ) f ′ (t),

781
Chapitre 18. Équations différentielles linéaires

et l’on constate que :


g ′′ (u) + 2 g ′ (u) + g(u) = (1 + t2 )2 f ′′ (t) + 2 (t + 1)(1 + t2 ) f ′ (t) + f (t).
En utilisant le fait que f est solution de (E) , on obtient :
g ′′ (u) + 2 g ′ (u) + g(u) = 0,
et donc la fonction g est solution sur IR de l’équation différentielle :
 : x′′ + 2x′ + x = 0.
(E)
Cette équation est une équation différentielle linéaire scalaire d’ordre 2 à coefficients
constants, homogène, que l’on sait résoudre. On en déduit l’existence de (a, b) ∈ IR2
tel que, pour tout u ∈ IR :
g(u) = (au + b)e−u .
• Revenons sur la fonction f . Pour tout t ∈ IR , on a :
 
f (t) = f tan(Arctan t) = g(Arctan t).
Par suite, on obtient l’expression suivante de f (t) pour t ∈ IR :
 
f (t) = a Arctan t + b e− Arctan t .
Synthèse D’après la partie « analyse » du raisonnement, on a :
S0 ⊂ Vect(ϕ1 , ϕ2 ) avec ϕ1 = t �→ e− Arctan t et ϕ2 : t �→ Arctan(t)e− Arctan t .
Comme l’équation est d’ordre 2 et peut être mise sous forme normalisée, on a dim S0 = 2 .
L’inclusion précédente est donc une égalité.

18.17 1. La fonction ϕ1 est définie et deux fois dérivable sur ]0, +∞[ et l’on a :
t cos t − sin t t2 sin t + 2t cos t − 2 sin t
∀t > 0 ϕ′1 (t) = et ϕ′′1 (t) = − ·
t2 t3
On vérifie facilement que :
2 ′
∀t ∈ ]0, +∞[ ϕ′′1 (t) + ϕ1 (t) + ϕ1 (t) = 0.
t
2. • Soit ϕ une solution sur ]0, +∞[ de (E0 ) .
∗ Le wronskien W de (ϕ1 , ϕ) vérifie sur ]0, +∞[ l’équation différentielle :
2
x′ + x = 0.
t
On en déduit qu’il existe λ ∈ IR tel que :
λ
∀t ∈ ]0, +∞[ W (t) = 2 ·
t
∗ Plaçons-nous sur un intervalle J ⊂ ]0, +∞[ où ϕ1 ne s’annule pas ; prenons par
ϕ
exemple J = ]0, π[ . Sur cet intervalle J , on peut considérer la fonction dont
ϕ1
la dérivée vérifie :  ′
ϕ ϕ′ ϕ1 − ϕ ϕ′1 W
= = 2·
ϕ1 ϕ21 ϕ1
Ainsi, on a :
 ′
ϕ λ
∀t ∈ J (t) = ·
ϕ1 sin2 t
En primitivant, on obtient l’existence de µ ∈ IR tel que pour tout t ∈ J :
ϕ(t) cos t cos t sin t
= −λ +µ et donc ϕ(t) = −λ +µ ·
sin t
t
sin t t t

782
Solutions des exercices

cos t
• Notons alors ϕ2 la fonction t �→ ·
t
La fonction ϕ2 est définie et deux fois dérivable sur ]0, +∞[ (et pas seulement sur J ),
et il est facile de vérifier que ϕ2 est solution de (E0 ) . Comme ϕ1 et ϕ2 ne sont pas
proportionnelles, car sin et cos ne sont pas proportionnelles, on peut conclure que
l’ensemble des solutions de (E0 ) est :

S0 = Vect(ϕ1 , ϕ2 ).

sin t
Remarque La solution ϕ : t �→ de (E0 ) peut s’obtenir par technique « recherche de
t
solutions développables en série entière » (cf. exemple 26 de la page 753).

18.18 • Tout d’abord, on constate que l’équation se résout facilement sur les intervalles ]−∞, 0[
et ]0, +∞[ où elle se met sous forme normalisée.
∗ Sur ]−∞, 0[ , les solutions sont les fonctions :

t �→ λ t2 + t3 avec λ ∈ IR.
∗ Sur ]0, +∞[ , les solutions sont les fonctions :

t �→ µ t2 + t3 avec µ ∈ IR.
• Recherchons les solutions sur IR .
Analyse Si ϕ est une solution de (E) sur IR , alors elle est solution sur ]−∞, 0[ et
sur ]0, +∞[ , donc il existe des réels λ et µ tels que :

∀t < 0 ϕ(t) = λ t2 + t3 et ∀t > 0 ϕ(t) = µ t2 + t3 .

La continuité de ϕ en 0 entraîne alors ϕ(0) = 0 .


On a donc :

λ t2 + t 3 si t  0
ϕ(t) =
µ t2 + t3 si t > 0.
Synthèse Soit ϕ : IR → IR une fonction de la forme :

λ t2 + t3 si t  0
ϕ(t) = avec (λ, µ) ∈ IR2 .
µ t2 + t3 si t > 0

∗ Cette fonction ϕ est dérivable sur IR∗ et est manifestement solution de l’équa-
tion (E) sur les intervalles ]−∞, 0[ et ]0, +∞[ .
∗ On voit rapidement que ϕ est de plus continue en 0 .
∗ Pour tout t < 0 , on a ϕ′ (t) = 2λt + 3t2 . On a donc ϕ′ (t) −→ 0 , ce qui prouve
t→0−
que ϕ est dérivable à gauche en 0 et ϕ′g (0) = 0 . De même, on montre que ϕ est
dérivable à droite en 0 et que ϕ′d (0) = 0 . Comme ϕ′g (0) = ϕ′d (0) , la fonction ϕ
est dérivable en 0 et ϕ′ (0) = 0 .
∗ Enfin, on a 0 ϕ′ (0) − 2ϕ(0) = 0 , donc ϕ vérifie l’équation différentielle en 0 .
La fonction ϕ est donc solution de (E) sur IR .

783
Chapitre 18. Équations différentielles linéaires

18.19 1. • Soit ϕ une fonction développable en série entière sur un intervalle de la forme ]−r, r[
avec r > 0 .
Pour t ∈ ]−r, r[ , on a :
+∞ +∞ +∞
  
ϕ(t) = an tn ϕ′ (t) = n an tn−1 et ϕ′′ (t) = n(n − 1)an tn−2
n=0 n=1 n=2

et donc, pour tout t ∈ ]−r, r[ :


A(t) = 4tϕ′′ (t) + 2ϕ′ (t) − ϕ(t)


+∞ 
+∞ 
+∞

= 4t n(n − 1)an tn−2 + 2 nan tn−1 − an tn .


n=2 n=1 n=0

En réindexant pour obtenir dans chaque somme des termes en tn , obtient :


+∞ +∞ +∞
  
A(t) = 4 n(n + 1)an+1 tn + 2 (n + 1)an+1 tn − an tn
n=1 n=0 n=0
+∞
  
= (2n + 2)(2n + 1)an+1 − an tn .
n=0

Par unicité du développement en série entière, on a :


ϕ solution de (E0 ) ⇐⇒ A = 0 ⇐⇒ ∀n ∈ IN (2n + 2)(2n + 1)an+1 − an = 0. (⋆)
Il en résulte que :
1
∀n ∈ IN an = a0 ,
(2n)!
ce qui donne :
+∞
 tn
ϕ(t) = a0 ·
(2n)!
n=0
• Réciproquement :
 tn
∗ le rayon de convergence de la série entière (2n)!
vaut +∞ (on le montre par
exemple par le critère de d’Alembert) ;
tn
∗ la fonction ϕ1 : t �→ (2n)!
est telle que ses coefficients vérifient la propriété (⋆) , et
par suite, d’après les calculs effectués dans la première partie du raisonnement, ϕ1
est solution de (E0 ) sur IR . Comme de plus ϕ1 (0) = 1 , cela répond à la question.
 
+∞ √ 2n
 t √ 
2. (a) Pour t > 0 , on a ϕ1 (t) = = ch t .
(2n)!
n=0
(b) Sur ]0, +∞[ , l’équation (E0 ) s’écrit sous forme normalisée :
x′ x
(E0 ) : x′′ +
− = 0.
2t 4t
L’espace solution S0 sur cet intervalle est donc de dimension 2 .
Soit ϕ une solution de (E) sur ]0, +∞[ .
Le wronskien W de la famille (ϕ1 , ϕ) est solution sur ]0, +∞[ de l’équation différen-
tielle :
x
x′ + = 0.
2t
λ
En résolvant cette équation, on obtient W (t) = √ avec λ ∈ IR .
t

784
Solutions des exercices

On a d’autre part :
 ′
ϕ ϕ′ ϕ1 − ϕ ϕ′1 W
= = 2
ϕ1 ϕ21 ϕ1
et donc :
 ′
ϕ λ
∀t ∈ ]0, +∞[ (t) = √ √  ·
ϕ1 t ch2 t
En primitivant, on obtient qu’il existe une constante µ ∈ IR telle que :
ϕ(t) √  √  √ 
∀t ∈ ]0, +∞[ = 2λ th t + µ puis ϕ(t) = 2λ sh t + µ ch t .
ϕ1 (t)
Comme la fonction ϕ a été prise quelconque dans S0 , il en résulte que :
 √  √ 
S0 ⊂ Vect t �→ ch t , t �→ sh t ,
puis, comme dim S0 = 2 , on obtient :
 √  √ 
S0 = Vect t �→ ch t , t �→ sh t .
√ 
Remarque Une fois connue la solution ϕ1 : t �→ ch t , on peut, sans utiliser
√ 
la méthode du wronskien, pressentir que la fonction ϕ2 : t �→ sh t l’est égale-
ment. On peut alors conclure la résolution de (E0 ) en vérifiant simplement que cette
fonction ϕ2 est bien solution de (E0 ) et qu’elle est linéairement indépendante de ϕ1 .

3. (a) Pour t < 0 , on a :


+∞
√ 2n
 −t √ 
ϕ1 (t) = (−1)n = cos −t .
(2n)!
n=0

(b) Le même raisonnement qu’à la question précédente prouve que si ϕ est solution
de (E0 ) sur un intervalle J ⊂ ]−∞, 0[ , alors on a :
 √  √ 
ϕJ ∈ Vect t �→ cos −t , t �→ sin −t .
√ 
La fonction ϕ2 : t �→ sin −t est définie et de classe C 1 sur ]−∞, 0[ et il n’est pas
difficile de montrer qu’elle est solution de l’équation différentielle. On conclut alors,
pour des raisons de dimensions, que :
 √  √ 
S0 = Vect t �→ cos −t , t �→ sin −t .

Remarque On pouvait également pressentir que la fonction ϕ2 est solution de (E0 )


sur ]−∞, 0[ (ce que l’étude sur ]0, +∞[ rend très vraisemblable).

4. Analyse. Soit ϕ une solution de (E0 ) sur IR .


• Comme ϕ est solution de (E0 ) sur les intervalles ]−∞, 0[ et ]0, +∞[ , il existe
(λ1 , λ2 , µ1 , µ2 ) ∈ IR4 tel que :
 √  √ 
λ1 cos  −t + λ2 sin  −t si t < 0
∀t ∈ IR ϕ(t) = √ √
µ1 ch t + µ2 sh t si t > 0.

• La fonction ϕ est continue sur IR , donc en particulier continue en 0 .


On a ainsi :
ϕ(0) = lim ϕ = lim ϕ, et donc ϕ(0) = λ1 = µ1 .
0− 0+

785
Chapitre 18. Équations différentielles linéaires

• La fonction ϕ est dérivable sur IR , donc en particulier en 0 .

∗ Pour tout t > 0 , on a :


√  √ 

µ1 sh t µ2 ch t
ϕ (t) = √ + √ ·
2 t 2 t
Si µ2 n’était pas nul, alors on aurait ϕ′ (t) −→ ±∞ (selon le signe de µ2 ),
t→0+
ce qui contredirait la dérivabilité à droite de ϕ en 0 . Donc µ2 = 0 .
∗ Pour tout t < 0 , on a :
√  √ 

λ1 sin −t λ2 cos −t
ϕ (t) = √ − √ ·
2 −t 2 −t
Si λ2 n’était pas nul, alors on aurait ϕ′ (t) −→ ±∞ (selon le signe de λ2 ), ce
t→0−
qui contredirait la dérivabilité à gauche de ϕ en 0 . Donc λ2 = 0 .
• On obtient :  √ 
λ1 cos  −t si t<0
ϕ(t) = √
λ1 ch t si t0
et donc finalement :
+∞
 tn
∀t ∈ IR ϕ(t) = λ1 ·
(2n)!
n=0
Synthèse. Réciproquement, toutes les fonctions de la forme précédente sont solutions
de (E0 ) : ce sont les solutions développables en série entière.

18.20 • L’espace des solutions de l’équation homogène (E0 ) : y ′′ + y = 0 est :


S0 = Vect(ϕ1 , ϕ2 ) avec ϕ1 : t �→ cos t et ϕ2 : t �→ sin t.
Il est donc clair que toute solution de l’équation homogène est bornée sur IR . Il suffit
donc, pour conclure, de prouver qu’il existe une solution bornée de (E) .
• Recherchons une solution de (E) sous la forme ϕP = λ1 ϕ1 + λ2 ϕ2 avec λ1 et λ2 deux
fonctions dérivables sur IR . Pour qu’une telle fonction ϕP soit solution de (E) , il suffit
que :
 ′
λ1 ϕ1 + λ′2 ϕ2 = 0
λ′1 ϕ′1 + λ′2 ϕ′2 = g,
c’est-à-dire que :

λ′1 (t) cos(t) + λ′2 (t) sin(t) = 0
∀t ∈ IR
−λ′1 (t) sin(t) + λ′2 (t) cos(t) = g(t),
ce qui donne, pour tout t ∈ IR :
λ′1 (t) = − sin(t) g(t) et λ′2 (t) = cos(t) g(t).
En prenant :
 t  t
λ1 : t �→ − sin(u) g(u) du et λ2 : t �→ cos(u) g(u) du
0 0

on obtient la solution de (E) suivante :


 t  t
ϕP : t �→ − cos(t) sin(u) g(u) du + sin(t) cos(u) g(u) du.
0 0

786
Solutions des exercices

• Pour tout t ∈ IR , on a donc :


 t
ϕP (t) = sin(u − t) g(u) du
0

et donc en intégrant par parties


 t
ϕP (t) = −g(t) + cos(t)g(0) + cos(u − t) g ′ (u) du.
0

Comme g est croissante, sa dérivée g ′ est à valeurs positives. On en déduit :


 t 
   
ϕP (t)  |g(t)| + |g(0)| +  g ′ (u) du  2(|g(t)| + |g(0)|).
 
0

Cette majoration prouve que la fonction ϕP est bornée.

18.21 1. Montrons que f −→ 0 . On en déduira que f ′ −→ 0 .


+∞ +∞

Posons g = f + αf . La fonction f est alors solution de l’équation différentielle :
(E) : y ′ + αy = g.
En résolvant l’équation (E) , on obtient l’existence d’une constante λ ∈ IR telle que :
 t
∀t ∈ IR+ f (t) = λ e−αt + e−αt eαu g(u) du.
0
 t
Comme αe−αt −→ 0 , il reste à prouver que e−αt eαu g(u) du −→ 0 .
t→+∞ t→+∞
0
On a, lorsque u → +∞ :
 
eαu g(u) = o eαu ,
donc, la fonction u �→ eαu étant positive et non intégrable, on obtient par intégration
des relations de comparaison lorsque t → +∞ :
 t
 t

αu αu
e g(u)du = o e du .
0 0
 t
1  αt  1
Comme eαu du = e − 1 ∼ eαt , on en déduit, lorsque t → +∞ :
0
α α
 t
−αt
e eαu g(u)du = o(1).
0

2. Posons g = f ′′ + 3f ′ + 2f . En notant D l’opérateur de dérivation, on a :


f ′′ + 3f ′ + 2f = (D2 + 3D + 2 Id)(f ) = (D + Id) ◦ (D + 2 Id)(f ).
Posons F = (D + 2 Id)(f ) = f ′ + 2f . Alors F est de classe C 1 et g = F ′ + F .
D’après la première question F −→ 0 , puisque g −→ 0 . En appliquant de nouveau la
+∞ +∞
première question, on obtient que f −→ 0 et f ′ −→ 0 , car F −→ 0 . On en déduit enfin
+∞ +∞ +∞

que f ′′ −→ 0 .
+∞

787
Chapitre 18. Équations différentielles linéaires

18.22 1. Comme u n’est pas l’application nulle (car sinon la famille (u, v) serait liée), t0 est un
zéro isolé de u (cf. exemple 22 de la page 750) : il existe r > 0 tel que u ne s’annule pas
sur [t0 − r, t0 + r] .
 
Notons A = t ∈ ]t0 , +∞[ : u(t) = 0 l’ensemble des zéros de u sur ]t0 , +∞[ et
montrons que A admet un plus petit élément. L’ensemble A est une partie non vide (car u
s’annule sur ]t0 , +∞[ ) et minorée (par t0 ) de IR , il possède donc une borne inférieure.
Notons t1 = inf(A) et montrons que t1 ∈ A .

• Par caractérisation séquentielle de la borne inférieure, il existe une suite (αn ) d’élé-
ments de A tendant vers t1 . Le fait que (αn ) soit à valeurs dans A et la continuité
de u donnent :
 
∀n ∈ IN u(αn ) = 0 et u(αn ) → u(t1 ).

On a donc u(t1 ) = 0 .
• Prouvons alors que t1 > t0 . On sait déjà que t1  t0 . D’après ce qui précède, u ne
s’annule pas sur [t0 , t0 + r] , donc t0 + r  t1 . Par suite, on a t1 > t0 .

2. Montrons que la fonction v possède un et un seul point d’annulation dans ]t0 , t1 [ .


• Existence. Le wronskien W = u v ′ − u′ v de (u, v) vérifie l’équation différentielle
W ′ = 0 , donc est constant. Comme il est non nul (car u et v sont linéairement
indépendantes), il existe k ∈ IR∗ tel que :

∀t ∈ IR u(t) v ′ (t) − u′ (t) v(t) = k. (⋆)


Comme u(t0 ) = 0 et u n’est pas la fonction nulle, on a u′ (t0 ) �= 0 .
De même, comme u(t1 ) = 0 , on a u′ (t1 ) �= 0 . D’autre part, u ne s’annulant pas
sur l’intervalle ]t0 , t1 [ , elle y garde un signe constant d’après le théorème des valeurs
intermédiaires.
On est donc dans l’une des deux situations suivantes :
∗ Premier cas : ∀t ∈ ]t0 , t1 [ u(t) > 0 . On a alors :
u(t)
∀t ∈ ]t0 , t1 [ >0
t − t0
u(t)
puis, comme u′ (t0 ) = lim , on a u′ (t0 )  0 et donc u′ (t0 ) > 0 .
t→t0 t − t0
t>t0

De la même manière, on obtient u′ (t1 ) < 0 .


∗ Deuxième cas : ∀t ∈ ]t0 , t1 [ u(t) < 0 . Alors, de même que précédemment, on
obtient u′ (t0 ) < 0 et u′ (t1 ) > 0 .
Dans les deux cas, la relation (⋆) , évaluée en t0 et en t1 , impose d’avoir :
v(t0 ) v(t1 ) < 0.
Le théorème des valeurs intermédiaires assure alors que la fonction continue v s’annule
au moins une fois sur l’intervalle ]t0 , t1 [ .
• Unicité. À ce stade de l’exercice, on peut affirmer qu’entre deux zéros consécutifs
de u la fonction v s’annule au moins une fois. Les rôles de u et v étant symétriques,
on en déduit qu’entre deux zéros consécutifs de v la fonction u s’annule au moins une
fois. Donc, si v possédait plusieurs zéros sur l’intervalle ]t0 , t1 [ , alors la fonction u
devrait aussi s’y annuler, ce qui est contradictoire avec la définition de t1 .

788
Solutions des exercices

18.23 1. Soit ϕ une solution de (E0 ) telle que ϕ(a) = ϕ(b) = 0 .


 b  b
• Première solution On a ϕϕ′′ = −f ϕ2 et donc ϕ(t)ϕ′′ (t) dt = − f ϕ2 (t) dt . En
a a
intégrant par parties, on a :
 b  b
 b 2
ϕ(t) ϕ′′ (t) dt = ϕ(t) ϕ′ (t) a
− ϕ′ (t) dt.
a    a
=0

On obtient donc :
 b  b
2
ϕ′ (t) dt = f ϕ2 (t) dt.
a a
 b
′2 2 2
On a ϕ  0 et f ϕ2  0 . On en déduit que ϕ′ (t) dt = 0 , puis que ϕ′ = 0 et
a
donc ϕ′ = 0 . La fonction ϕ est donc constante et comme ϕ(a) = 0 , elle est nulle.
• Deuxième solution Si ϕ n’est pas la fonction nulle, les zéros de ϕ sont isolés donc on
peut considérer le plus petit zéro c > a de ϕ (cf. exercice 18.22). La fonction ϕ ne
s’annule pas sur ]a, c[ donc elle y garde un signe constant. Quitte à considérer −ϕ ,
on peut supposer ϕ > 0 sur ]a, c[ . On a ϕ′′ = −f ϕ  0 . La fonction ϕ est donc
convexe. Sa courbe est donc sous la sécante joignant les points d’abscisse a et b . On
a donc ϕ  0 , ce qui donne une contradiction. Donc ϕ est nulle.
2. On fixe une base (ϕ1 , ϕ2 ) de l’ensemble des solutions de l’équation homogène (E0 ) . On
choisit pour ϕ1 et ϕ2 les solutions de (E0 ) vérifiant les conditions initiales :
 
ϕ1 (a) = 1 ϕ2 (a) = 0
et
ϕ′1 (a) = 0 ϕ′2 (a) = 1
Le wronskien de (ϕ1 , ϕ2 ) en a vaut 1 donc (ϕ1 , ϕ2 ) est bien une famille libre.
Si ϕP une solution particulière de (E) , toute solution de (E) s’écrit de manière unique
ϕ = λ1 ϕ1 + λ2 ϕ2 + ϕP avec (λ1 , λ2 ) ∈ IR2 .
On a alors ϕ(a) = λ1 + ϕP (a) et ϕ(b) = λ1 ϕ1 (b) + λ2 ϕ2 (b) + ϕP (b) .
La condition ϕ(a) = 0 équivaut à λ1 = −ϕP (a) . La condition ϕ(b) = 0 équivaut alors à :
λ2 ϕ2 (b) = −λ1 ϕ1 (b) − ϕP (b) = ϕP (a)ϕ1 (b) − ϕP (b).
Comme ϕ2 n’est pas la fonction nulle (en effet, on a ϕ′2 (a) = 1 ), on a d’après la première
question ϕ2 (b) �= 0 , car ϕ2 (a) = 0 . On trouve un couple (λ1 , λ2 ) unique et donc une
solution ϕ unique telle que ϕ(a) = ϕ(b) = 0 .

18.24 1. Soit M tel que |ϕ(t)|  M pour tout t ∈ IR . On a donc, pour tout t ∈ IR+ :
|ϕ′′ (t)| = |q(t)ϕ(t)|  M |q(t)|.
Comme q est intégrable sur IR+ , il en est de même de ϕ′′ .
 t
Pour tout t ∈ IR+ , on a ϕ′ (t) = ϕ′ (0) + ϕ′′ (s) ds donc ϕ′ possède une limite finie ℓ
0
 +∞

en +∞ . Si ℓ �= 0 , alors ϕ (t) ∼ ℓ , et comme ℓ ds diverge, on a, par intégration
t→+∞
0
des relations d’équivalence :
 t
ϕ(t) = ϕ(0) + ϕ(s) ds ∼ ℓ t,
t→+∞
0

789
Chapitre 18. Équations différentielles linéaires

ce qui contredit le fait que ϕ est bornée. Ainsi ϕ′ (t) tend vers 0 quand t tend vers +∞ .
2. Raisonnons par l’absurde et supposons que toutes les solutions de (E) soient bornées.
Soit (ϕ1 , ϕ2 ) une base de solutions de (E) . Comme il a été remarqué dans l’exemple 23
de la page 751, leur wronskien W est constant. Mais, par hypothèse, ϕ1 et ϕ2 sont
bornées, donc d’après la question 1, ϕ′1 et ϕ′2 ont pour limite 0 en +∞ . On en déduit
que :
W (t) = ϕ1 (t)ϕ′2 (t) − ϕ′1 (t)ϕ2 (t) −→ 0.
t→+∞

Comme W est une fonction constante, c’est la fonction nulle. Mais cela contredit le fait
que (ϕ1 , ϕ2 ) une base de solutions de (E) . Donc (E) possède des solutions non bornées.

18.25 • Supposons (ii) et montrons qu’il existe une base (f, g) de S0 avec f paire et g impaire.
∗ Remarquons que pour tout ϕ ∈ S0 , la fonction ϕ̃ : t �→ ϕ(−t) est également solution
de (E) . En effet, pour tout t ∈ IR , on a :
ϕ̃′ (t) = −ϕ′ (−t) et ϕ̃′′ (t) = ϕ′′ (−t),
donc, en utilisant l’imparité de a et la parité de b :
ϕ̃′′ (t) + a(t) ϕ̃′ (t) + b(t) ϕ̃(t) = ϕ′′ (−t) − a(t) ϕ′ (−t) + b(t) ϕ(−t)

= ϕ′′ (−t) + a(−t) ϕ′ (−t) + b(−t) ϕ(−t)


= 0.
� �
∗ Si f est la solution de (E) vérifiant la condition initiale f (0), f ′ (0) = (1, 0) , alors la
fonction f˜ : t �→ f (−t) appartient à S0 , d’après le point précédent. Elle est solution
du même problème de Cauchy que f , donc f˜ = f , c’est-à-dire f est paire.
∗ De la même façon, si g est la solution de (E) vérifiant la condition ini-
� �
tiale g(0), g ′ (0) = (0, 1) , alors la fonction −g̃ : t �→ −g(−t) appartient à S0 .
Elle est solution du même problème de Cauchy que g , donc −g̃ = g , c’est-à-dire g
est impaire.
∗ La famille (f, g) est une base de S0 , car le wronskien de (f, g) en 0 n’est pas nul (il
vaut 1 ).
• Réciproquement, supposons qu’il existe une base (f, g) de S0 avec f paire et g impaire.
On a : �
af ′ + bf = −f ′′
ag ′ + bg = −g ′′ .
Le déterminant du système est l’opposé du wronskien de (f, g) qui ne s’annule pas. On
a donc un système de Cramer et on obtient :
f g ′′ − f ′′ g f ′′ g ′ − f ′ g ′′
a= et b= ·
f ′ g − f g′ f ′ g − f g′
Comme f est paire et g impaire, les fonctions f ′′ et g ′ sont paires, alors que g ′′ et f ′
sont impaires. On en déduit immédiatement que a est impaire et b paire.

18.26 En notant :
     
y 0 1 0 0 0
 y′   0 0 1 0   0 
X =  ′′  A= et B(t) =  ,
y 0 0 0 1  0 
y ′′′ −1 0 0 0 ϕ(t)

790
Solutions des exercices

l’équation (E) se traduit matriciellement par (EM) : X ′ = A X + B(t) .


L’existence d’une solution 2π -périodique à (E) équivaut à l’existence d’une solution 2π -
périodique à (EM) .
• Comme il a été remarqué dans l’exemple 3 de la page 735, A étant constante et B
étant 2π -périodique, une solution X : IR → C de (EM) est 2π -périodique si, et seulement
si, X(2π) = X(0) .
• On sait exprimer les solutions de (EM) :
  t

X : t �→ exp(tA) X0 + exp(−sA)B(s)ds avec X0 ∈ C4 .
0

D’après le point précédent, une telle solution X est 2π -périodique si, et seulement
si, X(2π) = X(0) , ce qui s’écrit :
  2π 
exp(2πA) X0 + exp(−sA)B(s)ds = X0 ,
0
ou encore :
 2π
 
exp(2πA) − I4 X0 = − exp(2πA) exp(−sA)B(s)ds.
0

• Justifions que la matrice exp(2πA) − I4 est inversible ; cela prouvera l’existence (et l’uni-
cité) de X0 ∈ C4 vérifiant la condition ci-dessus, et donc l’existence (et l’unicité) d’une
solution 2π -périodique.
Pour justifier que exp(2πA) − I4 est inversible, il suffit de constater que, comme :
sp(A) = {λ ∈ C : λ4 + 1 = 0},
on a :
iZZ ∩ sp(A) = ∅, donc 2iπZZ ∩ sp(2πA) = ∅,
donc 1 n’est pas valeur propre de exp(2πA) (cf. proposition 21 de la page 741).

18.27 Soit ϕ : I → IK une fonction deux fois dérivable. Si α : I → IK est une fonction deux fois
ϕ
dérivable ne s’annulant pas, alors la fonction ψ = est aussi deux fois dérivable et l’on a :
α
ϕ′ = α′ ψ + α ψ ′ et ϕ′′ = α′′ ψ + 2 α′ ψ ′ + α ψ ′′ .
On obtient alors que ϕ est solution de (E) si, et seulement si, ψ vérifie :
   
αψ ′′ + 2α′ +pα ψ ′ + α′′ +p α′ +qα ψ = 0.
Choisissons alors pour α une solution non nulle de l’équation d’ordre 1 :
p(t)
y′ + y = 0.
2
Une telle fonction α ne s’annule pas sur I et, puisque p est de classe C 1 sur I , α est de
classe C 2 sur I . Alors, les solutions ϕ de l’équation :
(E) : x′′ + p(t) x′ + q(t) x = 0
sont toutes les fonctions ϕ = αψ où ψ est solution de l’équation :
α′′ + p α′ + q α
z ′′ + r(t) z = 0 avec r= ·
α
Comme p et q sont continues et α de classe C 2 , la fonction r est continue.

791
Chapitre 18. Équations différentielles linéaires

18.28 • L’équation (E) est une équation linéaire scalaire homogène d’ordre 2 , à coefficients conti-
nus, et écrite sous forme normalisée, donc son ensemble S de solutions est un espace
vectoriel de dimension 2 .
• Soit f : IR → IR développable en série entière sur IR s’écrivant, pour tout x ∈ IR :
+∞

f (x) = an xn .
n=0
Pour tout x ∈ IR , on a, après simplification :
+∞
  
f ′′ (x) − xf (x) = 2a2 + (n + 3)(n + 2)an+3 − an xn+1 .
n=0
Par unicité du développement en série entière, une telle fonction f est donc solution de
l’équation (E) si, et seulement si, la suite (an ) vérifie :
a2 = 0 et ∀n ∈ IN (n + 3)(n + 2)an+3 − an = 0. (⋆)

On peut constater qu’une telle suite (an ) est entièrement caractérisée par ses deux pre-
miers termes a0 et a1 et que tous les termes de la forme a3n+2 sont nuls.
• Nous sommes alors en mesure d’expliciter deux solutions linéairement indépendantes ϕ1
et ϕ2 développables en série entière sur IR .
∗ Considérons la suite (αn ) définie par :
αn
(α0 , α1 , α2 ) = (1, 0, 0) et ∀n ∈ IN αn+3 = ·
(n + 3)(n + 2)
On a alors :
∀n ∈ IN α3n+1 = α3n+2 = 0.
Posons, lorsque c’est possible :
+∞ +∞
 
ϕ1 (x) = αn xn = α3n x3n .
n=0 n=0
La relation de récurrence vérifiée par la suite (αn ) donne, pour tout x ∈ IR∗ :
 
 α3n+3 x3n+3  |x|3
 = −→ 0.
 α3n x3n  (3n + 3)(3n + 2) n→+∞
La règle de d’Alembert assure alors que le rayon de convergence de la série entière

α3n t3n vaut +∞ . La fonction ϕ1 est donc bien définie sur IR , et est donc une
solution de (E) développable en série entière sur IR .
∗ De la même manière, si l’on pose :
βn
(β0 , β1 , β2 ) = (0, 1, 0) et ∀n ∈ IN βn+3 = ,
(n + 3)(n + 2)
alors la fonction ϕ2 : IR −→ IR
+∞

x �−→ β3n+1 x3n+1
n=0
est une solution de (E) développable en série entière sur IR .
   
∗ Comme ϕ1 (0), ϕ′1 (0) = (1, 0) et ϕ2 (0), ϕ′2 (0) = (0, 1) , les fonctions ϕ1 et ϕ2 sont
linéairement indépendantes, donc forment une base de l’ensemble S des solutions.

792
Solutions des exercices

18.29 1. Appliquons le théorème de dérivation des intégrales à paramètre pour montrer que f est
 π
de classe C 2 sur IR . On a f (x) = h(x, θ) dθ avec :
0

h : IR × [0, π] −→ IR
(x, θ) �−→ cos(x sin θ).

• Pour θ ∈ [0, π] , la fonction x �→ h(x, θ) est de classe C 2 .


Pour (x, θ) ∈ IR × [0, π] , on a :
∂h ∂2h
(x, θ) = − sin(θ) sin(x sin θ) et (x, θ) = − sin2 (θ) cos(x sin θ).
∂x ∂x2
2
• Pour x ∈ IR , les fonctions θ �→ h(x, θ) , θ �→ ∂h
∂x
(x, θ) et θ �→ ∂∂xh2 (x, θ) sont continues
donc continues par morceaux sur le segment [0, π] , donc intégrables.
• Hypothèse de domination. Pour (x, θ) ∈ IR × [0, π] , on a :
 2 
∂ h 
 
 ∂x2 (x, θ)  1.
Puisque la fonction constante égale à 1 est intégrable sur [0, π] , cela fournit l’hypo-
thèse de domination.
Le théorème de dérivation des intégrales à paramètre s’applique : la fonction f est de
classe C 2 , et l’on a, pour tout x ∈ IR :
 π  π
f ′ (x) = − sin(θ) sin(x sin θ) dθ et f ′′ (x) = − sin2 (θ) cos(x sin θ) dθ.
0 0

Montrer que f est solution de (E) sur IR revient à montrer que pour tout x ∈ IR :
 
f ′ (x) = −x f (x) + f ′′ (x) ,
ce qui s’écrit :
 π  π  
− sin(θ) sin(x sin θ) dθ = −x (1 − sin2 θ) cos(x sin θ) dθ,
0 0
ou encore :  
π π
sin(θ) sin(x sin θ) dθ = x cos2 (θ) cos(x sin θ) dθ.
0 0
Cela s’obtient via une intégration par parties de la première intégrale, avec les fonc-
tions θ �→ − cos(θ) et θ �→ cos(x sin θ) , qui sont de classe C 1 sur [0, π] .
2. Sur ]0, +∞[ , l’équation (E) se met sous forme normalisée. Étant une équation différen-
tielle linéaire homogène d’ordre 2 , son ensemble solution S est un espace vectoriel de
dimension 2 . Par suite, la famille (f, g) est une base de S si, et seulement si, elle est
libre.
• Puisque f est bornée au voisinage de 0 (car définie et continue sur IR ), si g ne l’est
pas, alors la famille (f, g) est libre.
• Réciproquement, supposons la famille (f, g) libre et montrons que g n’est pas bornée
au voisinage de 0 . Par l’absurde : supposons g bornée au voisinage de 0 . Introduisons
le wronskien W = f ′ g − f g ′ . Puisque la famille (f, g) est libre, le wronskien W ne
s’annule pas (cf. la proposition 34 de la page 751).
On a W ′ = f ′′ g − f g ′′ , ce qui donne, puisque f et g sont solutions de (E) :
∀t ∈ ]0, +∞[ tW ′ (t) + W (t) = 0.

793
Chapitre 18. Équations différentielles linéaires

Comme W n’est pas nul, il existe λ ∈ IR∗ tel que :


λ
∀t > 0 W (t) = ·
t
Par hypothèse, g est bornée au voisinage de 0 , et f ′ l’est aussi (car f est de classe C 2
sur IR , donc f ′ est de classe C 1 donc continue), donc la fonction f ′ g est également
bornée au voisinage de 0 . Comme |W (t)| −→ +∞ , on a :
t→0

λ
f (t)g ′ (t) = f ′ (t)g(t) − W (t) ∼ −W (t) = − ·
t→0 t
λ
De f (0) = π , on déduit g ′ (t) ∼ − · La fonction g ′ est de signe constant au
t→0 πt
 1
voisinage de 0 et n’est pas intégrable sur ]0, 1[ donc g(1) − g(x) = g ′ (t) dt tend
x
vers ±∞ quand x tend vers 0 , ce qui contredit le fait que g est bornée au voisinage
de 0 .

794
Chapitre 19 : Calcul différentiel

I Différentiabilité d’une fonction en un point . . . . . . . 796


1 Dérivée selon un vecteur . . . . . . . . . . . . . . . . . . . 796
2 Dérivées partielles . . . . . . . . . . . . . . . . . . . . . . 797
3 Différentielle en un point . . . . . . . . . . . . . . . . . . 798
4 Différentiabilité et dérivabilité . . . . . . . . . . . . . . . . 801
5 Matrice jacobienne . . . . . . . . . . . . . . . . . . . . . . 803
6 Gradient . . . . . . . . . . . . . . . . . . . . . . . . . . . . 804
II Fonctions différentiables . . . . . . . . . . . . . . . . . . 805
1 Application différentielle . . . . . . . . . . . . . . . . . . . 805
2 Opérations sur les fonctions différentiables . . . . . . . . . 806
3 Application au calcul des dérivées partielles . . . . . . . . 810
4 Dérivation le long d’un arc . . . . . . . . . . . . . . . . . 811
5 Fonctions de classe C 1 . . . . . . . . . . . . . . . . . . . . 813
III Vecteurs tangents à une partie . . . . . . . . . . . . . . 815
1 Vecteurs tangents . . . . . . . . . . . . . . . . . . . . . . . 815
2 Exemples d’espaces tangents . . . . . . . . . . . . . . . . 816
3 Cas des ensembles définis par une équation . . . . . . . . 818
IV Fonctions de classe C k . . . . . . . . . . . . . . . . . . . 821
1 Fonctions de classe C k . . . . . . . . . . . . . . . . . . . . 821
2 Théorème de Schwarz . . . . . . . . . . . . . . . . . . . . 823
3 Hessienne – Formule de Taylor-Young à l’ordre 2 . . . . . 825
4 Exemples d’équations aux dérivées partielles . . . . . . . 826
V Optimisation . . . . . . . . . . . . . . . . . . . . . . . . . 829
1 Extrema . . . . . . . . . . . . . . . . . . . . . . . . . . . . 829
2 Conditions nécessaires d’extrema . . . . . . . . . . . . . . 831
3 Utilisation de la compacité . . . . . . . . . . . . . . . . . 833
4 Condition suffisante d’extremum . . . . . . . . . . . . . . 835
5 Optimisation sous contrainte . . . . . . . . . . . . . . . . 836
Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 849
Calcul différentiel 19

Dans ce chapitre, tous les espaces vectoriels sont réels, de dimension finie non nulle
et munis de normes, notées en général � � . Sauf mention explicite du contraire, les
fonctions considérées sont définies sur un ouvert non vide d’un tel espace vectoriel à
valeurs dans un espace vectoriel.
Fixons donc deux espaces vectoriels de dimension finie E et F ainsi qu’un ouvert Ω
non vide de E .
Remarques préliminaires
Lorsque l’on fixe une base B = (e1 , . . . , ep ) de E , on sait que l’application Φ définie

p
sur IRp par Φ(x1 , . . . , xp ) = xi ei est un isomorphisme de IRp sur E .
i=1
Si A est une partie non vide de E , à toute application f : A → F on peut associer
une application fB définie sur Φ−1 (A) par :
 p 

fB (x1 , . . . , xp ) = f xi ei .
i=1
 
Il est clair que f �→ fB définit une bijection de F (A, F ) sur F Φ−1 (A), F , ce qui
permet, pour l’étude d’une fonction définie sur une partie de E , de se ramener à
une fonction définie sur une partie de IRp ; on parle alors de fonction de plusieurs
variables.

I Différentiabilité d’une fonction en un point


1 Dérivée selon un vecteur
Rappelons que Ω désigne un ouvert non vide de E .
Définition 1
Soit f : Ω → F une application, a ∈ Ω et v ∈ E . La dérivée de f en a selon v ,
notée Dv f (a), est, si elle existe, la dérivée en 0 de la fonction t �→ f (a + tv).
I Différentiabilité d’une fonction en un point

Remarques
• L’ensemble Ω étant ouvert, pour tout a ∈ Ω la fonction ϕ : t �→ f (a + tv) est
définie sur un voisinage de 0 . Plus précisément, la fonction ϕ est définie :
 r 
∗ en tout point de − �v� r
, �v� si v �= 0 , où r > 0 est tel que BO (a, r) ⊂ Ω,
∗ sur IR si v = 0 et elle est alors constante, ce qui donne D0 f (a) = 0 .
• Si E = IR et Ω est un intervalle ouvert, et si v �= 0 , alors Dv f (a) est définie
en a ∈ Ω si, et seulement si, la fonction f est dérivable en a, et dans ce cas, on
a Dv f (a) = vf ′ (a).

Ex. 1. Si f est définie sur IR2 par f (x, y) = xy 2 et (a, b) ∈ IR2 , alors D(a,b) f (1, 1) = a + 2b ,
puisque, au voisinage de 0 :
 
f (1, 1) + t(a, b) = (1 + ta)(1 + tb)2 = (1 + ta)(1 + 2tb + t2 b2 ) = 1 + t(a + 2b) + o(t)

(lien entre dérivabilité et existence d’un développement limité à l’ordre 1 pour une fonction d’une
variable réelle).
Ex. 2. Soit f : Mn (IR) −→ Mn (IR)
M �−→ M 2.
Pour (M, H) ∈ Mn (IR)2 , on a, pour tout t ∈ IR :

f (M + tH) = M 2 + t(M H + HM ) + t2 H 2 .

Il s’ensuit que DH f (M ) est définie et DH f (M ) = M H + HM .


Ex. 3. Dans Mn (IR) , pour tout H ∈ Mn (IR) , on a DH exp(0) = H . En effet, on sait que
l’application g : t �→ exp(tH) est dérivable et g ′ (t) = H exp(tH) pour tout t ∈ IR . On conclut
en remarquant que exp(0) = In .

Attention L’existence de dérivées en a selon tout vecteur n’est pas une bonne
Exo condition de régularité en a de la fonction. Par exemple, une fonction peut avoir des
19.1
dérivées en a selon tout vecteur sans pour autant être continue en a.

2 Dérivées partielles
Définition 2
Soit B = (e1 , . . . , ep ) une base de E et f une fonction de Ω dans F .
Pour a ∈ Ω et j ∈ [[1, p]], la j -ème dérivée partielle de f en a dans la
base B , notée :
∂f
∂j f (a) ou (a)
∂xj
est, lorsqu’elle existe, la dérivée de f en a selon le vecteur ej .

Remarques
• Lorsqu’il n’y a pas d’ambiguïté sur la base, on parle plus simplement de « j -ème
dérivée partielle de f en a ».

797
Chapitre 19. Calcul différentiel

• Cas des fonctions de plusieurs variables. Avec les notations précédentes,


si E = IRp , alors la j -ème application partielle de f est la fonction de la
variable réelle :
t �→ f (a1 , . . . , aj−1 , t, aj+1 , . . . , ap ).
Dans ce contexte, la j -ème dérivée partielle de f en a dans la base cano-
nique est définie si, et seulement si, la j -ème application partielle est dérivable
en aj ; ∂j f (a) est alors la dérivée en aj de cette j -ème application partielle de f ,
puisque t �→ f (a1 , . . . , aj−1 , t, aj+1 , . . . , ap ) est dérivable en aj si, et seulement
si, s �→ f (a1 , . . . , aj−1 , aj + s, aj+1 , . . . , ap ) est dérivable en 0 , leurs dérivées étant
alors égales.
Sauf mention expresse, lorsque l’on parle de dérivées partielles pour une fonction
définie sur un ouvert de IRp , il est sous-entendu que c’est par rapport à la base
canonique.
p
• Si B est une base de E et a = ai ei ∈ Ω, alors ∂j f (a) est définie si, et seulement
i=1
si, ∂j fB (a1 , . . . , ap ) l’est et elles sont alors égales.
• Si f : Ω → F est définie par une expression où les variables sont notées u1 , . . . , up ,
∂f ∂f
on notera ,..., ses dérivées partielles.
∂u1 ∂up
• En particulier, lorsque E = IR2 ou E = IR3 , on a l’habitude de noter (x, y)
ou (x, y, z) les variables. Les dérivées partielles seront donc traditionnellement
∂f ∂f ∂f
notées , , et éventuellement ·
∂x ∂y ∂z

3 Différentielle en un point
Soit ϕ : Ω′ → F , où Ω′ est un ouvert de E contenant 0 .
Notations o et O
 
• Pour k ∈ IN, on écrit ϕ(h) = o �h�k (sous-entendu au voisinage de 0 ) lorsqu’il
existe une fonction ε : Ω′ → F , tendant vers 0 en 0 , telle que :
∀h ∈ Ω′ ϕ(h) = �h�k ε(h).
 
• De même, on écrit ϕ(h) = O �h�k s’il existe une fonction α : Ω′ → F , bornée
au voisinage de 0 , telle que :
∀h ∈ Ω′ ϕ(h) = �h�k α(h).
• Dans la pratique, on utilisera surtout ces notations avec k = 1 et l’on simplifiera
   
alors les écritures o �h� et O �h� en o(h) et O(h).
Remarques
 
• Si ϕ(h) = O �h�2 , alors ϕ(h) = o(h).
• Pour k = 0 , on retrouve la signification habituelle : ϕ(h) = o(1) si, et seulement
si, la fonction ϕ tend vers 0 en 0 et ϕ(h) = O(1) si, et seulement si, ϕ est bornée
au voisinage de 0 .

798
I Différentiabilité d’une fonction en un point

• De la même façon que pour les fonctions d’une variable réelle, on se permettra
 
d’écrire des relations du type f (h) = g(h) + o(h) ou f (h) = g(h) + o �h�2 pour
 
signifier respectivement f (h) − g(h) = o(h) ou f (h) − g(h) = o �h�2 .

Développement limité à l’ordre 1

Définition 3
Soit f : Ω → F et a ∈ Ω. On dit que f est différentiable en a , ou que f admet
un développement limité à l’ordre 1 en a, s’il existe u ∈ L(E, F ) telle que l’on
ait, au voisinage de 0 :
f (a + h) = f (a) + u(h) + o(h).

Reformulation Cela revient à dire qu’il existe une fonction ε tendant vers 0 en 0
telle que l’on ait, au voisinage de 0 :
f (a + h) = f (a) + u(h) + �h�ε(h).

Proposition 1 (Différentiabilité et continuité)


Une application f : Ω → F différentiable en a ∈ Ω est continue en a.

Démonstration. Si f est différentiable en a , alors f (a + h) − f (a) = u(h) + o(h) , où u


est une application linéaire de E dans F . Comme E est de dimension finie, u est continue et
donc lim u(h) = 0 . La continuité de f en a en découle.
h→0

Différentielle

Théorème 2 (Différentielle en un point)


Soit f : Ω → F différentiable en a ∈ Ω. Il existe alors une unique applica-
tion u ∈ L(E, F ) telle que l’on ait f (a + h) = f (a) + u(h) + o(h) au voisinage
de 0 . Elle est appelée la différentielle de f en a et notée df (a).
Démonstration page 839

Terminologie La différentielle de f en a est également appelée application li-


néaire tangente à f en a .

Notation
• La valeur en h ∈ E de la différentielle de f en a se note df (a) · h pour alléger
l’écriture de l’expression parenthésée df (a)(h).
• Le développement limité de f en a à l’ordre 1 s’écrit donc :
f (a + h) = f (a) + df (a) · h + o(h).

Point méthode Pour montrer que f est différentiable en a, on peut chercher une
Exo
19.2 application linéaire u telle que f (a + h) − f (a) − u(h) = o(h).

799
Chapitre 19. Calcul différentiel

Ex. 4. Si E est un espace euclidien, alors f : x �→ �x�2 est différentiable en tout point de E .
En effet, E est un ouvert et pour tout (x, h) ∈ E 2 :

f (x + h) = f (x) + 2( x | h ) + �h�2 .

Ainsi, au voisinage de 0 , on a f (x + h) = f (x) + 2( x | h ) + o(h) . L’application u : h �→ ( x | h )


étant linéaire, il s’ensuit que f est différentiable en x et que df (x) : h �→ 2( x | h ) .
Ex. 5. Montrons que la fonction f définie sur IR2 par :

x4 + y 4
si (x, y) ∈ IR2 \ {(0, 0)}
f (x, y) = x2 + y 2
0 si (x, y) = (0, 0),

est différentiable en (0, 0) .


Soit (x, y) ∈ IR2 \ {(0, 0)} . Puisque x4 + y 4  x4 + y 4 + 2x2 y 2 = (x2 + y 2 )2 , on a :

0  f (x, y)  x2 + y 2 .

Cette dernière inégalité est encore vérifiée lorsque (x, y) = (0, 0) .


 
Par conséquent, on a f (x, y) = O �(x, y)�22 au voisinage de 0 , donc :
 
f (x, y) = f (0) + o (x, y) .

Par suite, f est différentiable en (0, 0) et df (0, 0) est l’application nulle.

Proposition 3 (Cas particulier des fonctions d’une seule variable)


Supposons que Ω soit un intervalle ouvert de E = IR.
Une application f : Ω → F est différentiable en a ∈ Ω si, et seulement si, f est
dérivable en a et alors df (a) est l’application linéaire h �→ hf ′ (a).
En particulier f ′ (a) = df (a) · 1 .
Démonstration page 839
Principe de démonstration. Remarquer que les applications linéaires de IR dans F sont
les applications de la forme t �→ tu , avec u ∈ F .

Quelques exemples fondamentaux


Ex. 6. Différentielle d’une application constante
Soit f : Ω → F une fonction constante et a ∈ Ω .
Pour tout h ∈ E tel que a + h ∈ Ω , on a f (a + h) = f (a) et donc au voisinage de 0 :

f (a + h) = f (a) = f (a) + o(h).

Il s’ensuit, l’application nulle étant linéaire, que f est différentiable en a et que df (a) = 0 .

Remarque La réciproque est fausse : une application peut être différentiable en tout
point avec une différentielle nulle, sans pour autant être constante, comme le montre
l’exemple de la fonction indicatrice de IR∗+ × IR sur l’ouvert IR∗ × IR.

800
I Différentiabilité d’une fonction en un point
Proposition 4 (Différentielle d’une application linéaire)
Soit u ∈ L(E, F ).
En tout a ∈ Ω, l’application f : Ω −→ F est différentiable et df (a) = u .
x �−→ u(x)
Démonstration page 839
Ex. 7. Si E est euclidien et v ∈ E , l’application u définie sur E par f (x) = ( v | x ) est linéaire
donc différentiable en tout a ∈ E et, pour tout h ∈ E , on a df (a) · h = ( v | h ) .

4 Différentiabilité et dérivabilité
Dérivée selon un vecteur
Proposition 5
Soit f : Ω → F une fonction différentiable en a ∈ Ω. Alors la dérivée de f en a
selon tout vecteur v ∈ E existe et :
Dv f (a) = df (a) · v.
Démonstration page 839
Principe de démonstration. Remplacer h par tv dans la relation :
f (a + h) = f (a) + df (a) · h + o(h).

Remarque Si f est différentiable en a, sa différentielle est v �→ Dv f (a) qui est


donc une application linéaire.

Point méthode Une application f : Ω → F n’est pas différentiable en a :


• s’il elle n’admet pas de dérivée selon tout vecteur en a,
• si elle en admet, mais que l’application u : h �→ Dh f (a) n’est pas linéaire ou ne
vérifie pas f (a + h) − f (a) − u(h) = o(h).

Ex. 8. Une norme sur E n’est jamais différentiable en 0 .


En effet, supposons qu’une norme N sur E soit différentiable en 0 . Alors, pour tout h ∈ E ,
l’application gh : t �→ N (th) est dérivable en 0 . Cependant, gh (t) = |t| N (h) pour tout t ∈ IR ;
cette expression montre que gh n’est pas dérivable en 0 lorsque h �= 0 .
Ex. 9. La fonction définie sur IR2 par :

x3 + y 3
si (x, y) �= (0, 0)
f (x, y) = x2 + y 2
0 si (x, y) = (0, 0)
n’est pas différentiable en (0, 0) . Pour le voir, étudions l’existence de D(h,k) f (0, 0) .
  h3 + k3
Soit (h, k) ∈ IR2 \ (0, 0) . Pour tout t ∈ IR∗ , on a f (th, tk) = t ·
h2 + k2
On en déduit que f admet une dérivée en (0, 0) selon (h, k) et que :

h3 + k3
D(h,k) f (0, 0) = ·
h2 + k2
On constate que f n’est pas différentiable en (0, 0) , car l’application u : (h, k) �→ D(h,k) f (0, 0)
n’est pas linéaire : par exemple, on a u(1, 0) = u(0, 1) = 1 et u(1, 1) = 1 .

801
Chapitre 19. Calcul différentiel

Dérivées partielles
Corollaire 6
Soit B = (e1 , . . . , ep ) une base de E et f : Ω → F .
Si f est différentiable en a ∈ Ω, alors, pour tout j ∈ [[1, p]], la dérivée par-
tielle ∂j f (a) est définie et ∂j f (a) = df (a) · ej .

On déduit de ce qui précède une expression de la différentielle à l’aide des dérivées


partielles.
Corollaire 7
Soit B = (e1 , . . . , ep ) une base de E . Si f : Ω → F est une fonction différentiable
p
en a ∈ Ω, alors, pour tout h = hj ej ∈ E , on a :
j=1
p

df (a) · h = hj ∂j f (a).
j=1


p
Démonstration. Par linéarité de df (a) , pour tout h = hj ej ∈ E , on a :
j=1
 p
 p
 
df (a) · h = df (a) · hj ej = hj df (a) · ej ,
j=1 j=1

donc, d’après le corollaire 6, on obtient :


p

df (a) · h = hj ∂j f (a).
j=1

Point méthode Pour étudier si une fonction f : Ω → F est différentiable en a, on


peut vérifier l’existence de toutes ses dérivées partielles en a, puis voir si l’applica-
p
tion linéaire u : h �→ hj ∂j f (a) vérifie f (a + h) − f (a) − u(h) = o(h).
j=1

Ex. 10. Soit f la fonction définie sur IR2 par :



x3
x2 +y 4
si (x, y) �= (0, 0)
f (x, y) =
0 si (x, y) = (0, 0).

∂f
• Pour tout t ∈ IR , on a f (t, 0) = t , et t �→ t est dérivable en 0 , de dérivée 1 , donc ∂x
(0, 0)
∂f
existe et ∂x
(0, 0) = 1.
∂f
• De même, pour tout t ∈ IR , on a f (0, t) = 0 , donc ∂y
(0, 0) = 0.
Si f est différentiable en (0, 0) , sa différentielle ne peut donc être que l’application linéaire :
(h, k) �→ 1 × h + 0 × k = h.

Étudions donc ∆(h, k) = f (h, k) − h pour (h, k) �= (0, 0) au voisinage de (0, 0) :

h3 hk4
∆(h, k) = −h=− 2 ·
h2 + k4 h + k4

802
I Différentiabilité d’une fonction en un point

a2 +b2 h2 +k4
Or, l’inégalité classique |ab|  2
donne |hk2 |  2
, donc :

� � 2 2 2
�∆(h, k)�  k  h + k = o(h, k).
2 2
Donc f est différentiable en (0, 0) et l’on a df (0, 0) : (h, k) �→ h .

5 Matrice jacobienne
Posons B = (e1 , . . . , ep ) une base de E et B ′ = (e′1 , . . . , e′n ) une base de F .
Soit f : Ω → F une fonction différentiable en a ∈ Ω ; notons f1 , . . . , fn les fonctions
coordonnées de f dans la base B ′ . On sait qu’une fonction de la variable réelle à
valeurs dans un espace vectoriel de dimension finie est dérivable si, et seulement si,
toutes ses fonctions coordonnées sont dérivables (cf. proposition 3 de la page 339).
Ainsi, pour tout j ∈ [[1, p]], puisque ∂j f (a) est définie, pour tout i ∈ [[1, n]], les
�n �
n
∂fi
dérivées partielles ∂j fi (a) sont définies et ∂j f (a) = ∂j fi (a) e′i = ∂xj (a) ei .

i=1 i=1

Proposition 8
Avec les hypothèses précédentes, la matrice de df (a) dans les bases B et B ′ est :
� ∂f �
i
(a) 1in ∈ Mn,p (IR).
∂xj 1jp

Démonstration. Il suffit de remarquer que pour tout j ∈ [[1, p]] :


n
∂f � ∂fi
df (a) · ej = (a) = (a) e′i .
∂xj ∂xj
i=1

Terminologie, notation Lorsque E = IRp et F = IRn , la matrice de df (a) dans


les bases canoniques est appelée matrice jacobienne de f en a , et notée Jf (a).

Ex. 11. Soit f : IR2 −→ IR3


� �
f1 (u, v) = eu cos v
(u, v) �−→ f2 (u, v) = eu sin v .
f3 (u, v) = v
Nous verrons plus loin comment démontrer que cette application est différentiable en tout
point (u, v) ∈ IR2 . Sa matrice jacobienne est alors :
 
∂f1 ∂f1
(u, v) (u, v)
 ∂u ∂v  � eu cos v −eu sin v

 ∂f2 ∂f2 
Jf (u, v) = 
 (u, v) (u, v) =
 eu sin v eu cos v .
 ∂u ∂v  0 1
∂f3 ∂f3
(u, v) (u, v)
∂u ∂v

Ex. 12. La matrice jacobienne d’une application linéaire u : IRp → IRn est, en tout point de IRp ,
la matrice de u dans les bases canoniques.

803
Chapitre 19. Calcul différentiel

6 Gradient
Dans cette section, E est un espace euclidien et F = IR.
Rappelons (cf. théorème 1 de la page 158) que pour toute forme linéaire ϕ sur E , il
existe un unique v ∈ E tel que :
∀h ∈ E ϕ(h) = ( v | h ).
Donc, si f : Ω → IR est différentiable en a ∈ Ω, il existe un unique v ∈ E tel que :
∀h ∈ E df (a) · h = ( v | h ).
Cela conduit à la définition suivante.
Définition 4
Soit f : Ω → IR une fonction différentiable en a ∈ Ω. Le gradient de f en a ,
noté ∇f (a), est l’unique vecteur de E vérifiant :
∀h ∈ E df (a) · h = ( ∇f (a) | h ).

Notation On trouve aussi la notation grad f (a) pour désigner ce gradient.

Proposition 9 (Composantes du gradient en base orthonormée)


On suppose E muni d’une base orthonormée B = (e1 , . . . , ep ). Si f : Ω → IR est
une fonction différentiable en a ∈ Ω, alors :
p

∇f (a) = ∂j f (a) ej .
j=1
Démonstration page 840

Corollaire 10
On munit E = IRp du produit scalaire canonique. Si f : Ω → IR est une fonction
différentiable en a ∈ Ω, alors :
 
∂1 f (a)

∇f (a) =  ..  T
.  = (Jf ) .
∂p f (a)

Première interprétation géométrique du gradient


De manière informelle, le gradient donne la direction de « variation maximale » de f .
Plus précisément, on dispose du résultat suivant.
Proposition 11
Soit f : Ω → IR une fonction différentiable en a ∈ Ω. La restriction à la sphère
unité de la fonction h �→ Dh f (a) admet un maximum qui est atteint, si ∇f (a) �= 0 ,
en l’unique vecteur unitaire positivement colinéaire à ∇f (a).
Démonstration page 840
Principe de démonstration.
Utiliser l’expression df (a) · h = ( ∇f (a) | h ) et l’inégalité de Cauchy-Schwarz.

804
II Fonctions différentiables

Interprétation topographique Supposons que le relief d’une montagne soit représenté par le
graphe d’une fonction f de deux variables différentiable en tout point : l’altitude d’un point
de coordonnées horizontales (x, y) est z = f (x, y) . En tout point, le gradient de f indique la
direction dans laquelle la pente sera la plus grande (c’est la direction de ce que l’on appelle la
« ligne de plus grande pente »).

II Fonctions différentiables
1 Application différentielle
Définition 5
Soit f : Ω → F .
• La fonction f est différentiable si elle est différentiable en tout point de Ω.
La différentielle de f est alors l’application :
df : Ω −→ L(E, F )
x �−→ df (x).
• La fonction f est de classe C 1 si elle est différentiable et si l’application df
est continue.

Notation L’ensemble des fonctions de classe C 1 de Ω dans F est noté C 1 (Ω, F ).

Remarques
• Comme toute application différentiable en un point a est continue en a, on a
l’inclusion C 1 (Ω, F ) ⊂ C(Ω, F ).
• Dans le cas où E = IR et Ω est un intervalle ouvert, la proposition 3 de la page 800
donne que la définition précédente de la classe C 1 coïncide avec celle donnée au
chapitre 8.

Ex. 13. Une application constante admet une différentielle nulle en tout point. Elle est donc
différentiable, et même de classe C 1 puisque l’application nulle de Ω dans L(E, F ) est continue.
Ex. 14. De même, toute application linéaire u ∈ L(E, F ) est différentiable et sa différentielle
est l’application constante x �→ u . Par continuité d’une application constante, u est donc de
classe C 1 .

Notation différentielle
Cette notation est hors programme, mais elle est omniprésente en physique, en sciences
de l’ingénieur, etc.
On suppose E muni d’une base B = (e1 , . . . , ep ). Pour tout j ∈ [[1, p]], l’applica-
p
tion xj ej �→ xj est linéaire, donc différentiable et égale à sa différentielle en tout
j=1
point, ce qui mène à la noter dxj (différentielle de l’application x �→ xj ).

805
Chapitre 19. Calcul différentiel

Si f : Ω → IR est une fonction différentiable, alors pour tout a ∈ Ω, la relation :


p
∂f
∀h ∈ E df (a) · h = (a) hj ,
j=1
∂xj

peut se récrire :
p p
∂f ∂f
df (a) = (a) dxj ou encore, en oubliant a df = dxj .
j=1
∂xj j=1
∂xj

Ex. 15. Si f (x, y) = x2 y − y 3 , on a df (x, y) = 2xy dx + (x2 − 3y 2 ) dy .

2 Opérations sur les fonctions différentiables


Combinaisons linéaires
Proposition 12 (Linéarité)
Soit f et g deux fonctions de Ω dans F ainsi que λ et µ deux réels.
• Si f et g sont différentiables en a ∈ Ω, alors l’application λf + µg est différen-
tiable en a et :
d(λf + µg)(a) = λ df (a) + µ dg(a).

• Si f et g sont différentiables (respectivement de classe C 1 ), alors l’applica-


tion λf + µg est différentiable (respectivement de classe C 1 ) et :
d(λf + µg) = λ df + µ dg.
Démonstration page 840

Corollaire 13
L’ensemble C 1 (Ω, F ) est un sous-espace vectoriel de F (Ω, F ).

Différentielles et applications multilinéaires


Soit F1 , . . . , Fq , G des IR-espaces vectoriels de dimension finie.
Soit f1 : Ω → F1 , . . . , fq : Ω → Fq des fonctions et M : F1 × · · · × Fq → G une
application multilinéaire. On note :
M (f1 , . . . , fq ) : Ω −→ G  
x �−→ M f1 (x), . . . , fq (x) .
Proposition 14
• Si f1 , . . . , fq sont différentiables en a ∈ Ω, alors l’application g = M (f1 , . . . , fq )
est différentiable en a et pour tout h ∈ E :
q
  
dg(a) · h = M f1 (a), . . . , fk−1 (a), dfk (a) · h, fk+1 (a), . . . , fq (a) .
  
k=1
k -ième place

• Si f1 , . . . , fq sont différentiables (respectivement de classe C 1 ), alors M (f1 , . . . , fq )


est différentiable (respectivement de classe C 1 ).
Démonstration page 840

806
II Fonctions différentiables

Ex. 16. Si f1 , . . . , fq sont des applications de classe C 1 de Ω dans IR , le produit f1 · · · fq est


de classe C 1 sur Ω et, pour tout a ∈ Ω :
q

d(f1 · · · fq )(a) = f1 (a) · · · fk−1 (a)fk+1 (a) · · · fq (a)dfk (a).
k=1

Si E est euclidien, cela peut se réécrire :


q

∇(f1 · · · fq )(a) = f1 (a) · · · fk−1 (a)fk+1 (a) · · · fq (a) ∇fk (a).
k=1

Lorsque q = 2 , on obtient :
Corollaire 15
Soit B : F1 × F2 → G bilinéaire, ainsi que f1 : Ω → F1 et f2 : Ω → F2 .
• Si f1 et f2 sont différentiables en a ∈ Ω, alors B(f1 , f2 ) est différentiable en a et :
     
d B(f1 , f2 ) (a) · h = B df1 (a) · h, f2 (a) + B f1 (a), df2 (a) · h .

• Si f1 et f2 sont différentiables (respectivement de classe C 1 ), alors B(f1 , f2 )


est différentiable (respectivement de classe C 1 ).

Ex. 17. Produit de deux fonctions réelles


Si f et g sont deux applications de Ω dans IR différentiables en a , alors f g est différentiable
en a et :
d(f g)(a) = g(a) df (a) + f (a) dg(a).
Ex. 18. Supposons que F soit un espace euclidien. Si f : Ω → F et g : Ω → F sont deux
applications différentiables en a ∈ Ω , alors ϕ = ( f | g ) est différentiable en a et :

∀h ∈ E dϕ(a) · h = ( df (a) · h | g(a) ) + ( f (a) | dg(a) · h ).

En particulier :
 
∀h ∈ E d �f �2 (a) · h = 2 ( f (a) | df (a) · h ).

Remarques
• L’ensemble C 1 (Ω, IR) est muni d’une structure d’algèbre pour les lois usuelles.
• Plus généralement, si F est une algèbre, alors C 1 (Ω, F ) est une sous-algèbre
de C(Ω, F ).

Proposition 16
Les applications polynomiales sur E sont de classe C 1 .

Démonstration. Tout application polynomiale s’écrit comme une combinaison linéaire de


produits de formes coordonnées dans une base, qui sont de classe C 1 puisque linéaires.

807
Chapitre 19. Calcul différentiel

Ex. 19. L’application f définie sur IR3 par f (x, y, z) = x3 + y 3 + z 3 + xyz est de classe C 1 ,
car polynomiale.
Un calcul direct donne pour tout (x, y, z) ∈ IR3 :

∂f ∂f ∂f
(x, y, z) = 3x2 + yz (x, y, z) = 3y 2 + xz (x, y, z) = 3z 2 + xy.
∂x ∂y ∂z

L’expression de la différentielle d’une fonction différentiable à l’aide de ses dérivées partielles


donne, pour (x, y, z) ∈ IR3 :

∀(h, k, ℓ) ∈ IR3 df (x, y, z) · (h, k, ℓ) = (3x2 + yz)h + (3y 2 + xz)k + (3z 2 + xy)ℓ.

Exo
Ex. 20. L’application det définie sur Mn (IR) est de classe C 1 , car polynomiale.
19.3

Composition
Proposition 17 (Différentielle d’une composée)
Soit Ω′ un ouvert de F , ainsi que f : Ω → F et g : Ω′ → G telles que f (Ω) ⊂ Ω′ .
• Si f est différentiable en a ∈ Ω et si g est différentiable en b = f (a), alors g ◦ f
est différentiable en a et :
d(g ◦ f )(a) = dg(b) ◦ df (a).
• Si f est différentiable (respectivement de classe C 1 ) et g différentiable (respecti-
vement de classe C 1 ), alors g ◦f est différentiable (respectivement de classe C 1 ).
Démonstration page 841

Terminologie Ce résultat, ainsi surtout que sa conséquence pratique sur les dérivées
partielles d’une composée, donnée par la proposition 19 de la page 810, s’appelle aussi
la règle de la chaîne.

Ex. 21. On suppose que F est un espace euclidien.



• La fonction ψ : x �→ �x� = ( x | x ) est de classe C 1 sur F \ {0} .
En effet, d’après l’exemple 4 de la page 800, la fonction ϕ : x �→ ( x | x ) est différentiable
sur F et dϕ(x) : h �→ 2( x | h ) .

La fonction r : t �→ t est de classe C 1 sur IR∗+ et pour tout t ∈ IR∗+ on a dr(t) : k �→ 2√k
t
·
Par conséquent, par composition, la fonction ψ est différentiable sur F \ {0} et :

(x | h)
dψ(x) : h �→ ·
�x�

• Si f : Ω → F est une fonction différentiable en a ∈ Ω telle que f (a) �= 0 , alors �f � = ψ ◦ f


est différentiable en a et :
( f (a) | df (a) · h )
d (�f �) (a) · h = ·
�f (a)�

808
II Fonctions différentiables

Ex. 22. Composition par une application linéaire


Soit L ∈ L(F, G) et f : Ω → F . D’après la proposition 4 de la page 801, l’application linéaire L
est de classe C 1 et ∀b ∈ F dL(b) = L . Donc, d’après la proposition 17 de la page précédente :
• si f est différentiable en a ∈ Ω , alors L◦f est différentiable en a et d(L◦f )(a) = L◦df (a) ,
• si f est différentiable (respectivement de classe C 1 ), alors L ◦ f est différentiable (respecti-
vement de classe C 1 ).
Notation La fonction L ◦ f se note également L(f ) ou Lf .

Ex. 23. Utilisation des fonctions composantes


Soit B′ = (e′1 , . . . , e′n ) une base de F et f : Ω → F .
La fonction f est différentiable en a ∈ Ω si, et seulement si, toutes ses applications compo-
santes f1 , . . . , fn dans B′ sont différentiables en a et l’on a alors :

∀i ∈ [[1, n]] df (a)i = dfi (a).

En effet :
• si f est différentiable en a , chaque fonction fi également grâce à la relation fi = pi ◦ f ,
où pi est l’application linéaire F −→ IR

n
xi e′i �−→ xi ,
i=1

n
• si les fi sont différentiables en a , alors f aussi grâce à l’égalité f = qi ◦ fi où les
i=1
applications linéaires qi sont définies par qi : IR −→ F
t �−→ te′i .
On en déduit que la fonction f est différentiable (respectivement de classe C 1 ) si, et seulement
si, toutes les applications composantes sont différentiables (respectivement de classe C 1 ).
Ex. 24. Inverse
Soit f : Ω → IR une fonction ne s’annulant pas et différentiable en a ∈ Ω .
1
Alors f
est différentiable en a et :
 
1 df (a)
d (a) = − ·
f f 2 (a)

En effet, la fonction ϕ : t �→ 1
t
est de classe C 1 sur l’ouvert IR∗ et dϕ(t) · k = − tk2 pour
tout (t, k) ∈ IR∗ × IR . Par composition, 1
f
est donc différentiable en a et :
 
1 df (a) · h
d (a) · h = − ·
f f 2 (a)

Les fonctions polynomiales étant de classe C 1 , on déduit de l’exemple précédent :


Proposition 18
Toute fonction rationnelle définie sur Ω, c’est-à-dire un quotient de deux fonctions
polynomiales, est de classe C 1 .

809
Chapitre 19. Calcul différentiel

Ex. 25. Rappelons que GLn (IR) est un ouvert de Mn (IR) car c’est l’image réciproque de
l’ouvert IR∗ par l’application déterminant, continue puisque polynomiale.
La formule M −1 = det1M Com(M )T montre que les n2 applications composantes (dans la base
Exo
19.4 canonique) de l’application M �→ M −1 sont rationnelles, donc de classe C 1 .
� M −1 est de classe C 1 .
Il s’ensuit que l’application M →

3 Application au calcul des dérivées partielles


Soit Ω′ un ouvert de F , ainsi que f : Ω → F et g : Ω′ → G telles que f (Ω) ⊂ Ω′ .
On note :
∂f
• (x1 , . . . , xp ) les coordonnées dans la base B et donc ∂x j
les dérivées partielles
de f dans la base B , lorsqu’elles existent,
∂g
• (y1 , . . . , yn ) les coordonnées dans la base B ′ et donc ∂yi les dérivées partielles
de g dans la base B , lorsqu’elles existent.

Proposition 19 (Règle de la chaîne)


On suppose f différentiable en a ∈ Ω et g différentiable en b = f (a).
En notant f1 , . . . , fn les fonctions composantes de f dans la base B ′ on a, pour
tout j ∈ [[1, p]] :
n
∂(g ◦ f ) ∂fi ∂g
(a) = (a) (b).
∂xj i=1
∂xj ∂yi
Démonstration page 842
Principe de démonstration.
Utiliser la traduction matricielle de l’égalité d(g ◦ f )(a) = dg(b) ◦ df (a) .

∂fi ∂g
Remarque Dans le cas où g est à valeurs réelles, les (a) et (b) sont des
∂xj ∂yi
réels. On peut alors réécrire la formule précédente dans un ordre « plus naturel » :
n
 ∂g
∂(g ◦ f ) ∂fi
(a) = (b) (a).
∂xj i=1
∂y i ∂xj

Ex. 26. Soit f : IR2 → IR une fonction différentiable. Calculons les dérivées partielles de la
fonction g : (x, y) �→ f (x + y, xy) en fonction de celles de f .
Les applications polynomiales u : (x, y) �→ x + y et v : (x, y) �→ xy sont de classe C 1 sur
l’ouvert IR2 , donc différentiables. D’après la règle de la chaîne, pour tout (x, y) ∈ IR2 :
∂g ∂f ∂u ∂f ∂v
(x, y) = (x + y, xy) (x, y) + (x + y, xy) (x, y)
∂x ∂u ∂x ∂v ∂x
∂f ∂f
= (x + y, xy) + y (x + y, xy)
∂u ∂v
∂g ∂f ∂u ∂f ∂v
(x, y) = (x + y, xy) (x, y) + (x + y, xy) (x, y)
∂y ∂u ∂y ∂v ∂y
∂f ∂f
= (x + y, xy) + x (x + y, xy)·
∂u ∂v

810
II Fonctions différentiables
Corollaire 20 (Matrice jacobienne d’une composée)
Avec les mêmes notations que dans la proposition précédente, si E = IRp , F = IRn
et G = IRq , on a :
Jg◦f (a) = Jg (b) × Jf (a).

4 Dérivation le long d’un arc


Proposition 21
Soit I un intervalle de IR d’intérieur non vide, ainsi que γ : I → Ω et f : Ω → F .
Si γ est dérivable en t0 ∈ I et si f est différentiable en a = γ(t0 ), alors f ◦ γ est
dérivable en t0 avec :
(f ◦ γ)′ (t0 ) = df (a) · γ ′ (t0 ).
Démonstration page 843

Démonstration en un point intérieur à I . Lorsque I est un intervalle ouvert, c’est


une conséquence du théorème de différentiabilité d’une composée (proposition 17 de la
page 808). En effet, on obtient ainsi la différentiabilité, donc la dérivabilité, en t0 de f ◦ γ ,
avec d(f ◦ γ)(t0 ) = df (a) ◦ dγ(t0 ) .
En se rappelant que, pour une fonction différentiable d’une variable, la différentielle est la mul-
tiplication par la dérivée, cela donne :
   
(f ◦ γ)′ (t0 ) = d(f ◦ γ)(t0 ) · 1 = df (a) · dγ(t0 ) · 1 = df (a) · γ ′ (t0 ) = df (a) · γ ′ (t0 ).

Lorsque t0 est un point intérieur à I , on applique ce qui précède à la restriction de γ à l’intérieur


de I . Pour le cas général, voir la démonstration à la page 843.

Ex. 27. Cas particulier fondamental Soit f : Ω → F une fonction différentiable et h ∈ E .


La fonction t �→ f (a + th) est dérivable et l’on a :
d  
f a + th = df (a + th) · h.
dt
En effet, en posant γ : t �→ a + th , la fonction f ◦ γ est définie sur l’ouvert γ −1 (Ω) de IR et il
suffit d’appliquer la proposition 21 sur tout intervalle contenu dans cet ouvert.

Corollaire 22
On suppose E = IRp . Soit I un intervalle de IR d’intérieur non vide.
 
Si γ : t �→ x1 (t), . . . , xp (t) est une fonction dérivable sur I et à valeurs dans Ω,
et f : Ω → F une fonction différentiable sur Ω, alors f ◦ γ est dérivable sur I et :
p
d    ∂f  
f x1 (t), . . . , xp (t) = x′j (t) x1 (t), . . . , xp (t) .
dt j=1
∂xj

Démonstration. C’est une reformulation de la proposition 21 utilisant l’expression de la


différentielle donnée au corollaire 7 de la page 802.

Ex. 28. Si f : IR2 → IR est une application différentiable, on a :


d  ∂f ∂f
f (t + t3 , 1 − t2 ) = (1 + 3t2 ) (t + t3 , 1 − t2 ) − 2t (t + t3 , 1 − t2 ).
dt ∂x ∂y

811
Chapitre 19. Calcul différentiel

Ex. 29. Considérons une quantité physique qui dépend du temps et de l’espace. Cela peut être
modélisé en introduisant une fonction f : IR3 × IR −→ F 
(x, y, z, t) �−→ f x, y, z, t .
La position dans l’espace d’un point matériel au cours du temps est donnée par une fonc-
   
tion γ : t �→ x(t), y(t), z(t) . Posons h : t �→ f x(t), y(t), z(t), t . Si f est différentiable et γ
dérivable, alors la fonction h est dérivable et :
∂f   ∂f   ∂f   ∂f  
h′ (t) = x′ (t) γ(t), t + y ′ (t) γ(t), t + z ′ (t) γ(t), t + γ(t), t .
∂x ∂y ∂z ∂t
De manière plus simple, en omettant le point en lequel les dérivées partielles de f sont évaluées :
  
d ∂f ∂f ∂f ∂f
f x(t), y(t), z(t), t = x′ (t) + y ′ (t) + z ′ (t) + ·
dt ∂x ∂y ∂z ∂t

Attention Ne pas confondre :


  
d ∂f  
f x(t), y(t), z(t), t et x(t), y(t), z(t), t .
dt ∂t

Retour sur la règle de la chaîne


Considérons des applications différentiables f : Ω ⊂ IRp → IRn et g : Ω′ ⊂ IRn → IR
telles que f (Ω) ⊂ Ω′ . Notons yi : Ω → IR, avec i ∈ [[1, n]], les fonctions composantes
de f .
La règle de la chaîne nous dit que l’application h = g ◦ f définie par :
 
∀(x1 , . . . , xp ) ∈ Ω h(x1 , . . . , xp ) = g y1 (x1 , . . . , xp ), . . . , yn (x1 , . . . , xp ) , (⋆)
est différentiable sur Ω et admet pour dérivées partielles :
n
∂h ∂g   ∂yi
(x1 , . . . , xp ) = y1 (x1 , . . . , xp ), . . . , yn (x1 , . . . , xp ) (x1 , . . . , xp ).
∂xj i=1
∂yi ∂xj
On remarque que cela revient exactement à dériver (⋆) par rapport à xj en utilisant le
corollaire 22 de la page précédente).
On retient facilement cette relation, qui traduit la règle de la chaîne, sous la forme
concise ci-dessous, dans laquelle les points où sont évaluées les dérivées partielles sont
sous-entendus :
n
∂h ∂g ∂yi
= ·
∂xj i=1
∂y i ∂xj

Cette notation est certes abusive, mais elle est très efficace. Il faut simplement ne pas
perdre de vue, pour chaque dérivée partielle, le point où elle est évaluée.
Ex. 30. Soit f : IR2 → IR une fonction et g l’application définie par g(r, θ) = f (r cos θ, r sin θ)
sur IR2 . Par opérations sur les fonctions différentiables, les applications x : (r, θ) �→ r cos θ
et y : (r, θ) �→ r sin θ sont différentiables. Par conséquent, si f est différentiable, la fonction g
est différentiable et pour tout (r, θ) ∈ IR2 , on a :
∂g ∂x ∂f ∂y ∂f ∂f ∂f
= + = cos θ + sin θ
∂r ∂r ∂x ∂r ∂y ∂x ∂y
∂g ∂x ∂f ∂y ∂f ∂f ∂f
= + = −r sin θ + r cos θ ·
∂θ ∂θ ∂x ∂θ ∂y ∂x ∂y

812
II Fonctions différentiables

5 Fonctions de classe C 1
Théorème 23 (Théorème fondamental)
Soit f : Ω → F une fonction. Les assertions ci-dessous sont équivalentes.
(i) La fonction f est de classe C 1 sur Ω.
(ii) Toutes les dérivées partielles de f sont définies et continues sur Ω.
Démonstration (non exigible) page 843

Point méthode Pour démontrer qu’une fonction f : Ω → F est de classe C 1 :


• on cherche d’abord à utiliser les théorèmes généraux de manipulation des fonc-
tions de classe C 1 ;
• si ceux-ci ne s’appliquent pas, on peut chercher à montrer que dans une base
donnée toutes les dérivées partielles de f sont définies et continues sur Ω.

 
Ex. 31. La fonction f : (x, y) �→ ex ln x2 + 2y 2 + 1 est de classe C 1 sur IR2 . En effet :
• la fonction (x, y) �→ x2 + 2y 2 + 1 est polynomiale, donc de classe C 1 sur IR2 , et à valeurs
dans IR∗+ et la fonction ln est de classe C 1 sur IR∗+ .
Donc, par composition, (x, y) �→ ln(x2 + 2y 2 + 1) est une fonction de classe C 1 sur IR2 .
• De même, (x, y) �→ ex est de classe C 1 sur IR2 par caractère C 1 de la fonction polyno-
mial (x, y) �→ x et de l’exponentielle.
Par produit, f est de classe C 1 sur IR2 .
x4 + y 4
Ex. 32. Reprenons la fonction définie sur IR2 par f (x, y) = ·
x2 + y 2
À l’exemple 5 de la page 800, il a été montré que la fonction f prolongée par 0 en 0 est
différentiable et de différentielle nulle en 0 . On note encore f ce prolongement. Montrons qu’il
est de classe C 1 .
• En tant que fonction rationnelle, la fonction f est de classe C 1 sur l’ouvert IR2 \{0} (caractère
local de la continuité).
∂f ∂f
• On a (0, 0) = (0, 0) = 0 . Pour s’assurer que la fonction f est de classe C 1 , il suffit
∂x ∂y
de montrer :
∂f ∂f
lim (x, y) = 0 et lim (x, y) = 0.
(x,y)→(0,0) ∂x (x,y)→(0,0) ∂y

On a, pour (x, y) ∈ IR2 \ {0} :

∂f x5 + 2x3 y 2 − xy 4
(x, y) = 2 ·
∂x (x2 + y 2 )2

En majorant |x| et |y| par r = �(x, y)�2 , on a :


 
 ∂f  4r 5
 (x, y)  2 4 = 8r = 8�(x, y)�2 .
∂x r

813
Chapitre 19. Calcul différentiel

Cette inégalité est encore vérifiée pour (0, 0) . Par comparaison :

∂f
(x, y) −→ 0.
∂x (x,y)→(0,0)

∂f
On obtient de la même façon (x, y) −→ 0 . Par suite, la fonction f est de classe C 1 .
∂y (x,y)→(0,0)

Fonctions de classe C 1 et intégration


Proposition 24
Soit f : Ω → F une fonction de classe C 1 . Pour toute application γ : [0, 1] → E à
valeurs dans Ω de classe C 1 telle que γ(0) = a et γ(1) = b , on a :
 1
 
f (b) − f (a) = df γ(t) · γ ′ (t) dt.
0

Démonstration.  
En tant que composée de fonctions de classe C 1 , la fonction ϕ : t �→ f γ(t) est de classe C 1 .
 
Ainsi, d’après la proposition 21 de la page 811, ϕ′ (t) = df γ(t) · γ ′ (t) et donc :
 1  1
 
f (b) − f (a) = ϕ(1) − ϕ(0) = ϕ′ (t) dt = df γ(t) · γ ′ (t) dt.
0 0

Ex. 33. Soit a ∈ Ω et h ∈ E tel que le segment [a, a+h] soit contenu dans Ω . Soit f : Ω → F
une fonction de classe C 1 . En posant γ : t �→ a + th , de classe C 1 sur [0, 1] , on a :
 1
f (a + h) − f (a) = df (a + th) · h dt.
0

Ex. 34. Supposons f différentiable sur un ouvert Ω convexe avec une différentielle nulle. Mon-
trons que f est constante.
Soit (a, b) ∈ Ω2 . Par convexité de Ω , le segment [a, b] est contenu dans Ω et en appliquant
l’exemple précédent à h = b − a (la fonction f est bien de classe C 1 puisque sa différentielle
est nulle, donc continue), on obtient :
 1
f (b) − f (a) = df (a + th) · h dt
0

et donc f (b) = f (a) puisque df (a + th) = 0 pour tout t ∈ [0, 1] par hypothèse.
Remarque L’hypothèse de convexité peut être remplacée par celle de connexité par arcs. C’est
l’objet du résultat suivant.

Proposition 25 (Caractérisation des fonctions constantes)


Supposons que Ω soit un ouvert connexe par arcs de E ; soit f : Ω → F .
La fonction f est constante si, et seulement si, f est différentiable et df = 0 .
Démonstration (non exigible) page 844

814
III Vecteurs tangents à une partie

III Vecteurs tangents à une partie


1 Vecteurs tangents
Tangente à un arc

Un arc à valeurs dans E est simplement une application d’un


intervalle I ⊂ IR dans E . On peut naturellement parler d’arc γ ′ (t)
continu, dérivable, etc.
Lorsque γ est un arc dérivable en t ∈ I et γ ′ (t) �= 0 , la


γ(t)
droite affine γ(t) + IRγ ′ (t) est la tangente au point de
paramètre t.

 
Ex. 35. Soit ϕ : I → IR dérivable. On considère l’arc γ défini par γ(x) = x, ϕ(x) . Son
image est donc la courbe d’équation y = ϕ(x) .
 
La fonction γ est dérivable sur I et, pour tout x ∈ I , on a γ ′ (x) = 1, ϕ′ (x) �= 0 . Donc
l’arc admet une tangente en tout point, et cette tangente au point de paramètre (et donc aussi
d’abscisse) x est dirigée par γ ′ (x) , donc a pour pente ϕ′ (x) . Cette définition de la tangente
coïncide avec celle déjà connue pour des courbes d’équation cartésienne de la forme y = ϕ(x) .

Vecteurs tangents

Exo Définition 6
19.11 Soit X une partie de E et x ∈ X . Un vecteur v de E est un vecteur tangent
Exo
à X en x s’il existe un réel ε > 0 et une fonction γ : ]−ε, ε[ → E à valeurs
19.12 dans X , dérivable en 0 , tel que γ(0) = x et γ ′ (0) = v .

Notation L’ensemble des vecteurs tangents à X en x se note Tx X .


En d’autres termes, les vecteurs tangents à X en x sont les dérivées en 0 des arcs
tracés sur X , définis au voisinage de 0 , passant par x en 0 et dérivables en 0 .

Ex. 36. Le vecteur 0 est tangent à X en tout point de X , comme on le voit en considérant
un chemin constant.

Ex. 37. Si x ∈ X , alors Tx X = E .
En effet, pour v ∈ E , la fonction γ : t �→ x + tv est à valeurs dans X au voisinage de 0 et est
dérivable en 0 avec γ ′ (0) = v .
Ex. 38. Il vient de l’exemple précédent, que si Ω est un ouvert, alors Tx Ω = E pour tout x ∈ Ω .

Remarque L’ensemble Tx X est un cône de E , c’est-à-dire une partie stable par


toutes les homothéties de E . En effet, soit v ∈ Tx X et λ ∈ IR. Si γ : ]−ε, ε[ → X a
pour dérivée v en 0 , alors la dérivée en 0 de l’application t �→ γ(λt), qui est définie
sur un voisinage de 0 et à valeurs dans X , est λv , ainsi λv ∈ Tx X . En d’autres
termes, IRv est inclus dans Tx X .

815
Chapitre 19. Calcul différentiel

Ex. 39. Soit I un intervalle ouvert et γ : I → E un arc de classe C 1 . Posons X = γ(I) .


Soit t0 ∈ I . Comme I est ouvert, il existe ε > 0 tel que ]t0 − ε, t0 + ε[ ⊂ I .
En considérant l’arc t �→ γ(t0 + t) , défini sur ]−ε, ε[ et à valeurs dans X , on voit que γ ′ (t0 )
est un vecteur tangent à γ(I) en γ(t0 ) .
Par suite IRγ ′ (t0 ) ⊂ Tγ(t0 ) X .

Remarque Comme on peut le voir sur un arc du type ci-contre, il se peut


que l’inclusion soit stricte dans le cas où le point correspond à plusieurs
paramètres.

 
Ex. 40. Soit X = (x, y) ∈ IR2 : xy = 0 , réunion des deux axes (Ox) et (Oy) .
Montrons que T(0,0) X = X .
• En considérant l’application x �→ (x, 0) , on obtient que (1, 0) est un vecteur tangent à X
en (0, 0) . De même (0, 1) ∈ T(0,0) X . Par suite X = IR(1, 0) ∪ IR(0, 1) ⊂ T(0,0) X , puisque
l’ensemble des vecteurs tangents est un cône.
 
• Soit ε > 0 et γ : t �→ x(t), y(t) un arc défini sur l’intervalle ]−ε, ε[ , tracé sur X , dérivable
en 0 et tel que γ(0) = (0, 0) . On a donc, au voisinage de 0 :

x(t) = tx′ (0) + o(t) et y(t) = ty ′ (0) + o(t),

et puisque γ est tracé sur X , pour tout t ∈ ]−ε, ε[ :

0 = x(t)y(t) = t2 x′ (0)y ′ (0) + o(t2 ).

Par unicité du développement limité, x′ (0)y ′ (0) = 0 , ce qui implique que γ ′ (0) ∈ X .
Par conséquent T(0,0) X = X .

Remarque Comme on le voit dans cet exemple, l’ensemble Tx X n’est pas en général un
sous-espace vectoriel de E .
Lorsque Tx X est un sous-espace vectoriel de E , on dit que c’est l’espace tangent à X en x .

2 Exemples d’espaces tangents

Ex. 41. Vecteurs tangents à un sous-espace affine


Soit a ∈ E et F un sous-espace vectoriel de E . On pose F = a + F .
Soit x ∈ F ; montrons que Tx F = F .
• Soit v ∈ F . En considérant γ : t �→ x + tv , qui est à valeurs dans F , on a v ∈ Tx F .
• Soit γ : ]−ε, ε[ → E une fonction dérivable en 0 , à valeurs dans F et telle que γ(0) = x .
γ(t)−γ(0)
Pour tout t ∈ ]−ε, ε[ \ {0} on a t
∈ F et comme F est un fermé de E (sous-espace
γ(t)−γ(0)
vectoriel en dimension finie), il vient que γ ′ (0) = lim t
∈F.
t→0

En conclusion Tx F = F .

816
III Vecteurs tangents à une partie

Ex. 42. Vecteurs tangents à une sphère


Soit E un espace euclidien et S la sphère de E centrée en 0 et de rayon r > 0 .
Soit a ∈ S ; montrons que Ta S est l’hyperplan orthogonal au vecteur a . On procède par double
inclusion.
• Soit v ∈ Ta S . Il existe donc γ : ]−ε, ε[ → S dérivable
z
en 0 tel que γ(0) = a et γ ′ (0) = v et l’on a :

  
∀t ∈ ]−ε, ε[ γ(t)  γ(t) = r 2 .

En dérivant cette relation en 0 , cela donne :


  
2 γ(0)  γ ′ (0) = 0 i.e. ( a | v ) = 0. x
y
On en déduit que Ta S ⊂ (IRa)⊥ .

• Soit v un vecteur non nul orthogonal à a . Montrons qu’il est tangent à S en a . Au vu de


la remarque de la page 815, on peut le supposer unitaire. Considérons l’application :

γ : IR −→ E
t �−→ cos(t)a + r sin(t) v.

Elle vérifie γ(0) = a et elle est dérivable, avec γ ′ (0) = rv . De plus le théorème de Pythagore
assure qu’elle est à valeurs dans S puisque a et rv sont orthogonaux et de même norme r .
Il s’ensuit que rv ∈ Ta S , donc v ∈ Ta S , car r �= 0 . On en déduit (IRa)⊥ ⊂ Tx S .

Ex. 43. Espace tangent au graphe d’une fonction définie sur un ouvert de IR2
Soit Ω un ouvert de IR2 et f : Ω → IR une fonction numérique. Notons G son graphe :
  
G = (x, y, f (x, y))  (x, y) ∈ Ω .

Considérons m = (x0 , y0 ) ∈ Ω et supposons f différentiable en m . On pose z0 = f (x0 , y0 )


et M = (x0 , y0 , z0 ) . Cherchons les vecteurs tangents à G en M .
Soit γ : ]−ε, ε[ → G dérivable en 0 tel que γ(0) = M . En notant x, y, z les trois fonctions
composantes de γ , on a :
 
∀t ∈ ]−ε, ε[ z(t) = f x(t), y(t) .

En dérivant cette relation en 0 , cela donne z ′ (0) = x′ (0) ∂f


∂x
(m) + y ′ (0) ∂f
∂y
(m) .
• Si v = (h, k, ℓ) ∈ TM G , on a donc :

∂f ∂f
h (m) + k (m) − ℓ = 0. (∗)
∂x ∂y

817
Chapitre 19. Calcul différentiel

• Réciproquement, soit (h, k, ℓ) vérifiant (∗) . Puisque m = (x0 , y0 ) appartient à Ω qui est
ouvert, on peut trouver ε > 0 tel que (x0 + th, y0 + tk) ∈ Ω pour tout t ∈ ]−ε, ε[ . On peut
donc poser :
γ : ]−ε, ε[ −→ IR3
� �
x(t) = x0 + th
t �−→ y(t) = y0 + tk .
z(t) = f (x0 + th, y0 + tk)
L’arc γ est dérivable en 0 et l’on a x′ (0) = h et y ′ (0) = k , donc :
∂f ∂f ∂f ∂f
z ′ (0) = x′ (0) (m) + y ′ (0) (m) = h (m) + k (m) = ℓ.
∂x ∂y ∂x ∂y ↑
(∗)

On en déduit v = (h, k, ℓ) = γ ′ (0) ∈ TM G puisque γ est évidemment tracé sur G et


vérifie γ(0) = M .
Finalement, TM G est le plan d’équation (∗) , appelé plan tangent à G en M . Il est dirigé par
les deux vecteurs non colinéaires :
   
1 0
 0   1 
 ∂f  et  ∂f .
(m) (m)
∂x ∂y

3 Cas des ensembles définis par une équation � �


On considère ici une fonction g : Ω → IR de classe- C 1 et X = x ∈ Ω : g(x) = 0 .
Soit a ∈ X . Considérons un arc γ : ]−ε, ε[ → E tracé sur X , dérivable en 0 , et tel
que γ(0) = a. On a donc g ◦ γ = 0 , ce qui, par dérivation en 0 donne :
� �
0 = (g ◦ γ)′ (0) = dg γ(0) · γ ′ (0) = dg(a) · γ ′ (0).
On en déduit l’inclusion Ta X ⊂ Ker dg(a).
Cela n’a d’intérêt, évidemment, que si dg(a) �= 0 et dans ce cas, il y a même égalité,
ce qui est l’objet du théorème 26 que nous admettons.
Théorème 26
� �
Soit g : Ω → IR une fonction numérique de classe C 1 et X = x ∈ Ω : g(x) = 0 .
Si a ∈ X et dg(a) �= 0 , alors Ta X = Ker dg(a).

Ex. 44. Reprenons l’exemple de la sphère de centre 0 et de rayon r > 0 dans un espace
vectoriel euclidien E (exemple 42 de la page précédente). Elle est définie par l’équation g(x) = 0 ,
où g : x �→ ( x | x ) − r 2 est de classe C 1 sur E et :
∀x ∈ E dg(x) : h �→ 2( x | h ).
(cf. exemple 21 de la page 808). En tout point a de S , on a donc dg(a) �= 0 et Ta X est
l’hyperplan orthogonal à a .
Ex. 45. De même, pour l’exemple 43 de la page précédente du graphe G d’une fonction f ,
∂f
on peut poser g(x, y, z) = f (x, y) − z qui vérifie dg(x, y, z) = ∂x (x, y)dx + ∂f
∂y
(x, y)dy − dz ,
donc l’ensemble des vecteurs (h, k, ℓ) tangents en un point (x0 , y0 , z0 ) de G est le plan d’équa-
tion h ∂f
∂x
(x0 , y0 ) + k ∂f
∂y
(x0 , y0 ) − ℓ = 0 .

818
III Vecteurs tangents à une partie

 
Ex. 46. On note SLn (IR) = M ∈ Mn (IR) : det M = 1 .
Montrons que l’ensemble des vecteurs tangents à SLn (IR) en In est l’ensemble des matrices de
trace nulle.
La fonction det est de classe C 1 sur Mn (IR) . Soit H ∈ Mn (IR) et t ∈ IR∗ . On a :
   
1 1
det(In + tH) = tn det In + H = tn χ−H ·
t t

En utilisant χ−H (X) = X n − tr(−H)X n−1 + · · · + (−1)n det(−H) , on obtient :

det(In + tH) = 1 + tr(H)t + o(t) ce qui prouve DH (det)(In ) = tr(H).

Par suite, d(det)(In ) = tr . Puisque l’application trace n’est pas nulle, cela donne, d’après le
théorème 26 de la page ci-contre :
   
TIn SLn (IR) = H ∈ Mn (IR) : tr(H) = 0 .

Remarque On voit bien sur ces exemples la puissance du théorème 26 de la page précé-
dente qui permet d’avoir directement l’espace tangent. En particulier, dans l’exemple 46, l’inclu-
 
sion TIn SLn (IR) ⊂ Ker tr peut s’obtenir facilement en dérivant en 0 la relation det γ(t) = 1 ,
où γ est un arc tracé sur SLn (IR) tel que γ(0) = In .
Mais sans le théorème, pour avoir l’inclusion inverse, il faudrait pouvoir expliciter, pour chaque
matrice H de trace nulle, un tel arc γ vérifiant γ ′ (0) = H .
L’arc γ : t �→ exp(tH) convient ici (il est bien un arc tracé sur SLn (IR) d’après l’exemple 16
de la page 741), mais il n’est pas facile à intuiter.

Seconde interprétation géométrique du gradient


Dans le cas où E est euclidien, la conclusion du théorème 26 de la page ci-contre peut
se formuler ainsi : si ∇g(a) �= 0 , on a Ta X = ∇g(a)⊥ .
Remarques
• La figure ci-contre illustre cette propriété pour la partie y ∇f (m)
de IR2 définie par l’équation x2 + 4y 2 = 4 . 

m
• Il est clair que les résultats précédents s’appliquent O x
à X = g −1 ({c}) pour tout réel c : en tout point a
de X où ∇g(a) �= 0 , on a Ta X = ∇g(a)⊥ . Les en-
sembles d’équations g(x) = c sont appelés lignes de niveau de la fonction g .
• Reprenons l’interprétation topographique de la page 805 : pour représenter le
relief d’une montagne sur une carte plane on peut tracer les lignes de niveau,
correspondant aux lieux où f est constante, f étant la fonction qui à tout point
de coordonnées (x, y) associe son altitude z = f (x, y).
En tout point, le gradient de f est donc orthogonal à la ligne de niveau passant
par ce point.

819
Chapitre 19. Calcul différentiel

Ex. 47. Application à l’équation du plan tangent


On munit IR3 de sa structure euclidienne canonique. Soit g : Ω → IR est une fonction de
 
classe C 1 . On considère X = (x, y, z) ∈ Ω : g(x, y, z) = 0 ainsi que m0 = (x0 , y0 , z0 ) ∈ X
un point tel que ∇g(m0 ) �= 0 .
z
Puisque ∇g(m0 ) �= 0 , l’ensemble des vecteurs
tangents à X en m0 est le sous-espace vecto- ∇f (m0 )

riel ∇g(m0 ) , qui est de dimension 2 . Le plan tan-
gent à X en m0 est le plan affine T passant par m0 m0
et dirigé par le plan vectoriel ∇g(m0 )⊥ . Ce plan est
caractérisé par : y
  
∀m ∈ IR3 m ∈ T ⇐⇒ ∇g(m0 )  m − m0 = 0,

c’est-à-dire par l’équation : x

∂g ∂g ∂g
T : (x − x0 ) (m0 ) + (y − y0 ) (m0 ) + (z − z0 ) (m0 ) = 0.
∂x ∂y ∂z

Ex. 48. Soit (a, b, c) ∈ IR∗+ 3 et S la partie de IR3 définie par l’équation :
 2  2  2
x y z
+ − = 1.
a b c

Considérons m0 = (x0 , y0 , z0 ) ∈ S . Il est clair que m0 �= 0 , donc :


 
2x0 2y0 2z0
∇g(m0 ) = , ,− 2 �= 0.
a 2 b2 c

Il s’ensuit que S admet en m0 un plan tangent d’équation :


x0   y0   z0  
2 x − x0 + 2 2 y − y0 − 2 2 z − z0 = 0.
a2 b c
 x 2  y0 2  z 2
Compte tenu de la relation 0
a
+ b
− 0
c
= 1 , cette équation peut s’écrire :

x0 x y0 y z0 z
+ 2 − 2 = 1.
a2 b c

820
IV Fonctions de classe C k

IV Fonctions de classe C k
Dans cette section E = IRp et B =(e1 , . . . , ep ) est la base canonique.
1 Fonctions de classe C k
Dérivées partielles successives
Les dérivées partielles d’une fonction f : Ω → F , lorsqu’elles existent en tout point
de Ω, sont des applications de Ω dans F . On peut donc s’intéresser à leurs dérivées
partielles éventuelles.
Définition 7
k
Soit (j1 , . . . , jk ) ∈ [[1, p]] .
  
Lorsqu’elle existe, la fonction ∂jk ∂jk−1 · · · (∂j1 f ) · · · est appelée dérivée par-
tielle de f selon les indices (j1 , . . . , jk ) et notée :
∂kf
∂jk · · · ∂j1 f ou ∂j1 ,...,jk f.
∂xjk · · · ∂xj1

On appelle dérivée partielle d’ordre k , une dérivée partielle par rapport à une
liste d’indices de longueur k .

Fonctions de classe C k
Définition 8
Une application f : Ω → F est de classe C k si toutes ses dérivées partielles
d’ordre k existent et sont continues sur Ω.

Notation C k (Ω, F ) désigne l’ensemble des applications de classe C k de Ω dans F .

Remarques
• On convient que les fonctions de classe C 0 sont les fonctions continues.
k
• Munissons F d’une base B ′ . Soit (j1 , . . . , jk ) ∈ [[1, p]] . D’après les propriétés de
la dérivation partielle, ∂jk · · · ∂j1 f est définie si, et seulement si, ∂jk · · · ∂j1 fi est
définie pour toute fonction coordonnée fi .
De même, par le lien entre la continuité d’une fonction à valeurs dans F et la
continuité de ses fonctions coordonnées, une fonction f est de classe C k si, et
seulement si, toutes ses fonctions coordonnées le sont.
Cela permet de se ramener à des fonctions à valeurs réelles.

Ex. 49. Les fonctions constantes sont de classe C k , pour tout k ∈ IN . En effet, toutes ses
dérivées partielles sont nulles.
Ex. 50. Si u ∈ L(IRp , F ) , alors u est de classe C k , pour tout k ∈ IN . En effet, toutes ses
dérivées partielles d’ordre 1 sont constantes (cf. exemple 22 de la page 809), donc toutes les
dérivées partielles d’ordre k > 1 sont nulles.

821
Chapitre 19. Calcul différentiel

Il vient de la définition et du théorème fondamental le résultat suivant.


Proposition 27
Si f ∈ C k (Ω, F ), alors f est de classe C i , pour tout i ∈ [[0, k]].
Démonstration page 844

Corollaire 28
Soit k  1 . Une application f : Ω → F est de classe C k si, et seulement si, toutes
les dérivées partielles de f d’ordre 1 existent et sont de classe C k−1 .
Démonstration page 844

Définition 9
Une application f est de classe C ∞ si elle est de classe C k , pour tout k ∈ IN.

Notation On note C ∞ (Ω, F ) l’ensemble des applications de classe C ∞ de Ω dans F .

Opérations sur les fonctions de classe C k


Soit k ∈ IN∗ ∪ {∞} . Les théorèmes opératoires sur les fonctions de classe C 1 se
généralisent sans difficulté aux applications de classe C k grâce au corollaire 28.
Proposition 29
Soit f et g deux applications de Ω dans F de classe C k .
Pour tout (λ, µ) ∈ IR2 , l’application λf + µg est alors de classe C k .
Démonstration page 844

Remarque Il s’ensuit que C k (Ω, F ) est un sous-espace vectoriel de C(Ω, F ).

Proposition 30
Soit M : F1 × · · · × Fq → G une application q -linéaire, où F1 , . . . , Fq , G sont
des IR -espaces vectoriels de dimension finie, et f1 : Ω → F1 , . . . , fq : Ω → Fq des
fonctions de classe C k . Alors M (f1 , . . . , fq ) est de classe C k .
Démonstration page 845

Ex. 51. Si f1 , . . . , fq : Ω → IR sont des applications de classe C k , leur produit f1 · · · fq est


alors de classe C k .
Ex. 52. Supposons que F soit un espace euclidien. Si f : Ω → F et g : Ω → F sont deux
applications de classe C k , alors ϕ = ( f | g ) est de classe C k . En particulier �f �2 est de
classe C k .

Remarques
• Il vient de la proposition 30 que C k (Ω, IR) est une une sous-algèbre de C(Ω, IR).
• Plus généralement, si F est une algèbre, alors C k (Ω, F ) est une algèbre.
• En particulier, C k (Ω, C) est une IR-algèbre, en considérant C comme une IR-
algèbre.

822
IV Fonctions de classe C k
Proposition 31
Les applications polynomiales sur IRp sont de classe C ∞ .

Démonstration. C’est une conséquence du fait que les dérivées partielles d’une application
polynomiale sont elles-mêmes polynomiales, et que toute application polynomiale est continue.

Ex. 53. Les applications M �→ det M et M �→ M k (pour k ∈ IN ) définies sur Mn (IR) † sont
de classe C ∞ .

Proposition 32
Soit Ω′ un ouvert de IRn , f : Ω → IRn et g : Ω′ → G deux applications de classe C k
telles que f (Ω) ⊂ Ω′ . L’application g ◦ f est alors de classe C k .
Démonstration page 845

Ex. 54. Si f : Ω → IR est de classe C k et ne s’annule pas, la fonction 1


f
est de classe C k . Il
suffit, pour le voir, d’écrire 1
f
= g ◦ f , où g : IR∗ → IR est définie par g(t) = 1t ·

Ex. 55. Toute fonction rationnelle sur IRp est de classe C ∞ sur tout ouvert où elle est définie.
Ex. 56. L’application définie sur GLn (IR) † par f (M ) = M −1 est de classe C ∞ (cf. exemple 25
de la page 810).

2 Théorème de Schwarz
Théorème 33
Soit f : Ω → F une fonction de classe C 2 . On a alors :
2 ∂2f ∂2f
∀(i, j) ∈ [[1, p]] = ·
∂xi ∂xj ∂xj ∂xi
Démonstration (non exigible) page 846

Exo
19.15
Attention Sans l’hypothèse C 2 , les dérivées partielles « croisées » peuvent exister
mais ne pas être égales.

Notation Le résultat se généralise sans problème à des fonctions de classe C k : on


peut calculer les dérivées partielles d’ordre k sans se préoccuper de l’ordre dans lequel
on effectue les dérivations.
∂kf
Cela permet de les écrire sous la forme αp , où α1 + · · · + αp = k .
∂xα1 · · · ∂xp
1

2
†. Au moyen de sa base canonique, on identifie Mn (IR) à IRn .

823
Chapitre 19. Calcul différentiel

Ex. 57. Soit Φ : IR2 −→ IR2


(u, v) �−→ (u + v, uv).
L’application Φ , dont les fonctions coordonnées sont polynomiales sur l’ouvert IR2 , est de
classe C ∞ .
Pour tout f ∈ C 1 (IR2 , IR) , l’application définie sur IR2 par g(u, v) = f (u+v, uv) est de classe C 1
et pour tout (u, v) ∈ IR2 , on a :

∂g ∂f ∂f
(u, v) = (u + v, uv) + v (u + v, uv)
∂u ∂x ∂y
∂g ∂f ∂f
(u, v) = (u + v, uv) + u (u + v, uv).
∂v ∂x ∂y

Pour alléger la suite du calcul, nous allons utiliser les conventions données lors de la discussion
de la règle de la chaîne en sous-entendant les points en lesquels on calcule les dérivée partielles
(cf. page 812), ce qui donne :

∂g ∂f ∂f ∂g ∂f ∂f
= +v et = +u · (⋆)
∂u ∂x ∂y ∂v ∂x ∂y

Ainsi, si l’on suppose f de classe C 2 :


     
∂2g ∂ ∂f ∂f ∂ ∂f ∂ ∂f ∂f
= +u = +u + ·
∂u∂v ∂u ∂x ∂y ∂u ∂x ∂u ∂y ∂y

Bien comprendre que dans cette formule, une expression comme :


   
∂ ∂f ∂ ∂f
signifie en fait (u + v, uv) ·
∂u ∂x ∂u ∂x

 ∂f  ∂
 ∂f 
Pour calculer ces dérivées partielles ∂u ∂x
et ∂u ∂y
on utilise à nouveau la règle de la
∂f ∂f
chaîne, c’est-à-dire que l’on applique la première formule de (⋆) en remplaçant f par ∂x
et ∂y
·
On obtient :
   
∂ ∂f ∂2f ∂2f ∂ ∂f ∂2f ∂2f
= + v et = +v 2·
∂u ∂x ∂x2 ∂y∂x ∂u ∂y ∂x∂y ∂y

∂2f ∂2 f
Compte tenu du théorème de Schwarz qui donne ∂x∂y
= ∂y∂x
, on obtient donc :

∂2g ∂2f ∂2f ∂2f ∂f


= + (u + v) + uv + ·
∂u∂v ∂x2 ∂y∂x ∂y 2 ∂y

824
IV Fonctions de classe C k

3 Hessienne – Formule de Taylor-Young à l’ordre 2


Dans cette section, E = IRp et il est muni de sa structure euclidienne canonique. Les
fonctions considérées sont à valeurs réelles.
Hessienne

Définition 10
Soit f : Ω → IR une fonction de classe C 2 et a ∈ Ω.
La matrice hessienne de f en a, notée Hf (a), est :
 2 
∂ f
Hf (a) = (a) .
∂xj ∂xi 1  i, j  p

Remarques
• D’après le théorème de Schwarz, la matrice hessienne de f en a est symétrique.
• On a Hf (a) = J∇f (a).

Ex. 58. Soit A ∈ Mp (IR) et f l’application définie sur IRp par f (x) = xT Ax . Cette application
est polynomiale sur IRp , donc de classe C 2 . On a Hf (x) = A + AT .

En effet, notons A = (ai,j )1i,jp . On a donc f (x) = ai,j xi xj . Pour k ∈ [[1, p]] , on
1i,jp
obtient :
∂f  
(x) = 2ak,k xk + ai,k xi + ak,j xj
∂xk
i�=k j�=k

puis :
∂2f ∂2f
(x) = 2ak,k et, pour ℓ �= k , (x) = aℓ,k + ak,ℓ ,
∂x2k ∂xℓ ∂xk
d’où le résultat.
Ex. 59. Soit f : Ω → IR une fonction de classe C 2 et h ∈ IRp tel que [a, a + h] ⊂ Ω .
On pose alors les fonctions γ : t �→ a + th et g = f ◦ γ définies sur [0, 1] . Puisque γ ′ = h , la
dérivation le long d’un arc donne pour tout t ∈ [0, 1] :

p
    ∂f
′ 
g (t) = ∇f (a + th) h = hj (a + th).
∂xj
j=1

∂f
Appliquant à nouveau ce résultat aux fonctions ∂xj
, cela donne :

p
 p

′′
  ∂2f  ∂2f
g (t) = hj hi (a + th) = hj hi (a + th) = hT Hf (a + th) h.
∂xi ∂xj ∂xi ∂xj
j=1 i=1 1i,jp

825
Chapitre 19. Calcul différentiel

Développement limité à l’ordre 2

Théorème 34 (Formule de Taylor-Young à l’ordre 2 )


Soit f : Ω → IR une fonction de classe C 2 et a ∈ Ω. On a alors au voisinage de 0 :
1  
f (a + h) = f (a) + df (a) · h + hT Hf (a)h + o �h�2 .
2
Démonstration (non exigible) page 847

Remarque On peut aussi écrire le développement limité à l’ordre 2 sous la forme :


   1    
f (a + h) = f (a) + ∇f (a)  h + Hf (a)h  h + o �h�2 .
h→0 2

4 Exemples d’équations aux dérivées partielles


Commençons par deux exemples importants.

Ex. 60. Montrons que les fonctions de classe C 1 sur IRp et à valeurs dans F vérifiant ∂p f = 0
sont les fonctions pour lesquelles il existe g ∈ C 1 (IRp−1 , F ) telle que :

∀(x1 , . . . , xp ) ∈ IRp f (x1 , . . . , xp ) = g(x1 , . . . , xp−1 ).

• Soit f une telle fonction. Si l’on fixe (x1 , . . . , xp−1 ) ∈ IRp−1 , par définition d’une dérivée par-
tielle, la fonction t �→ f (x1 , . . . , t) a une dérivée nulle sur l’intervalle IR , donc est constante.
On a donc :
∀(x1 , . . . , xp ) ∈ IRp f (x1 , . . . , xp ) = f (x1 , . . . , xp−1 , 0),
ce qui donne le résultat en posant g(x1 , . . . , xp−1 ) = f (x1 , . . . , xp−1 , 0) , qui définit bien une
fonction de classe C 1 sur IRp−1 par composition.
• Réciproquement, si g ∈ C 1 (IRp−1 , F ) , la fonction f : (x1 , . . . , xp ) �→ g(x1 , . . . , xp−1 ) est de
classe C 1 , par composition de g avec l’application linéaire (x1 , . . . , xp ) �→ (x1 , . . . , xp−1 ) et
vérifie évidemment ∂p f = 0 .

Ex. 61. Les fonctions f définies sur IR2 de classe C 2 vérifiant :

∂2f
=0 (∗)
∂x∂y

sont les fonctions pour lesquelles il existe deux fonctions Φ et Ψ de classe C 2 définies sur IR
telle que :
∀(x, y) ∈ IR2 f (x, y) = Φ(x) + Ψ(y).
 ∂f 
En effet, soit f une fonction de classe C 2 vérifiant (∗) , c’est-à-dire telle que ∂
∂x ∂y
= 0.
D’après l’exemple 60, il existe donc une fonction ψ : IR → F telle que :

∂f
∀(x, y) ∈ IR2 (x, y) = ψ(y), (∗∗)
∂y

et puisque f est de classe C 2 , ψ est de classe C 1 . Fixons une telle fonction ψ et posons Ψ une
primitive de ψ .

826
IV Fonctions de classe C k

∂  
Fixons x ∈ IR . Il vient de (∗∗) : f (x, y) − Ψ(y) = 0 . Donc il existe Φ : IR → F telle que :
∂y

∀(x, y) ∈ IR2 f (x, y) = Ψ(y) + Φ(x)

et la relation Φ(x) = f (x, 0) − Ψ(0) montre que Φ est de classe C 2 . Il est immédiat que Ψ est
de classe C 2 .
La réciproque est immédiate.

Dans des exemples un peu plus compliqués, pour déterminer les fonctions f : Ω → F
qui sont solutions d’une équation aux dérivées partielles, on est souvent amené à faire
un changement de variable, c’est-à-dire à introduire Φ : Ω′ → Ω de classe C k et
poser g = f ◦ Φ.
La fonction g est également solution d’une équation aux dérivées partielles, qui dans
certains cas est plus simple que l’équation initiale et peut être résolue.

Ex. 62. Par un changement de variable linéaire, nous allons résoudre sur IR2 l’équation aux
dérivées partielles :
∂f ∂f
a +b =0 où (a, b) �= (0, 0).
∂x ∂y

Cherchons donc des constantes α, β, γ, δ telles que αδ − βγ �= 0 (pour avoir une bijection),
et telles que le changement de variable u = αx + βy , v = γx + δy transforme l’équation aux
∂g
dérivées partielles en une équation de la forme = 0 lorsque f (x, y) = g(u, v) .
∂u
Si g est de classe C , la fonction f définie par f (x, y) = g(αx+βy, γx+δy) est de classe C 1 et :
1

∂f ∂f ∂g
 ∂g
  ∂g ∂g

a +b =a α +γ +b β +δ
∂x ∂y ∂u ∂v ∂u ∂v
∂g ∂f
= (aα + bβ) + (aγ + bδ)
∂u ∂v
formule dans laquelle les dérivées partielles de f sont calculées en (x, y) et celles de g calculées
en (u, v) = (αx + βy, γx + δy) .
Choisissons γ = b et δ = −a , de sorte que aγ + bδ = 0 . Les nombres α et β sont choisis de
sorte que αδ − βγ et aα + bβ soient non nuls : par exemple, α = a et β = b , mais nous verrons
que les valeurs précises de α et β n’interviennent pas dans le résultat, et importent donc peu.
∂f ∂f
L’équation a +b = 0 est équivalente à la relation :
∂x ∂y
∂g
∀(x, y) ∈ IR2 (αx + βy, γx + δy) = 0.
∂u
Comme l’application (x, y) �→ (αx + βy, γx + δy) est bijective, cela équivaut à :
∂g
∀(u, v) ∈ IR2 (u, v) = 0.
∂u
Ainsi, f vérifie l’équation si, et seulement si, g dépend seulement de v , c’est-à-dire si, et
seulement s’il existe une fonction h d’une seule variable et de classe C 1 telle que g(u, v) = h(v) .
Les fonctions f solutions sont alors les fonctions f : (x, y) �→ h(bx − ay) , où h est une fonction
de classe C 1 sur IR .

827
Chapitre 19. Calcul différentiel

Ex. 63. Résolvons, sur Ω = IR∗+ × IR l’équation :


∂f ∂f
∀(x, y) ∈ Ω x (x, y) − y (x, y) = 0. (∗)
∂x ∂y
 
Soit f ∈ C 1 (Ω, IR) qui vérifie (∗) . On pose le changement de variable (x, y) = u, v
u
.
Plus précisément, on introduit :

Φ: Ω −→ Ω
 v et g = f ◦Φ: Ω −→ IR 
(u, v) �−→ u, u (u, v) �−→ f u, uv ·

La fonction Φ est de classe C 1 , car ses fonctions coordonnées le sont, comme fonctions ration-
nelles définies sur Ω . Par composition, g est de classe C 1 .
• Puisque Φ est à valeurs dans Ω et f vérifie (∗) , on a :
   
∂f v v ∂f v
∀(u, v) ∈ Ω u u, − u, = 0. (∗∗)
∂x u u ∂y u
• La règle de la chaîne donne :
   
∂g ∂f v v ∂f v
∀(u, v) ∈ Ω (u, v) = u, − u, ·
∂u ∂x u u2 ∂y u
∂g ∂g
La relation (∗∗) s’écrit u ∂u (u, v) = 0 pour tout (u, v) ∈ Ω , donc ∂u = 0 . À v ∈ IR fixé,

l’application u �→ g(u, v) ayant une dérivée nulle sur l’intervalle IR+ , est constante. On a ainsi :

∀(u, v) ∈ Ω g(u, v) = ϕ(v) où ϕ : IR −→ IR est de classe C 1 .


v �−→ g(1, v)

On vérifie facilement que Φ est bijective et :

∀(x, y) ∈ Ω Φ−1 (x, y) = (x, xy).

Puisque g = f ◦ Φ , on a f = g ◦ Φ−1 , donc :


∀(x, y) ∈ Ω f (x, y) = ϕ(xy).

Réciproquement, si ϕ ∈ C 1 (IR, IR) , alors un calcul simple montre que (x, y) �→ ϕ(xy) est une
solution de (∗) . Ainsi, l’ensemble S des solutions de (∗) sur Ω est :
 
S = (x, y) �→ ϕ(xy) | ϕ ∈ C 1 (IR, IR) .

Ex. 64. Soit c ∈ IR∗+ . Déterminons les f ∈ C 2 (IR2 , IR) vérifiant :

∂2f 1 ∂2f
2
= 2 · (⋆)
∂x c ∂t2
Il s’agit d’un cas particulier (unidimensionnel) d’équations de propagation, dites aussi équations
des ondes.
• Soit f ∈ C 2 (IR2 , IR) . Comme dans l’exemple 62 de la page précédente, on pose un changement
de variable linéaire :
 
ϕ: IR2 −→ IR2 et g(u, v) = f αu + βv, γu + δv ,
(u, v) �−→ (αu + βv, γu + δv),

avec (α, β, γ, δ) ∈ IR4 et αδ − βγ �= 0 . Cette dernière condition s’impose du fait que l’on
souhaite ϕ bijective.

828
V Optimisation

• Puisque ϕ est de classe C 1 , par la règle de la chaîne, g est de classe C 1 et :

∂g ∂f ∂f ∂g ∂f ∂f
=α +γ et =β +δ ·
∂u ∂x ∂t ∂v ∂x ∂t

En itérant, cette formule étant valable pour toute fonction f de classe C 1 et g = f ◦ ϕ , il


vient :
   
∂2g ∂ ∂f ∂f ∂ ∂f ∂f
=α β +δ +γ β +δ
∂u∂v ∂x ∂x ∂t ∂t ∂x ∂t
∂2f ∂2f ∂2f
= αβ 2
+ (αδ + βγ) + γδ 2
∂x ∂x∂t ∂t

(la dernière relation a été obtenue en utilisant le théorème de Schwarz). En prenant α = β = c


et δ = −γ = 1 , on a αδ − βγ = 2c �= 0 et ainsi :

∂2g ∂2f ∂2f


= c2 2 − 2 ·
∂u∂v ∂x ∂t

• Par ce changement de variables :

1
(x, t) = (cu + cv, −u + v) c’est-à-dire (u, v) = (x − ct, x + ct),
2c

l’équation (⋆) est donc équivalente à :

∂2g
= 0. (⋆⋆)
∂u∂v

D’après l’exemple 61 de la page 826, on sait que les solutions de (⋆⋆) sont les fonctions g
somme d’une fonction de u et d’une fonction de v .
Par conséquent, f est solution de (⋆) si, et seulement s’il existe (Φ, Ψ) ∈ C 2 (IR, IR)2 tel
que :
∀(x, t) ∈ IR2 f (x, t) = Φ(x − ct) + Ψ(x + ct).

V Optimisation
Dans cette section, les fonctions seront définies sur une partie A de E (non nécessai-
rement ouverte) et à valeurs dans IR.

Par extension, lorsque a ∈ A , on dit que f : A → IR est différentiable en a si sa
restriction à l’intérieur de A est différentiable en a. Dans ces conditions df (a) désigne
naturellement la différentielle en a de cette restriction.
1 Extrema
Rappelons que si A est une partie non vide de E et f : A → IR une fonction, alors :
• f admet un maximum (global) en a si f (x)  f (a) pour tout x ∈ A ;
• f admet un minimum (global) en a si f (x)  f (a) pour tout x ∈ A ;
• f admet un extremum (global) en a si elle y admet un maximum ou un minimum.

829
Chapitre 19. Calcul différentiel
Définition 11 (Extremum local)
Soit A une partie non vide de E et x ∈ A. Une application f : A → IR admet :
• un maximum local en a s’il existe un voisinage W de a tel que :
∀x ∈ W ∩ A f (x)  f (a),

• un minimum local en a s’il existe un voisinage W de a tel que :


∀x ∈ W ∩ A f (x)  f (a),

• un extremum local en a si elle admet un maximum ou un minimum local en a.


En cas d’inégalité stricte pour x ∈ W ∩ A \ {a} , on parle alors de maximum local
strict, de minimum local strict et d’extremum local strict.

Remarque Si f admet un extremum (global) en a, alors elle admet un extremum


local. Ainsi, couramment, lorsque l’on cherche les extrema globaux, on commence par
chercher les extrema locaux.

Recherche d’extrema

Point méthode Pour démontrer qu’une fonction f : A → IR admet un extremum


en a, on peut étudier le signe de g : h �→ f (a + h) − f (a).
• Si g est de signe fixe au voisinage de 0 , alors f admet un extremum local en a.
• Si g est de signe fixe sur tout son domaine de définition, alors f admet un
extremum global en a.

Ex. 65. La fonction définie sur IR2 par f : (x, y) �→ x4 + y 2 − x5 − x4 y 5 admet un minimum
local en (0, 0) . En effet, pour tout (x, y) ∈ IR2 :

f (x, y) = x4 (1 − x − y 5 ) + y 2 .
 
L’ensemble W = (x, y) ∈ IR2 : 1 − x − y 5 > 0 est un ouvert (c’est l’image réciproque de
l’ouvertIR∗+ par l’application continue (x, y) �→ 1 − x − y 5 ), contenant (0, 0) .
Sur ce voisinage W de (0, 0) , on a f (x, y)  0 . Par conséquent, f admet un minimum local
 
en (0, 0) . De plus f (x, y) > 0 pour tout (x, y) ∈ W \ (0, 0) , ce qui implique que f admet
un minimum local strict en (0, 0) .
Mais, il ne s’agit pas d’un minimum global, car f (x, 0) = x4 − x5 < 0 = f (0, 0) lorsque x > 1 .

Point méthode En reprenant les notations du point méthode précédent, si l’on


montre que, sur tout voisinage de 0 , la fonction g prend des valeurs strictement
positives et des valeurs strictement négatives, alors f n’a pas d’extremum local
en a.
En pratique, cela pourra souvent se faire en étudiant le signe de t �→ g(th) pour
des vecteurs h bien choisis.

830
V Optimisation

Ex. 66. Considérons la fonction f : (x, y) �→ 1 + x2 + 2xy − x3 + xy 3 définie sur IR2 . Cette
fonction n’admet pas d’extremum local en (0, 0) . En effet :

f (t, 0) − f (0, 0) = t2 − t3 ∼ t2 et f (t, −t) − f (0, 0) = −t2 − t3 − t4 ∼ −t2


t→0 t→0

ce qui prouve que dans tout voisinage de (0, 0) , la fonction f − f (0, 0) prend des valeurs
strictement positives et des valeurs strictement négatives.

Attention Il se peut qu’une fonction admette en un point un minimum local


dans toutes les directions, c’est-à-dire, avec les notations précédentes, que la fonc-
Exo
19.20
tion t �→ g(th) admette un minimum local pour tout vecteur h, sans pour autant que
la fonction admette un minimum local en ce point.

2 Conditions nécessaires d’extrema


Condition nécessaire d’ordre 1
Proposition 35

Soit A ⊂ E non vide et f : A → IR. Si f admet un extremum local en a ∈ A et
si f est différentiable en a, alors df (a) = 0 .
Démonstration page 847
Principe de démonstration. Remarquer que si f admet un extremum local en a , alors
pour tout h ∈ E la fonction réelle de la variable réelle t �→ f (a + th) est définie au voisinage
de 0 et admet un extremum local en 0 .

Définition 12
Soit f : A → IR une fonction et a ∈ A. Le point a est un point critique de f si a
est dans l’intérieur de A et si la fonction f est différentiable en a avec df (a) = 0 .

Remarque

Si E est un espace euclidien, alors a ∈ A est un point critique si a ∈ A et ∇f (a) = 0 .

Attention Une fonction n’admet pas nécessairement d’extremum en un point cri-


tique, comme il a déjà été remarqué en première année dans le cas p = 1 ou comme
c’est le cas dans l’exemple 66.

Point méthode Les extrema locaux de f : A → IR sont à chercher parmi :


• les points critiques de f ,

• les points de A où f n’est pas différentiable,

• les points de A \ A .

831
Chapitre 19. Calcul différentiel

Ex. 67. Déterminons les extrema sur IR2 de f : (x, y) �→ 3x + x2 + xy + y 2 . Comme IR2 est
un ouvert et que f est différentiable, puisque polynomiale, un extremum (local ou global) ne
peut être atteint qu’en un point critique. Or :
∂f ∂f
(x, y) = 3 + 2x + y et (x, y) = x + 2y.
∂x ∂y
Par résolution du système linéaire 3 + 2x + y = x + 2y = 0 , on trouve un unique point
critique (−2, 1) . Étudions ce point critique :

f (−2 + h, 1 + k) = −6 + 3h + (−2 + h)2 + (−2 + h)(1 + k) + (1 + k)2 = f (−2, 1) + h2 + hk + k2 .


3k2
Or, h2 + hk + k2 = (h + k2 )2 + 4
 0 . Donc :

∀(h, k) ∈ IR2 f (−2 + h, 1 + k) − f (−2, 1)  0,


ce qui prouve que f admet un minimum global en (−2, 1) .
Il est clair qu’il n’y a pas de maximum global puisque f n’est pas majorée, mais l’étude précédente
montre qu’il n’y a pas non plus de maximum local, puisque f n’a pas d’autre point critique.
Ex. 68. Étudions les extrema de f : (x, y) �→ x2 + 2xy − 3y 2 sur le disque unité fermé :
 
D = (x, y) ∈ IR2 : x2 + y 2  1 .

• À l’intérieur du disque, la recherche des points critiques conduit au système :



2x + 2y = 0
dont la seule solution est (0, 0) .
2x − 6y = 0

Or, f n’a pas d’extremum en (0, 0) puisque, pour t non nul, on a f (t, 0) = t2 > 0
et f (0, t) = −3t2 < 0 .

• Étudions f sur le bord de D . Pour cela paramétrons le cercle C = D \ D par x = cos θ
et y = sin θ :
f (cos θ, sin θ) = cos2 θ + 2 cos θ sin θ − 3 sin2 θ
1 + cos 2θ 1 − cos 2θ
= + sin 2θ − 3
2 2
= −1 + 2 cos 2θ + sin 2θ.

En écrivant 2 cos 2θ + sin 2θ = 5 cos(2θ − ϕ) , où ϕ est tel que cos ϕ = √25 et sin ϕ = √15 ,

on trouve que la restriction de f à C admet un maximum −1 + 5 (atteint, par exemple

pour θ = ϕ/2 ) et un minimum −1 − 5 (atteint, par exemple pour θ = (ϕ + π)/2 ).
√ √
• On ne peut pas conclure directement que max f = −1 + 5 et min f = −1 − 5 tant que
D D
l’on ne sait pas qu’il existe effectivement de tels extrema globaux. Ici, on peut :
∗ soit montrer l’existence d’un maximum et d’un minimum par continuité de f sur le
compact D (boule unité fermée de IR2 ),
√ √
∗ soit montrer que f est majorée par −1 + 5 et minorée par −1 − 5 sur D , ce qui se
voit bien en écrivant :
 √ 
f (r cos θ, r sin θ) = r 2 (−1 + 2 cos 2θ + sin 2θ) = r 2 −1 + 5 cos(2θ − ϕ) .

832
V Optimisation

Condition nécessaire d’ordre 2


On suppose dans cette section que E = IRp et que f est de classe C 2 sur un ouvert Ω

de E (on peut prendre Ω = A si f est définie sur une partie A non ouverte et
d’intérieur non vide).
Soit a ∈ Ω. La matrice Hf (a) étant symétrique, elle est diagonalisable.
Rappel On dit (cf. page 168) qu’elle est positive (respectivement définie positive)
si l’une des deux propriétés équivalentes suivantes est réalisée :
(i) les valeurs propres de Hf (a) sont positives (respectivement strictement positives),
(ii) ∀x ∈ E xT Hf (a)x  0 (respectivement ∀x ∈ E \ {0} xT Hf (a)x > 0 ).
On dira dans la suite que la matrice Hf (a) est négative (respectivement définie né-
gative) si −Hf (a) est positive (respectivement définie positive).

Proposition 36
Soit f : Ω → IR de classe C 2 . Si f admet un extremum local en a ∈ Ω, alors a est
un point critique et la matrice hessienne Hf (a) est :
• positive dans le cas d’un minimum,
• négative dans le cas d’un maximum.
Démonstration page 848
Principe de démonstration. Raisonner par l’absurde et utiliser le développement limité
de f en a à l’ordre 2 (théorème 34 de la page 826).

Ex. 69. Considérons f : (x, y) �→ x3 + x2 + y 3 − xy définie sur IR2 .


La fonction f est de classe C 2 car polynomiale sur l’ouvert IR2 et pour tout (x, y) ∈ IR2 on a :
 
∇f (x, y) = 3x2 + 2x − y, 3y 2 − x .

On en déduit que (0, 0) est un point critique de f . Un calcul simple donne :


 
2 −1
Hf (0, 0) = .
−1 0

Comme det Hf (0, 0) = −1 < 0 , les deux valeurs propres de Hf (0, 0) sont non nulles et de
signes opposés, donc la fonction f n’admet pas d’extremum en (0, 0) .

3 Utilisation de la compacité
Lorsque l’on cherche les extrema d’une fonction continue sur un compact non vide,
les raisonnements sont souvent facilités par le fait que l’on sait a priori qu’il y a
un maximum et un minimum (l’exemple 68 de la page ci-contre en donne déjà une
illustration).
Ex. 70. Déterminons les extrema de :
f: ∆ −→ IR
(x, y) �−→ xy (1 − x − y) ,
 
où ∆ = (x, y) ∈ IR2 : x  0, y  0 et x + y  1 .

• La fonction f est continue car polynomiale et sa restriction à ∆ est de classe C 1 .

833
Chapitre 19. Calcul différentiel
y
• L’ensemble ∆ est un compact. Il est en effet fermé, car
c’est l’intersection de trois demi-plans fermés. De plus, pour 1 

tout (x, y) ∈ ∆ , on a :
0x1−y 1

et de même pour y . Par suite, ∆ ⊂ [0, 1]2 . Ainsi, ∆ est un fermé


borné d’un espace vectoriel de dimension finie, il s’agit bien d’une O 1 x


partie compacte.
◦  
• Il est clair que ∆ = (x, y) ∈ IR2 : x > 0, y > 0 et x + y < 1 .
Par ailleurs, pour tout (x, y) ∈ ∆ , on a f (x, y)  0 .
Sur tout point de la frontière, on a f (x, y) = 0 et donc tous les points de la frontière sont
des points où f atteint son minimum. Puisque f est à valeurs strictement positives sur
l’intérieur de ∆ , nous avons déterminé tous les minima de f .
• Par continuité et compacité, f admet un maximum et, puisque f n’est pas la fonction
nulle, ce maximum est atteint en des points de l’intérieur de ∆ . Puisque f est de classe C 1
sur l’intérieur, il s’agit de points critiques.

• Pour tout (x, y) ∈ ∆ on a :
 
∇f (x, y) = y(1 − 2x − y), x(1 − x − 2y) .

Par conséquent, (x, y) est un point critique si, et seulement si :



2x + y = 1
i.e. x = y = 1/3 .
x + 2y = 1

Par suite, la fonction f a un seul point critique. Ainsi (1/3, 1/3) est l’unique point où f
atteint son maximum.

Comme le montre l’exemple suivant, un argument de compacité peut parfois être


utilisé pour établir l’existence d’extrema, même lorsque la fonction est pas définie sur
un compact. On pourra aussi voir l’exercice 7.3.
Ex. 71. Considérons la fonction f : (x, y) �→ x4 − 4xy + y 4 définie sur IR2 .
• Commençons par établir lim f (x, y) = +∞ . Il est clair que ce sont les termes de
�(x,y)�→+∞

degré 4 qui vont déterminer cette limite. Justifions cela précisément. Soit (x, y) ∈ IR2 ;

posons r = �(x, y)�2 = x2 + y 2 . On a :

1 2  r4
x4 + y 4 = (x + y 2 )2 + (x2 − y 2 )2 
2 2
tandis que |2xy|  x2 + y 2 = r 2 , ce qui donne :

r4
f (x, y)  x4 + y 4 − |4xy|  − 2r 2 .
2
Comme :
r4
− 2r 2 −→ +∞,
2 r→+∞

on en déduit :
lim f (x, y) = +∞. (∗)
�(x,y)�→+∞

834
V Optimisation

• La relation (∗) implique qu’il existe un réel r > 0 tel que pour tout u ∈ IR2 :
�u� > r =⇒ f (u)  f (0).
Puisque E est de dimension finie, la boule fermée B = BF (0, r) est compacte. Il s’ensuit,
par continuité, que f|B atteint un minimum en un certain point u0 (théorème des bornes
atteintes).
 
Finalement, f est minorée sur IR2 par m = min f (0), f (u0 ) et, ce minorant m étant
atteint, f admet un minimum global.
• Comme f est de classe C 1 sur l’ouvert IR2 , elle atteint son minimum en un point critique.
 
Or pour tout (x, y) ∈ IR2 , ∇f (x, y) = 4 x3 − y, y 3 − x , donc (x, y) est un point critique si,
et seulement si, y = x3 et x9 = x . Les points critiques sont ainsi (0, 0), (1, 1) et (−1, −1) .
Comme f (0, 0) = 0 et f (1, 1) = f (−1, −1) = −2 , le minimum est atteint en (1, 1) et
en (−1, −1) .
Remarque La fonction n’admet donc pas d’extremum global en (0, 0) . Mais elle n’en admet
 
0 −4
pas non plus de local, puisque Hf (0, 0) = a pour déterminant −16 < 0 , donc
−4 0
ses deux valeurs propres sont de signes strictement opposés.

4 Condition suffisante d’extremum


On suppose dans cette section que E = IRp et que f est de classe C 2 sur un ouvert Ω

de E (on peut prendre Ω = A si f est définie sur une partie A non ouverte et
d’intérieur non vide).
Proposition 37
Soit f : Ω → IR de classe C 2 . Si a ∈ Ω est un point critique de f et Hf (a) est
définie positive, alors f admet un minimum local strict en a.
Démonstration page 848
Principe de démonstration. Utiliser le fait que (h, k) �→ hT Hf (a)k définit un produit
scalaire sur IRp et la formule de Taylor-Young (théorème 34 de la page 826).

Remarque De même, si a est un point critique tel que Hf (a) soit définie négative,
alors f admet un maximum local strict en a.
Dans le cas n = 2 , on dispose d’un critère simple pour déterminer si une matrice
symétrique réelle est définie positive puisque son déterminant est le produit des deux
valeurs propres et sa trace leur somme (cf. exemple 14 de la page 168).

Point méthode Soit f : Ω → IR une fonction de classe C 2 , où Ω est un ouvert


de IR2 , et a un point critique de f ainsi que Hf (a) sa matrice hessienne en a.
• Si det Hf (a) > 0 et tr Hf (a) > 0 , alors f admet un minimum local strict en a.
• Si det Hf (a) > 0 et tr Hf (a) < 0 , alors f admet un maximum local strict en a.
• Si det Hf (a) < 0 , alors f n’admet pas d’extremum local en a.

Remarque Dans le cas où det Hf (a) = 0 , on ne peut pas conclure directement.

835
Chapitre 19. Calcul différentiel

Ex. 72. Considérons la fonction f : (x, y) �→ xy 2 + x2 + xy + y 2 définie sur IR2 .


Puisque f est polynomiale, elle est de classe C 2 sur l’ouvert IR2 et pour tout (x, y) ∈ IR2 , on a :
 
∇f (x, y) = y 2 + 2x + y, 2xy + x + 2y .

On en déduit que (0, 0) est un point critique de f et :


 
2 1
Hf (0, 0) = .
1 2

Comme det Hf (0, 0) = 3 > 0 et tr Hf (0, 0) = 4 > 0 , la matrice Hf (0, 0) est définie positive,
donc f admet un minimum local strict en (0, 0) .
Mais ce minimum n’est pas global puisque f n’est pas minorée : f (t, t) = t3 + 3t2 −→ −∞ .
t→−∞

5 Optimisation sous contrainte


Lorsque l’on cherche les extrema d’une fonction sur une partie X , l’étude des points
critiques et éventuellement de la hessienne ne peut se faire qu’en un point intérieur
à X . Lorsque X est d’intérieur vide, aucun des résultats précédents ne peut donc
s’appliquer. C’est le cas, par exemple, si l’on veut trouver les extrema d’une fonction f
sur la sphère unité de IR3 . On dit alors que l’on cherche à optimiser f sous la
contrainte x2 + y 2 + z 2 = 1 .
On considère ici un ouvert Ω de E , f une fonction de classe- C 1 de Ω dans IR et X
une partie de Ω.
Proposition 38
Si la restriction de f à X admet un extremum local en a ∈ X alors Ta X ⊂ Ker df (a).
Démonstration page 848
Principe de démonstration. Dériver f ◦ γ , lorsque γ est un arc tracé sur X .

Remarque Lorsque a est intérieur à X , on sait que Ta X = E (cf. exemple 38 de


la page 815), donc on retrouve que si f admet un extremum en a, alors df (a) = 0 .

Théorème 39 (Optimisation sous contrainte)


 
Soit f, g : Ω → IR deux fonctions de classe C 1 . On pose X = x ∈ Ω : g(x) = 0 .

Exo
Si f|X admet un extremum local en un point a ∈ X et si dg(a) �= 0 , alors df (a)
19.21 est colinéaire à dg(a), c’est-à-dire qu’il existe λ ∈ IR tel que df (a) = λ dg(a).
Démonstration page 848
Principe de démonstration.
On applique la proposition 38 en remarquant que Ker dg(a) = Ta X (cf. théorème 26 de la
page 818), ce qui donne Ker dg(a) ⊂ Ker df (a) , avec df (a) et dg(a) deux formes linéaires.

Remarque Si de plus E est euclidien, la conclusion du résultat peut se reformuler


en la colinéarité de ∇f (a) et ∇g(a), c’est-à-dire, puisque ∇g(a) �= 0 , en l’existence
d’un réel λ tel que ∇f (a) = λ ∇g(a).

836
V Optimisation

Ex. 73. Reprenons l’exemple 68 de la page 832.


Pour trouver les extrema de f : (x, y) �→ x2 + 2xy − 3y 2 sur le disque unité, on a eu besoin de
trouver les extrema sur le bord, c’est-à-dire le cercle d’équation x2 + y 2 = 1 .
En posant g(x, y) = x2 + y 2 − 1 , on a, pour tout (x, y) ∈ IR2 :
   
2x + 2y 2x
∇f (x, y) = et ∇g(x, y) = .
2x − 6y 2y

La condition de proportionnalité de ∇f (x, y) et ∇g(x, y) , se traduit par la nullité du détermi-


nant :  
 x+y x 
  2 2
 x − 3y y  = y + 4xy − x .
Les extrema de f sur le cercle sont donc atteints en des points de la forme (cos θ, sin θ) tels que :

sin2 θ − cos2 θ + 4 sin θ cos θ = 0 c’est-à-dire 2 sin 2θ − cos 2θ = 0.

En prenant ϕ tel que cos ϕ = √2 et sin ϕ = √1 , cela se traduit par sin(2θ − ϕ) = 0 ,


5 5
ϕ
c’est-à-dire θ ≡ 2
[π/2] .
Il resterait à étudier s’il s’agit effectivement, en chacun de ces points, d’un extremum.
 
n 
Ex. 74. Soit n  2 , ainsi que s > 0 et A = x ∈ IRn
+ : xi = s .
i=1
Déterminons les extrema de la restriction à A de f : IRn −→ IR

n
(x1 , . . . , xn ) �−→ xi .
i=1

• Clairement A est un fermé, inclus dans [0, s]n , donc un compact (dimension finie).
• La fonction polynomiale f est continue, donc elle admet un minimum et un maximum sur A .
Elle est de plus à valeurs positives sur A . Il est immédiat que f (x) = 0 si, et seulement
s’il existe i ∈ [[1, n]] tel que xi = 0 . Le minimum vaut donc 0 et est atteint aux points où
l’une au moins des coordonnées est nulle.
 
n 
• Le maximum de fA est donc atteint en des points de A′ = x ∈ IR∗+ n : xi = s : ce
i=1
sont donc ceux qui réalisent le maximum de f|A′ . Or :
∗ f est de classe C 1 puisque polynomiale sur l’ouvert Ω = IR∗+ n ;

n
∗ g : x �→ xi − s est de classe C 1 sur Ω et A′ = {x ∈ Ω : g(x) = 0} ;
i=1
∗ enfin, ∇g(x) = (1, . . . , 1) �= 0 pour tout x ∈ Ω .
Le théorème d’optimisation sous contrainte nous donne qu’en un point x ∈ A′ qui réalise le
maximum de f|A′ , il existe λ ∈ IR tel que :

∇f (x) = λ(1, . . . , 1).

Comme, pour tout x ∈ Ω , on a :


 
1 1
∇f (x) = f (x) ,..., ,
x1 xn
on en déduit x1 = · · · = xn , et comme x1 + · · · + xn = s , on a xi = s
n
pour tout i ∈ [[1, n]] .
sn
Le maximum est donc atteint uniquement en ( ns , . . . , ns ) et vaut nn
·

837
Chapitre 19. Calcul différentiel

Remarque On a donc :
n
 sn
∀x ∈ A xi  ,
nn
i=1

ce qui permet d’en déduire l’inégalité arithmético-géométrique :


 n  n1
 x1 + · · · + xn
∀x ∈ IRn
+ xi 
n
i=1

(si (x1 , . . . , xn ) = 0 , c’est évident, et sinon, on prend s = x1 + · · · + xn ).

838
Démonstrations

Démonstrations
Théorème 2 C’est une conséquence immédiate du résultat suivant qui donne l’unicité d’un déve-
loppement limité à l’ordre 1 .
Lemme
Une application linéaire u ∈ L(E, F ) telle qu’au voisinage de 0 on ait u(h) = o(h) est nulle.

Démonstration. Par définition des relations de comparaison, il existe une boule B = BF (0, r)
de E , avec r > 0 , et une fonction ε : B → F telles que u(h) = �h�ε(h) pour tout h ∈ B
et lim ε = 0 .
0
Soit x ∈ E . Si x = 0 , du fait que u est linéaire, on a u(0) = 0 .
 r 
Si x �= 0 , pour tout t ∈ 0, �x� , on a u(tx) = �tx�ε(tx) et donc, par linéarité de u et
homogénéité de la norme :
tu(x) = t�x�ε(tx) c’est-à-dire u(x) = �x�ε(tx).
Puisque tx −→ 0 , on a ε(tx) −→ 0 . On en déduit u(x) = 0 .
t→0 t→0
Par suite u est l’application nulle.

Proposition 3
• Si f est dérivable en a , alors au voisinage de 0 :
f (a + h) = f (a) + hf ′ (a) + o(h).
L’application u : h �→ hf ′ (a) étant linéaire, on en déduit que f est différentiable en a et
que df (a) : h �→ hf ′ a) .
• Si f est différentiable en a , on a, au voisinage de 0 :
f (a + h) = f (a) + df (a) · h + o(h).
Par ailleurs, puisque df (a) ∈ L(IR, F ) , en posant α = df (a) · 1 ∈ F , on a df (a) : t �→ tα .
Ainsi, au voisinage de 0 , on a :
f (a + h) = f (a) + hα + o(h)
et f est dérivable en a , de dérivée f ′ (a) = α = df (a) · 1 .
Proposition 4 Soit a ∈ E . Pour tout h ∈ E on a :
u(a + h) = u(a) + u(h),
donc au voisinage de 0 :
u(a + h) = u(a) + u(h) + o(h).
Par suite, l’application u est différentiable en a et du(a) = u .
Proposition 5 La différentiabilité de f en a s’écrit f (a + h) = f (a) + df (a) · h + o(h) , donc il
existe un voisinage W de 0 et une fonction ε : W → F telle que :
∀h ∈ W f (a + h) = f (a) + df (a) · h + �h� ε(h) et ε(h) −→ 0.
h→0

Fixons v ∈ E et posons g : t �→ f (a + tv) . Il existe r > 0 tel que BF (0, r�v�) ⊂ W . Par
conséquent, pour t ∈ ]−r, r[ :
g(t) = f (a + tv) = f (a) + df (a) · (tv) + |t|�v�ε(tv),
et donc, en utilisant la linéarité de df (a) , on a au voisinage de 0 :
g(t) = g(0) + t df (a) · v + o(t).
Par suite, g est dérivable en 0 et g ′ (0) = df (a) · v .
Ainsi f a une dérivée en a selon v et Dv f (a) = df (a) · v .

839
Chapitre 19. Calcul différentiel


p
Proposition 9 Pour tout h = hj ej ∈ E , on a :
j=1

p p
      
∇f (a)  h = df (a) · h = hj ∂j f (a) = h  ∂j f (a) ej ,
j=1 j=1


p
la dernière égalité venant du fait que la base est orthonormée. Par unicité, ∇f (a) = ∂j f (a) ej .
j=1

Proposition 11 Soit h un vecteur de norme 1. D’après l’inégalité de Cauchy-Schwarz, on a :


Dh f (a) = df (a) · h = ( ∇f (a) | h )  �∇f (a)�. (⋆)
Supposons ∇f (a) �= 0 . On a l’égalité dans l’inégalité de Cauchy-Schwarz (⋆) si, et seulement
si, h est positivement colinéaire à ∇f (a) . Puisque h est unitaire, l’égalité est réalisée exactement
∇f (a)
lorsque h = ·
�∇f (a)�

Proposition 12
• Supposons que f et g soient différentiables en a ∈ Ω . Ainsi, au voisinage de 0 , on a :
f (a + h) = f (a) + df (a) · h + o(h) (1)
g(a + h) = g(a) + dg(a) · h + o(h). (2)

Soit (λ, µ) ∈ IR2 ; posons ϕ = λf + µg . Par combinaison linéaire des égalités (1) et (2) , il
vient qu’au voisinage de 0 on a :
ϕ(a + h) = ϕ(a) + λdf (a) · h + µdg(a) · h + o(h)
 
= ϕ(a) + λdf (a) + µdg(a) · h + o(h).

Sachant que λdf (a) + µdg(a) ∈ L(E, F ) , il s’ensuit que λf + µg est différentiable en a
et d (λf + µg) (a) = λdf (a) + µdg(a) .
• Il est alors immédiat que si f et g sont différentiables, alors λf + µg est différentiable.
Si f et g sont de classe C 1 , les applications df et dg sont continues. Par combinaison
linéaire, pour tout (λ, µ) ∈ IR2 , l’application λdf + µdg est continue. Par suite λf + µg est
de classe C 1 .

Proposition 14

• Supposons f1 , . . . , fq différentiables en a ; on a alors, pour tout k ∈ [[1, q]] :


fk (a + h) = fk (a) + dfk (a) · h + αk (h) avec αk (h) = o(h).
Soit h ∈ E tel que a + h ∈ Ω .
 
Par q -linéarité de M , la quantité M f1 (a + h), . . . , fq (a + h) s’écrit comme somme de 3q
termes de la forme M (u1 , . . . , uq ) où, pour tout k ∈ [[1, q]] , uk = fq (a) , uk = dfk (a) · h
ou uk = αk (h) , et chaque uk est soit constant soit dominé par h lorsque h tend vers +∞ .
L’application M étant multilinéaire en dimension finie, il existe une constante C telle que :
 
∀(x1 , . . . , xq ) ∈ F1 × · · · × Fq M (x1 , . . . , xq )  C�x1 � · · · �xq �. (⋆)

840
Démonstrations

En appliquant cette inégalité à l’un des q -uplets (u1 , . . . , uq ) , on voit donc que si, parmi
les uk , il y en a au moins deux qui ne sont pas constants, ou au moins un qui est négligeable
devant h , alors M (u1 , . . . , uq ) = o(h) . Il reste donc :
   
M f1 (a + h), . . . , fq (a + h) = M f1 (a), . . . , fq (a)
q
  
+ M f1 (a), . . . , fk−1 (a), dfk (a) · h, fk+1 (a), . . . , fq (a) + o(h)
k=1

ce qui prouve que M (f1 , . . . , fq ) est différentiable en a , de différentielle :


q
  
h �→ M f1 (a), . . . , fk−1 (a), dfk (a) · h, fk+1 (a), . . . , fq (a)
k=1

puisque cette application est linéaire en h par linéarité des dfk (a) et multilinéarité de M .
• Le résultat concernant la différentiabilité sur Ω est une conséquence immédiate du premier
point.
• Supposons f1 , . . . , fq de classe C 1 . Soit h ∈ E . Les fi sont alors continues, ainsi que les
applications a �→ dfk (a) · h d’après le lemme ci-dessous. Par multilinéarité de M , cela donne
la continuité de l’application a �→ dM (f1 , . . . , fq )(a)·h . Grâce au même lemme, on en déduit
la continuité de dM (f1 , . . . , fq ) .
Lemme
Une application u : Ω → L(E, F ) est continue si, et seulement si, pour tout h ∈ E , l’appli-
cation Ω −→ F est continue.
a �−→ u(a) · h

Démonstration.
• Supposons u continue. Soit h ∈ E . L’application L(E, F ) −→ F est linéaire, donc
v �−→ v · h
continue, puisque L(E, F ) est de dimension finie, ce qui donne la continuité de a �→ u(a) · h
par composition.
• Fixons une base B = (e1 , . . . , ep ) de E et une base C de F . Au moyen de l’iso-
morphisme MatB,C entre L(E, F ) et Mn,p (IR) , il suffit de montrer que l’applica-
 
tion a �→ MatB,C u(a) est continue, c’est à dire que toutes ses fonctions composantes
 
sont continues. Or, le coefficient d’indice (i, j) de la matrice de u(a) est ϕi u(a) · ej ,
où ϕi est la i -ème forme linéaire coordonnée dans la base C dont la continuité, ainsi que
celle de a �→ u(a) · ej par hypothèse, donne le résultat.

Proposition 17
• Supposons que f soit différentiable en a ∈ Ω et g différentiable en b = f (a) .
La différentiabilité de g en b se traduit par l’existence d’une fonction ε définie sur un
voisinage W de 0 telle que :
∀k ∈ W g(b + k) = g(b) + dg(b) · k + �k�ε(k) et ε(k) −→ 0.
   k→0
β(k)

Par continuité de f en a , il existe un voisinage V de 0 tel que f (a + h) − f (a) ∈ W pour


tout h ∈ V . La différentiabilité de f en a se traduit par l’existence d’une fonction α définie
sur V telle que :
∀h ∈ V f (a + h) = f (a) + df (a) · h + α(h) avec α(h) = o(h). (⋆)

841
Chapitre 19. Calcul différentiel

Soit h ∈ V . En posant k = f (a + h) − f (a) = df (a) · h + α(h) , on a :


 
g f (a + h) = g(b + k) = g(b) + dg(b) · k + β(k)
 
= g(b) + dg(b) · df (a) · h + dg(b) · α(h)
   
+ f (a + h) − f (a) ε f (a + h) − f (a) .
    
∗ On a dg(b) · α(h)  dg(b)α(h) ce qui donne :

dg(b) · α(h) = o(h) puisque α(h) = o(h) .


∗ D’autre part, la relation (⋆) donne f (a + h) − f (a) = O(h) et comme ε tend vers 0
   
en 0 , cela donne f (a + h) − f (a)ε f (a + h) − f (a) = o(h) .
Finalement :  
(g ◦ f )(a + h) = (g ◦ f )(a) + dg(b) ◦ df (a) · h + o(h)
ce qui prouve que g ◦ f différentiable en a et :
 
d(g ◦ f )(a) = dg(b) ◦ df (a) = dg f (a) ◦ df (a).

• Il est alors immédiat que la composée de deux fonctions différentiables est différentiable.
Supposons que f et g soient de classe C 1 . Puisque f et dg sont continues, l’applica-
tion (dg) ◦ f est continue. Par ailleurs, l’application df est continue, ce qui implique que
l’application :
Φ : Ω −→ L(F,   G) × L(E, F)
x �−→ dg f (x) , df (x)
est également continue. De plus l’application :
B : L(F, G) × L(E, F ) −→ L(E, G)
(v, u) �−→ v◦u

est bilinéaire, donc continue (tous les espaces sont de dimension finie).
Ainsi d(g ◦ f ) = B ◦ Φ est continue et g ◦ f est de classe C 1 .

Proposition 19 En posant h = g ◦ f et en notant (g1 , . . . , gq ) et (h1 , . . . , hq ) les fonctions


composantes de g et h dans une base B′ de G , on a :
   
  ∂fi   ∂gk
MatB,B′ df (a) = et MatB′ ,B′′ dg(b) =
∂xj 1in ∂yi 1kq
1jp 1in

 
  ∂hk
ainsi que MatB,B′′ dh(a) =
∂xj 1kq
1jp

et l’égalité dh(a) = dg(b) ◦ df (a) se traduit par l’égalité matricielle :


     
MatB,B′′ dh(a) = MatB′ ,B′′ dg(b) MatB,B′ df (a) ,

ce qui donne, pour tout (j, k) ∈ [[1, p]] × [[1, q]] :


n n
∂(gk ◦ f )  ∂gk ∂fi  ∂fi ∂gk
(a) = (b) (a) = (a) (b),
∂xj ∂yi ∂xj ∂xj ∂yi
i=1 i=1

soit l’égalité annoncée composante par composante.

842
Démonstrations

Proposition 21 Il nous reste à démontrer le résultat dans le cas où t0 est une extrémité de I .
Traitons par exemple le cas où t0 = min I .
Prolongeons γ sur ]−∞, t0 ] en posant ∀t  t0 γ(t) = a + (t − t0 )γ ′ (t0 ) (puisque a = γ(t0 ) ,
il n’y a pas ambiguïté dans la définition de γ en t0 ).
Les restrictions de γ à I et à ]−∞, t0 ] sont dérivables ; en particulier, γ est dérivable à droite
et à gauche en t0 et ces deux dérivées sont égales. Donc γ ainsi prolongée est dérivable. En
particulier, elle est continue en t0 et γ(t0 ) est dans l’ouvert Ω . On peut donc trouver un
intervalle ouvert contenant t0 sur lequel γ est à valeurs dans Ω et en appliquant ce résultat à
un tel intervalle on conclut grâce à l’étude précédente.
Théorème 23
(i) ⇒ (ii) . Supposons f de classe C 1 . Soit j ∈ [[1, p]] et x ∈ Ω . Puisque f est différentiable
en x , d’après le corollaire 6 de la page 802, ∂j f (x) est définie et :
∂j f (x) = df (x) · ej .
L’application/
Φj : L(E, F ) −→ F
u �−→ u · ej
est linéaire, donc continue car l’espace de départ L(E, F ) est de dimension finie, ce qui
implique que ∂j f = Φj ◦ df est continue.
(ii) ⇒ (i) . Supposons que toutes les dérivées partielles soient définies et continues. On munit E
de la norme � �∞ associée à la base B . Soit a ∈ Ω .
• Supposons d’abord que toutes les dérivées partielles soient nulles en a . Soit ε > 0 . Par
continuité, il existe un η > 0 tel que BF (a, η) ⊂ Ω et que, pour tous x ∈ BF (a, η)

p
et j ∈ [[1, p]] , on ait �∂j f (x)�  ε/p . Soit h = hj ej ∈ BF (0, η) .
j=1
On note sk = a + h1 e1 + · · · + hk ek pour k ∈ [[0, p]] .
Pour tout k ∈ [[1, p]] et t ∈ [0, 1] , on a :
k−1

sk−1 + thk ek = a + hi ei + thk ek ∈ BF (a, η).
i=1

On peut donc définir, pour tout k ∈ [[1, p]] , une fonction gk de classe C 1 sur [0, 1] par :
gk (t) = f (sk−1 + thk ek ).
Comme gk′ (t)
= hk ∂k f (sk−1 +thk ek ) est bornée par ε
p
|hk |  ε
p
�h� pour tout t ∈ [0, 1] ,
on a, par l’inégalité des accroissements finis :
   
f (sk ) − f (sk−1 ) = gk (1) − gk (0)  �h� ε ·
p

 
   p  
Il s’ensuit que : f (a + h) − f (a) = 
 f (sk ) − f (sk−1 ) 

k=1
p p
   ε
 f (sk ) − f (sk−1 )  �h� = �h�ε.
p
k=1 k=1
Par suite, f (a + h) = f (a) + o(h) au voisinage de 0 et donc f est différentiable en a
et df (a) = 0 .

843
Chapitre 19. Calcul différentiel


p
• Dans le cas général, posons u : h �→ hj ∂j f (a) . Dans ces conditions, toutes les dérivées
j=1
partielles de g = f − u sont définies et continues. Elles sont de plus toutes nulles en a .
En vertu de ce qui précède, g est différentiable en a . Puisque u est linéaire, elle est
différentiable en a , et donc f = g + u l’est également.
En prenant une base B′ de F , et en notant f1 , . . . , fn les fonctions composantes de f ,
 
∂fi
la matrice de df (a) dans les bases B et B′ est Jf (a) = ∂xj
(a) 1in
. La continuité
1jp

des dérivées partielles de f , donc des dérivées partielles des fi , donne la continuité de
l’application Jf ainsi définie sur Ω . Par l’isomorphisme MatB,B′ entre L(E, F ) et Mn,p (IR) ,
 −1  −1
on en déduit que df = MatB,B′ ◦ Jf est continue, puisque MatB,B′ est linéaire
donc continue.
On en conclut que f est de classe C 1 .
Proposition 25 Nous savons déjà qu’une application constante a une différentielle nulle. Montrons
le sens réciproque.
Soit Ω un ouvert connexe par arcs de E et f : Ω → F différentiable et de différentielle nulle.
 
Fixons a ∈ Ω et posons A = x ∈ Ω : f (x) = f (a) . Commençons par montrer que A est à
la fois ouvert et fermé dans Ω .
 
• Puisque A = f −1 {f (a)} et que l’application f est continue, A est un fermé de Ω .
• Soit x ∈ A . Puisque Ω est un ouvert de E , il existe r > 0 tel que BO (x, r) ⊂ Ω . Puisque
les boules sont convexes, d’après l’exemple 34 de la page 814, la restriction de f à BO (x, r)
est constante. Il s’ensuit que BO (x, r) ⊂ A . Par conséquent A est un ouvert de Ω .
Puisque A est non vide (il contient a ) et est à la fois ouvert et fermé dans Ω qui est connexe
par arcs, on a A = Ω d’après l’exercice 7.18 de la page 311.
Proposition 27 Raisonnons par récurrence descendante. Vu les hypothèses, il suffit de démontrer
que si f est de classe C i , avec i > 1 , alors f est de classe C i−1 .
Si f est de classe C i , toutes ses dérivées partielles d’ordre i sont définies. Soit une dérivée
partielle ∂j1 · · · ∂ji−1 f d’ordre i − 1 . Toutes ses dérivées partielles d’ordre 1 sont définies et
continues, car ce sont des dérivées partielles d’ordre i de f . D’après le théorème fondamen-
tal ∂j1 · · · ∂ji−1 f est de classe C 1 , donc continue. On en conclut que toutes les dérivées partielles
d’ordre i − 1 sont continues et donc que f est de classe C i−1 .
Corollaire 28
• Supposons que f soit de classe C k . D’après la proposition 27 de la page 822 la fonction f
est de classe C 1 . Puisque les dérivées partielles d’ordre k de f sont les dérivées partielles
d’ordre k − 1 de ∂1 f, . . . , ∂p f , on en déduit que les dérivées partielles d’ordre 1 sont de
classe C k−1 .
• Supposons que toutes les dérivées partielles d’ordre 1 de f soient définies, et qu’elles soient
toutes de classe C k−1 . Puisque les dérivées partielles d’ordre k de f sont les dérivées partielles
d’ordre k − 1 des fonctions ∂1 f, . . . , ∂p f , les dérivées partielles d’ordre k de f sont toutes
continues et f est de classe C k .
Proposition 29 Démontrons par récurrence, pour k ∈ IN , l’assertion :
2
Hk : ∀(f, g) ∈ C k (Ω, F ) ∀(λ, µ) ∈ IR2 λf + µg est de classe C k .
Le cas k = 0 correspond à une propriété connue des fonctions continues.

844
Démonstrations

Supposons que Hk−1 soit vraie pour un k ∈ IN∗ . Soit f : Ω → F et g : Ω → F deux fonctions
de classe C k et (λ, µ) ∈ IR2 .
Soit j ∈ [[1, p]] . On sait, par linéarité de la dérivation, que :
∂j (λf + µg) = λ∂j f + µ∂j g.
L’hypothèse de récurrence appliquée à ∂j f , ∂j g , λ et µ montre que λ ∂j f + µ ∂j g est de
classe C k−1 .
Ainsi, pour tout j ∈ [[1, p]] , les fonctions ∂j (λf + µg) sont de classe C k−1 , et donc λf + µg
est de classe C k . Cela démontre Hk pour tout k ∈ IN .
Il vient immédiatement de ce qui précède que si f et g sont de classe C ∞ , alors λf + µg est
de classe C ∞ .
Proposition 30 Démontrons par récurrence, pour k ∈ IN , l’assertion :
Hk : ∀(f1 , . . . , fq ) ∈ C k (Ω, F1 ) × · · · × C k (Ω, Fq ) M (f1 , . . . , fq ) est de classe C k .
Le cas k = 0 correspond à une propriété connue des fonctions continues.
Supposons Hk−1 vrai pour un k ∈ IN∗ . Soit f1 : Ω → F1 , . . . , fq : Ω → Fq des fonctions de
classe C k .
Soit j ∈ [[1, p]] . D’après les propriétés de la dérivation des fonctions vectorielles, on a :
 
∂j M (f1 , . . . , fq ) = M (∂j f1 , f2 , . . . , fq ) + · · · + M (f1 , . . . , fq−1 , ∂j fq ).

Puisque f1 est de classe C k et f2 , . . . , fq sont de classe C k−1 , car de classe C k , il vient, de


l’hypothèse de récurrence, que M (∂j f1 , f2 , . . . , fq ) est de classe C k−1 . De même, les appli-
cations M (f1 , . . . , ∂j fi , . . . , fq ) sont de classe C k−1 , pour tout 1  i  q . Ainsi, par linéa-
 
rité, ∂j M (f1 , . . . , fq ) est de classe C k−1 .
 
Puisque pour tout j ∈ [[1, p]] les fonctions ∂j M (f1 , . . . , fq ) sont de classe C k−1 , on en conclut
que M (f1 , . . . , fq ) est de classe C k . Cela démontre Hk pour tout k ∈ IN .
Il vient immédiatement de ce qui précède que si f1 , . . . , fq sont de classe C ∞ , alors M (f1 , . . . , fq )
est de classe C ∞ .
Proposition 32 Démontrons par récurrence, pour k ∈ IN , l’assertion :
Hk : « Pour tout f ∈ C k (Ω, Ω′ ) et tout g ∈ C k (Ω′ , G) , l’application g ◦ f est de classe C k . »
Le cas k = 0 correspond à une propriété connue des fonctions continues.
Supposons que Hk−1 soit vraie pour un k ∈ IN∗ . Soit f : Ω → Ω′ et g : Ω′ → G deux fonctions
de classe C k . En particulier f et g sont de classe C 1 . Les fonctions coordonnées de f dans la
base canonique de IRn sont notées f1 , . . . , fn .
D’après la règle de la chaîne (proposition 19 de la page 810), pour tout j ∈ [[1, p]] :
n
  
∂j (g ◦ f ) = ∂j fi × (∂i g) ◦ f .
i=1

Les applications ∂j fi et ∂i g sont toutes de classe C k−1 . De plus, la fonction f étant en


particulier de classe C k−1 , l’hypothèse de récurrence donne que les applications (∂i g) ◦ f sont
de classe C k−1 . Par somme et produit de fonctions de classe C k−1 , pour tout j ∈ [[1, p]] ,
l’application ∂j (g ◦ f ) est de classe C k−1 . Par conséquent g ◦ f est de classe C k . Cela termine
la démonstration par récurrence.
Il vient immédiatement de ce qui précède, que si f et g sont de classe C ∞ , alors g ◦ f est de
classe C ∞ .

845
Chapitre 19. Calcul différentiel

Théorème 33 Il suffit d’appliquer le lemme suivant à u = ei et v = ej .


Lemme
Soit f : Ω → F une fonction de classe C 2 . On a alors :
∀(u, v) ∈ E 2 Du Dv f = Dv Du f.


p
Démonstration. Soit u = (u1 , . . . , up ) ∈ IRp . Puisque Du f = uj ∂j f et que les ∂j f sont
j=1

de classe C 1 , la fonction Du f est de classe C 1 . Le même type d’argument montre que Dv Du f


est continue pour tout v ∈ IRp .
Puisque Ω est un ouvert, il existe r > 0 tel que BF (a, r) ⊂ Ω . Soit (u, v) ∈ E 2 tel
que �u� + �v�  r . On a alors ∀(s, t) ∈ [0, 1]2 a + su + tv ∈ Ω .
Notons C(u, v) = f (a + u + v) − f (a + u) − f (a + v) + f (a) .
 1  1 
• Montrons que C(u, v) = Dv Du f (a + su + tv) dt ds . Pour cela posons la fonc-
0 0
tion g : s �→ f (a + su + v) − f (a + su) , définie sur [0, 1] . La fonction g est de classe C 1 ,
donc :
 1  1
C(u, v) = g(1) − g(0) = g ′ (s) ds = Du f (a + su + v) − Du f (a + su) ds.
0 0

La fonction Du f étant de classe C 1 , pour s ∈ [0, 1] :


 1
Du f (a + su + v) − Du f (a + su) = Dv Du (a + su + tv) dt.
0

Il s’ensuit que :
 1
 1

C(u, v) = Dv Du f (a + su + tv) dt ds.
0 0
• Soit λ ∈ [0, 1] . On a, d’après ce qui précède :
 1  1 
C(λu, λv) = Dλv Dλu f (a + sλu + tλv) dt ds
0 0
 1
 1

2
=λ Dv Du f (a + sλu + tλv) dt ds
0 0

(rappelons que pour toute fonction g de classe C 1 , on a Dλu g = λ Du g ).


Pour conclure, utilisons la définition de la limite. Soit ε > 0 . Par continuité de Dv Du f , il
existe η ∈ ]0, r] tel que �Dv Du f (a + h) − Dv Du f (a)�  ε pour tout h ∈ BF (0, η) . Ainsi,
η
pour 0 < |λ|  1+�u�+�v� , puisque �sλu + tλv�  η pour (s, t) ∈ [0, 1]2 , on a :
   1  1  
 C(λu, λv)   
  
− Dv Du f (a) =  Dv Du f (a + sλu + tλv) − Dv Du f (a) dt ds
 λ2 
0 0
 1  1 
 
 Dv Du f (a + sλu + tλv) − Dv Du f (a) dt ds
0 0
 1
 1

 ε dt ds = ε.
0 0

C(λu, λv)
Par conséquent : −→ Dv Du f (a) .
λ2 λ→0

846
Démonstrations

C(λv, λu)
• En échangeant les rôles de u et v , on a aussi −→ Du Dv f (a) .
λ2 λ→0
Puisqu’évidemment C(λv, λu) = C(λu, λv) , on obtient Dv Du f (a) = Du Dv f (a) .

Théorème 34 On munit IRp du produit scalaire canonique et Mp (IR) de la norme subordonnée


à la norme euclidienne associée.
Il s’agit de montrer que :
1  
f (a + h) − f (a) − ( ∇f (a) | h ) − hT Hf (a)h = o �h�2 .
2 h→0

Posons g : h �→ f (a + h) − f (a) − ( ∇f (a) | h ) − 12 hT Hf (a)h , définie sur l’ouvert Ω′ = −a + Ω .


� hT Hf (a)h sont polynomiales, g est de
Puisque les applications h �→ ( ∇f (a) | h ) et h →
2
classe C . On a de plus :
∇g(0) = 0 et Hg (0) = 0.
Soit ε > 0 .
∂2 g
• Par continuité des applications ∂xi ∂xj
en 0 , il existe un réel η > 0 tel que BF (0, η) ⊂ Ω′ et :
∀x ∈ BF (0, η) |||Hf (x)|||  ε. (∗)
Fixons un tel η .
• Posons h ∈ IRp tel que �h�  η et ϕ : t �→ g(th) , définie sur [0, 1] (en effet, pour t ∈ [0, 1] ,
on a th ∈ BF (0, η) ⊂ Ω′ ). On a d’après l’exemple 59 de la page 825 :
ϕ′ (t) = ( ∇g(th) | h ) et ϕ′′ (t) = hT Hg (th)h.
 
En particulier ϕ′ (0) = 0 . Soit t ∈ [0, 1] . D’après (∗) , on a Hg (th)  ε , donc :
 
Hg (th) h  ε �h�.
On déduit alors de l’inégalité de Cauchy-Schwarz que :
 T   
h (Hg (th) h)  �h� Hg (th) h  ε�h�2 ,
c’est-à-dire :  ′′ 
ϕ (t)  ε�h�2 . (∗∗)

• Compte tenu de (∗∗) et de ϕ(0) = ϕ (0) = 0 , l’inégalité de Taylor-Lagrange appliquée à ϕ
donne :  
ε g(h)  ε �h�2 .
|ϕ(1)|  �h�2 c’est-à-dire
2 2
Cela conclut alors, puisque cette inégalité est valable pour tout h vérifiant �h�  η .

Proposition 35 Supposons que f admette un extremum local en a ∈ A et que f soit différentiable
en a . Pour fixer les idées, supposons que ce soit un maximum. Puisqu’il s’agit d’un maximum et
que a est un point intérieur de A , il existe η > 0 tel que BF (a, η) ⊂ A et f (x)  f (a) pour
tout x ∈ BF (a, η) .
η
 η

Soit h ∈ E \ {0} . L’application ϕ : t �→ f (a + th) est définie sur l’intervalle I = − �h� , �h�
et ϕ admet un maximum en 0 . Puisque f est différentiable en a , l’application ϕ est dérivable
en 0 et ϕ′ (0) = Dh f (a) = df (a) · h .
On sait que si une fonction réelle de la variable réelle définie sur un intervalle ouvert admet un
maximum en un point où elle dérivable, alors sa dérivée est nulle en ce point. Par conséquent :
df (a) · h = ϕ′ (0) = 0.
Cette dernière relation étant vérifiée pour tout h ∈ E (c’est immédiat si h = 0 ), on en déduit
que df (a) = 0 .

847
Chapitre 19. Calcul différentiel

Proposition 36 Traitons le cas d’un minimum local. L’autre s’en déduira en considérant −f .
Soit a un point où f admet un minimum local. On sait que a est un point critique. Raisonnons
par l’absurde en supposant qu’il existe x ∈ IRp tel que xT Hf (a)x < 0 .
Au voisinage de 0 , on a, d’après la formule de Taylor-Young (théorème 34 de la page 826) :
1 T   1  
f (a + h) = f (a) + df (a) · h + h Hf (a)h + o �h�2 = f (a) + hT Hf (a)h + o �h�2 .
2 2
Ainsi, lorsque t tend vers 0 :
t2 T  
f (a + tx) = f (a) + x Hf (a)x + o t2 ,
2
Ainsi, la fonction t �→ f (a + tx) − f (a) est à valeurs strictement négatives sur un voisinage de 0
privé de 0 , contredisant le fait que f admette un minimum local en a .
Proposition 37
• Puisque Hf (a) ∈ Sp++ (IR) , l’application (h, k) �→ hT Hf (a) k définit un produit scalaire
sur IRp (voir remarque de la page 167). On munit IRp de la norme euclidienne associée.
• La formule de Taylor-Young (théorème 34 de la page 826) s’écrit donc, avec cette norme :
1  
f (a + h) = f (a) + df (a) · h + �h�2 + o �h�2 .
2
Sachant que a est un point critique, cela s’écrit aussi :
1  
f (a + h) − f (a) − �h�2 = o �h�2
2
et il existe donc η > 0 tel que pour tout h ∈ IRp tel que a + h ∈ Ω et �h�  η , on ait :
 
 1 2 1 2
f (a + h) − f (a) − �h�   �h� ,
2 4
ce qui donne :
1
�h�2 .
f (a + h) − f (a) 
4
La fonction f admet bien un minimum local strict en a .
Proposition 38 Soit v ∈ Ta X et γ : ]−ε, ε[ → E un arc tracé sur X tel que γ(0) = a
et γ ′ (0) = v . Puisque γ est tracé sur X et que f admet un extremum local en a , la fonc-
tion ϕ = f ◦ γ admet un extremum local en 0 , qui est un point intérieur de ]−ε, ε[ . Il s’ensuit
que ϕ′ (0) = 0 . Or par dérivation le long d’un arc :
 
ϕ′ (0) = df γ(0) · γ ′ (0) = df (a) · v.
Cela prouve que Ta X ⊂ Ker df (a) .
Théorème 39
Supposons que f|X admette un extremum local en a ∈ X tel que g(a) = 0 et dg(a) �= 0 .
• D’après le théorème 26 de la page 818, on a Ta X = Ker dg(a) .
• La proposition 38 donne alors que Ker dg(a) ⊂ Ker df (a) .
• Puisque f et g sont des fonctions numériques, df (a) et dg(a) sont des formes linéaires.
∗ Si df (a) �= 0 , puisque dg(a) �= 0 par hypothèse, ces deux formes linéaires ont même
noyau donc sont proportionnelles et il existe ainsi λ ∈ IR tel que df (a) = λdg(a) .
∗ Si df (a) = 0 , on a df (a) = 0 × dg(a) .

848
Exercices

S’entraîner et approfondir
Différentielle
19.1 Soit f l’application définie sur IR2 par :
→797
x2 y  
f (x, y) = si (x, y) ∈ IR2 \ (0, 0) et f (0, 0) = 0.
x4+ y2
1. Pour tout (u, v) ∈ IR2 , montrer l’existence et calculer D(u,v) f (0, 0) .
2. Calculer f (t, t2 ) pour t ∈ IR∗ . La fonction f est-elle continue ?

19.2 On considère C muni de sa structure de IR -espace vectoriel.


→799
Montrer que f : C∗ −→ C est différentiable en tout point et donner sa différentielle.
z �−→ 1/z

19.3 Montrer la différentiabilité de l’application det définie sur Mn (IR) .


→808  
Montrer que sa différentielle en A ∈ Mn (IR) est H �→ tr H Com(A)T .

19.4 Montrer que l’application définie sur GLn (IR) par M �→ M −1 est de classe C 1 et donner sa
→810
différentielle.

19.5 Soit Ω un ouvert non vide de C considéré comme IR -espace vectoriel.


f (z0 +h)−f (z0 )
On dit que f : Ω → C est C -dérivable en z0 ∈ Ω si lim h
existe.
h→0

En notant P = Re f et Q = Im f , montrer que f est C -dérivable en z0 ∈ Ω si, et seulement


si, f est différentiable en z0 et :
∂P ∂Q ∂P ∂Q
(z0 ) = (z0 ) et (z0 ) = − (z0 ).
∂x ∂y ∂y ∂x
Ces relations sont connues sous le nom d’équations de Cauchy-Riemann.

19.6 Pour quelles valeurs de α ∈ IR+ la fonction f : IR2 → IR définie par :


|xy|α
f (x, y) = si (x, y) �= (0, 0) et f (0, 0) = 0
x2 + y 2
est-elle de classe C 1 ?

19.7 On dit qu’une partie C de IRn est un cône positif si pour tout x ∈ C et t > 0 on a tx ∈ C .
Soit C un cône positif non vide de IRn . On dit qu’une fonction f : C → IR est homogène
de degré α si :
∀(x, t) ∈ C × IR∗+ f (tx) = tα f (x).
On suppose dans la suite que C est également un ouvert de IRn . Soit f ∈ C 1 (C, IR) .
1. Démontrer que si la fonction f est homogène de degré α , alors les dérivées partielles
de f sont homogènes de degré α − 1 .
2. Démontrer que la fonction f est homogène de degré α si, et seulement si :
n
 ∂f
∀x ∈ Ω xi (x) = α f (x). (Relation d’Euler)
∂xi
i=1

849
Chapitre 19. Calcul différentiel

19.8 Soit f la fonction définie sur IR2 \ {(x, x) | x ∈ IR} par :


sin(y) − sin(x)
f (x, y) = ·
y−x

Montrer que f se prolonge sur IR2 en une fonction de classe C ∞ .


Indication. On pourra utiliser la fonction ψ : t �→ sin t
t
prolongée par continuité sur IR .

 
19.9 Soit f ∈ C 1 (IR, IR) et F la fonction définie sur IR2 \ (x, x) | x ∈ IR par :
f (y) − f (x)
F (x, y) = ·
y−x
1. Montrer que F admet un prolongement G continu sur IR2 .
2. Montrer que si f est de classe C 2 , alors la fonction G est de classe C 1 .
 1
 
Indication. On pourra écrire f (y) − f (x) = (y − x) f ′ x + t(y − x) dt .
0

 x
⋆ 19.10 Soit f : IR2 → IR une fonction de classe C 1 . On pose g : (x, y) �→ f (t, y) dt.
0
∂g
1. Montrer l’existence de ∂x
et la calculer.
∂g
2. Faire de même avec ∂y
·
3. Montrer que g est de classe C 1 .
4. On considère deux fonctions α et β de classe C 1 d’un intervalle I de IR dans IR .
 β(u)
Montrer que F : u �→ f (t, u) dt est de classe C 1 et calculer F ′ .
α(u)

Vecteurs tangents
19.11 Soit X une partie d’un IR -espace vectoriel E de dimension finie.
→815  
1. Soit a ∈ X et r > 0 . Montrer que Ta X = Ta X ∩ BO (a, r) .
2. Quels sont les vecteurs tangents à X en un point isolé, c’est-à-dire un point a ∈ X pour
lequel il existe r > 0 tel que X ∩ BO (a, r) = {a} ?

19.12 Quels sont les vecteurs tangents à X = [−1, 1]2 ⊂ IR2 en (0, 0) ? en (1, 0) ? en (1, 1) ?
→815

19.13 Soit S la surface de IR3 d’équation z = xy et M0 = (x0 , y0 , z0 ) un point de S .


1. Déterminer le plan tangent à S en M0 .
2. Montrer que l’intersection de ce plan avec S est la réunion de deux droites affines.

⋆ 19.14 1. Montrer que l’ensemble des vecteurs tangents au groupe orthogonal On (IR) en In est
inclus dans l’ensemble An (IR) des matrices antisymétriques réelles.
2. Montrer l’inclusion réciproque.
Indication. Considérer l’application exp sur l’ensemble An (IR) .

850
Exercices

Classe C k
19.15 Soit f l’application définie sur IR2 par :
→823
x2 − y 2
f (x, y) = xy si (x, y) �= (0, 0) et f (0, 0) = 0.
x2 + y 2
1. Démontrer que f est de classe C 1 .
∂2f ∂2f
2. Montrer l’existence et calculer (0, 0) et (0, 0) .
∂x∂y ∂y∂x

19.16 Soit Ω un ouvert convexe non vide de E = IRp et f : Ω → IR de classe C 2 .


On dit que f est convexe si :
 
∀(x, y) ∈ Ω2 ∀t ∈ [0, 1] f (1 − t)x + ty  (1 − t)f (x) + tf (y).
1. Soit a ∈ Ω et h ∈ E . On pose ϕ : t �→ f (a + th).
Montrer que ϕ est définie au voisinage de 0 , et qu’elle est de classe C 2 sur tout intervalle I
où elle est définie, avec :
∀t ∈ I ϕ′′ (t) = hT Hf (a + th) h.
2. Montrer que f est convexe si, et seulement si, pour tout a ∈ Ω , la matrice hes-
sienne Hf (a) est positive.

⋆ 19.17 Soit Ω un ouvert non vide de IR2 et f ∈ C 1 (Ω, IR) .


1. Montrer que la fonction g définie par g(r, θ) = f (r cos θ, r sin θ) est de classe C 1 sur son
ouvert Ω′ de définition et exprimer ses dérivées partielles en fonction de celles de f .
2. On considère l’équation :
∂f ∂f
x +y = 0. (E)
∂x ∂y
(a) On suppose Ω = IR2 . Montrer que toute solution de (E) est constante.
(b) On suppose Ω = IR2 \ {(0, 0)} . Montrer que f ∈ C 1 (Ω, IR) est solution de (E) si,
et seulement s’il existe ϕ : IR → IR de classe C 1 et 2π -périodique telle que, pour

tout (x, y) ∈ Ω , on ait f (x, y) = ϕ(θ) où θ est tel que (x, y) = x2 + y 2 (cos θ, sin θ) .
∂2f ∂2f
19.18 Le laplacien d’une fonction f de classe C 2 sur un ouvert Ω de IR2 est ∆f = + ·
∂x2 ∂y 2
   
Soit f ∈ C 2 IR2 \ (0, 0) , IR . On définit g : IR∗+ × IR −→ IR
(r, θ) �−→ f (r cos θ, r sin θ).
∂f ∂f
1. Exprimer (r cos θ, r sin θ) et (r cos θ, r sin θ) en fonction des dérivées partielles
∂x ∂y
de g .
2. Exprimer ∆f (r cos θ, r sin θ) en fonction des dérivées partielles de g .

⋆ 19.19 On muni IRn de sa structure euclidienne canonique. Soit f : IRn → IRn une application de
classe C 2 telle que Jf soit à valeurs dans On (IR) .
1. Lemme des tresses
Soit X un ensemble non vide et g : X 3 → IR une application antisymétrique par rapport
aux deux première variables et symétrique par rapport aux deux dernières. Démontrer
que g est nulle.
2. Démontrer que Jf est constante.
3. En déduire que f est la composée d’une translation et d’une isomérie vectorielle.

851
Chapitre 19. Calcul différentiel

Optimisation
19.20 Soit f : IR2 −→ IR
→831
(x, y) �−→ y 2 (y 2 − x4 ).
1. Visualiser sur un dessin les trois domaines de IR2 où la fonction f est nulle, où elle prend
des valeurs strictement positives, et où elle prend des valeurs strictement négatives.
2. Justifier alors rigoureusement ce que la question précédente permet d’intuiter :
• pour tout u ∈ IR2 , la fonction ϕ : t �→ f (tu) admet un minimum local en 0 ;
• pourtant, la fonction f ne présente pas de minimum local en 0 .

19.21 Soit E un espace euclidien de dimension supérieure à 2 , S sa sphère unité et u un endo-


morphisme autoadjoint de E . On pose fu : E −→  IR
→836
 
x �−→ u(x)  x .

1. Montrer que f est de classe C 1 sur E et déterminer son gradient.


2. Sans utiliser les résultats du chapitre 4 concernant les endomorphismes autoadjoints,
montrer que f|S admet un maximum et que s’il est atteint en a ∈ S , alors ∇f (a) et a
sont colinéaires.
3. Retrouver ainsi que u admet une valeur propre réelle.

19.22 Déterminer les extrema des fonctions définies sur IR2 par :
f (x, y) = −2(x − y)2 + x4 + y 4 .

19.23 Soit g définie sur IR2 par :


 
g(x, y) = (2x2 + 3y 2 ) exp −(x2 + y 2 ) .
1. Déterminer une fonction h telle que :
∀(x, y) ∈ IR2 g(x, y) = h(x2 + y 2 , y 2 ).
2. En déduire les extrema de g .

19.24 Soit U ∈ IRn et A ∈ Sn++ (IR) . Déterminer les extrema de :


f : IRn −→ IR
X �−→ X T AX + 2 U T X.

19.25 Soit Ω un ouvert convexe non vide d’un espace vectoriel E de dimension finie et f : Ω → IR
une fonction convexe, c’est-à-dire telle que :
 
∀(x, y) ∈ Ω2 ∀t ∈ [0, 1] f (1 − t)x + ty  (1 − t) f (x) + t f (y).

Montrer que f admet un minimum en a ∈ Ω si, et seulement si, a est un point critique de f .

19.26 Le plan IR2 est muni de sa structure euclidienne canonique.


1. Donner l’aire A du triangle A(1, 0) , B(cos θ1 , sin θ1 ) et C(cos θ2 , sin θ2 ) .
On se restreindra au cas où 0  θ1  θ2  2π .
2. Déterminer les triangles d’aire maximale inscrits dans un cercle de rayon 1 .

852
Exercices

19.27 Soit E un espace vectoriel euclidien et f : E → IR une fonction de classe C 1 telle


f (x)
que lim �x�
= +∞ .
�x�→+∞

1. Soit v ∈ E . Démontrer que g : x �→ f (x) − ( x | v ) admet un minimum.


2. En déduire que l’application ∇f est surjective.

 
19.28 On pose E = (x, y, z) ∈ IR3 : x4 + y 4 + z 4 = 1 .
Déterminer les extrema sur E de la fonction (x, y, z) �→ x2 + y 2 + z 2 .

853
Chapitre 19. Calcul différentiel

Solutions des exercices


19.1 1. Soit (u, v) ∈ IR2 .
• Supposons v �= 0 . Pour tout t �= 0 on a :

u2 v
f (tu, tv) = t
t2 u4 + v2
et cette expression est encore valable pour t = 0 puisque f (0, 0) = 0 .
2
Donc f (tu, tv) ∼ t uv , ce qui prouve que la fonction f admet une dérivée en (0, 0)
t→0
2
selon le vecteur (u, v) avec D(u,v) f (0, 0) = uv ·
• Si v = 0 , on a f (tu, tv) = f (tu, 0) = 0 , donc f admet une dérivée en (0, 0) selon le
vecteur (u, v) et D(u,v) f (0, 0) = 0 .
2. Pour tout t ∈ IR∗ , on a f (t, t2 ) = 1
2
tandis que f (0, 0) = 0 . Il s’ensuit que f n’est pas
continue en 0 , sinon, par composition, t �→ f (t, t2 ) serait continue en 0 .

19.2 Il est immédiat que C∗ est un ouvert. Soit z ∈ C∗ . Pour tout h ∈ C tel que |h| < |z| , on a :
h
f (z + h) − f (z) = − ·
(z + h)z
1
Par ailleurs, (z+h)z
−→ 12 et donc 1
z(z+h)
= 1
z2
+ o(1) . Ainsi, au voisinage de 0 :
h→0 z

h
f (z + h) − f (z) = − + o(h).
z2
Il est clair que l’application C −→ C est IR -linéaire.
h �−→ − zh2
Par conséquent f est différentiable en z et :
h
∀h ∈ C df (z) · h = − ·
z2

19.3 • La fonction f = det est polynomiale donc de classe C 1 .


• Soit A = (ai,j ) 1in ∈ Mn (IR) . Notons (Ei,j ) 1in la base canonique de Mn (IR) .
1jn 1jn

Calculons les dérivées partielles de la fonction f en A dans cette base, c’est-à-dire


les DEi,j f (A) . Pour t ∈ IR on a :
 
 a1,1 ··· a1,j−1 a1,j a1,j+1 ··· a1,n 
 
 .. .. .. .. .. 
 . . . . . 
 
ai−1,1 ··· ai−1,j−1 ai−1,j ai−1,j+1 ··· ai−1,n 
 
f (A + tEi,j ) =  ai,1 ··· ai,j−1 ai,j + t ai,j+1 ··· ai,n 
a ··· ai+1,j−1 ai+1,j ai+1,j+1 ··· ai+1,n 
 i+1,1
 . .. .. .. .. 
 .. . . . . 

 an,1 ··· an,j−1 an,j an,j+1 ··· an,n 

854
Solutions des exercices

donc, par linéarité du déterminant par rapport à la j -ème colonne :


 
 a1,1 ··· a1,j−1 0 a1,j+1 ··· a1,n 
 
 .. .. .. .. .. 
 . . . . . 
 
ai−1,1 ··· ai−1,j−1 0 ai−1,j+1 ··· ai−1,n 
 
f (A + tEi,j ) = det A + t  ai,1 ··· ai,j−1 1 ai,j+1 ··· ai,n 
a ··· ai+1,j−1 0 ai+1,j+1 ··· ai+1,n 
 i+1,1
 . .. .. .. .. 
 .. . . . . 

 an,1 ··· an,j−1 0 an,j+1 ··· an,n 
i+j
= f (A) + t(−1) ∆i,j ,

où ∆i,j est le mineur d’indice (i, j) de A . Il s’ensuit que :

DEi,j f (A) = (−1)i+j ∆i,j .

• L’expression de la différentielle d’une fonction différentiable à l’aide de ses dérivées par-


tielles donne, pour tout H = (hi,j ) 1in ∈ Mn (IR) :
1jn

n n
  
df (A) · H = hi,j (−1)i+j ∆i,j = tr H Com(A)T .
i=1 j=1

En particulier, si A est inversible :


 
∀H ∈ Mn (IR) df (A) · H = (det A) tr HA−1 .

19.4 À l’exemple 25 de la page 810 il a été rappelé que GLn (IR) est un ouvert de Mn (IR) et
que l’application f : M �→ M −1 est de classe C 1 puisque ses fonctions coordonnées sont
rationnelles.
Soit M ∈ GLn (IR) ; on a M × M −1 = In . Par suite, l’application M �→ M × f (M ) est
constante sur GLn (IR) et donc sa différentielle est nulle. Ainsi, le produit matriciel dé-
finissant une application bilinéaire sur Mn (IR)2 , le corollaire 15 de la page 807 donne,
pour M ∈ GLn (IR) :
 
∀H ∈ Mn (IR) H × M −1 + M × df (M ) · H = 0.

On en déduit, pour M ∈ GLn (IR) , que :

∀H ∈ Mn (IR) df (M ) · H = −M −1 × H × M −1 .

19.5 Le IR -espace vectoriel C est muni de la base B = (1, i) .


• Supposons que f soit C -dérivable en z0 . Il existe alors un nombre complexe, que l’on
f (z0 + h) − f (z0 )
peut noter f ′ (z0 ) , tel que lim = f ′ (z0 ) .
h→0 h
Notons u l’application définie sur C par u(h) = hf ′ (z0 ) . Par définition, au voisinage
de 0 :
f (z0 + h) = f (z0 ) + hf ′ (z0 ) + o(h) = f (z0 ) + u(h) + o(h).
De plus u est une application C -linéaire, car il s’agit d’une homothétie. A fortiori elle
est IR -linéaire et donc f est différentiable en z0 .

855
Chapitre 19. Calcul différentiel

Donnons un calcul de f ′ (z0 ) . La différentiabilité implique l’existence de ∂P


∂x
(z0 )
∂Q
et ∂x
(z0 ) . Par définition, on a :
f (z0 + h) − f (z0 )
f ′ (z0 ) = lim
h→0 h
h∈IR ∗
   
P (z0 + h) − P (z0 ) + i Q(z0 + h) − Q(z0 )
= lim
h→0
h∈IR ∗
h

∂P ∂Q
= (z0 ) + i (z0 ).
∂x ∂x
f (z0 + ih) − f (z0 )
On a également f ′ (z0 ) = lim
h→0 ih
h∈IR ∗
   
P (z0 + ih) − P (z0 ) + i Q(z0 + ih) − Q(z0 )
= lim
h→0
h∈IR ∗
ih
 
Q(z0 + ih) − Q(z0 ) − i P (z0 + ih) − P (z0 )
= lim
h→0

h
h∈IR

∂Q ∂P
(z0 ) − i
= (z0 ).
∂y ∂y
En identifiant les parties réelles et imaginaires, il vient :
∂P ∂Q ∂P ∂Q
(z0 ) = (z0 ) et (z0 ) = − (z0 )·
∂x ∂y ∂y ∂x
∂Q
• Soit maintenant f : Ω → C une fonction différentiable en z0 telle que ∂P
∂x
(z0 ) = ∂y
(z0 )
et ∂P
∂y
(z0 ) = − ∂Q
∂x
(z0 ) . L’expression de la différentielle en termes de dérivées partielles
donne, pour tout h = h1 + ih2 ∈ C :
∂f ∂f
df (z0 ) · h = h1 (z0 ) + h2 (z0 )
∂x ∂y
   
∂P ∂P ∂Q ∂Q
= h1 (z0 ) + h2 (z0 ) + i h1 (z0 ) + h2 (z0 ) .
∂x ∂y ∂x ∂y
En utilisant les relations entre dérivées partielles, on obtient :
   
∂P ∂Q ∂Q ∂P
df (z0 ) · h = h1 (z0 ) − h2 (z0 ) + i h1 (z0 ) + h2 (z0 )
∂x ∂x ∂x ∂x
∂P ∂Q
et l’on reconnaît dans cette expression le produit hℓ , où ℓ = (z0 ) + i (z0 ) .
∂x ∂x
Par conséquent, la différentiabilité donne :
f (z0 + h) − f (z0 )
f (z0 + h) = f (z0 ) + hℓ + o(h) ou encore = ℓ + o(1),
h
ce qui implique que f est C -dérivable en z0 .

19.6 • Si f est de classe C 1 , alors x �→ f (x, x) est de classe C 1 . Or :


1 2(α−1)
f (x, x) = |x| si x �= 0 et f (0, 0) = 0.
2
Pour que f soit de classe C 1 , il faut donc 2α − 2 > 1 , c’est-à-dire α > 3/2 .

856
Solutions des exercices

• Réciproquement, si α > 3/2 , alors la fonction ϕ : x �→ |x|α est de classe C 1 et sa dérivée


est donnée par ϕ′ (x) = ε(x)α|x|α−1 , où ε(x) = 1 si x  0 et ε(x) = −1 sinon. Il
ϕ(x)ϕ(y)
s’ensuit, du fait que f (x, y) = x2 +y 2
, que f est de classe C 1 sur l’ouvert IR2 \ {(0, 0)}
(caractère local de la continuité). De plus :
∂f ϕ′ (x)(x2 + y 2 ) − 2xϕ(x)
∀(x, y) ∈ IR2 \ {(0, 0)} (x, y) = ϕ(y) ·
∂x (x2 + y 2 )2

Soit (x, y) �= (0, 0) . En posant r = �(x, y)�2 = x2 + y 2 , on a |x|  r et |y|  r , donc :
   
 ∂f  α αr α−1 × r 2 + 2r × r α
 (x, y)  r = (α + 2)r 2α−3
∂x r4
et cette inégalité est vraie si (x, y) = (0, 0) puisque, la fonction x �→ f (x, 0) étant nulle,
on a ∂f
∂x
(0, 0) = 0 .
∂f ∂f
Comme 2α − 3 > 0 , on a lim ∂x
= 0 , ce qui prouve que ∂x
est continue en (0, 0) .
(0,0)
∂f
Par symétrie, ∂y
est continue en (0, 0) .
La fonction f est donc de classe C 1 si, et seulement si, α > 3/2 .

19.7 1. Soit f ∈ C 1 (C, IR) une fonction homogène de degré α et t > 0 .


∂f
Considérons h : x �→ f (tx) . Pour tout x ∈ C et i ∈ [[1, n]] , on a ∂h
∂xi
(x) = t ∂x i
(tx) .
∂f
Si de plus f est homogène de degré α , on a h(x) = tα f (x) donc ∂h
∂xi
(x) = tα ∂x i
(x) .
Par conséquent :
∂f ∂f
(tx) = tα−1 (x).
∂xi ∂xi
2. Soit x ∈ C . Posons g : t �→ f (tx) = f (tx1 , . . . , txn ) . La fonction g est définie sur IR∗+ ,
car C est un cône positif. Elle est de classe C 1 par composition et :
n

 ∂f
∀t > 0 g (t) = xi (tx).
∂xi
i=1

• Supposons que f soit homogène de degré α . On a donc g(t) = tα f (x) pour tout t > 0 ,
donc :
n
 ∂f
∀t > 0 xi (tx) = αtα−1 f (x).
∂xi
i=1
En particulier, pour t = 1 , on obtient :
n
 ∂f
xi (x) = αf (x).
∂xi
i=1

• Réciproquement, supposons que f vérifie la relation d’Euler. On a alors :


n
 ∂f
∀t > 0 tg ′ (t) = txi (tx) = αf (tx) = αg(t)
∂xi
i=1

donc g vérifie sur IR∗+l’équation différentielle ty ′ − αy = 0 , dont les solutions sont


α
les fonctions t �→ λt , pour λ ∈ IR . On en déduit :
∀t > 0 f (tx) = g(t) = tα g(1) = tα f (x).
Par suite, la fonction f est homogène de degré α .

857
Chapitre 19. Calcul différentiel

19.8 Pour tout (x, y) ∈ IR2 vérifiant x �= y , on a :


 y + x  sin  y−x  y + x y − x
2
f (x, y) = 2 cos = cos ψ .
2 y−x 2 2
 (−1)n
La fonction ψ est la somme sur IR de la série entière (2n+1)!
t2n , donc est de classe C ∞ .
 y+x   y−x 
Les fonctions (x, y) �→ cos 2
et (x, y) �→ ψ 2
sont de classe C ∞ , par opérations sur
les fonctions de classe C ∞ . Ainsi la fonction f définie sur IR2 par :
   
y+x y−x
f(x, y) = cos ψ
2 2
définit un prolongement de classe C ∞ de f à IR2 .

19.9 1. Comme f est de classe C 1 , on peut écrire, pour tout (x, y) ∈ IR2 :
 y  1
 
f (y) − f (x) = f ′ (t) dt = (y − x) f ′ x + t(y − x) dt.
x 0
2
Donc, la fonction définie sur IR par :
 1
 
G(x, y) = f ′ x + t(y − x) dt
0

est un prolongement de F , et il vérifie, pour tout x ∈ IR :


 1  1
 
G(x, x) = f ′ x + t(x − x) dt = f ′ (x) dt = f ′ (x).
0 0

Montrons la continuité de G à l’aide du théorème de continuité d’une intégrale à para-


mètre, le paramètre étant ici le couple (x, y) .
 
• Pour tout (x, y) ∈ IR2 , la fonction t �→ f ′ x + t(y − x) est continue (par morceaux)
sur le segment [0, 1] par continuité de f ′ . Elle est donc intégrable.
 
• Pour tout t ∈ [0, 1] , la fonction (x, y) �→ f ′ x + t(y − x) est continue sur IR2 par
composition.
• Hypothèse de domination. Soit R > 0 et (x, y) ∈ [−R, R]2 .
On a x + t(y − x) = (1 − t)x + ty ∈ [−R, R] pour tout t ∈ [0, 1] par convexité
de [−R, R] . Puisque f ′ est continue, elle est bornée sur le segment [−R, R] par une
certaine constante M , ce qui donne :
 ′ 
∀(x, y) ∈ [−R, R]2 ∀t ∈ [0, 1] f x + t(y − x)   M.
La fonction constante égale à M étant intégrable sur l’intervalle borné [0, 1] , cela
fournit l’hypothèse de domination sur [−R, R]2 et donc au voisinage de tout point
de IR2 , puisque les parties ]−R, R[2 forment un recouvrement de IR2 par des ouverts
quand R décrit IR∗+ .
En conclusion, G est continue sur IR2 .
∂G
2. • Démontrons que ∂x
est définie. Pour cela fixons y ∈ IR et montrons la dérivabilité
 1
 
de la fonction x �→ G(x, y) = f ′ x + t(y − x) dt .
0
 
∗ Pour tout x ∈ IR , l’application t �→ f ′ x + t(y − x) est continue, donc intégrable
sur le segment [0, 1] .

858
Solutions des exercices

 
∗ Pour tout t ∈ [0, 1] , l’application gt : x �→ f ′ x + t(y − x) est de classe C 1 et :
 
∀x ∈ IR gt′ (x) = (1 − t) f ′′ x + t(y − x) .

∗ Pour tout x ∈ IR , l’application t �→ gt′ (x) est continue, puisque f ′′ est continue.
∗ Hypothèse de domination. Soit J un segment de IR .
 
La fonction (x, t) �→ f ′′ x + t(y − x) est continue sur le compact J × [0, 1] , donc
y est bornée par une constante M , ce qui donne :
  
∀x ∈ J ∀t ∈ [0, 1] (1 − t)f ′′ x + t(y − x)   (1 − t) M,

et la fonction t �→ (1 − t)M est continue donc intégrable sur le segment [0, 1] .


Cela fournit l’hypothèse de domination sur tout segment.
En conclusion, le théorème de dérivation des intégrales à paramètre nous donne l’exis-
tence de ∂G
∂x
(x, y) pour tout (x, y) ∈ IR2 et :
 1
∂G  
∀(x, y) ∈ IR2 (x, y) = (1 − t) f ′′ x + t(y − x) dt.
∂x 0

• De la même manière que nous avons démontré la continuité de G , on démontre la


continuité de ∂G
∂x
. Par suite G est de classe C 1 .
• Par symétrie, puisque G(x, y) = G(y, x) , pour tout (x, y) ∈ IR2 , on obtient l’existence
et la continuité de la fonction ∂G
∂y
avec :
 1
∂G ∂G  
∀(x, y) ∈ IR2 (x, y) = (y, x) = (1 − t) f ′′ y + t(x − y) dt.
∂y ∂x 0

Ainsi, G est de classe C 1 sur IR2 par le théorème fondamental.

19.10 1. À y fixé, l’application x �→ g(x, y) est dérivable, de dérivée x �→ f (x, y) (intégrale


fonction de sa borne supérieure), donc :
∂g
∀(x, y) ∈ IR2 (x, y) = f (x, y).
∂x
2. Soit x ∈ IR . Notons I le segment d’extrémités 0 et x .
• Pour tout y ∈ IR , l’application t �→ f (t, y) est continue sur I .
• Pour tout t ∈ I , l’application y �→ f (t, y) est de classe C 1 sur IR .
• Hypothèse de domination. Soit a ∈ IR∗+ . Si M est un majorant de la fonction
 
continue  ∂f
∂y
 sur le compact I × [−a, a] , on a :
 
 ∂f 
∀(t, y) ∈ I × [−a, a]  (t, y)  M
 ∂y 
et la fonction constante M est intégrable sur le segment I .
Cela assure la domination de ∂f
∂y
sur tout segment de IR .
 x
La fonction y �→ f (t, y) dt est donc dérivable et :
0
 x
∂g ∂f
∀(x, y) ∈ IR2 (x, y) = (t, y) dt.
∂y 0
∂y

859
Chapitre 19. Calcul différentiel

3. Démontrons la continuité des dérivées partielles de g .


∂g
• La fonction ∂x
= f est continue.
• Pour (x, y) ∈ IR2 , par le changement de variable [t = xu] , on a :
 1
∂g ∂f
(x, y) = x (xu, y) du.
∂y 0
∂y
 1
∂f
Montrons que Φ : (x, y) �→ (xu, y) du est continue.
0
∂y
∂f
∗ pour tout (x, y) ∈ IR2 , la fonction u �→ (xu, y) est continue (par morceaux)
∂y
sur [0, 1] ;
∂f
∗ pour tout u ∈ [0, 1] , la fonction (x, y) �→ (xu, y) est continue sur IR2 ;
∂y
∗ Hypothèse de domination au voisinage de tout point.
 
Soit a > 0 . Par continuité, la fonction  ∂f
∂y
 est majorée par une constante M sur
le compact Ka = [−a, a]2 et donc :
 
 ∂f 
∀(x, y) ∈ Ka ∀u ∈ [0, 1]  (xu, y)  M,
 ∂y 
la fonction constante M étant intégrable sur le segment [0, 1] . Comme IR2 est re-

couvert par les ouverts K a = ]−a, a[2 , on a domination de ∂f
∂y
(xu, y) au voisinage
2
de tout point de IR .
 1
∂f
Par conséquent, la fonction (x, y) �→ (xu, y) du est continue sur IR2 .
0
∂y
∂g
On en déduit la continuité de ·
∂y
Ainsi, g est de classe C 1 .
   
4. On remarque que F (u) = g β(u), u − g α(u), u . Comme g , α et β sont de classe C 1 ,
la règle de la chaîne donne le caractère C 1 de F sur I avec, pour tout u ∈ I :
∂g   ∂g   ∂g   ∂g  
F ′ (u) = β ′ (u) β(u), u + β(u), u − α′ (u) α(u), u − α(u), u
∂x ∂y ∂x ∂y
 β(u)  α(u)
  ∂f     ∂f  
= β ′ (u) f β(u), u + t, u dt − α′ (u) f α(u), u − t, u dt
0
∂y 0
∂y
 β(u)
    ∂f  
= β ′ (u) f β(u), u − α′ (u) f α(u), u + t, u dt.
α(u)
∂y

 
19.11 1. Il est clair que l’on a Ta X ∩ BO (a, r) ⊂ Ta X puisque tout arc tracé sur X ∩ BO (a, r)
est évidemment aussi tracé sur X .
Réciproquement, soit v ∈ Ta X . Prenons un arc γ : ]−ε, ε[ → X dérivable en 0 et tel
que γ(0) = a et γ ′ (0) = v . Par continuité de γ en 0 , il existe η > 0 tel que :
 
∀t ∈ ]−η, η[ γ(t) − γ(0) < r.
Comme γ(0) = a , cela signifie que l’arc γ|]−η,η[ est à valeurs dans BO (a, r) , donc est
 
tracé sur X ∩ BO (a, r) . On en déduit que v = (γ|]−η,η[ )′ (0) ∈ Ta X ∩ BO (a, r) .
D’où l’inclusion réciproque.

860
Solutions des exercices

2. On en déduit que si a est un point isolé de X , on a Ta X = {0} puisqu’il existe r > 0


tel que X ∩ BO (a, r) = {a} et que seul le vecteur nul est tangent à un singleton (tout
arc tracé sur un singleton est constant).

19.12 • Le point (0, 0) est intérieur à X , donc T(0,0) X = IR2 (cf. exemple 37 de la page 815).
• Soit ε > 0 et γ : ]−ε, ε[ → [−1, 1]2 dérivable en 0 tel que γ(0) = (1, 0) . On note x
et y les fonctions coordonnées de γ dans la base canonique. Puisque la fonction x , qui
est dérivable en 0 , à valeurs réelles et définie sur l’intervalle ouvert ]−ε, ε[ , admet un
maximum en 0 , on a x′ (0) = 0 . Par suite T(1,0) X ⊂ IR (0, 1) .
D’autre part, en considérant l’application γ : t ∈ ]−1, 1[ �→ (1, t) qui est à valeurs dans X
et dérivable en 0 , on obtient que (0, 1) = γ ′ (0) ∈ T(1,0) X . D’après la remarque de la
page 815, on en déduit IR (0, 1) ⊂ T(1,0) X et, finalement, l’égalité.
• Soit ε > 0 et γ : ]−ε, ε[ → [−1, 1]2 dérivable en 0 tel que γ(0) = (1, 1) . On note x
et y les fonctions coordonnées de γ dans la base canonique. Puisque x et y sont maxi-
males en 0 , en reprenant le raisonnement précédent, on a x′ (0) = y ′ (0) = 0 . Il s’ensuit
 
que T(1,1) X = (0, 0) .

19.13 1. Posons g : (x, y, z) �→ xy − z . Elle est de classe C 1 sur IR3 et :


 
y
3
∀(x, y, z) ∈ IR ∇g(x, y, z) = x .
−1
Comme ce gradient ne s’annule pas, S admet un plan tangent en tout point. En parti-
culier, en M0 , ce plan tangent P a pour équation y0 (x − x0 ) + x0 (y − y0 ) − (z − z0 ) = 0 .
2. Soit M = (x, y, z) ∈ P ∩ S . On a donc z = xy et y0 (x − x0 ) + x0 (y − y0 ) − (z − z0 ) = 0
et comme z0 = x0 y0 , cela donne :
y0 (x − x0 ) + x0 (y − y0 ) − xy + x0 y0 = 0 ou encore (x − x0 )(y − y0 ) = 0.
Le point M appartient donc :
• à la droite D1 , intersection de P et du plan P1 d’équation x = x0 ,
• ou à la droite D2 , intersection de P et du plan P2 d’équation y = y0 .
Ces deux intersections sont bien des droites. En effet, le plan P n’est pas parallèle à P1
car leurs vecteurs normaux :
   
y0 1
x0 0
−1 0
ne sont pas colinéaires et de même pour P et P2 .
Réciproquement, soit M = (x, y, z) un point de D1 . On a alors x = x0 et :
y0 (x − x0 ) + x0 (y − y0 ) − (z − z0 ) = 0 c’est-à-dire x0 (y − y0 ) = z − x0 y0 .
Cela donne z = xy , donc M appartient à S ∩ P . Par symétrie, il en est de même si M
appartient à D2 .
Conclusion : S ∩ P = D1 ∪ D2 .

861
Chapitre 19. Calcul différentiel

19.14 1. Soit ε > 0 et γ : ]−ε, ε[ → On (IR) une application dérivable en 0 , vérifiant γ(0) = In .
Montrons que γ ′ (0) est une matrice antisymétrique.
On a, au voisinage de 0 , le développement limité :
γ(s) = In + sγ ′ (0) + o(s)
et donc, puisque γ(s) est une matrice orthogonale pour tout s ∈ ]−ε, ε[ :

In = γ(s)T γ(s)
 T  
= In + s γ ′ (0) + o(s) In + s γ ′ (0) + o(s)
 T 
= In + s γ ′ (0) + γ ′ (0) + o(s).
T
Par unicité du développement limité, γ ′ (0) + γ ′ (0) = 0 et donc γ ′ (0) est une matrice
antisymétrique.
2. Soit A ∈ An (IR) .
• Comme AT = −A , on a exp(AT ) = exp(−A) = exp(A)−1 . Montrons donc l’éga-
lité exp(AT ) = exp(A)T ce qui prouvera la relation exp(A)T = exp(A)−1 , et donc
que exp(A) est orthogonale.
T
Par propriété de la transposition, on a (AT )k = (Ak ) pour tout k ∈ IN . Par linéarité
de la transposition, on en déduit :
n
 
n T
(AT )k Ak
∀n ∈ IN =
k! k!
k=0 k=0

puis un passage à la limite donne exp(AT ) = exp(A)T par continuité de la transpo-


sition (application linéaire en dimension finie).
• L’application γ : t �→ exp(tA) est donc à valeurs dans On (IR) , dérivable en 0
avec γ(0) = In et γ ′ (0) = A .
Il s’ensuit que A est un vecteur tangent à On (IR) en In .
En conclusion, An (IR) est l’espace des vecteurs tangents à On (IR) en In .

19.15 1. • En tant que fonction rationnelle, f est de classe C 1 sur l’ouvert IR2 \ {(0, 0)} .
Le calcul donne, pour (x, y) ∈ IR2 \ {(0, 0)} :
∂f y(x4 + 4x2 y 2 − y 4 )
(x, y) =
∂x (x2 + y 2 )2
∂f
et puisque f (t, 0) = 0 pour tout t ∈ IR , on a ∂x
(0, 0) = 0 .
2

• Pour (x, y) ∈ IR \ {(0, 0)} , en posant r = �(x, y)�2 = x2 + y 2 :
 
 ∂f  |y|(x4 + 4x2 y 2 + y 4 )
 (x, y)  4
 6r = 6�(x, y)�2 ,
∂x r
cette dernière inégalité étant encore valable pour (x, y) = (0, 0) .
∂f
On en déduit que lim ∂x
(x, y) = 0 . Par suite, la fonction ∂f
∂x
est continue.
(x,y)→(0,0)

Pour tout (x, y) ∈ IR2 f (x, y) = −f (y, x) , et donc ∂f


∂y
(x, y) = − ∂f
∂x
(y, x) sur IR2 .
Il s’ensuit que les deux dérivées partielles de la fonction f existent et sont continues.
Donc f est de classe C 1 .

862
Solutions des exercices

2. Par la question précédente, on a :


∂f ∂2f
∀y ∈ IR (0, y) = −y donc (0, 0) = −1.
∂x ∂y∂x
Par ailleurs :
∂f ∂f ∂2f
∀x ∈ IR (x, 0) = − (0, x) = x donc (0, 0) = 1.
∂y ∂x ∂x∂y

On remarque que ces deux dérivées partielles secondes sont différentes, donc f n’est pas
de classe C 2 , d’après le théorème de Schwarz.

19.16 1. Comme Ω est un ouvert, il existe r > 0 tel que BO (a, r) ⊂ Ω . On a alors a + th ∈ Ω
pour tout t tel que |t|�h� < r , ce qui montre que ϕ est définie au voisinage de 0 . Soit I
un intervalle sur lequel ϕ est définie.
Par composition de t �→ a + th qui est de classe C 2 de I dans Ω et de f de classe C 2
sur Ω , la fonction ϕ est de classe C 2 sur I et :
p
 ∂f
∀t ∈ I ϕ′ (t) = df (a + th) · h = hj (a + th).
∂xj
j=1

∂f
Appliquant à nouveau ce résultat aux fonctions ∂xj
, on obtient :
p
  
d ∂f
ϕ′′ (t) = hj (a + th)
dt ∂xj
j=1

p
 p

  ∂2f
= hj hi (a + th)
∂xi ∂xj
j=1 i=1

 ∂2f
= hj hi (a + th) = hT Hf (a + th) h.
∂xi ∂xj
1i,jp

2. • Supposons f convexe. Soit a ∈ Ω et h ∈ E .


D’après la question précédente, l’application ϕ : t �→ f (a + th) est définie sur un
intervalle de IR voisinage de 0 et elle est de classe C 2 .
∗ Montrons qu’elle est convexe. Soit (t, u) ∈ I 2 et λ ∈ [0, 1] . On a :
     
ϕ (1 − λ)t + λu = f a + (1 − λ)t + λu h
 
= f (1 − λ)(a + th) + λ(a + uh)
 (1 − λ)f (a + th) + λf (a + uh) = (1 − λ)ϕ(t) + λϕ(u).

∗ Il s’ensuit que ϕ′′ est positive, et comme ϕ′′ (0) = hT Hf (a) h d’après la question
précédente, on en déduit hT Hf (a) h  0 .
Comme h a été choisi quelconque, on en déduit que Hf (a) ∈ Sn+ (IR) .
• Supposons Hf (a) ∈ Sn+ (IR) pour tout a ∈ Ω .
Soit (x, y) ∈ Ω2 . Posons h = y − x . L’application ϕ : t �→ f (x + th) est définie
sur [0, 1] par convexité de Ω . Par la question précédente, elle est de classe C 2 et sa
dérivée seconde est positive par hypothèse sur la matrice hessienne de f .

863
Chapitre 19. Calcul différentiel

On en déduit que ϕ est convexe. En particulier, pour tout t ∈ [0, 1] , on a :


g(t)  (1 − t)g(0) + tg(1),
c’est-à-dire :  
f (1 − t)x + ty  (1 − t)f (x) + tf (y).
La fonction f est donc bien convexe.

19.17 1. L’application Φ : (r, θ) �→ (r cos θ, r sin θ) est continue sur IR2 , donc l’ensemble de défi-
nition Ω′ = Φ−1 (Ω) de g est un ouvert de IR2 puisque Ω est ouvert. De plus, Φ est de
classe C 1 par les théorèmes généraux, donc g = f ◦ Φ est de classe C 1 .
Par la règle de la chaîne, on a :
∂g ∂f ∂f
(r, θ) = cos θ (r cos θ, r sin θ) + sin θ (r cos θ, r sin θ)
∂r ∂x ∂y
∂g ∂f ∂f
(r, θ) = −r sin θ (r cos θ, r sin θ) + r cos θ (r cos θ, r sin θ).
∂θ ∂x ∂y
2. Commençons par remarquer que l’application Φ est surjective. En effet ;
• tout nombre complexe z = x + iy non nul peut s’écrire sous la forme trigo-
nométrique z = |z|eiθ , donc tout élément (x, y) ∈ IR2 \ {(0, 0)} s’écrit sous la
forme (r cos θ, r sin θ) , avec r > 0 et θ ∈ IR , et l’on sait que θ est unique modulo 2π .
• (0, 0) = Φ(0, 0) , par exemple.
Plus précisément, on a montré que Φ(IR∗+ × IR) ⊃ IR2 \ {(0, 0)} et l’on a même égalité car
les antécédents de (0, 0) sont exactement les couples (0, θ) , pour θ ∈ IR .
(a) Soit f solution de (E) sur Ω = IR2 . Alors Ω′ = IR2 et :
∂g ∂f ∂f
∀(r, θ) ∈ IR2 r (r, θ) = r cos θ (r cos θ, r sin θ) + r sin θ (r cos θ, r sin θ) = 0.
∂r ∂x ∂y
∂g
On a donc ∂r
(r, θ) = 0 en tout point (r, θ) tel que r �= 0 , puis, par continuité, en
∂g
tout point de la forme (0, θ) . Donc ∂r
= 0.
À θ ∈ IR fixé, la fonction r �→ g(r, θ) a donc une dérivée nulle sur l’intervalle IR , donc
est constante. On en déduit qu’il existe ϕ : IR → IR telle que :
∀(r, θ) ∈ IR2 g(r, θ) = ϕ(θ).
En particulier, on a ϕ(θ) = g(0, θ) = f (0, 0) , donc ϕ est constante.
Par surjectivité de Φ , on en déduit que f est constante : pour tout (x, y) ∈ IR2 , il
existe (r, θ) ∈ IR2 tel que (x, y) = (r cos θ, r sin θ) , et alors :
f (x, y) = g(r, θ) = f (0, 0).
(b) Soit f solution de (E) sur Ω = IR2 \ {(0, 0)} . On a Ω′ = IR∗ × IR et la même étude
que dans la question précédente aboutit à l’équation ∂g ∂r
= 0 sur IR∗ × IR , mais on ne
peut pas en déduire de la même façon que g(r, θ) ne dépend que de θ , puisque IR∗
n’est pas un intervalle.
Considérons la restriction de g à Ω′′ = IR∗+ × IR . Cette fois-ci, IR∗+ étant un intervalle,
il existe une fonction ϕ telle que :
∀(r, θ) ∈ IR∗+ × IR g(r, θ) = ϕ(θ),
1
avec ϕ de classe C et 2π -périodique, puisque :
∀θ ∈ IR ϕ(θ) = g(1, θ) = f (cos θ, sin θ).

864
Solutions des exercices

Tout élément (x, y) de IR3 \ {(0, 0)} s’écrivant sous la forme (r cos θ, r sin θ) ,
avec (r, θ) ∈ IR∗+ × IR , comme on l’a vu plus haut, on a :
f (x, y) = g(r, θ) = ϕ(θ).
Réciproquement, les calculs de la première question montrent que si f est de cette
forme, alors la fonction g = f ◦ Φ définie sur Ω′′ vérifie r ∂g
∂r
= 0 , donc :
∂f ∂f
∀(r, θ) ∈ Ω′′ r cos θ (r cos θ, r sin θ) + r sin θ (r cos θ, r sin θ) = 0
∂x ∂y
et comme Φ(Ω′′ ) = Ω , on a aussi :
∂f ∂f
∀(x, y) ∈ Ω x (x, y) + y (x, y) = 0,
∂x ∂y
c’est-à-dire que f vérifie (E) .

19.18 Par opérations sur les fonctions de classe C 2 , l’application u est de classe C 2 . Il s’ensuit
que g est de classe C 2 .

1. Pour tout (r, θ) ∈ IR∗+ × IR on a par la règle de la chaîne (en laissant implicites les points
d’application) :
∂g ∂f ∂f ∂f ∂g sin θ ∂g
= cos θ + sin θ = cos θ −
∂r ∂x ∂y ∂x ∂r r ∂θ
et donc
∂g ∂f ∂f ∂f ∂g cos θ ∂g
= −r sin θ + r cos θ = sin θ +
∂θ ∂x ∂y ∂y ∂r r ∂θ
ce qui signifie, rappelons le :
∂f ∂g sin θ ∂g
(r cos θ, r sin θ) = cos θ (r, θ) − (r, θ) (1)
∂x ∂r r ∂θ
∂f ∂g cos θ ∂g
(r cos θ, r sin θ) = sin θ (r, θ) + (r, θ). (2)
∂y ∂r r ∂θ

∂f
2. Pour tout f de classe C 2 , en appliquant la relation (1) à qui est de classe C 1 , il
∂x
∂g sin θ ∂g
vient en notant h : (r, θ) �→ cos θ (r, θ) − (r, θ) , que pour tout (r, θ) :
∂r r ∂θ
∂2f ∂h sin θ ∂h
(r cos θ, r sin θ) = cos θ (r, θ) − (r, θ).
∂x2 ∂r r ∂θ
En d’autre termes, compte tenu du théorème de Schwarz :
   
∂2f ∂ ∂g sin θ ∂g sin θ ∂ ∂g sin θ ∂g
= cos θ cos θ − − cos θ −
∂x2 ∂r ∂r r ∂θ r ∂θ ∂r r ∂θ
∂2g 2 cos θ sin θ ∂ 2 g sin2 θ ∂ 2 g
= cos2 θ 2
− +
∂r r ∂r∂θ r 2 ∂θ2
2 sin θ cos θ ∂g sin2 θ ∂g
+ 2
+ ·
r ∂θ r ∂r

865
Chapitre 19. Calcul différentiel

De même :
∂2f ∂
�∂g cos θ ∂g
� cos θ ∂
�∂g cos θ ∂g

= sin θ sin θ + + sin θ +
∂y 2 ∂r ∂r r ∂θ r ∂θ ∂r r ∂θ
∂2g 2 cos θ sin θ ∂ 2 g cos2 θ ∂ 2 g
= sin2 θ + +
∂r 2 r ∂r∂θ r 2 ∂θ2
2 sin θ cos θ ∂g cos2 θ ∂g
2
+ · −
r ∂θ r ∂r
Par conséquent, en additionnant les deux expressions, on obtient :
∂2f ∂2f ∂2g 1 ∂g 1 ∂2g
+ = + + ,
∂x2 ∂y 2 ∂r 2 r ∂r r 2 ∂θ2
ce qui signifie :
∂2g 1 ∂g 1 ∂2g
∀(r, θ) ∈ IR∗+ × IR ∆f (r cos θ, r sin θ) = 2
(r, θ) + (r, θ) + 2 2 (r, θ).
∂r r ∂r r ∂θ
19.19 1. Soit (x, y, z) ∈ X 3 . Alors :
g(x, y, z) = g(x, z, y) = −g(z, x, y) = −g(z, y, x) = g(y, z, x) = g(y, x, z) = −g(x, y, z).
Par conséquent g(x, y, z) = 0 .
2. Pour tout x ∈ IRn , le caractère orthogonal de la matrice jacobienne Jf (x) donne :
n
� ∂fk ∂fk
Jf (x)T Jf (x) = In i.e. ∀(i, j) ∈ [[1, n]]2 (x) (x) = δi,j . (1)
∂xi ∂xj
k=1

Puisque f est de classe C 2 , en considérant la ℓ -ième dérivée partielle de la relation (1) ,


on obtient pour tout x ∈ IRn :
n � �
3
� ∂ 2 fk ∂fk ∂ 2 fk ∂fk
∀(i, j, ℓ) ∈ [[1, n]] (x) (x) + (x) (x) = 0. (2)
∂xℓ ∂xi ∂xj ∂xℓ ∂xj ∂xi
k=1

Fixons temporairement x et posons :


n
3
� ∂ 2 fk ∂fk
∀(i, j, ℓ) ∈ [[1, n]] g(i, j, ℓ) = (x) (x)·
∂xℓ ∂xj ∂xi
k=1

D’après le théorème de Schwarz, g est symétrique par rapport aux deux dernières va-
riables. La relation (2) donne que g est antisymétrique par rapport aux deux premières
variables. Ainsi, d’après le lemme des tresses, g = 0 .
La nullité de g se traduit par :
 ∂f1   ∂ 2 f1   
∂x1
(x) ··· ∂fn
∂x1
(x) ∂xℓ ∂xj
(x) 0
 .. ..  ..  .

∀(j, ℓ) ∈ [[1, n]]2  . .  .  =  ..  .
∂f1
(x) ··· ∂fn
(x) ∂ 2 fn 0
∂xn ∂xn ∂xℓ ∂xj
(x)
� �� �
� �T
Jf (x)

� �T
Puisque Jf (x) est orthogonale, Jf (x) est inversible et donc, pour (j, ℓ) ∈ [[1, n]]2
∂2 f
fixé, tous les ∂xℓ ∂xj
k
(x) sont nuls. On en déduit que, pour tous (j, k, ℓ) ∈ [[1, n]]3 , la
∂ 2 fk
fonction ∂xℓ ∂xj
est nulle. Par caractérisation des fonctions constantes sur IRn qui est
connexe par arcs (il est convexe), pour tout (k, j) ∈ [[1, n]]2 , les fonctions ∂fk
∂xj
sont
constantes. En conclusion Jf est constante. Notons P sa valeur.

866
Solutions des exercices

3. En retranchant à f l’application linéaire canoniquement associée à P , on obtient ainsi


une fonction de différentielle nulle, donc constante sur IRn . Par conséquent :
∀x ∈ IRn f (x) = f (0) + P x,
donc f est la composée d’une translation et d’une isomérie vectorielle.
19.20 1. On obtient facilement la figure ci-contre.
Les deux paraboles ont pour équation y = x2 et y = −x2 .
2. • Soit u = (a, b) ∈ IR2 . Pour tout t ∈ IR , on a : y f (x, y) = 0

4 2 2 2 4
f (tu) = t b (b − t a ).
Si b = 0 , alors f (tu) = 0 pour tout t ∈ IR et f (x, y) > 0
l’application t �→ f (tu) a un minimum local
en 0 .
Si b �= 0 , alors au voisinage de 0 , on f (x, y) < 0

a f (tb) ∼ t4 b4 . Puisque la fonction t �→ t4 b4 x


0

est à valeurs strictement positives sur IR , l’ap-
plication t �→ f (tu) est à valeurs strictement
positives au voisinage de 0 . Cette dernière
fonction admet donc un minimum local en 0 .
• Pour tout t ∈ IR , on a :
 2
t 3
f t, = − t8 .
2 16
Par suite, dans tout voisinage de (0, 0) , il existe un point (x, y) tel que f (x, y) < 0 .
Par conséquent, la fonction f n’admet pas de minimum local en (0, 0) .
y
Remarque En prenant f (x, y) = (y − x2 )(y − 2x2 ) , on a même
l’exemple d’une fonction qui admet un minimum local strict dans toutes
les directions en (0, 0) , mais qui n’a pas de minimum local en ce point.
x
19.21 1. Pour (x, h) ∈ E 2 , on a par linéarité de u et bilinéarité du produit scalaire :
           
df (x) · h = du(x) · h  x + u(x)  d IdE (x) · h = u(h)  x + u(x)  h ,
c’est-à-dire, utilisant le fait que u est autoadjoint :
  
df (x) · h = 2 u(x)  h .
On en déduit que ∇fu (x) = 2u(x) .
2. La fonction fu étant continue, elle admet un maximum sur le compact S . Notons a un
point de S où ce maximum est atteint.
Introduisons l’application g : x �→ �x�2 − 1 définie sur Ω .
Elle est de classe C 1 et S est définie par l’équation g(x) = 0 .
Par ailleurs, pour tout x ∈ S , on a ∇g(x) = 2 IdE (x) = 2x �= 0 d’après ce qui précède
puisque g = fIdE − 1 . Le théorème 39 de la page 836 montre alors qu’il existe λ ∈ IR tel
que :
∇fu (a) = λ∇g(a) = 2λa,
ce qui est le résultat demandé.
3. On a donc :
1
u(a) = ∇fu (a) = λa.
2
Puisque a appartient à la sphère S , il est non nul donc est un vecteur propre, ce qui
montre que λ est valeur propre de l’endomorphisme u .

867
Chapitre 19. Calcul différentiel

19.22 Dans cet exercice, on munit IR2 de sa norme euclidienne canonique.


La fonction f est polynomiale, donc elle est de classe C 1 et l’on a, pour tout (x, y) ∈ IR2 :
∂f ∂f
(x, y) = 4(x3 − x + y) et (x, y) = 4(y 3 + x − y).
∂x ∂y
Soit (x, y) un point critique. Alors x3 = −y 3 , ce qui implique, puisque x et y sont réels,
 √ √ √ √ 
que x = −y . On a alors x(x2 − 2) = 0 . Ainsi (x, y) ∈ (0, 0), ( 2, − 2), (− 2, 2) .
Il est facile de vérifier que, réciproquement, ces trois points sont effectivement des points
critiques, mais nous n’en aurons pas besoin.
• Pour tout x ∈ IR , on a f (x, x) = 2x4 et f (x, 0) = x2 (x2 − 2) ∼ −2x2 , donc dans tout
x→0
voisinage de (0, 0) , il existe des points où f prend des valeurs strictement positives et des
valeurs strictement négatives. On en déduit que f n’admet pas d’extremum en (0, 0) .
• Nous allons montrer ci-dessous que f admet un minimum global sur IR2 . Comme elle
est de classe C 1 sur un ouvert, ce minimum est atteint en un point critique, qui n’est
√ √
pas (0, 0) comme on l’a vu. Par suite, la fonction f atteint son minimum en ( 2, − 2)
√ √
ou en (− 2, 2) , et comme la fonction f prend la même valeur en ces deux points, le
√ √ √ √
minimum est atteint en ( 2, − 2) et en (− 2, 2) .
• Montrons donc que f admet un minimum global. On sait que pour tout (a, b) ∈ IR2 , on
a 2|ab|  a2 + b2 . Il s’ensuit que pour tout (x, y) ∈ IR2 on a :
(x − y)2  2(x2 + y 2 ) et (x2 + y 2 )2  2(x4 + y 4 ).
On en déduit que :
�(x, y)�4
∀(x, y) ∈ IR2 f (x, y)  − 4�(x, y)�2 −→ +∞.
2 �(x,y)�→+∞

Par conséquent, il existe R > 0 tel que :


∀(x, y) ∈ IR2 �(x, y)� > R =⇒ f (x, y)  1.
Par suite :
inf f (x, y)  1 et inf f (x, y)  f (0, 0) = 0.
�(x,y)�>R �(x,y)�R

On en déduit l’égalité :

inf f (x, y) = inf f (x, y). (∗)


BF ((0,0),R) IR2
 
La boule fermée B = BF (0, 0), R étant un compact de IR2 , la restriction de f à B
atteint son minimum et ce minimum est le minimum sur IR2 d’après (∗) .
Remarque La fonction f est de classe C 2 et pour tout (x, y) ∈ IR2 , on a :
 
3x2 − 1 1
Hf (x, y) = 4 .
1 3y 2 − 1
 
 √ √  5 1
• Aux points m = ± 2, ∓ 2 , on a Hf (m) = 4 , qui est une matrice définie
1 5
positive. On retrouve ainsi que f admet un minimum local strict en m , mais rien ne
nous assure, sans l’étude précédente, qu’il s’agisse d’un minimum global.
 
−1 1
• En revanche Hf (0, 0) = 4 est une matrice non inversible, ce qui ne permet
1 −1
pas de déterminer la nature du point (0, 0) .

868
Solutions des exercices

19.23 1. Il suffit de prendre :


h: IR2 −→ IR
(u, v) �−→ (v + 2u)e−u .
 
2. L’application (x, y) �→ x2 + y 2 , y 2 est une surjection de IR2 sur :
 
A = (u, v) ∈ IR2 : 0  v  u .
En effet :
• pour tout (x, y) ∈ IR2 , on a 0  y 2  x2 + y 2 ,
√ √
• tout (u, v) ∈ A admet comme antécédent ( u − v, v) .
Étudions donc les extrema de h sur A .
 
• La fonction h est de classe C 1 sur l’ouvert Ω = (u, v) ∈ IR2 : 0 < v < u et :
∂h
∀(u, v) ∈ Ω = e−u �= 0.
∂v
Ainsi, h n’a pas de point critique.
• Étudions h sur A \ Ω .
∗ On a h(u, 0) = 2ue−u , pour u  0 . L’étude de ϕ : t �→ te−t sur [0, +∞[ donne le
tableau de variations suivant.

t 0 1 +∞
ϕ′ (t) + 0 −
e−1
ϕ
0 0
−1
Ainsi, le maximum de u �→ h(u, 0) vaut 2e .
∗ On a h(u, u) = 2ue−u , le maximum de u �→ h(u, u) vaut 3e−1 et il est atteint
uniquement en (1, 1) .
• La fonction h est à valeurs positives sur A et h(u, v) = 0 si, et seulement
si, u = v = 0 . Elle atteint donc son minimum en (0, 0) .
Pour tout (u, v) ∈ A :
h(u, v) = ve−u + 2ue−u  ve−v + 2ue−u = ϕ(v) + 2ϕ(u)  3e−1 .
On en déduit que h atteint son maximum uniquement en (1, 1) .
En conclusion :
• la fonction g atteint son minimum aux points (x, y) tel que x2 + y 2 = y 2 = 0 ,
c’est-à-dire en (0, 0) ;
• la fonction g atteint son maximum aux points (x, y) tel que x2 + y 2 = y 2 = 1 ,
c’est-à-dire en (0, 1) et (0, −1) .

19.24 • La fonction f est de classe C 1 car polynomiale sur l’ouvert IRn . Les extrema, s’ils existent,
sont donc atteints en des points critiques.
• Pour tout (X, H) ∈ (IRn )2 on a :
 
f (X + H) = f (X) + X T AH + H T AX + 2U T H + H T AH.

Compte tenu du fait que la matrice A est symétrique et que X T AH est une matrice
carrée d’ordre 1 , donc égale à sa transposée, on a :
f (X + H) = f (X) + 2H T (AX + U ) + H T AH. (1)

869
Chapitre 19. Calcul différentiel

Par ailleurs, pour tout H ∈ IRn , d’après l’inégalité de Cauchy-Schwarz :


 T 
H AH   �H��AH�  |||A|||�H�2 .
Il s’ensuit que :
 
f (X + H) = f (X) + 2H T (AX + U ) + O �H�2 ,
donc ∇f (X) = 2(AX + U ) .
• La matrice A étant inversible, X0 = −A−1 U est l’unique point critique de f . Par
ailleurs, la relation (1) donne pour tout H ∈ IRn \ {0} :
f (X0 + H) = f (X0 ) + H T AH > f (X0 ),
car A est définie positive. Il s’ensuit que f admet un unique extremum, qui un minimum
strict, atteint en X0 .
19.25 Il suffit de démontrer que si a est un point critique de f , alors f admet un minimum en ce
point, la réciproque étant un résultat de cours.
 
Soit b ∈ Ω . Posons la fonction ϕ : t �→ f (1 − t)a + tb = f (a + th) , où h = b − a .
Par convexité de Ω , elle est définie sur [0, 1] . Montrons qu’elle est convexe.
Soit (t, u) ∈ [0, 1]2 et λ ∈ [0, 1] . On a :
     
ϕ (1 − λ)t + λu = f a + (1 − λ)t + λu h
 
= f (1 − λ)(a + th) + λ(a + uh)
 (1 − λ)f (a + th) + λf (a + uh) = (1 − λ)ϕ(t) + λϕ(u).
De plus, ϕ est dérivable, avec :
 
∀t ∈ [0, 1] ϕ′ (t) = ( ∇f (1 − t)a + tb | b − a ).
En particulier, ϕ′ (0) = ( ∇f (a) | b − a ) = 0 .
Par convexité de ϕ , son graphe se situe au dessus de sa tangente horizontale en 0 , donc, en
particulier, ϕ(1)  ϕ(0) , ce qui donne f (b)  f (a) .
Cela étant vrai pour tout b ∈ Ω , il s’ensuit que f admet un minimum en a .
−→ −→
 AB, AC 
19.26 1. L’interprétation du déterminant en termes d’aires donne A = ·
2
De plus :
 
−→ −→ cos θ1 − 1 cos θ2 − 1
AB, AC =  
sin θ1 sin θ2 
 
 −2 sin2 θ1 −2 sin2 θ22 
=  2
2 sin θ21 cos θ21 2 sin θ22 cos θ22 
 
θ1 θ2  − sin θ21 − sin θ22 
= 4 sin sin
2 2  cos θ1 2
cos θ2  2

θ1 θ2 θ2 − θ 1
= 4 sin sin sin ·
2 2 2
Puisque 0  θ1  θ2  2π , les réels θ21 , θ22 et θ2 −θ1
2
sont dans [0, π] .
−→ −→
Il s’ensuit que AB, AC  0 et donc que :
θ1 θ2 θ2 − θ 1
A = 2 sin sin sin ·
2 2 2

870
Solutions des exercices

2. B
y
 Considérons un triangle ABC inscrit dans le cercle unité de IR2 .
Après rotation et symétrie, on peut supposer que :
θ1
θ2 A
A(1, 0) , B(cos θ1 , sin θ1 ) et C(cos θ2 , sin θ2 ) ,


C


avec 0  θ1  θ2  2π , car cela ne change pas l’aire.


Le problème revient à chercher les maxima de la fonction définie
sur :
 
∆ = (θ1 , θ2 ) ∈ IR2 : 0  θ1  θ2  2π
θ1 θ2 θ2 − θ1
par f (θ1 , θ2 ) = sin sin sin ·
2 2 2

Par les théorèmes généraux, f est continue sur ∆ et de classe C 1 sur ∆ .
θ2
Le domaine ∆ est un compact de IR2 . En effet, l’ensemble est
2π 

fermé comme intersection de demi-plans fermés. Il est de plus


clairement borné et donc c’est une partie compacte de l’espace ∆
vectoriel IR2 de dimension finie. Il est facile de vérifier que :
◦  
∆ = (θ1 , θ2 ) ∈ IR2 : 0 < θ1 < θ2 < 2π . 

O 2π θ1
La fonction f est à valeurs positives et nulle sur la frontière
de ∆ . Puisque f est non nulle, les maxima, qui existent par compacité et continuité,
sont atteints dans l’intérieur de ∆ et donc en des points critiques.
Soit 0 < θ1 < θ2 < 2π . Le calcul donne :
   
∂f 1 θ2 θ2
(θ1 , θ2 ) = sin sin − θ1
∂θ1 2 2 2
   
∂f 1 θ1 θ1
(θ1 , θ2 ) = sin sin θ2 − ·
∂θ2 2 2 2
θ1 θ1 θ2
Sur l’intérieur de ∆ on a 0 < 2
< π et donc sin �= 0 . De même sin �= 0 . Par
 2θ2   θ1
2
conséquent, si (θ1 , θ2 ) est un point critique, alors sin 2
− θ1 = sin θ2 − 2
= 0, donc :

θ2 θ1
θ1 ≡ [π] et θ2 = [π],
2 2
soit encore :

2θ1 + θ2 = 0 [2π]
θ1 + 2θ2 = 0 [2π]

ce qui implique θ1 = θ2 = 0 [ 2π
3
] . Compte tenu de 0 < θ1 < θ2 < 2π , la fonction f
 
admet un unique point critique 2π 3
, 4π
3
. Puisqu’il est unique, d’après la discussion
menée plus haut, la fonction f admet un unique maximum en ce point. Les triangles
d’aire maximale inscrits dans un cercle sont donc les triangles équilatéraux.

871
Chapitre 19. Calcul différentiel

19.27 1. Soit x ∈ E non nul. On a :


   
g(x) = �x� f (x)
− x v .
�x� �x�
  
D’après l’inégalité de Cauchy-Schwarz, x v  �v� et donc :
�x�
 
f (x)
g(x)  �x� − �v� .
�x�
Il s’ensuit que g(x) −→ +∞ .
�x�→+∞

Il existe donc M > 0 tel que g(x)  g(0) pour tout x vérifiant �x�  M . Notons B la
boule fermée centrée en 0 et de rayon M . Puisque B est compacte et que g est continue
à valeurs réelles, g|B est minorée et atteint son minimum en un certain point x0 . La
 
fonction g est alors minorée sur E par m = min g(0), g(x0 ) , valeur qui est donc
atteinte par g , ce qui prouve que g admet un minimum.
2. Avec les notations de la question précédente, puisque g est différentiable sur l’ouvert E
et admet un minimum en x0 , on a :
0 = ∇g(x0 ) = ∇f (x0 ) − v.
Puisque cela est vrai pour tout v ∈ E , la fonction ∇f est surjective.

19.28 Posons f : IR3 −→ IR et g : IR3 −→ IR


(x, y, z) �−→ x2 + y 2 + z 2 (x, y, z) �−→ x4 + y 4 + z 4 − 1.
Ces deux fonctions sont de classe C 1 sur l’ouvert IR3 .
 
• L’ensemble E = g −1 {0} est un fermé de IR3 et il est inclus dans le compact [−1, 1]3 ,
donc est également compact. Par suite, f|E admet des extrema.
• Soit m = (x, y, z) ∈ E un point où f|E admet un extremum. Puisque ∇g(m) = 2m
est non nul (car 0 ∈
/ E ), le théorème d’optimisation sous contrainte (théorème 39 de la
page 836) donne la colinéarité de ∇f (m) et ∇g(m) , donc il existe λ ∈ IR tel que :
(x, y, z) = λ(x3 , y 3 , z 3 ). (∗)
Étudions les points m de E qui vérifient cette condition.
∗ Si x , y et z sont tous les trois non nuls, alors (∗) donne x2 = y 2 = z 2 donc 3x4 = 1 .
 
Cela donne les points m = ±3−1/4 , ±3−1/4 , ±3−1/4 et f (m) = 31/2 .
∗ Supposons deux des trois coordonnées non nulles et la troisième nulle. Vu la sy-
métrie en (x, y, z) du problème, on peut supposer z = 0 . Comme plus haut, cela
 
implique 2x4 = 1 puis m = ±2−1/4 , ±2−1/4 , 0 . On a alors f (m) = 21/2 .
     
∗ Si deux des trois cordonnées sont nulles, alors m = ±1, 0, 0 , 0, ±1, 0 ou 0, 0, ±1
et dans ce cas f (m) = 1 .
On en conclut que la valeur du maximum de f|E est 31/2 et qu’il est atteint exactement
 
aux points m = ±3−1/4 , ±3−1/4 , ±3−1/4 . La valeur du minimum est 1 et elle est
     
atteinte exactement aux points m = ±1, 0, 0 , 0, ±1, 0 ou 0, 0, ±1 .

872
Index

A application(s)
Abel bornée 207
lemme d’— 507 composantes 297
théorème d’ — radial 512 continue 259
absolue linéaire tangente 799
convergence — d’une intégrale 387
lipschitzienne 260
convergence — d’une série 427
multilinéaire 268, 300
absolument convergente
intégrale — 387 partielle 798
série — 427 polynomiale 19, 299
accroissements finis uniformément continue 263
inégalité des — 351 arc 815
adaptée (base —) 49 tangente à un — 815
σ -additivité 602 associativité
adhérence de la somme de sous-espaces
d’une partie 220 vectoriels 44
valeur d’— 213, 291
de la somme directe 47
adhérent (point —) 220
associés
adjoint d’un endomorphisme 159
éléments — 5
aléatoire (variable — discrète) 608
polynômes — 13
Alembert (règle de d’—) 429
autoadjoint
algèbre(s) 17
isomorphisme d’— 19 endomorphisme — 163
morphisme d’— 19 (défini) positif 167
σ — 601 automorphisme orthogonal 169
angle
d’une rotation 171
de vecteurs dans le plan 172 B
anneau 2 base
intègre 12 adaptée à une décomposition 49
principal 15 directe 162
produit 3
indirecte 162
trivial 2
annulateur Bayes (formule de —) 637
idéal — 65 Bienaymé-Tchebychev
polynôme — 64, 113, 119 inégalité de —) 688
Index

blocs composantes
écriture par — 50 applications — 297
matrices diagonale par — 52 connexes par arcs 293
matrices triangulaire par — 52 suites — 296
déterminant d’une — 56 condition initiale 731
produit par — 51 conditionnelle
transvection par — 54 loi(s) — 638
Boole (inégalité de —) 605 probabilité — 636
bornée cône 815
application — 207 positif 849
partie — 207 congruence 7
boule 205 conjointe (loi —) 614
connexité par arcs 293
C constante(s)
caractérisation séquentielle de la caractérisation des — 340, 814
limite 255 d’Euler 435
caractéristique continue (fonction —) 259
fonction — 705 par morceaux 346, 376
polynôme — 100, 112, 116 continuité
sous-espace — 120, 130 croissante 604
Cauchy d’une intégrale à paramètre 557
problème de — 731, 748 d’une limite uniforme 460
produit de — de deux séries décroissante 604
entières 511 des applications linéaires 264
suite de — 309 en dimension finie 298
théorème de — linéaire 734, 749 des applications multilinéaires 268
Cauchy-Riemann (équations de —) 849 en dimension finie 300
en un point 256
Cauchy-Schwarz (inégalité de —) 684
monotone 604
centrée (variable aléatoire —) 682 théorème de — d’une intégrale à
Cesàro (théorème de —) 436 paramètre 557
chaîne (règle de la —) 808, 810, 812 uniforme 263
changement de variable 393 contrainte (optimisation sous —) 836
Chasles (relation de —) 348, 387 convergence
chinois (théorème —) 10 absolue d’une intégrale 387
absolue d’une série 427
classe
dominée (théorème de —) 550
d’une fonction 822
fonctions de — C 1 343, 805 monotone (théorème de —) 568
normale
fonctions de — C k 343, 821
d’une série de fonctions 464
coalitions (lemme des —) 645 presque sûre 624
compacité 288 simple d’une suite de fonctions 454
compagnon (matrice —) 64, 66, 748 uniforme
comparaison d’une série de fonctions 463
série-intégrale 429 d’une suite de fonctions 456
théorème de — 384, 388 norme de la — 208, 456

874
Index

convergente déterminant d’une matrice triangulaire


intégrale — 377, 381 par blocs 56
intégrale absolument — 387 diagonale par blocs (matrice —) 52
série — 424
série absolument — 427 diagonalisable
convexe endomorphisme — 109
fonction — 851, 852 matrice — 109
partie — 206 diagonalisation
corps 2, 10 base de — 109
couple de variables aléatoires 613 simultanée 128
covariance 686
simultanée 128
crible (formule du —) 704
critique (point — d’une fonction) 831 différentielle
croissance de l’espérance 683 d’une fonction 805
cyclique en un point 799
groupe — 22, 23 directe
sous-espace — 58 base — 162
isométrie vectorielle — 169
D matrice orthogonale — 161
d’Alembert (règle de —)
somme — 46
pour les séries entières 510
décomposition discret(e)
de Dunford 121, 131 espace probabilisé — 606
en produit d’irréductibles 17 loi — 610
en somme directe 48 disque ouvert de convergence 507
lemme de — des noyaux 68
définie positive distance
matrice symétrique — 168 à une partie 204
dénombrable associée à une norme 203
ensemble au plus — 587 distribution de probabilités discrète 606
ensemble — 587 support d’une — 606
Q est — 588
IR est non — 590 divergence
densité 222, 262 grossière d’une série 425
dérivabilité divergente
à droite 339 intégrale — 377, 381
à gauche 339 diviseur 5
dérivable 338, 340
division euclidienne
dérivation
des polynômes 13
d’une intégrale à paramètre 563
d’une limite 462 dominée
terme à terme 468 norme — 226
dérivée(s) 338 théorème de convergence — 550
à droite 339 double limite (théorème de la —) 460
à gauche 339
d’une série entière 513 droite (dérivabilité à —) 339
fonction — 340 Dunford (décomposition de —) 121, 131
partielles 797, 821
selon un vecteur 796

875
Index

E euclidienne
éléments division — des polynômes 13
inversibles de ZZ/nZZ 9 norme — 201
propres 92 Euler
équation aux — 93, 96 constante d’ — 435
endomorphisme indicatrice d’— 11, 23
adjoint d’un — 159 théorème d’— 25
autoadjoint 163 événement(s)
défini positif 167 indépendants 639
positif 167 négligeable 603
induit 58 presque sûr 603
nilpotent 60 exponentielle
d’indice maximal 62 d’un endomorphisme 737
symétrique 163 d’une matrice 738
engendré extraction 213
idéal — par un élément 4 extractrice (fonction —) 213
idéal — par une partie 4 extraite (suite —) 213
sous-groupe — par une partie 20 extremum
entière (serie —) 506 global 830
local 830
équation
aux éléments propres 93, 96
équation différentielle linéaire 730
F
fermé(e) 217
du premier ordre 730
partie — 217
à coefficients constants 743
relatif 223
non normalisée 758
finie
normalisée 747
variable aléatoire d’espérance — 679
scalaire d’ordre n 747
variable aléatoire dont le carré est
scalaire d’ordre 2 749
d’espérance — 684
équivalence des normes 227
fonction
en dimension finie 296
caractéristique 705
espace continue par morceaux 346, 376
probabilisable 601 convexe 851, 852
probabilisé 603 de classe C 1 343, 805
discret 606
de classe C k 343, 821
tangent 816 dérivée d’une — 340
vectoriel réel orienté 162 développable en série entière 516
espérance différentielle d’une — 805
croissance de l’— 683 extractrice 213
d’un produit de variables aléatoires Gamma (Γ) 567, 568
indépendantes 683 génératrice 689
d’une variable aléatoire à valeurs d’une somme de variables
dans IN 678 aléatoires indépendantes 692
d’une variable aléatoire discrète 679 gradient d’une — 804
d’une variable aléatoire discrète homogène 849
positive 678 indicatrice 679
linéarité de l’— 681 intégrable 387
positivité de l’— 683 points critique d’une — 831

876
Index

formule I
d’Euler 849
idéal(aux)
de Bayes 637
annulateur 65
de Kœnig-Huygens 685, 686
de Leibniz 345 d’un anneau commutatif 3
de Taylor avec reste intégral 351 de IK[X] 15
de Taylor-Young 353 de ZZ 6
de transfert 680 engendré par un élément 4
de Wald 707
engendré par une partie 4
des probabilités composées 636
des probabilités totales 637 principal 5
du crible 704 trivial 3
frontière 222 indépendance
d’une famille d’événements 639
G d’une suite de variables
Gamma (Γ) aléatoires 646
fonction — 567, 568 de deux événements 639
gauche (dérivabilité à —) 339 de deux variables aléatoires 641
Gauss mutuelle de n variables
intégrale de — 569 aléatoires 643
lemme de — 16
indicatrice
générateur
d’Euler 11, 23
d’un groupe 22
d’un idéal de IK[X] 15 variable — 679
de ZZ/nZZ 23 indice de nilpotence 60
génératrice indirecte
fonction — 689 base — 162
partie — d’un groupe 21 isométrie vectorielle — 169
géométrique (loi —) 611 matrice orthogonale — 161
global
induit(e)
minimum —, maximum —,
endomorphisme — 58
extremum — 830
gradient d’une fonction 804 norme — 201
grands nombres inégalité
loi faible des — 688 de Bienayme-Tchebychev 688
groupe(s) 2 de Boole 605
cyclique 22, 23 de Cauchy-Schwarz 684
de Mn (IK) 76 de Markov 688
monogène 22, 23
de Taylor-Lagrange 352
(spécial) orthogonal 162, 170
des accroissements finis 351
triangulaire 200, 202
H pour l’intégrale 349
homogène (fonction —) 849
homogénéité 200 initiale (condition —) 731
intégrable (fonction —) 387

877
Index

intégrale L
à paramètre 550 Lagrange
classe C k d’une — 563 inégalité de Taylor — 352
continuité d’une — 557 théorème de — 33
dérivation d’une — 563 Laplace (transformée de —) 558
limite d’une — 559 laplacien 851
absolument convergente 387 Leibniz (formule de) 345
convergente 377, 381 lemme
d’une fonction vectorielle 347 de décomposition des noyaux 68
de Gauss 569 de Gauss 16
de Riemann 385 des coalitions 645
divergente 377, 381 lien suite/série 426
reste d’une — convergente 377 ligne de niveau 819
semi-convergente 394 limite
intégration caractérisation séquentielle de
d’une limite uniforme 461 la — 255
des relations de comparaison 396 d’une intégrale à paramètre 559
interversion somme — 467
terme à terme 553
unicité de la — 211, 255
par convergence uniforme 468
linéarité de l’espérance 681
intègre (anneau —) 10, 12
lipschitzienne (application —) 260
intérieur
local (strict)
d’une partie 220
extremum —, maximum —,
point — 220 minimum — 830
intervalle ouvert de convergence 507 loi(s)
inversibles (éléments — de ZZ/nZZ ) 9 conditionnelle 638
irréductible(s) conjointe 614
décomposition en produit d’— 17 d’une variable aléatoire discrète 609
polynôme — 14 de Poisson 612
isométrie vectorielle 168 discrète 610
faible des grands nombres 688
directe 169
géométrique 611
indirecte 169
marginales 614
négative 169
quotient sur ZZ/nZZ 8
positive 169 sans mémoire 638
isomorphisme
d’algèbres 19 M
marche aléatoire dans ZZ 682, 708
J marginales (lois —) 614
jacobienne (matrice —) 803 Markov (inégalité de —) 688
matrice(s)
K compagnon 64, 66, 748
de rotation 161
Kœnig-Huygens diagonale par blocs 52
formule de — 685, 686 jacobienne 803
nilpotente 60

878
Index

orthogonale 160 équivalentes 227, 296


(in)directe 161 euclidienne 201
positive/négative 161 induite 201
orthogonalement semblables 161 subordonnée 265
symétrique triple 265
définie positive 168 noyau d’un morphisme d’anneaux 4
positive 168
triangulaire par blocs 52 O
triangulaire supérieure optimisation 829
stricte 62, 75 sous contrainte 836
maximum ordre d’un élément d’un groupe 23
global 830 orientation d’un espace vectoriel réel 162
local 830 orthogonal(e)
minimal (polynôme —) 66, 114, 119 automorphisme — 169
minimum groupe (spécial) — 162, 170
global 830 matrice — 160
local 830 (in)directe 161
mixte (produit —) 163 positive/négative 161
monogène (groupe —) 22, 23 projecteur — 164
morphisme d’algèbres 19 symétrie — 170
multilinéaire (application —) 268, 300 orthogonalement
multiple 5 matrices — semblables 161
multiplicité orthogonaux
ordre de — d’une valeur propre 106 sous-espaces vectoriels — 164
ouvert(e) 215
N partie — 215
relatif 223
négative (matrice orthogonale —) 161
négligeable (événement —) 603 P
nilpotence (indice de —) 60 partie(s)
nilpotent(e) bornée 207
endomorphisme — 60 compacte 288
matrice — 60 connexe par arcs 293
niveau (ligne de —) 819 convexe 206
nombre dense 222
algébrique 594 étoilée 295
transcendant 594 fermée 217
normale génératrice d’un groupe 21
convergence — d’une série de intégration par — 391
fonctions 464 ouverte 215
norme(s) 200 partielle(s)
d’opérateur 265 application — 798
de la convergence uniforme 208, 456 dérivée — 797, 821
dominée 226 PGCD 6, 16
équivalence des — en dimension plan tangent 818, 820
finie 296 point critique 831

879
Index

Poisson (loi de —) 612 propre


polynôme(s) élément — 92
annulateur 64, 113, 119 sous-espace — 92, 96
associés 13 valeur — 92, 96
caractéristique 100, 105, 112, 116 vecteur — 92, 96
division euclidienne des — 13
irréductible 14
minimal 66, 114, 119 Q
premiers entre eux 14 quotient 5
scindé simple 112 loi — sur ZZ/nZZ 8
simplement scindé 112
polynomiale (application —) 299
positive R
matrice orthogonale — 161 rayon
matrice symétrique — 168 de convergence 507
PPCM 7, 16 spectral 277
premiers entre eux (polynômes —) 14 réflexion 170
presque sûr(e) règle
convergence — 624
de d’Alembert 429
événement — 603
de la chaîne 808, 810, 812
primitivation
d’une limite uniforme 462 relatif
primitive fermé — 223
d’une fonction continue 350 ouvert— 223
d’une séries entière 515 voisinage — 223
principal relation(s)
anneau — 15 de Chasles 348, 387
idéal — 5 de comparaison
principe de superposition 732 intégration des — 396
probabilité 602 sommation des — 434
conditionnelle 636
reste
sous-additivité d’une — 605
d’une intégrale convergente 377
sur un univers au plus
dénombrable 606 d’une série convergente 425
problème de Cauchy 731, 748 Riemann
procédé diagonal 310 intégrales de — 385
produit somme de — 349
anneau — 3 Riesz (théorème de —) 158
mixte 163 rotation 169
par blocs 51 angle d’une — 171
projecteur(s) du plan 171
associés à une décomposition 48 matrice de — 161
orthogonal 164
ruine des joueurs 653
spectraux 128
prolongement par continuité 258

880
Index

S somme
scindé (polynôme simplement —) 112 de sous-espaces vectoriels 44
associativité de la — 44
semblables
matrices orthogonalement — 161 de Riemann 349
directe 46
semi-convergente (intégrale —) 394
associativité de la — 47
séparation (de la norme) 200 décomposition en — 48
série 424 interversion — limite 467
absolument convergente 427 sous-additivité d’une probabilité 605
convergente 424
sous-algèbre 18
divergence grossière d’une — 425
sous-espace
entière 506
caractéristique 120, 130
de la variable réelle 506
cyclique 58
somme d’une — 506
propre 92, 96
lien suite/— 426
stable 57
reste d’une — convergente 425
sous-espaces vectoriels orthogonaux 164
télescopique 426
sous-groupe(s)
série(s) de fonctions
de ZZ 6
continuité d’une — 466
engendré par une partie 20
convergence uniforme d’une — 463
dérivation d’une — 468 spécial (groupe — orthogonal) 162, 170
intégration terme à terme spectral(aux)
d’une — 468 projecteurs — 128
somme d’une — 463 théorème — 165
série(s) entière(s) spectre 96
dérivée d’une — 513 sphère 205
disque ouvert de convergence stable (sous-espace vectoriel —) 57
d’une — 507 subdivision adaptée 346
fonction développable en — 516 subordonnée (norme) 265
intervalle ouvert de convergence
substitution polynomiale 19
d’une — 507
lemme d’Abel 507 suite(s)
primitive d’une — 515 composantes 296
produit de Cauchy de deux — 511 de Cauchy 309
rayon de convergence d’une — 507 de fonctions
convergence simple d’une — 454
somme de deux — 511
convergence uniforme d’une —
σ -additivité 602
456
σ -algèbre 601 de variables aléatoires
simple (convergence —) 454 indépendantes 646
simplement scindé (polynôme —) 112 de variables aléatoires
simultanée indépendantes identiquement
diagonalisation — 128 distribuées 646
trigonalisation — 129 extraite 213
sommation lien —/série 426
des relations de comparaison 434 superposition (principe de —) 732

881
Index

support de dérivation 560


d’une distribution de probabilités de dérivation terme à terme 468
discrète 606 de Gauss 16
d’une famille sommable 590 de Heine 292
symétrie orthogonale 170
de la double limite 460
symétrique
de Lagrange 33
endomorphisme — 163
matrice — définie positive 168 de réduction des isométries 172
matrice — positive 168 de Riesz 158, 310
système des bornes atteintes 291
complet d’événements 603 des compacts emboîtés 309
associé à un couple 613 spectral 165
associé à une variable transfert (formule de —) 680
aléatoire 609
différentiel linéaire 733 transformée de Laplace 558
quasi-complet d’événements 604 transvection par blocs 54
triangulaire
T inégalité 200, 202, 360
tangent(e) matrice — par blocs 52
à un arc 815 tribu 601
application linéaire — 799 discrète 601
espace — 816 trigonalisable
plan — 818, 820
endomorphisme — 115
vecteur — à une partie 815
matrice — 115
taux d’accroissement 338
Taylor trigonalisation
formule de — avec reste intégral 351 base de — 115
formule de —Young 353 simultanée 129
inégalité de —Lagrange 352 triple (norme) 265
télescopique (série —) 426 trivial
théorème anneau — 2
de Weierstrass 471 idéal 3
chinois 10
(lemme) d’Abel 507
d’Abel radial 512 U
d’Euler 25 uniforme
d’intégration terme à terme 553 approximation — 471
de Baire 310 convergence — 456, 463
de Bolzano-Weierstrass 297
unitaire (vecteur —) 202
de Cauchy linéaire 734, 749
de Cesàro 436
de comparaison 384, 388
de comparaison pour les séries
V
valeur
entières 509
de continuité 557 d’adhérence 213
de convergence dominée 550 propre 92, 96
de convergence monotone 568 variable (changement de —) 393

882
Index

variable(s) aléatoire(s) discrète(s) vecteur


indépendantes identiquement accélération 343
distribuées 646 derivée selon un — 796
centrée 682 propre 92, 96
couple de — 613 tangent à une partie 815
d’espérance finie 679 unitaire 202
décorrélées 687 associé à un vecteur non nul 202
de même loi 610 vitesse instantanée 338
dont le carré est d’espérance vitesse instantanée 338
finie 684 voisinage 219
indépendantes 641 relatif 223
loi d’une — 609
n-uplet de — 614 W
variance 684 Wald (formule de —) 707
d’une somme de variables wronskien 750
aléatoires 687
d’une somme de variables aleatoires
décorrélées 687
Y
Young
d’une variable aléatoire discrète 684
formule de Taylor — 353
variation
méthode de — des constantes 751
Z
ZZ/nZZ 7

883

Vous aimerez peut-être aussi