Vous êtes sur la page 1sur 388

Table des matières

1 Groupes, anneaux : Rappels et compléments 9


1.1 Groupes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.1.1 Définitions, exemples . . . . . . . . . . . . . . . . . . . . . . . 9
1.1.2 Sous-groupes . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.1.3 Morphismes de groupes . . . . . . . . . . . . . . . . . . . . . . 12
1.1.4 Groupe engendré par une partie . . . . . . . . . . . . . . . . . 14
1.1.5 Produit fini de groupes . . . . . . . . . . . . . . . . . . . . . . 18
1.1.6 Élément d’ordre fini d’un groupe . . . . . . . . . . . . . . . . 18
1.1.7 Etude des groupes monogène . . . . . . . . . . . . . . . . . . 20
1.1.8 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
1.2 Anneaux et corps . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
1.2.1 Anneaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
1.2.2 Corps . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
1.2.3 Idéal d’un anneau . . . . . . . . . . . . . . . . . . . . . . . . . 25
1.2.4 Le cas A = Z ou A = K[X], où K est un sous-corps de C . . . 26
1.3 Z/nZ : Compléments . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
1.3.1 L’anneau Z/nZ . . . . . . . . . . . . . . . . . . . . . . . . . . 32
1.3.2 Le groupe des inversibles de l’anneau Z/nZ. . . . . . . . . . . 32
1.4 Structure d’algèbre . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
1.4.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
1.4.2 Sous-algèbre . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
1.4.3 Morphisme d’algèbre . . . . . . . . . . . . . . . . . . . . . . . 37

2 Réduction des endomorphismes 39


2.1 Rappels et Compléments . . . . . . . . . . . . . . . . . . . . . . . . . 39
2.1.1 Famille génératrice, famille libre, base, dimension . . . . . . . 39
2.1.2 Somme de sous-espaces vectoriels . . . . . . . . . . . . . . . . 43
2.1.3 Application linéaire canoniquement associée à une matrice. . 45
2.1.4 Changement de base . . . . . . . . . . . . . . . . . . . . . . . 46
2.1.5 Matrices carrées semblables . . . . . . . . . . . . . . . . . . . 47
2.1.6 Rang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
2.1.7 Déterminant . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
2.2 Polynômes d’endomorphismes, polynôme minimal . . . . . . . . . . . 56
2.2.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
2.2.2 Cas des matrices carrées . . . . . . . . . . . . . . . . . . . . . 59
2.2.3 Quelques remarques importantes . . . . . . . . . . . . . . . . 60

1
2 TABLE DES MATIÈRES

2.3 Stabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
2.3.1 Définitions et premières propriétés . . . . . . . . . . . . . . . . 62
2.3.2 Interprétation matricielle . . . . . . . . . . . . . . . . . . . . . 62
2.3.3 Polynôme minimal et stabilité . . . . . . . . . . . . . . . . . . 63
2.4 Lemme de décomposition des noyaux . . . . . . . . . . . . . . . . . . 64
2.4.1 Le lemme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
2.4.2 Cas particulier intéressant : Si P (u) = 0 . . . . . . . . . . . . 65
2.4.3 Exemples fondamentaux . . . . . . . . . . . . . . . . . . . . . 66
2.5 Éléments propres d’un endomorphisme, d’une matrice carrée . . . . . 66
2.5.1 Définitions et premières propriétés . . . . . . . . . . . . . . . 66
2.5.2 Cas de la dimension finie, polynôme caractéristique . . . . . . 70
2.6 Valeurs propres et polynômes annulateur . . . . . . . . . . . . . . . . 75
2.6.1 Théorème de Cayley-Hamilton . . . . . . . . . . . . . . . . . . 75
2.6.2 Autres liens entre χA et πA . . . . . . . . . . . . . . . . . . . 76
2.7 Diagonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
2.7.1 Endomorphisme, matrice diagonalisable . . . . . . . . . . . . . 77
2.7.2 Autres caractérisation des endomorphismes diagonalisables . . 80
2.8 Trigonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
2.8.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
2.8.2 Caractérisation par les polynômes caractéristique . . . . . . . 84
2.8.3 Endomorphismes et matrices nilpotents . . . . . . . . . . . . 86
2.8.4 Une autre réduction d’endomorphisme trigonalisable . . . . . 87

3 Espace vectoriels normés 91


3.1 Norme sur un espace vectoriel : . . . . . . . . . . . . . . . . . . . . . 91
3.1.1 Norme, semi norme, distance . . . . . . . . . . . . . . . . . . 91
3.1.2 Exemples de normes . . . . . . . . . . . . . . . . . . . . . . . 97
3.1.3 Boule, sphère . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
3.1.4 Partie bornée d’un espace vectoriel normé , application bornée 99
3.1.5 Application lipschitzienne . . . . . . . . . . . . . . . . . . . . 100
3.1.6 Ouvert, Fermé . . . . . . . . . . . . . . . . . . . . . . . . . . 101
3.1.7 Voisinage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
3.1.8 Topologie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
3.1.9 Normes équivalentes . . . . . . . . . . . . . . . . . . . . . . . 103
3.1.10 Points adhérents, adhérence . . . . . . . . . . . . . . . . . . . 104
3.1.11 Points intérieurs,intérieur d’une partie d’un espace vectoriel
normé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
3.1.12 Frontière . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
3.1.13 Norme produit . . . . . . . . . . . . . . . . . . . . . . . . . . 109
3.2 Suites dans un espace vectoriel normé, convergence . . . . . . . . . . 110
3.2.1 Le K − espace vectoriel E N des suites à valeurs dans E . . . . 110
3.2.2 Suites convergentes . . . . . . . . . . . . . . . . . . . . . . . . 111
3.2.3 Valeur d’adhérence d’une suite . . . . . . . . . . . . . . . . . . 112
3.2.4 Suites de Cauchy, espace vectoriel normé complet . . . . . . . 114
3.2.5 Suite dans un espace normé produit . . . . . . . . . . . . . . . 115
TABLE DES MATIÈRES 3

3.2.6 Caractérisation séquentielle de la fermeture et de l’adhérence


d’une partie . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
3.3 Limites et continuité des fonctions . . . . . . . . . . . . . . . . . . . . 117
3.3.1 Limites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
3.3.2 Continuité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
3.3.3 Topologie et continuité . . . . . . . . . . . . . . . . . . . . . . 121
3.3.4 Continuité uniforme . . . . . . . . . . . . . . . . . . . . . . . 123
3.4 Compacité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
3.4.1 Définitions et propriétés . . . . . . . . . . . . . . . . . . . . . 125
3.5 Applications linéaires et multilinéaires continues . . . . . . . . . . . . 129
3.5.1 Application linéaires continues . . . . . . . . . . . . . . . . . 129
3.5.2 Application multilinéaires continues . . . . . . . . . . . . . . 130
3.6 Espaces vectoriels normés de dimension finies . . . . . . . . . . . . . 132
3.6.1 Les compacts de (Kn , ∥.∥∞ ) . . . . . . . . . . . . . . . . . . . 132
3.6.2 Equivalence des normes en dimension finie . . . . . . . . . . . 133
3.6.3 Compacité en dimension finie . . . . . . . . . . . . . . . . . . 134
3.6.4 Applications linéaires et multiplinéaires continues en dimen-
sion finie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
3.6.5 Complétude et dimension finie . . . . . . . . . . . . . . . . . . 137
3.7 Connexes par arcs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
3.7.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
3.7.2 Connexité par arcs et continuité . . . . . . . . . . . . . . . . . 142
3.7.3 Composantes connexes par arcs d’une partie . . . . . . . . . . 142
3.7.4 Méthodes pour montrer qu’une partie est connexe par arcs. . . 143

4 Espaces préhilbertiens réels. 145


4.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
4.1.1 Produit scalaire, espaces préhilbertiens réels . . . . . . . . . . 145
4.1.2 Inégalité de Cauchy-Shwarz, inégalité de Minkowski . . . . . . 146
4.1.3 Identités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146
4.2 Orthogonalité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
4.2.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
4.2.2 Orthogonal d’une partie . . . . . . . . . . . . . . . . . . . . . 148
4.2.3 Familles orthogonales, familles orthonormées . . . . . . . . . . 150
4.2.4 Expression du produit scalaires dans une base orthonormée . . 152
4.2.5 Conséquences : Théorème de représentation, supplémentaire
orthogonal d’une sous-espace vectoriel de dimension finie . . . 153
4.3 Projection orthogonale . . . . . . . . . . . . . . . . . . . . . . . . . . 155
4.3.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155
4.3.2 Cas où F est de dimension finie . . . . . . . . . . . . . . . . . 157
4.4 Bases hilbertiennes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158
4.5 Espaces euclidiens : rappels et compléments . . . . . . . . . . . . . . 160
4.5.1 Matrices orthogonales, endomorphismes orthogonaux . . . . . 160
4.5.2 Réduction des matrices et endomorphismes orthogonaux . . . 163
4.5.3 Endomorphismes et matrices symétriques . . . . . . . . . . . . 168
4 TABLE DES MATIÈRES

5 Intégrales généralisées, séries numériques. 175


5.1 Intégrales généralisées . . . . . . . . . . . . . . . . . . . . . . . . . . 175
5.1.1 Fonctions continues par morceaux : Rappels . . . . . . . . . . 175
5.1.2 Intégrales généralisées . . . . . . . . . . . . . . . . . . . . . . 177
5.1.3 Cas des fonctions positives . . . . . . . . . . . . . . . . . . . . 179
5.1.4 Intégrales de références usuelles . . . . . . . . . . . . . . . . . 180
5.1.5 Conséquences : Les tests tα et |t − a|α . . . . . . . . . . . . . . 181
5.1.6 Techniques d’intégration . . . . . . . . . . . . . . . . . . . . . 184
5.2 Séries numériques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185
5.2.1 Rappels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185
5.2.2 Séries à termes positifs . . . . . . . . . . . . . . . . . . . . . . 186
5.2.3 Série de référence . . . . . . . . . . . . . . . . . . . . . . . . . 187
5.2.4 Regle de D’Alembert pour les séries numériques . . . . . . . . 188
5.2.5 Séries alternées . . . . . . . . . . . . . . . . . . . . . . . . . . 189
5.2.6 Séries absolument convergentes . . . . . . . . . . . . . . . . . 190
5.3 Sommation des relations de comparaison. Comparaison séries et in-
tégrales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191
5.3.1 Sommation des relations de comparaison pour les séries . . . . 191
5.3.2 Sommation des relations de comparaison pour les intégrales . 193
5.3.3 Série et intégrales . . . . . . . . . . . . . . . . . . . . . . . . . 194

6 Fonction vectorielles à variable réelle 197


6.1 Dérivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 197
6.1.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 197
6.1.2 Opérations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199
6.1.3 Dérivées d’ordre supérieur, fonction de classe C k . . . . . . . . 200
6.2 Intégrales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 202
6.2.1 Définition de l’intégrale sur un segment d’un fonction CM . . 202
6.2.2 Linéarité et additivité de l’intégrale . . . . . . . . . . . . . . . 203
6.2.3 Sommes de Riemann . . . . . . . . . . . . . . . . . . . . . . . 204
6.2.4 Inégalité triangulaire . . . . . . . . . . . . . . . . . . . . . . . 204
6.2.5 Intégrale et primitive . . . . . . . . . . . . . . . . . . . . . . . 204
6.2.6 Techniques d’intégration . . . . . . . . . . . . . . . . . . . . . 206
6.2.7 Inégalité des accroissements finis . . . . . . . . . . . . . . . . 207
6.2.8 Formules de Taylor . . . . . . . . . . . . . . . . . . . . . . . . 207
6.3 Arcs paramètrés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208

7 Séries dans
un espace vectoriel normé,
familles sommables
de nombres complexes. 209
7.1 Ensembles dénombrables . . . . . . . . . . . . . . . . . . . . . . . . . 209
7.2 Familles sommables de nombres complexes . . . . . . . . . . . . . . . 212
7.2.1 Familles sommables de nombres réels positifs . . . . . . . . . . 212
7.2.2 Familles sommables de nombres complexes . . . . . . . . . . . 214
7.2.3 Propriétés de la somme . . . . . . . . . . . . . . . . . . . . . . 215
7.2.4 Suites doubles . . . . . . . . . . . . . . . . . . . . . . . . . . . 216
TABLE DES MATIÈRES 5

7.2.5 Série produit de Cauchy . . . . . . . . . . . . . . . . . . . . . 218


7.3 Séries dans un espace vectoriel normé de dimension finie . . . . . . . 219
7.3.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . 219
7.3.2 Convergence . . . . . . . . . . . . . . . . . . . . . . . . . . . . 220
7.3.3 Série absolument convergente . . . . . . . . . . . . . . . . . . 221
7.4 Séries dans une algèbre normée de dimension finie . . . . . . . . . . . 221
7.4.1 algèbre normée de dimension finie . . . . . . . . . . . . . . . . 221

8 Suites et séries de fonctions (I) :


Modes de convergences. 227
8.1 Modes de convergence . . . . . . . . . . . . . . . . . . . . . . . . . . 227
8.1.1 Suite de fonctions . . . . . . . . . . . . . . . . . . . . . . . . . 227
8.1.2 Série de fonctions . . . . . . . . . . . . . . . . . . . . . . . . . 229
8.2 Convergence uniforme et continuité . . . . . . . . . . . . . . . . . . . 231
8.2.1 Interversion des limites . . . . . . . . . . . . . . . . . . . . . . 231
8.2.2 Continuité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 234
8.3 L’espace vectoriel normé B(X, F ) . . . . . . . . . . . . . . . . . . . . 235
8.3.1 L’espace (B(X, F ), ∥.∥∞ ) . . . . . . . . . . . . . . . . . . . . . 235
8.3.2 L’espace normé C 0 ([a, b], K) . . . . . . . . . . . . . . . . . . . 236
8.3.3 Les espaces CM([a, b], K) et E ([a, b], K) . . . . . . . . . . . . . 237

9 Suites et séries de fonctions (II) :


Dérivabilité et Intégration. 239
9.1 Convergence uniforme et intégration . . . . . . . . . . . . . . . . . . 239
9.1.1 Segment , convergence uniforme . . . . . . . . . . . . . . . . . 239
9.1.2 Intervalle quelconque . . . . . . . . . . . . . . . . . . . . . . . 239
9.2 Dérivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 240
9.2.1 Théorème pour les fonctions de classe C 1 . . . . . . . . . . . . 240
9.2.2 Extension des théorèmes ci-dessus : classe C k , k ≥ 1. . . . . . 241
9.3 Intégrale avec paramètre . . . . . . . . . . . . . . . . . . . . . . . . . 242
9.3.1 Continuité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 242
9.3.2 Dérivabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . 243

10 Séries entières 247


10.1 Définitions : Séries entières, convergence . . . . . . . . . . . . . . . . 247
10.1.1 Définition, lemme d’Abel . . . . . . . . . . . . . . . . . . . . . 247
10.1.2 Rayon de convergence . . . . . . . . . . . . . . . . . . . . . . 248
10.1.3 Disque, Intervalle de convergence . . . . . . . . . . . . . . . . 249
10.1.4 Quelques propriétés du rayon de convergence . . . . . . . . . . 249
10.1.5 Somme et produit de deux séries entières . . . . . . . . . . . . 252
10.2 Propriétés de la fonction somme . . . . . . . . . . . . . . . . . . . . . 253
10.2.1 Continuité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 253
10.2.2 Dérivabilité et intégration . . . . . . . . . . . . . . . . . . . . 254
10.3 Développement en série entière . . . . . . . . . . . . . . . . . . . . . 255
10.3.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . 255
10.3.2 Développements en série entière usuels . . . . . . . . . . . . . 257
6 TABLE DES MATIÈRES

11 Probabilités 259
11.1 Rappels et compléments . . . . . . . . . . . . . . . . . . . . . . . . . 259
11.1.1 Espace probabilisé . . . . . . . . . . . . . . . . . . . . . . . . 259
11.1.2 Indépendance, Probabilité conditionnelle . . . . . . . . . . . . 267
11.2 Variables aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . 272
11.2.1 Définitions, premières propriétés . . . . . . . . . . . . . . . . . 272
11.2.2 Loi d’une variable aléatoire . . . . . . . . . . . . . . . . . . . 274
11.2.3 Fonction de répartition . . . . . . . . . . . . . . . . . . . . . . 275
11.2.4 Indépendance des v.a.r, conditionnement . . . . . . . . . . . . 276
11.2.5 Variables aléatoires réelles discrètes . . . . . . . . . . . . . . . 277
11.2.6 Variables aléatoires continues à densité . . . . . . . . . . . . . 280
11.2.7 Somme de deux variables aléatoires indépendantes . . . . . . . 284
11.2.8 Moments, espérance, variance, écart type d’une v.a.r. . . . . . 286
11.3 Fonction génératrice . . . . . . . . . . . . . . . . . . . . . . . . . . . 296
11.3.1 Définition, propriétés . . . . . . . . . . . . . . . . . . . . . . . 296
11.3.2 Fonction génératrice d’une somme de v.a.r. indépendantes . . 300
11.4 Inégalités, Convergence . . . . . . . . . . . . . . . . . . . . . . . . . . 301
11.4.1 Inégalité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 301
11.4.2 Convergence . . . . . . . . . . . . . . . . . . . . . . . . . . . . 303
11.4.3 Lois faible des grands nombres et théorème limite central . . . 306
11.5 Annexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 308
11.5.1 Tableau récapitulatif des variables aléatoires réelles discrètes
usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 308
11.5.2 Tableau récapitulatif des variables aléatoires réelles continues
à densité usuelles : . . . . . . . . . . . . . . . . . . . . . . . . 309
11.5.3 Stabilité de certaines lois . . . . . . . . . . . . . . . . . . . . . 310

12 Calcul différentiel. 313


12.1 application différentiable . . . . . . . . . . . . . . . . . . . . . . . . . 313
12.1.1 Dérivée suivant un vecteur . . . . . . . . . . . . . . . . . . . . 313
12.1.2 Application différentiable . . . . . . . . . . . . . . . . . . . . 315
12.1.3 Différentiabilité et dérivées partielles . . . . . . . . . . . . . . 319
12.1.4 Matrice jacobienne, jacobien . . . . . . . . . . . . . . . . . . . 322
12.1.5 Opérations sur les applications différentiables . . . . . . . . . 324
12.2 Fonction de classe C k , k ∈ N∗ ∪ {∞} . . . . . . . . . . . . . . . . . . 331
12.2.1 Fonction de classe C 1 . . . . . . . . . . . . . . . . . . . . . . . 331
12.2.2 Fonctions de classe C k , k ∈ N ∪ {∞} . . . . . . . . . . . . . . 337
12.2.3 Formule de Taylor d’ordre 2 . . . . . . . . . . . . . . . . . . . 339
12.3 Fonction à valeur réelle . . . . . . . . . . . . . . . . . . . . . . . . . . 340
12.3.1 Gradient . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 340
12.3.2 Extrêmums . . . . . . . . . . . . . . . . . . . . . . . . . . . . 341
12.3.3 Application à la géométrie différentielle . . . . . . . . . . . . . 346

13 Équations différentielles 351


13.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 351
13.1.1 Terminologie . . . . . . . . . . . . . . . . . . . . . . . . . . . 351
13.1.2 Problème de Cauchy . . . . . . . . . . . . . . . . . . . . . . . 352
TABLE DES MATIÈRES 7

13.1.3 Équation intégrale associée à une équation différentielle . . . . 352


13.2 Équation différentielle non linéaire . . . . . . . . . . . . . . . . . . . . 352
13.2.1 Généralités, théorème de Cauchy-Lipschitz . . . . . . . . . . . 352
13.2.2 Équation différentielle à variables séparables . . . . . . . . . . 353
13.3 Équation différentielle linéaire . . . . . . . . . . . . . . . . . . . . . . 354
13.3.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 354
13.3.2 Principe de superposition . . . . . . . . . . . . . . . . . . . . 355
13.3.3 Théorème de Cauchy-Lipschitz linéaire . . . . . . . . . . . . . 355
13.3.4 Conséquence : Structure des espaces de solutions . . . . . . . 357
13.3.5 Système différentiel linéaire à coefficients constants . . . . . . 360
13.3.6 Équation différentielle scalaire linéaire d’ordre n . . . . . . . . 363

14 Fonctions holomorphes 373


14.1 Généralité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 373
14.2 Fonctions holomorphes . . . . . . . . . . . . . . . . . . . . . . . . . . 374
14.2.1 Convention . . . . . . . . . . . . . . . . . . . . . . . . . . . . 374
14.2.2 Fonction C− dérivable . . . . . . . . . . . . . . . . . . . . . . 375
14.2.3 Fonction holomorphe . . . . . . . . . . . . . . . . . . . . . . . 377
14.2.4 Sous-algèbre H (U ) des fonctions holomorphes sur U . . . . . 377
14.3 Fonctions analytiques . . . . . . . . . . . . . . . . . . . . . . . . . . . 379
14.3.1 Définitions, exemples . . . . . . . . . . . . . . . . . . . . . . . 379
14.3.2 Lien entre analytique et holomorphe . . . . . . . . . . . . . . 381
14.3.3 Principes des zéros isolés et du prolongement analytique . . . 385
8 TABLE DES MATIÈRES
Chapitre 1

Groupes, anneaux : Rappels et


compléments

1.1 Groupes
On donnera des rappels sur les groupes et quelques compléments, notamment les
groupes finis, groupes monogènes (les groupes cycliques en particulier).

1.1.1 Définitions, exemples


On suppose connues les notions de lois de composition interne et leurs propriétés
vues en première année.

1.1.1.1 Définitions

Définition 1

Un groupe est un couple (G, ⋆) tel que G est un ensemble non vide et ⋆ une loi
de composition interne sur G tel que :
1. ⋆ est associative.
2. ⋆ admet un élément neutre (celui-ci est alors unique noté e).
3. Tout élément de G est symétrisable ( Il y’a alors unicité du symétrique
d’un élément x de G, on le note x′ ).
Formellement, (G, ⋆) est un groupe si :
1. ∀(a, b, c) ∈ G3 , (a ⋆ b) ⋆ c = a ⋆ (b ⋆ c).
2. ∃e ∈ G, ∀x ∈ G, x ⋆ e = e ⋆ x = x.

3. ∀x ∈ G, ∃x ∈ G, x ⋆ x′ = x′ ⋆ x = e.

Remarques On retient les remarques suivantes :


1. Si de plus ⋆ est commutative, on dit que (G, ⋆) est un groupe commutatif ou
abelien.

9
10CHAPITRE 1. GROUPES, ANNEAUX : RAPPELS ET COMPLÉMENTS

2. On adopte en général une notation multiplicative ou additive et le tableau


ci-dessous résume les diverses notations associées :
Générale Additive Multiplicative
(G, ⋆) (G, +) (G, ×) ou (G, .)
x⋆y x+y x × y ou x.y ou xy
e 0 1 ou e
symétrique opposé inverse

x −x x−1

x⋆y x−y xy −1
· · ⋆ x}, n ∈ N∗
|x ⋆ ·{z nx xn
n fois

· · ⋆ x}′ , n ∈ N∗
|x ⋆ ·{z −nx x−n
n fois
3. Quand la lois du groupe est connue, on confond par abus le groupe (G, ⋆) et
l’ensemble G. On dit par exemple : le groupe G.
4. Dans un groupe, tout élément est régulier à droite et à gauche.
5. Si (G, ⋆) est un groupe et x, y ∈ G, alors le symétrique de x ⋆ y est : (x ⋆ y)′ =
y ′ ⋆x′ . En notation multiplicative (resp.additive), cela donne : (xy)−1 = y −1 x−1
(resp. −(x + y) = (−y) + (−x) = −y − x).

1.1.1.2 Exemples
Voici des exemples de groupes : Ce sont les groupe les plus utilisés et les plus connus.
On peut trouver d’autres exemples intéressants.
1. (C, +), (R, +), (Q, +), (Z, +) sont des groupes commutatifs.
2. (C∗ , ×), (R∗ , ×), (Q∗ , ×) Sont aussi des groupes commutatifs.
3. Si E est un ensemble non vide, on note SE l’ensemble des bijections de E vers
E. Muni de la composition des applications, SE est un groupe non commutatif
en général appelé groupe des permutations de E. Si E = [[1, n]] avec n ∈ N∗ ,
on adopte la notation Sn et on l’appelle groupe symétrique.
4. K désigne R ou C. Soit n ∈ N∗ , on dispose de GLn (K) l’ensemble des matrices
carrées de taille n inversibles à coefficients dans K. Muni de la multiplication
usuelle des matrices carrées, c’est un groupe non commutatif (sauf si n = 1),
appelé groupe linéaire.

1.1.2 Sous-groupes
1.1.2.1 Définitions
a) Lois induite :
Soit (G, ⋆) un groupe et H une partie non vide de G tel que :
∀(x, y) ∈ G2 (x, y) ∈ H 2 ⇒ x ⋆ y ∈ H
On dit que H est stable et on remarque qu’on dispose d’une loi de composition
interne ∗ sur H tel que :
∀(x, y) ∈ H 2 x∗y =x⋆y
1.1. GROUPES 11

Dans la pratique, on adopte la même notation pour les deux lois.


b) Sous-groupe :

Définition 2

Soit (G, ⋆) un groupe. On appelle sous-groupe de (G, ⋆) toute partie H non vide
stable tel que (H, ⋆) est un groupe.

Proposition 1

Si H est un sous-groupe de (G, ⋆) alors :


- Si eG et eH sont les éléments neutres respectifs de G et H alors : eG = eH .
- Si x ∈ H et x′ , x′′ les symétriques respectifs de x dans G et H alors x′ = x′′ .

Preuve:
On a eG ⋆ eH = eH et eH ⋆ eH = eH et eH est régulier dans G donc eG = eH .
Notons alors e l’élément neutre commun de G et H et soit x ∈ H alors : comme
x ∈ G, on a : (1) x ⋆ x′ = e, et comme x ∈ H, on a : (2) x ⋆ x′′ = e. De (1)
et (2) et la régularité de x dans G on déduit : x ⋆ x′ = x ⋆ x′′ puis x′ = x′′ .

Proposition 2

Soit (G, ⋆) un groupe et H une partie de G, alors :



 H ̸= ∅
1. H est un sous-groupe de (G, ⋆) si et seulement si : ∀(x, y) ∈ H 2 , x ⋆ y ∈ H
∀x ∈ H, x′ ∈ H


H ̸= ∅
2. H est un sous-groupe de (G, ⋆) si et seulement si :
∀(x, y) ∈ H 2 , x ⋆ y ′ ∈ H

1.1.2.2 Exemples
1. On considère le groupe linéaire GL2 (R) et on note :
  
cos θ −ε sin θ
O2 (R) = /θ ∈ R et ε = ±1
sin θ ε cos θ
Alors, O2 (R) est un sous-groupe de GL2 (R). En effet, en prenant θ = 0 et
ε = 1, on obtient I2 ∈ O2 (R). Pour tout (θ, ε) ∈ R × {−1, 1}, notons :
 
cos θ −ε sin θ
Mθ,ε =
sin θ ε cos θ
Alors pour tout θ, θ′ ∈ R et ε, ε′ ∈ {−1, 1}, on a :
Mθ,ε × Mθ′ ,ε′ = Mθ+εθ′ ,εε′
12CHAPITRE 1. GROUPES, ANNEAUX : RAPPELS ET COMPLÉMENTS

2. Pour tout groupe (G, ⋆), {e} et G sont des sous-groupes de (G, ⋆).
3. Z est un sous-groupe du groupe additif R.
4. {−1, 1} est un sous-groupe du groupe multiplicatif Q∗ .
[
5. Soit G = Un , alors G est un sous-groupe de (C∗ , ×)
n∈N∗
6. Exercice : Montrer que les seuls sous-groupes de (Z, +) sont les nZ avec n ∈ N :
Rep : Soit n ∈ N, il est aisé de prouver que nZ est un sous-groupe de Z.
Réciproquement, si H est un sous-groupe de Z deux cas sont possibles :
- Soit H ∩ N∗ = ∅, dans ce cas on a H ∩ Z∗ = ∅ car si k ∈ Z, on a k ∈ H ⇒
|k| ∈ H. Donc H = {0} = 0Z.
- Soit H ∩ N∗ ̸= ∅, soit alors n = min(H ∩ N∗ ) alors n ∈ H donc nZ ⊂ H. Soit
x ∈ H et x = qn+r la division euclidienne de x par n alors r = x−nq ∈ H ∩N
donc r = 0 car sinon on aurait r ≥ n, donc H = nZ.

1.1.3 Morphismes de groupes


1.1.3.1 Definitions, propriétés

Définition 3

Soient (G, ⊥) et (G′ , ⊤) deux groupes. On appelle morphisme de (G, ⊥) vers


(G′ , ⊤), toute application f de G vers G′ tel que :

∀(x, y) ∈ G2 , f (x⊥y) = f (x)⊤f (y).

Exemples Voici quelques exemples :


1. L’application f : Z → R∗ tel que f (k) = 2k est un morphisme de (Z, +) vers
(R∗ , ×).
2. L’application : ln : R∗+ → R, x 7→ ln(x) est un morphisme de (R∗+ , ×) vers
(R, +)
3. L’application : det est un morphisme de GLn (K) vers K∗ .
4. La signature ε : Sn → {−1, 1}, σ 7→ ε(σ) est un morphisme de groupes.

Proposition 3

Si f : G → G′ est un morphisme de groupe et e et e′ les éléments neutres


respectifs de G et G′ et pour (x, y) ∈ G × G′ , x′ et y ′ les symétriques de x et y
respectivement alors : f (e) = e′ et ∀x ∈ G, f (x′ ) = (f (x))′
1.1. GROUPES 13

Preuve:
On ne nuit pas à la généralité si on choisit une notation multiplicative pour
chacune des deux lois.
• Comme e2 = e, on a (f (e))2 = f (e). Or f (e)e′ = f (e), donc f (e).f (e) =
f (e).e′ et par régularité de f (e), on a f (e) = e′ .
• Soit x ∈ E et x′ son symétrique. Comme xx′ = x′ x = e, on a f (xx′ ) =
f (x′ x) = f (e). Compte tenu de f (e) = e′ , il vient : f (x)f (x′ ) = f (x′ )f (x) = e′ ,
donc f (x′ ) est le symétrique dans G′ de f (x), donc (f (x))′ = f (x′ )

Proposition 4

Soit f : G → G′ un morphisme de groupes. Si f est bijective en tant qu’appli-


cation de G vers G′ alors f −1 est un morphisme de groupe de G′ vers G

Preuve:
Soit (a, b) ∈ G′2 et x = f −1 (a) et y = f −1 (b) ; alors f (x) = a et f (y) = b, donc
f (xy) = f (x)f (y) = ab et par suite xy = f −1 (ab), donc f −1 (ab) = f −1 (a)f −1 (b)
et f −1 est un morphisme de G′ vers G.

Définition 4

On dit alors que f est un isomorphisme de groupes et que f −1 est le morphisme


réciproque de f . On dit que les groupes G et G′ sont isomorphes.

Remarque Deux groupes isomorphes ont les mêmes propriétés relevant de la struc-
ture de groupe.

Exemple Il y’a aux moins deux groupes de cardinal 4, non isomorphes à savoir
Z/4Z et (Z/2Z)2 . En effet, pour tout x ∈ (Z/2Z)2 , on a 2x = (0, 0), ce qui n’est pas
le cas dans Z/4Z puisque par exemple : 2.3 = 2 ̸= 0.
On peut, en fait prouver qu’à isomorphisme près, il y a exactement deux groupes
de cardinal 4, à savoir Z/4Z et (Z/2Z)2 .

1.1.3.2 Image , image réciproque , noyau , image

Proposition 5

Soit f : G → G′ un morphisme de groupes. Si H est un sous-groupe de G alors


f (H) est un sous-groupe de G′ . Si H ′ est un sous-groupe de G′ alors f −1 (H ′ )
est un sous-groupe de G.
14CHAPITRE 1. GROUPES, ANNEAUX : RAPPELS ET COMPLÉMENTS

Proposition 6

Soit f : G → G′ un morphisme de groupes. Alors ker(f ) = f −1 ({e′G }) est un


sous-groupe de G appelé noyau de f et Im(f ) = f (G) est un sous-groupe de G′
appelé image de f . On a les équivalences :
1. f est injectif si et seulement si ker(f ) = {eG }.
2. f est surjectif si et seulement si Im(f ) = G′

Exemples Les exemples importants ci-dessous sont à retenir :


1. det : GLn (K) → K∗ est un morphisme surjectif et non injectif, son noyau est
l’ensemble des matrices inversibles de déterminant 1, appelé groupe linéaire
spécial et noté SLn (K).
2. La signature ε : Sn → R∗ est un morphisme de groupe qui n’est ni surjectif
ni injectif. On a ker(ε) = An appelé groupe symétrique alterné.
3. Soit (G, ⋆) un groupe quelconque. Pour tout x ∈ G, on note tx et τx les
applications de G vers G définies par :

tx (g) = g ⋆ x
∀g ∈ G,
τx (g) = x ⋆ g
Les applications tx et τx sont bijectives de G vers G, pour tout x ∈ G, ce qui
permet de définir les applications :

t : G → S (G); x 7→ tx

et
τ : G → S (G); x 7→ τx
Alors τ est un morphisme de groupe de (G, ⋆) vers (S (G), ◦). Cependant, ce
n’est pas le cas pour t. Toutefois, on peut dire que t est un morphisme de
(G, ⊥) vers (S (G), ◦) où l’on a définit ⊥ par :

∀(x, y) ∈ G2 , x⊥y = y ⋆ x.

Notons que les applications τ et t sont injectives, ce qui permet de dire que
tout groupe G est isomorphe à un sous-groupe du groupe symétrique S (G)
des bijections de G vers G. Plus précisément, on a :

(G, ⋆) ≃ (τ (G), ◦).

1.1.4 Groupe engendré par une partie


Si (G, +) est un groupe avec une notation additive pour sa loi, et si x1 , . . . , xp sont
des éléments de G et k1 , . . . , kp des entiers relatifs, on peut construire un élément x
de G comme suit : x = k1 x1 + · · · + kp xp , qui ressemble à une combinaison linéaire
dont les coefficients sont dans Z. Ceci nous pousse à l’idée de partir d’une partie A
de G et considérer la partie de G formée par toutes les combinaisons ’linéaires’ des
éléments de A.
1.1. GROUPES 15

1.1.4.1 Intersection de sous-groupes

Proposition 7
\
Soit G un groupe. Si (Hi )i∈I est une famille de sous-groupes alors H = Hi
i∈I
est un sous groupe de G.

Preuve:
H ̸= ∅ car e ∈ H. Si x, y ∈ H alors pour tout i ∈ I, on a x ∈ Hi et y ∈ Hi
−1
\ Hi est un sous-groupe, on a xy
et comme ∈ Hi , pour tout i ∈ I, donc
−1 −1
xy ∈ Hi donc xy ∈ H. Ainsi H est un sou-groupe de G.
i∈I

1.1.4.2 Définition, exemples


Par convention, quand on dit : soit G un groupe, on sous-entends une notation
m
Y
multiplicative pour sa loi, on adoptera la notation xk pour le composé x1 × · · · ×
k=1
xm , pour tout m ∈ N∗ et x1 , · · · , xm ∈ G. Si A est une partie non vide de G alors
on définit : A−1 = {x−1 /x ∈ A}

Proposition 8

Soit G un groupe et A une partie de G. On note

GA = {H/A ⊂ H et H sous-groupe de G}

et soit ⟨A⟩ le sous-groupe : \


⟨A⟩ = H
H∈GA

Alors ⟨A⟩ est le plus petit sous-groupe de G contenant A. Il est appelé le sous-
groupe de G engendré par A. On a : Si A = ∅ alors ⟨A⟩ = {e} et si A ̸= ∅
alors : (m )
Y
⟨A⟩ = xk /m ∈ N∗ , xk ∈ A ∪ A−1 , ∀k ∈ [[1, m]]
k=1

Preuve:
\
Posons K = H. D’après le proposition 7, ⟨A⟩ est un sous-groupe de G.
H∈GA
Comme ⟨A⟩ est une intersection de groupes contenant A, on a A ⊂ ⟨A⟩. Ainsi
on a ⟨A⟩ ∈ GA et ⟨A⟩ ⊂ H pour tout H ∈ GA . Donc ⟨A⟩ est le plus petit
16CHAPITRE 1. GROUPES, ANNEAUX : RAPPELS ET COMPLÉMENTS

sous-groupe de G contenant A.
• Posons (m )
Y
K= xk /m ∈ N∗ , xk ∈ A ∪ A−1 , ∀k ∈ [[1, m]]
k=1

et prouvons que K = ⟨A⟩. Soit m ∈ N∗ , et x1 , · · · , xm ∈ A ∪ A−1 , alors


m
Y
x1 , · · · , xm ∈ ⟨A⟩, donc le produit x = xk réalise x ∈ ⟨A⟩, Ainsi K ⊂ ⟨A⟩.
k=1
Pour démontrer que ⟨A⟩ ⊂ K, il suffit de prouver que K est un sous-groupe de
G contenant A. Il est clair que A ⊂ K. Comme A ⊂ K et A ̸= ∅, on a K ̸= ∅.
Yn Yn
Soit x, y ∈ K, alors x = ak et y = bj avec ak , bj ∈ A ∪ A−1 pour tout
k=1 j=1
k ∈ [[1, m]] et tout j ∈ [[1, n]]. On a :
n+m
Y
xy = ci
i=1

ai si i ∈ [[1, m]]
avec pour tout i ∈ [[1, m + n]] : ci = , donc
bi−m si i ∈ [[m + 1, m + n]]
m−1
Y
−1 −1
ci ∈ A ∪ A , pour tout i ∈ [[1, n + m]]. Par ailleurs, x = (am−k )−1 avec
k=0
a−1
m−k ∈ A∪A
−1
car am−k ∈ A∪A−1 , donc x−1 ∈ K. Ainsi K est un sous-groupe
de G, ce qui termine la démonstration.

Remarques Dans le cas oùA ̸= ∅,on peut faire les remarques suivantes :
1. En notation additive on note
(−A) = {−a/a ∈ A}
et on a alors :
( m )
X
⟨A⟩ = xk /m ∈ N∗ , xk ∈ A ∪ (−A), ∀k = 1, ..., m
k=1

2. Si la condition suivante est réalisée :


(1) ∀a, b ∈ A ab = ba
alors :
- En notation multiplicative :
(m )
Y k
⟨A⟩ = aj j /m ∈ N∗ , aj ∈ A, 2 à 2 distincts , kj ∈ Z .
j=1

- En notation additive :
( m )
X
⟨A⟩ = kj aj /m ∈ N∗ , aj ∈ A, 2 à 2 distincts , kj ∈ Z .
j=1
1.1. GROUPES 17

3. Si A = {a1 , . . . , an } avec n ∈ N∗ et (
tous les éléments ) de A commutent alors :
Yn
- En notation multiplicative : A = aki i /ki ∈ Z .
( n i=1 )
X
- En notation additive : A = ki ai /ki ∈ Z .
i=1
4. Si G = ⟨A⟩, on dit que G est le groupe engendré par A et que A est une partie
génératrice de G. On a toujours : G = ⟨G⟩, mais il est plus intéressant de
trouver des parties génératrices A de G minimales au sens de l’inclusion.

1.1.4.3 Exemples
On donne les exemples importants suivants :
1. Le groupe symétrique Sn est engendré :
(a) Par les transpositions.
(b) Par les transpositions de la forme τi,i+1 , i ∈ [[1, n − 1]].
(c) Par les transpositions de la forme τ1,i , i ∈ [[2, n]].
(d) par la paire {τ, s} où τ = τ1,2 et s = (12 · · · n) (cycle).

Preuve:
La preuve des points 2,3 et 4 est basée sur la propriété importante sui-
̸ j, si σ ∈ Sn alors στi,j σ −1 =
vante : Pour tout i, j ∈ [[1, n]] tel que i =
τσ(i),σ(j)

2. Le groupe orthogonal O2 (R) est engendré par les matrices de symétries ortho-
gonales, à savoir les matrices de la forme :
 
cos θ sin θ
Sθ = , avec θ ∈ R.
sin θ − cos θ

3. GLn (K) est engendré par les matrices de transvections et de dilatations. On


rappelle qu’une matrice de transvection est une matrice de la forme Ti,j (α) =
In +αEij avec (i, j) ∈ [[1, n]]2 tel que i ̸= j et α ∈ K et une matrice de dilatation
est une matrice de la forme Di (α) = In + (α − 1)Eii avec i ∈ [[1, n]] et α ∈ K∗ .

1.1.4.4 Cas particulier : Groupes monogène, groupe cyclique

Définition 5

Un groupe G engendré par un singleton {a} s’appelle groupe monogène, et on


note G = ⟨a⟩.
Un groupe monogène fini est dit cyclique.

Exemples On retient les exemples suivants de groupes monogènes :


18CHAPITRE 1. GROUPES, ANNEAUX : RAPPELS ET COMPLÉMENTS

1. Le groupe additif Z est un groupe monogène non cyclique engendré par 1.


2. Pour tout n ∈ N∗ , le groupe additif Z/nZ) est un groupe cyclique dont 1 est
un générateur.
3. Le groupe multiplicatif Un des racines n èmes de l’unité est un groupe cyclique

de cardinal n engendré par ei n

1.1.5 Produit fini de groupes


m
Y
Soient (Gi , ⊤i ) où i ∈ [[1, m]], m ∈ N, m ≥ 2 une famille de groupe et G = Gi muni
i=1
de la loi ⊤ tel que pour tout x = (xi ), y = (yi ) ∈ G, on aie : x⊤y = (xi ⊤i yi ).

Proposition 9

(G, ⊤) est un groupe. De plus si les Gi sont commutatifs G est commutatif.


Si pour tout i ∈ [[1, m]], l’élément neutre de Gi est ei alors e = (ei )1≤i≤m est
l’élément neutre de G.Si x = (xi ) ∈ G alors le symétrique de x est x′ = (x′i ) où
x′i est le symétrique de xi dans Gi , pour tout i ∈ [[1, m]].

Remarque Un cas usuel est quand les Gi sont égaux et ont même loi : G1 = · · · =
Gm = H alors G = H m . Comme exemples : Zm , Rm , Qm , Cm , (Z/nZ)m .

1.1.6 Élément d’ordre fini d’un groupe


Dans tout ce qui suit G est un groupe dont la notation pour la loi est multiplicative
et l’élément neutre est e.

1.1.6.1 Définitions

Définition 6

Soit x ∈ G. On dit que x est d’ordre fini s’il existe d ∈ N∗ tel que xd = e. Si
c’est le cas, le plus petit d ∈ N∗ tel que xd = e s’appelle l’ordre de x.

Remarques 1) Avec une notation additive x est d’ordre fini s’il existe d ∈ N∗ tel
que dx = 0.
2) l’élément neutre de G est d’ordre 1.

Exemples 1. Dans Z/nZ tout élément est d’ordre fini puisque ∀x ∈ Z/nZ, nx =
0.
2. Aucun élément non nul de Z n’est d’ordre fini.

3. Dans C∗ , pour tout n∈ N∗ , le nombre complexe ωn = ei n est d’ordre n
4. Soit G = ∪ ∗ Un . On peut démontrer que G est un sous-groupe de C∗ . On a
n∈N
G est infini mais tout élément est d’ordre fini.
1.1. GROUPES 19

1.1.6.2 Propriétés

Proposition 10

Soit x ∈ G et d ∈ N∗ . Alors : x est d’ordre d si et seulement si xd = e et


∀k ∈ Z, xk = e ⇒ d|k.

Preuve:
Supposons que x est d’ordre d. Par définition, on a xd = e. Soit k ∈ Z tel que
xk = e. La division euclidienne de k par d donne k = qd + r avec 0 ≤ r < d,
donc xk = (xd )q .xr = xr donc xr = e et comme d est le plus petit entier naturel
non nul tel que xd = e, on a r = 0, donc d|k.
Réciproquement supposons que xd = e et pour tout k ∈ Z, xk = e ⇒ d|k. Soit
m ∈ N∗ tel que xm = e alors d|m donc d ≤ m, donc d est le plus petit entier
naturel non nul tel que xd = e donc d est l’ordre de x.

Proposition 11

Soit x ∈ G et d ∈ N∗ . Alors x est d’ordre d si et seulement si ⟨x⟩ est cyclique


de cardinal d.

Preuve:
Si x est d’ordre d alors, ⟨x⟩ = {xk /k ∈ Z} et pour tout k ∈ Z, on a xk = xr
où r est le reste de la division euclidienne de k par d. Il en découle que ⟨x⟩ =
{xr /0 ≤ r < q}, donc ⟨x⟩ est fini, donc cyclique. Réciproquement si ⟨x⟩ est
cyclique alors il existe au moins k, ℓ ∈ Z tel que k < ℓ et xk = xℓ , donc en
posant m = ℓ − k, on a m ∈ N∗ et xm = e, donc x est d’ordre fini. Notons
d l’ordre de x, on a vu que ⟨x⟩ = {xr /0 ≤ r < d} donc card(⟨x⟩) ≤ d, or si
0 ≤ k ≤ ℓ < d et xk = xℓ alors xm = e où m = ℓ − k donc m < d. Par définition
de d on a forcément m = 0, donc pour tout k, ℓ ∈ {0, . . . , d − 1}, on a

k ̸= ℓ ⇒ xk ̸= xℓ

donc card(⟨x⟩) ≥ d,donc card(⟨x⟩) = d,

1.1.6.3 Cas des groupes finis

Proposition 12

Si G est un groupe fini de cardinal n alors : ∀x ∈ G, xn = e

Ce théorème est admis, et voici une preuve dans le cas où G est commutatif :
20CHAPITRE 1. GROUPES, ANNEAUX : RAPPELS ET COMPLÉMENTS

Preuve:
Soit G un groupe commutatif de cardinal n et soit a ∈ G. L’application :
u : G → G; x 7→ ax est une application bijective de G vers G en effet elle
est injective puisque pour tout x, y ∈ G, ax = ay ⇒ x = y par régularité
−1
et
Yelle estYsurjective car ∀x, y ∈ G, ax = y ⇔ x = a y, il en découle que
x= u(x). Or et grâce à la commutativité :
x∈G x∈G
Y Y Y
u(x) = ax = an x
x∈G x∈G x∈G

donc an = e.

Corollaire 1

Si G est un groupe fini de cardinal n alors tout élément x de G est d’ordre fini
et si d est l’ordre de x alors d divise n.

Preuve:
Soit G un groupe fini et n = card(G). Pour tout x ∈ G on a xn = e, donc x est
d’ordre fini et si d est l’ordre de x, alors d’après la proposition 10, on a d|n.

1.1.7 Etude des groupes monogène


1.1.7.1 Les groupes monogène Z et Z/nZ

Proposition 13

Le groupe monogène Z admet exactement deux générateurs à savoir 1 et −1.


Le groupe Z/nZ est cyclique dont les générateurs sont k tel que k ∈ [[1, n]] et
k ∧ n = 1.

Preuve:
Si a est un générateur de Z, comme 1 ∈ Z, il existe k ∈ Z tel que 1 = ka donc
a|1, donc a ∈ {−1, 1}.
Soit k ∈ {1, · · · , n}. Si k est un générateur de Z/nZ alors 1 = uk avec u ∈ Z
donc uk ≡ 1 [n] donc il existe v ∈ Z tel que uk − 1 = −vn c’est-à-dire
uk + vn = 1 ; par le lemme de Bezout k ∧ n = 1. Si réciproquement k ∧ n = 1
alors par Bezout il existe u, v ∈ Z tel que uk + vn = 1 donc pour tout x ∈ Z
on a x = xuk + xvn donc x = (xu)k donc k est un générateur de Z/nZ.
1.1. GROUPES 21

1.1.7.2 Classification et générateurs

Proposition 14

Si G = ⟨a⟩ est un groupe monogène alors φa : Z → G, k 7→ ak est un morphisme


surjectif de groupes.

Preuve:
Surjectif par construction. Morphsme car si k, ℓ ∈ Z alors φa (k + ℓ) = ak+ℓ =
ak aℓ

Proposition 15

Si G = ⟨a⟩ est un groupe monogène alors soit G est infini auquel cas G est
isomorphe à Z et les générateurs de G sont a et a−1 , soit G est fini auquel cas
G est isomorphe à Z/nZ où n = card(G) et les générateurs de G sont ak avec
k ∈ [[1, n]] et k ∧ n = 1.

Preuve:
Soit G = ⟨a⟩ un groupe monogène. D’après la proposition 14 φa : Z → G; k 7→
ak est un morphisme surjectif de groupes.
• Si φa est injectif alors φa est un isomorphisme de groupe. Soit alors b un
générateur de G. Pour tout x ∈ Z on a φa (x) ∈ G donc il existe k ∈ Z tel que
φa (x) = bk donc x = φ−1 k −1 −1
a (b ) = kφa (b) de sorte que φa (b) est un générateur
de Z, donc φ−1 −1
a (b) ∈ {−1, 1} par suite b = a ou b = a . Ainsi G est monogène
infini isomorphe à Z dont les seuls générateurs sont a et a−1 .
• Si φa n’est pas injectif alors ker(φa ) ̸= {0} donc il existe k ∈ Z tel que k ̸= 0
et φa (k) = e donc ak = e donc a−k = (ak )−1 = e donc am = e où m = |k|, donc
a est d’ordre fini. Soit alors n l’ordre de a et ψ l’application :

ψ : Z/nZ → G; k 7→ ak .

Tout d’abord, ψ est bien définie car si k ≡ ℓ[n] alors il existe q ∈ Z tel que
ℓ = k + qn donc aℓ = ak (an )q = ak donc ak ne dépends pas du représentant de
la classe k.
Ensuite ψ est surjectif par construction et finalement injectif car si k ∈ ker ψ
alors ak = e donc n|k donc k = 0. Ainsi G est un groupe cyclique isomorphe
à Z/nZ. Si b est un générateur de G alors comme b ∈ G, on a b = ak avec
k ∈ {1, · · · , n}. Si x ∈ Z/nZ alors ψ(x) ∈ G donc il existe ℓ ∈ Z tel que
ψ(x) = bℓ = aℓk donc x = ψ −1 (x) = ℓk = ℓk, ce qui prouve que k est un
générateur de Z/nZ, donc par la proposition 13 il vient que k ∧ n = 1. Ainsi
22CHAPITRE 1. GROUPES, ANNEAUX : RAPPELS ET COMPLÉMENTS

les générateurs de G = ⟨a⟩ sont les ak avec k ∈ [[1, n]] et k ∧ n = 1.

Corollaire 2

Tout groupe monogène est commutatif.

Preuve:
Un tel groupe est isomorphe soit à Z soit à un certain Z/nZ, lesquels sont
commutatifs.

1.1.8 Exercices
Exercice 1 : Soit G un groupe monogène. Démontrer que si G est monogène infini,
tout sous-groupe de G est monogène infini et si G est cyclique tout sous-groupe de
G est cyclique.
Exercice 2 : Démontrer que tout groupe de cardinal un nombre premier est cyclique.
Exercice 3 : Montrer que si a, b ∈ G tel que ab = ba et a et b d’ordres respectifs m
et n et m ∧ n = 1 alors ab est d’ordre mn.

1.2 Anneaux et corps


1.2.1 Anneaux
1.2.1.1 Généralité sur les anneaux

Définition 7

Un anneau est un triplet (A, ⊥, ⋆) tel que


1. A est un ensemble non vide.
2. (A, ⊥) est un groupe commutatif.
3. ⋆ est associative.
4. ⋆ admet un élément neutre.
5. ⋆ est distributive par rapport à ⊥.

Remarque On adoptera par la suite la notation additive pour la première loi et la


notation multiplicative pour le seconde et on abrégera en disant l’anneau A.
Exemples 1. L’anneau Z des entiers relatifs.
2. L’anneau A (X, A) des application d’un ensemble non vide X vers un anneau
A.
3. L’anneau K[X] des polynômes.
1.2. ANNEAUX ET CORPS 23

Définition 8

Soit A un anneau. On appelle sous-anneau de A toute partie B de A tel que :


1. B est un sous-groupe du groupe (A, +)
2. B stable par ×
3. 1A ∈ B.

1.2.1.2 Groupe des inversibles d’un anneau


Si A est un anneau, on note U (A) l’ensemble des éléments inversibles de (A, ×).

Proposition 16

U (A) est stable par × et (U (A), ×) est un groupe appelé groupe des inversibles
de l’anneau A.

Exemples Z× = {−1, 1}, R× = R∗ , K[X]× = K, Mn (K)× = GLn (K)

1.2.1.3 Produit fini d’anneau

Proposition 17

Si (Ak , +k , ×k ), k ∈ [[1, m]] sont des anneaux, on munit


m
Y
A= Ak
k=1

des lois de composition internes + et × tel que, pour tout x = (xk ) ∈ A et


y = (yk ) ∈ A :

(xk ) + (yk ) = (xk +k yk ) et (xk ) × (yk ) = (xk ×k yk ).

Alors (A, +, ×) est un anneau. De plus, le groupe des inversibles de A est donné
par :
Ym
U (A) = U (Ak ).
k=1

1.2.1.4 Morphismes d’anneaux

Définition 9

A et A′ sont deux anneaux. Une application f : A → A′ est un morphisme


24CHAPITRE 1. GROUPES, ANNEAUX : RAPPELS ET COMPLÉMENTS
 
2 f (x + y) = f (x) + f (y)
∀(x, y) ∈ A ,

d’anneau si : f (x × y) = f (x) × f (y)
f (1A ) = 1A′

Proposition 18

Soit f : A → A′ un morphisme d’anneaux. Si f est bijective alors f −1 est un


morphisme d’anneau de A′ vers A

Proposition 19

f : A → A′ un morphisme d’anneau. f est injectif si et seulement si ker(f ) =


{x ∈ A/f (x) = 0} est réduit à {0}. f est surjectif si et seulement si Im(f ) = A′

1.2.1.5 Anneau intègre

Définition 10

Soit A un anneau. On appelle diviseur de zero tout élément a ∈ A tel que a ̸= 0


et il existe b ∈ A tel que b ̸= 0 et ab = 0 ou ba = 0 A est intègre s’il n’ a pas de
diviseur de zero.

Remarque A est intègre si :

∀(x, y) ∈ A2 , xy = 0 ⇒ x = 0 ou y = 0

1.2.2 Corps
Définition 11

On appelle corps tout anneau commutatif A tel que U (A) = A∗

Remarque Un corps est un anneau intègre (K, +, ×) (en particulier K∗ est stable
par ×), tel que (K ∗ , ×) est un groupe commutatif.

Définition 12

Soit K un corps. On appelle sous-corps de K toute partie K ′ de K tel que K ′


est stable par les lois de K et muni des lois induites K ′ est un corps.

Remarque Si K ′ est un sous-corps de K alors K ′∗ est un sous-groupe de K ∗ par


suite on a en particulier le même élément neutre pour la multiplication pour K et
K ′ et le même inverse pour tout x ∈ K ′ .
1.2. ANNEAUX ET CORPS 25

1.2.3 Idéal d’un anneau


1.2.3.1 Généralités

Définition 13

Soit A un anneau commutatif. On appelle idéal de A toute partie I de A tel


que :
1. I est un sous-groupe de (A, +)
2. ∀(a, x) ∈ A × I, ax ∈ I

Remarque {0} et A sont deux idéaux de A (les idéaux triviaux)

Proposition 20

Soient A un anneau commutatif et A′ un anneau. Pour tout morphisme d’anneau


f : A → A′ on a ker(f ) est un idéal de A.

Proposition 21

Soit A un anneau commutatif et x ∈ A. Alors xA = {xa/a ∈ A} est un idéal


de A appelé idéal engendré par x.

Si I1 , · · · , Im ( m ≥ 2) sont des idéaux de A, on note :


m
X
Ik = I1 + · · · + Im = {x1 + · · · + xm /(x1 , · · · , xm ) ∈ I1 × · · · × Im }.
k=1

Proposition 22

Si I et J sont deux idéaux de A alors I + J et I ∩ J sont deux idéaux de A.


Xm m
\
Généralement, si (Ik )1≤k≤m est une famille d’idéaux de A alors Ik et Ik
k=1 k=1
sont des idéaux de A.

Remarque On a I ∩ J ⊂ I ⊂ I + J.
n
\ m
X
Généralement pour tout k ∈ [[1, m]], on a : Ij ⊂ Ik ⊂ Ij .
j=1 j=1

1.2.3.2 Idéaux et divisibilité dans un anneau commutatif intègre


Dans tout ce qui suit A est un anneau commutatif et intègre.
26CHAPITRE 1. GROUPES, ANNEAUX : RAPPELS ET COMPLÉMENTS

Définition 14

Soit (a, b) ∈ A2 . On dit que a divise b s’il existe c ∈ A tel que b = ca. On dit
aussi b est un multiple de a ou a est un diviseur de b.

Définition 15

Si (a, b) ∈ A2 tel que b = εa et ε inversible on dit que a et b sont associés.

Remarque Pour tout a, b, c ∈ A on a :


1. a|a
2. a|b et b|c ⇒ a|c
3. Si a|b et b|a alors a et b sont associés.

Proposition 23

Soit (a, b) ∈ A2 . On a : a|b ⇔ bA ⊂ aA

Preuve:
Si a|b Soit x ∈ bA, alors ∃y ∈ A, x = by, or ∃c ∈ Ab = ca, donc x = by = cay =
az avec z = cy ∈ A. Réciproquement, Si bA ⊂ aA alors comme b ∈ bA, on a
b ∈ aA, donc ∃c ∈ A, b = ac et a|b.

1.2.4 Le cas A = Z ou A = K[X], où K est un sous-corps de C


Dans tout ce qui suit, A désigne l’un des anneaux commutatifs intègres Z ou K[X],
où K est un sous-corps de C.

1.2.4.1 Division euclidienne dans A

Théorème 1

1. Pour tout (a, b) ∈ Z × Z∗ , il existe un et un seule couple (q, r) ∈ Z2 tel


que : 
a = bq + r
0 ≤ r < |b|
C’est la division euclidienne de a par b. On dit que q est le quotient et r
le reste dans la division euclidienne de a par b.
2. Pour tout (P, B) ∈ K[X]2 tel que B ̸= 0, il existe un et un seule couple
1.2. ANNEAUX ET CORPS 27

(Q, R) de polynômes tel que :



P = BQ + R
deg(R) < deg(B)

C’est la division euclidienne de P par B.

Remarque Si a = bq + r est la division euclidienne de a par b dans l’anneau A,


alors on donne les apelations suivantes :
1. a est le dividende.
2. b est le diviseur : il doit être non nul.
3. q est le quotient.
4. r est le reste : il vérifie r < s(b) avec s(b) = |b| dans le cas de A = Z et
s(b) = deg(b) dans le cas de A = K[X].

1.2.4.2 Les idéaux de A

Proposition 24

Tout idéal de A est de la forme aA avec a ∈ A.


Précisément :
1. Pour A = Z : Tout idéal I de Z il existe un et un seule entier naturel n
tel que I = nZ.
2. Pour A = K[X] : Pour tout idéal non nul I de K[X], il existe un et un
seule polynôme unitaire P tel que I = P K[X]

Preuve:
On va donner la preuve pour les deux cas : le cas A = Z et le cas A = K[X].
1. Le cas A = Z :
• D’abord, pour tout n ∈ N, il est aisé de vérifier que nZ est un idéal de
Z.
• Soit I un idéal de Z. Si I = {0} alors I = 0Z. Sinon, I ̸= {0}, donc il
existe k ∈ Z∗ tel que k ∈ I, donc −k ∈ I et par suite en posant m = |k|,
on a m ∈ I ∩ N∗ . Il en découle que I ∩ N∗ est une partie non vide de N∗ et
par suite elle admet un plus petit élément. Posons donc n = min(I ∩ N∗ ).
On va démontrer que I = nZ. Remarquons déjà que nZ ⊂ I car n ∈ I
est I est un sous-groupe de (Z, +). Réciproquement si x ∈ I, la division
euclidienne de x par n s’écrit x = qn + r avec (⋆) 0 ≤ r < n. On a
r = x − nq et x ∈ I et n ∈ I donc x − nq ∈ I et r ∈ I, donc r ∈ I ∩ N. On
ne peut pas avoir n ∈ I ∩ N∗ car, par définition de n, on aurait n ≤ r, ce
qui aurait contredit la condition (⋆) ci-dessus de la division euclidienne.
Donc r = 0 et x = nq, donc x ∈ nZ et finalement I = nZ. Pour finir,
supposons que I est un idéal de Z tel que I = nZ = mZ avec n, m ∈ N.
Par la proposition 23, on a n|m et m|n et comme n, m ∈ N on a n = m,
28CHAPITRE 1. GROUPES, ANNEAUX : RAPPELS ET COMPLÉMENTS

ce qui prouve l’unicité.


2. Le cas A = K[X].
• Si A = {0}, il est clair que A = 0K[X].
• Si A ̸= {0}, l’ensemble J = {deg(P )/P ∈ I} est une partie non vide
de N, donc admet un plus petit élément qu’on note m. Cela veut dire
qu’il existe un polynôme P0 ∈ I tel que deg(P0 ) = m. On va prouver
que I = P0 K[X]. Remarquons tout de suite que P0 K[X] ⊂ I puisque
P0 ∈ I et I est un idéal de K[X]. Réciproquement, soit P ∈ I, la division
euclidienne de P par P0 donne P = QP0 + R avec deg(R) < m. On
a R = P − QP0 donc R ∈ I ( car P, P0 ∈ I. Si R ̸= 0, on aurait
deg(R) < m et R ∈ I, ce qui contredirait la définition de m, donc R = 0
et P = QP0 donc I ⊂ P0 K[X]. Ainsi on a prouvé que I = P0 K[X]. Si
1
on note P˜0 = P0 0 où cd(P0 ) désigne le coefficient dominant de
cd(P0 )
P0 , on a P0 K[X] = P˜0 K[X] puisque P0 et P˜0 sont associés, donc chacun
divise l’autre et la proposition 23. On a donc prouvé que si I est un
idéal non nul de K[X], il existe un polynôme unitaire P1 ∈ K[X] tel que
I = P1 K[X]. Montrons l’unicité d’un tel polynôme : Si P1 et P2 sont
unitaires et P1 K[X] = P2 K[X] alors P1 |P2 et P2 |P1 , donc il existe c ∈ K∗
tel que P2 = cP1 et comme 1 = cd(P2 ) = c cd(P1 ) = c on a c = 1 et
P1 = P2 , ce qui termine la preuve.

Remarque Si I est un ideal de A, quand on parlera de l’unique générateur a de


A alors a = 0 si I est nul et l’unique n ∈ N∗ tel que I = nZ si I est non nul et
A = Z et a l’unique polynôme unitaire P tel que I = P K[X] si A = K[X] .

1.2.4.3 p.g.c.d. , p.p.c.m. dans A

Définition 16

Soit (a, b) ∈ A2 tel que a ̸= 0 et b ̸= 0. L’unique générateur δ de l’idéal aA + bA


s’appelle le plus grand diviseur de a et b. L’unique générateur µ de l’idéal aA∩bA
s’appelle le plus petit multiple commun de a et b.

Notation : On note δ = a ∧ b et µ = a ∨ b

Remarques On note les remarques suivantes :


1. On peut généraliser pour plusieurs éléments non nuls a1 , · · · , am de A. On a :
m
X
(a1 ∧ · · · ∧ am )A = ak A
k=1

et m
\
(a1 ∨ · · · ∨ am )A = ak A
k=1
1.2. ANNEAUX ET CORPS 29

2. Si a, b ∈ Z∗ alors :
a|b ⇔ a ∧ b = |a| ⇔ a ∨ b = |b|.
3. Pour tout polynôme non nul P , on note :

Pe = (cd(P ))−1 P.

Si P, Q ∈ K[X]\{0}, alors

P |Q ⇔ P ∧ Q = Pe ⇔ P ∨ Q = Q.
e

Pour tout a ∈ A, on notera Da = {x ∈ A/x|a}, c’est-à-dire que Da est l’ensemble


des diviseurs de a. La proposition ci-dessous explique que si a et b sont des éléments
de A, l’ensemble des diviseurs communs de a et b n’est autre que l’ensemble des
diviseurs du plus grand diviseur commun de a et b.

Proposition 25

1. Soit a, b ∈ Z et δ ∈ N∗ , alors :

δ = a ∧ b ⇔ Da ∩ Db = Dδ

2. Soient P, Q, ∆ ∈ K[X] tel que ∆ est unitaire et P et Q non tous nuls,


alors :
∆ = P ∧ Q ⇔ DP ∩ DQ = D∆

Preuve:
On va donner la preuve dans le cas de A = Z, celle de A = K[X] sera similaire.
1. Cas A = Z :
′ ′
• Supposons
 que δ′ = a ∧ b Soit x ∈ Da ∩ Db alors il existe a , b ∈ Z
a = xa
tel que ; comme δZ = aZ + bZ, il existe u, v ∈ Z tel que
b = xb′
δ = au + bv = x(a′ u + b′ v) = xδ ′ avec δ ′ = a′ u + b′ v ∈ Z, donc x ∈ Dδ .
Réciproquement, soit x ∈ Dδ alors x|δ. Comme δZ = aZ + bZ, on a
aZ ⊂ δZ et bZ ⊂ δZ donc δ|a et δ|b et comme x|δ on a x|a et x|b donc
Da ∩ Db = Dδ .
• Réciproquement si Da ∩ Db = Dδ , posons d = a ∧ b, donc Da ∩ Db = Dd ,
donc Dd = Dδ , par suite d|δ et δ|d, et comme d, δ ∈ N, on a d = δ.
2. Cas A = K[X] : la preuve est la même.

1.2.4.4 Algorithme d’Eucilde


30CHAPITRE 1. GROUPES, ANNEAUX : RAPPELS ET COMPLÉMENTS

Proposition 26

Soit (a, b, α, β) ∈ A4 . Si a = αb + β, alors a ∧ b = b ∧ β

Preuve:
On va démontrer que aZ + bZ = bZ + βZ. Soit x = au + bv ∈ aZ + bZ, alors
x = u(αb + β) + bv = (αu + v)b + uβ, donc x ∈ bZ + βZ. Soit x = bu + βv ∈
bZ + βZ, alors x = bu + v(a − αb) = va + (u − αv)b, donc x ∈ aZ + bZ, d’où
l’égalité ensembliste établie et par suite la proposition 26

Proposition 27

Soit (a, b) ∈ Z2 tel que ab ̸= 0, alors a ∧ b est le dernier reste non nul dans les
divisions euclidiennes successives de a par b.

Proposition 28

Soit (P, Q) ∈ K[X]2 tel que P Q ̸= 0, alors P ∧ Q est le dernier reste non nul,
normalisé dans les divisions euclidiennes successives de A par Q.

1.2.4.5 Identité de Bezout, lemme de Gauss

Proposition 29

Soit (a, b) ∈ A2 , alors

a ∧ b = 1 ⇔ ∃(u, v) ∈ A2 , ua + vb = 1

Remarques On peut généraliser :


m
X
a1 ∧ · · · ∧ am = 1 ⇔ ∃(u1 , · · · , um ) ∈ Am , u k ak = 1
k=1

Proposition 30

3 a|bc
Soit (a, b, c) ∈ A . On a : ⇒ a|c
a∧b=1

1.2.4.6 Irréductibles de A
1.2. ANNEAUX ET CORPS 31

Définition 17

Un élément a de A est irréductible si a est non inversible et :

∀b ∈ A, b|a ⇒ b inversible ou b et a sont associés

Ainsi un irréductible de A est un élément non inversible a de A dont les seules


diviseurs sont de la forme ε ou εa avec ε ∈ U (A). Autrement dit l’ensemble des
diviseurs de a est Da = U (A) ∪ aU (A).

Proposition 31

Les irréductibles de Z sont les nombres premiers.

Preuve:
Si p est premier alors p n’est pas inversible car p ̸= 1 et p ̸= −1, par ailleurs
les diviseurs de p sont les éléments de {1, −1, p, −p} = U (Z) ∪ pU (Z).
Réciproquement si p est un entier non inversible dont les seuls diviseurs sont
−1, 1, p et −p alors par définition, p est premier.

Proposition 32

Les irréductibles de C[X] sont les polynômes de degré 1.


Les irréductibles de R[X] sont les polynômes de degré 1 et les trinômes de la
a ̸= 0
forme aX 2 + bX + c tel que (a, b, c) ∈ R3 et .
b2 − 4ac < 0

Preuve:
Voir cours de M.P.S.I.

On note P l’ensemble des nombres entiers naturels premiers.

Théorème 2

Pour tout nombre entier relatif x non inversible et non nul il existe un unique
s ∈ N∗ , un unique ε ∈ {−1, 1}, un unique (α1 , · · · , αs ) ∈ (N∗ )s et un unique
(p1 , · · · , ps ) ∈ Ps tel que : 
 p1 < · · s· < ps

Y α

 x = ε pk k
k=1
32CHAPITRE 1. GROUPES, ANNEAUX : RAPPELS ET COMPLÉMENTS

Théorème 3

Pour tout polynôme non nul et non inversible Q ∈ K[X], il existe un unique
ε ∈ K∗ , un unique s ∈ N∗ , un unique (α1 , · · · , αs ) ∈ (N∗ )s , et, à une permutation
près, un unique (P1 , · · · , Ps ) ∈ K[X]s tel que :

 ∀k ∈ [[1,s s]], Pk est unitaire irréductible

Y α

 Q = ε Pk k
k=1

1.3 Z/nZ : Compléments


1.3.1 L’anneau Z/nZ
On rappelle que Z/nZ muni des lois + et × tel que :

k+ℓ=k+ℓ
∀k, ℓ ∈ Z,
k×ℓ=k+ℓ

est un anneau commutatif non intègre en général.

Proposition 33

Z/nZ est intègre si et seulement si n est premier si et seulement si Z/nZ est un


corps.

1.3.2 Le groupe des inversibles de l’anneau Z/nZ.


1.3.2.1 Inversibles de Z/nZ

Proposition 34

Le groupe des inversible de Z/nZ est :

U (Z/nZ) = {k/k ∈ [[1, n]]/k ∧ n = 1}

Ainsi le groupe des inversibles de l’anneau Z/nZ coincide avec l’ensemble des
générateurs du groupe additif Z/nZ.

Preuve:
Si k ∈ Z tel que k est inversible, alors il existe k ′ ∈ Z tel que kk ′ = 1, donc
kk ′ ≡ 1 modulo n donc il existe k ′′ ∈ Z tel que kk ′ − 1 = k ′′ n donc uk + vk = 1
1.3. Z/nZ : COMPLÉMENTS 33

avec (u, v) = (k, −k ′ )

Remarque On a k ∈ U (Z/nZ) si et seulement si k ∧ n = 1, non seulement pour


tout k ∈ [[1, n]], mais pour tout k ∈ Z. En effet, si r est le reste dans la division
euclidienne de k par n on a k ∧ n = r ∧ n et k = r.

1.3.2.2 Théorème d’Euler

Corollaire 3

Pour tout n ∈ N∗ et tout k ∈ Z, on a :

k ∧ n = 1 ⇒ k φ(n) ≡ 1 [n]

Preuve:
Soit r le reste de k dans la division euclidienne par n alors r ∧n = 1 et r dans le
groupe des inversibles dont le cardinal est φ(n), donc rφ(n) = 1, comme r = k,
le résultat en découle.

Corollaire 4

Si p est premier alors :


1. Pour tout k ∈ Z tel que p ne divise pas k on a k p−1 ≡ 1 [p]
2. Pour tout entier k on a k p ≡ k [p]

1.3.2.3 Lemme des restes chinois

Théorème 4

Si m et n sont des entiers naturels non nuls premiers entre eux alors les anneaux
Z/mnZ et Z/mZ × Z/nZ sont isomorphes.

Preuve:
Pour tout x ∈ Z, on note x , x̃ et x b les classes de x modulo m,n et mn
respectivement. Soit f : Z/mnZ → Z/mZ × Z/nZ tel que f (b x) = (x, x̃) pour
tout x ∈ Z. 
′ x ≡ y [m]
Tout d’abord, f est bien définie car si x ≡ x [mn] alors .
x ≡ y [n]
Ensuite f est un morphisme d’anneau car :
• f (b
1) = (1, 1̃).
34CHAPITRE 1. GROUPES, ANNEAUX : RAPPELS ET COMPLÉMENTS

• pour tout x, y ∈ Z, on a :

f (b
x+b
y ) = f (x[
+ y) = (x + y, x]
+ y) = (x+y, x̃+ỹ) = (x, x̃)+(y, ỹ) = f (b
x)+f (b
y)

• Pour tout x, y ∈ Z, on a :

x×b
f (b × y) = (x × y, x]
y ) = f (x[ × y) = (x×y, x̃×ỹ) = (x, x̃)×(y, ỹ) = f (b
x)×f (b
y)

f est injectif car si pour x ∈ Z, f (b


x) = b0 alors (x, x̃) = (0, 0̃) donc m|x et
n|x et comme m ∧ n = 1 alors mn|x et par suite x b=b 0, donc ker f = {b0},
et f est injectif ; et comme les ensembles Z/mnZ et Z/mZ × Z/nZ sont finis
de même cardinal, à savoir mn, l’application f est bijective et c’est donc un
isomorphisme.

Corollaire 5

Soit m, n ∈ N non nuls tel que m ∧ n = 1. Pour tout (a, b) ∈ Z2 , le système :



x ≡ a [m]
(1)
x ≡ b [n]

admet des solutions. Si x0 est une solution alors l’ensemble des solutions est
S = x0 + mnZ.

Preuve:
x est une solution du système (1) si et seulement si f (b
x) = (a, b̃), et comme f
est surjective , le système admet une solution au moins ( f surjective).
Si x0 et x sont des solutions de (1), alors x\ − x0 ∈ ker f , et comme f est
− x0 = 0 donc mn|(x − x0 ).
injective cela veut dire que x\ b

Remarques On peut faire les remarques importantes suivantes :


1. Une méthode pratique pour trouver une solution du système (1) : Comme
m ∧ n = 1 alors il existe (u, v) ∈ Z2 tel que mu + nv = 1. Si on pose x0 =
bmu + anv alors x0 est une solution de (1).
2. On peut généraliser : Soit n1 , · · · , ns une famille d’entiers naturels deux à deux
Y s
premiers entre eux (avec s ≥ 2). Posons n = nk . et pour tout k ∈ [[1, s]],
k=1
n
posons n′k
= . On voit que nk ∧ n′k = 1,pour tout k ∈ [[1, s]]. Par le lemme
nk
de Bezout il existe uk , u′k ∈ Z tel que : uk nk + u′k n′k = 1 Posons εk = u′k n′k alors

εk ≡ 1 [nk ]
εj ≡ 0 [nk ], ∀j ∈ [[1, s]], j ̸= k
1.3. Z/nZ : COMPLÉMENTS 35

s
X
de sorte que si on pose x0 = εj aj alors x0 est une solution du système :
j=1

x ≡ ak [nk ], ∀k ∈ [[1, s]]

1.3.2.4 Conséquence : l’indicatrice d’Euler est multiplicative.

Proposition 35

Si m, n ∈ N∗ tel que m ∧ n = 1 alors

φ(mn) = φ(m)φ(n)

On dit que la fonction φ est multiplicative.

Preuve:
C’est une conséquence immédiate du théorème 4, puisque le groupe des in-
versibles d’un anneau produit est le produit des groupes des inversibles des
anneaux associés. Donc U (Z/mZ × Z/nZ) = U (Z/nZ) × U (Z/mZ) ; par
passage aux cardinaux, on a φ(mn) = φ(m)φ(n).

1.3.2.5 Résumé des propriétés de l’indicatrice d’Euler

Pour tout n ∈ N∗ , on note φ(n) = card(U (Z/nZ)). L’application φ s’appelle l’indi-


catrice d’Euler. Elle possède les propriétés suivantes :
1. Pour tout n ∈ N∗ , φ(n) est le nombre des générateurs du groupe additif Z/nZ.
2. Pour tout n ∈ N∗ , φ(n) est le nombre des inversibles de l’anneau Z/nZ.
3. Pour tout entier naturel premier p, on a : φ(p) = p − 1.
4. Pour tout entier naturel premier p, et tout entier naturel non nul α, on a :

φ(pα ) = pα − pα−1 .

s
Y
5. Si n ∈ N tel que n = pαk k avec s ∈ N∗ , α1 , · · · , αs ∈ N∗ et p1 , · · · , ps des
k=1
nombres entiers naturels premiers deux à deux distincts alors :
s  
Y 1
φ(n) = n 1−
k=1
pk
36CHAPITRE 1. GROUPES, ANNEAUX : RAPPELS ET COMPLÉMENTS

1.4 Structure d’algèbre


1.4.1 Définitions
Soit K un corps.
Définition 18

On appelle K−algèbre un quadruple (A , +, ×, .) tel que :


(1) (A , +, ×) est un anneau.
(2) (A , +, .) est un K−espace vectoriel.
(3) ∀(α ∈ K)(∀(x, y) ∈ A 2 ) α.(x × y) = x × (α.y) = (α.x) × y.

Remarques On retient les remarques suivantes :


1. Si on ajoute :
(4) × est commutative,
on parle d’algèbre commutative.
2. Notons que si (A , +, ×, .) est une algèbre alors × admet un élément neutre
1A .
3. Si (A , +, ×, .) est une K−algèbre alors pour tous x, y ∈ A et tous α, β ∈ K,
on a
(αβ).(x × y) = (α.x) × (β.y) = x × ((αβ).y) = ((α.(β.x)) × y = ...

Exemples :
1. Si (K, +, ×) est un corps alors (K, +, ×, .) est une K−algèbre.
2. Si X est un ensemble non vide et A est une K−algèbre alors (A X , +, ×, .)
est une K−algèbre, avec f + g(x) = f (x) + g(x) ; f × g(x) = f (x) × g(x) et
(α.f )(x) = α.f (x), pour tout x, y ∈ X et α ∈ K.
3. (K[X], +, ×, .) est une K−algèbre commutative.
4. (L(E), +, ◦, .) et (Mn (K), +, ×, .) sont des K−algèbres.

1.4.2 Sous-algèbre
Définition 19

Soit A une algèbre. On appelle sous-algèbre de A toute partie A ′ de A tel


que :
(1) A ′ est un sous-anneau de l’anneau A .
(2) A ′ est un sous-espace vectoriel de l’espace vectoriel A .

Remarque Si A ′ est une sous-algèbre de A alors A ′ est stables par toutes les lois
de A et (A ′ , +, ×, .) est une K−algèbre.
1.4. STRUCTURE D’ALGÈBRE 37

Proposition 36

Pour que A ′ soit uns sous-algèbre de A , il suffit que :


1. 1A ∈ A ′
2. ∀λ ∈ K, ∀(x, y) ∈ A ′2 , x + λy ∈ A ′
3. ∀(x, y) ∈ A ′2 , xy ∈ A ′

Exemples Dans tout ce qui suit K désigne R ou C et n est un entier naturel non
nul.
1. Tn+ (K) et Tn− (K) ensembles des matrices triangulaires supérieures et infé-
rieures respectivement sont des sous-algèbres de Mn (K). Leur intersection
Dn (K), l’ensemble des matrices diagonales est aussi une sous-algèbre de Mn (K).
Xm
2. Soit A une matrice fixée de Mn (K) et pour tout polynôme P = ak X k on
k=0
m
X
pose P (A) = ak Ak . On verra loin en algèbre linéaire que si A ∈ Mn (K)
k=0
alors K[A] = {P (A)/P ∈ K[X]} est une sous-algèbre commutative de Mn (K),
appelée l’algèbre des polynômes en A.
3. Plus généralement si A est une K−algèbre et θ ∈ A, alors K[θ] = {P (θ)/P ∈
K[X]} est une sous-algèbre commutative de A.

1.4.3 Morphisme d’algèbre


Définition 20

On appelle morphisme d’une algèbre A , +, ×, .) vers une algèbre A ′ , +, ×, .)


toute application f : A → A ′ tel que :
1. f est un morphisme d’espace vectoriels de A vers A ′
2. f est un morphisme d’anneaux de A vers A ′ .

Proposition 37

Pour que f soit un morphisme d’algèbre de A vers A ′ il faut et il suffit que :


1. f (1A ) = 1A ′
2. ∀(λ, x, y) ∈ K × A × A , f (x + λy) = f (x) + λf (y).
3. ∀(x, y) ∈ A 2 f (xy) = f (x)f (y).
38CHAPITRE 1. GROUPES, ANNEAUX : RAPPELS ET COMPLÉMENTS

Proposition 38

Soit f : A → A ′ un morphisme d’algèbres de l’algèbre A vers l’algèbre A ′ ;


alors f (A ) est une sous-algèbre de A ′ . Si de plus A est commutative, il en est
de même de f (A ).
Chapitre 2

Réduction des endomorphismes

2.1 Rappels et Compléments


2.1.1 Famille génératrice, famille libre, base, dimension
2.1.1.1 Généralités
Soit K un corps. Si A = (αi )i∈I est une famille d’éléments de K, on appelle support
de A l’ensemble :
Supp(A ) = {i ∈ I/αi ̸= 0}
Si Supp(A ) est une partie finie de I, on dit que la famille A est à support fini.
On note K[I] l’ensemble des familles d’éléments de K à support fini de K. On observe
que K[I] ⊂ KI .
Si E est un K−espace vectoriel et A = (αi )i∈I est une famille à support fini non
X vide
I = Supp(A ) alors pour toute famille (xi )i∈I de vecteurs de E, la somme α i xi
i∈I
est pourvu de sens , par définition :
X X
αi xi = α i xi .
i∈I i∈I
X
Par convention, si Supp(A ) = ∅ alors αi xi = 0.
i∈I

Définition 21

On appelle combinaison linéaire des vecteurs xi , i ∈ I toute somme de la forme


X
αi xi où (αi )i∈I est une famille de scalaires à support fini.
i∈I

Définition 22

Soit X = (xi )i∈I une famille de vecteurs de E.


1. On dit que X est génératrice si tout vecteur de E est combinaison linéaire
des xi , i ∈ I.

39
40 CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES

2. On dit que la famille X est libre si l’unique combinaison linéaire des xi


nulle est celle à support vide, c’est-à-dire
X
αi xi = 0 ⇒ ∀i ∈ I, αi = 0
i∈I

3. On dit que la famille X est liée si elle Xn’est pas libre, donc s’il existe
(αi )i∈I à support fini non vide tel que αi xi = 0.
4. On appelle base de E une famille de vecteurs à la fois génératrice et libre.

Remarques Toutes les remarques suivantes sont utiles en pratique.


1. Pour montrer qu’une famille (ei )i∈I est génératrice il suffit de prouver que pour
tout x ∈ E, il existe i1 , · · · , is ∈ I et des scalaires λi1 , · · · , λis tel que
s
X
x= λik eik
k=1

2. Une famille F de vecteurs de E est libre si et seulement si toute sous-famille


finie de F est libre.
3. Pour montrer qu’une famille (ei )i∈I est libre il suffit de prouver que pour tout
s ∈ N∗ et tous i1 , · · · , is ∈ I et tous λi1 , · · · , λis ∈ K, on a :
s
X
λik eik = 0 ⇒ λik = 0, ∀k ∈ [[1, s]].
k=1

4. Si on indexe par N, on dispose , une famille (vi )i∈N est libre si et seulement si
pour tout m ∈ N, la famille (vi )0≤i≤m est libre.

2.1.1.2 Exemples
Exemple 1 :
Soit E = C (R, R) l’espace des applications continues de R vers R et pour tout
n ∈ N, on pose fn (x) = cos(nx) pour tout x ∈ R. La famille (fn )n∈N est libre. En
effet si N ∈ N et λ0 , · · · , λN ∈ R tel que :
N
X
λk fk = 0,
k=0

Il en découle que :
N
X
∀t ∈ [0, π], λk cos(kt) = 0,
k=0

alors si j ∈ [[0, N ]] fixé, on a :


N
X
∀t ∈ [0, π], λk cos(kt) cos(jt) = 0,
k=0
2.1. RAPPELS ET COMPLÉMENTS 41

En intégrant sur l’intervalle [0, π], il vient :


Z N
πX
λk cos(kt) cos(jt)dt = 0
0 k=0

Donc
N Z
X π
λk cos(kt) cos(jt)dt = 0
k=0 0

Autrement dit :
Z π N
X Z π
2
λj cos (jt)dt + λk cos(kt) cos(jt)dt = 0
0 k=0 0
k̸=j

• Pour tout k ∈ [[0, N ]], tel que k ̸= j, on a :


Z π Z π
1
cos(kt) cos(jt)dt = (cos(k − j)t + cos(k + j)t)dt
0 0 2
 π  π
1 1 1 1
= sin(k − j)t + sin(k + j)t
2 k−j 0 2 k+j 0
= 0

Z π
• Par ailleurs, si j = 0, on a cos2 (jt)dt = π.
Z π 0 Z π
2 1 + cos(2jt) π
• Si j ̸= 0, alors cos (jt)dt = dt =
0 0 2 2
• Tenant compte de ces résultats, on a λj = 0.
• Ceci étant pour tout j ∈ [[0, N ]] donc la famille (fk )k∈[[0,N ]] est libre, comme c’est
vrai pour tout N ∈ N, la famille (fn )n∈N est libre.
Exemple 2 :
Soit E = C (R, R) l’espace des applications continues de R vers R et pour tout
n ∈ N, on pose gn (x) = cosn x pour tout x ∈ R. La famille (gn )n∈N est libre. En
X N
effet si N ∈ N et λ0 , · · · , λN ∈ R tel que λk gk = 0 alors si j ∈ [[0, N ]] fixé, on
k=0
N
X
a pour tout t ∈ [−1, 1], λk tk = 0 (il suffit de considérer x = arccos(t)), donc
k=0
N
X
le polynôme P = λk X k admet une infinité de zéros, à savoir, tout élément de
k=0
[−1, 1], donc P = 0 donc ses coefficients sont nuls, donc λ0 = · · · = λN = 0, ce
qui termine comme dans l’exemple précédent la preuve de la liberté de la famille
(gn )n∈N .

2.1.1.3 Sous espace vectoriel engendré par une famille ou une partie
42 CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES

Proposition-Définition 1

Soit E = (ei )i∈I une famille quelconque de vecteurs. L’ensemble


( )
X
[I]
Vect(E ) = λi ei /(λi )i∈I ∈ K
i∈I

est un sous-espace vectoriel de E appelé sous-espace engendré par la famille


(ei )i∈I

Proposition 39

Soit E un K−espace vectoriel et A est une partie de E. L’ensemble des com-


binaisons linéaires des éléments de A est un sous-espace vectoriel de E appelé
sous-espace vectoriel engendré par A. On le note Vect(A). Si on note E la famille
E = (a)a∈A , on a :
( )
X
Vect(A) = Vect(E ) = λa a/(λa ) ∈ K[A]
a∈A

Remarques On peut faire les remarques suivantes :


1. Vect(A) est l’intersection de tous les sous-espaces vectoriels de E contenant
A.
2. Vect(A) est le plus petit sous-espace vectoriel de E contenant A.
3. (a)a∈A est une famille génératrice de Vect(A).
4. Si F est un sous-espace vectoriel de E alors Vect(F ) = F . En particulier pour
toute partie A de E on a Vect(Vect(A)) = Vect(A).
5. Vect(∅) = {0} et Vect(E) = E

2.1.1.4 Cas spécifique des polynômes


On dispose des propriété suivantes :
Proposition 40

Si E = (Pn )n∈N est une famille de polynômes tel que deg(Pn ) = n pour tout
n ∈ N alors E est une base de K[X]

Preuve:
Pour tout n ∈ N, la famille En = (Pk )0≤k≤n est une famille libre car s’il existe
Xn
(αk )0≤k≤n famille de scalaires non tous nuls tel que αk Pk = 0, alors en
k=0
nommant ℓ le plus grand indice appartenant à [[0, n]] tel que αℓ ̸= 0, on a
2.1. RAPPELS ET COMPLÉMENTS 43

nécessairement ℓ > 0 et
ℓ−1
X
α ℓ Pℓ = − αk P k ,
k=0

chose impossible car égalité entre un polynôme de degré ℓ et un autre de degré


strictement inférieur à ℓ. Ceci démontre la liberté de E . Si Q est un polynôme
non nul de degré n alors Q ∈ Kn [X]. Or la famille En libre dans Kn [X] et
comportant n + 1 vecteur s avec n + 1 = dim(Kn [X]), la famille En est une base
donc une famille génératrice de Kn [X], donc P est une combinaison linéaire
des vecteurs de En , à fortiori de ceux de E . Finalement E à la fois libre et
génératrice est donc une base de K[X].

Corollaire 6

Si I est une partie non vide de N et (Pi )i∈I est une famille de polynômes de
K[X] tel que pour tout i, j ∈ I on a i ̸= j ⇒ deg(Pi ) ̸= deg(Pj ) alors la famille
(Pi )i∈I est libre.

Corollaire 7

Si P0 , · · · , Pn sont des polynômes de Kn [X] de degrés deux à deux distincts


alors (P0 , · · · , Pn ) est une base de Kn [X].

2.1.2 Somme de sous-espaces vectoriels


2.1.2.1 Définition, caractérisation

Définition 23

Soit m ∈ N tel que m ≥ 2 , E1 , · · · , Em des sous espaces vectoriels de E. On


m
X
définit la somme Ek = E1 + · · · + Em des sous espaces vectoriels Ek par :
k=1

m
( m )
X X
Ek = xk /∀k ∈ [[1, m]], xk ∈ Ek
k=1 k=1

Remarques On peut faire les remarques suivantes :


m
!
X [
1. On a Ek = Vect Ek
k=1
n
Y m
X m
X
2. Si Φ : Ek → E; x = (x1 , · · · , xm ) 7→ Φ(x) = xk alors Ek = Im Φ.
k=1 k=1 k=1
44 CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES

m
X
Soit E1 , · · · , Em , F des sous-espaces vectoriels de E et F = Ek . Si :
k=1

m
X
∀x ∈ F, ∃!(x1 , · · · , xm ) ∈ E1 × · · · × Em , x= xk
k=1

m
Y
ce qui revient à dire que l’application Φ ci-dessus induit un isomorphisme de Ek
k=1
m
X
vers F , on dit que la somme F = Ek est directe. On note
k=1

m
M
F = Ek .
k=1

m
X
Pour tout j ∈ [[1, m]], on pose : E
cj = Ek .
k=1
k̸=j

Proposition 41

Soit E1 , · · · , Em , F des sous-espaces vectoriels de E. Les assertions suivantes


sont équivalentes :
Mm
(1) Ek = F
k=1
 m
 X


 Ek = F
(2) k=1



∀j ∈ [[1, m]], Ej ∩ E
cj = {0}

 m
 X
Ek = F




k=1
(3) mY m
X




 ∀(x 1 , · · · , xm ) ∈ E k , xk = 0 ⇒ x1 = · · · = x m = 0
k=1 k=1
Si E1 , · · · , Em , F son de dimensions finies, alors les assertions ci-dessus sont
équivalentes à :
 m
 X
Ek = F




k=1
(4) X m




 dim(Ek ) = dim(F )
k=1
2.1. RAPPELS ET COMPLÉMENTS 45

2.1.2.2 Projections associées à une somme directe


Soit E un K−espace vectoriel, m un entier naturel non nul et E1 , · · · , Em des sous-
m
M
espaces vectoriels de E tel que Ek = E. Pour tout k ∈ [[1, m]], on note comme
k=1
m
M
en haut E
ck = Ej et πk la projection de E sur Ek parallèlement à E
ck . Alors on
j=1
j̸=k
la proposition suivante :

Proposition 42

On a : m
X
πk = IdE .
k=1

En particulier, pour toute endomorphisme f de E, on a :


m
X m
X
f= f ◦ πk = πk ◦ f
k=1 k=1

2.1.3 Application linéaire canoniquement associée à une ma-


trice.
n et p sont deux entiers naturels non nuls et Mn,p (K) désigne le K−espace vectoriel
des matrices à n lignes et p colonnes et à coefficients dans K. On rappelle que
cet espace vectoriel est isomorphe à L(Kp , Kn ), l’espace vectoriel des applications
linéaires de Kp vers Kn . On dispose notamment de l’isomorphisme canonique :

Φ : L(Kp , Kn ) → Mn,p (K); f 7→ Φ(f ) = matC ,B ,

qui associe à toute application linéaire f ∈ L(Kp , Kn ) la matrice Φ(f ) = M qui repré-
sente f dans les bases canoniques respectives C = (ω1 , · · · , ωp ) et B = (e1 , · · · , en )
de Kp et Kn . En particulier, on a : dim (L(Kp , Kn )) = dim (Mn,p (K)) = np. On
dispose donc de l’isomorphisme Ψ = Φ−1 qui associe à chaque matrice M l’unique
application linéaire fM de Kp vers Kn tel que matC ,B fM = M . On peut donc dire
que si
p
X
X= xj ωj = (x1 , · · · , xp ),
j=1

qu’on identifie à la matrice colonne de coefficients x1 , · · · , xp , donc


 
x1
X =  ...  ,
 
xp

alors fM (X) = M X.
46 CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES

Définition 24

Soit M ∈ Mn,p (K). On appelle l’application linéaire canoniquement associée à


M , l’application fM : Kp → Kn tel que

∀X ∈ Kp , fM (X) = M X

C’est l’application linéaire dont M est la matrice relativement aux bases canoniques
respectives de Kp et Kn .

Remarques 1. Si on désire éviter l’identification des colonnes et des lignes de


même taille une définition rigoureuse de fM est pour x ∈ Kp ,

fM (x) = t(M tx) = xtM

2. Une autre façon de faire est de prendre :

fM : Mp,1 (K) → Mn,1 (K), X 7→ fM (X) = M X.

3. Dans le cas particulier n = p, la matrice M et une matrice carrée , M ∈ Mn (K)


et fM est un endomorphisme appelé l’endomorphisme canoniquement associé
à M.

2.1.4 Changement de base


2.1.4.1 Matrice d’une famille de vecteurs relativement à une base.

Définition 25

Soit E un K−espace vectoriel de dimension finie non nulle n et E = (e1 , · · · , en )


une base de E. Si V = (v1 , · · · , vp ) est une famille de vecteurs de E, on appelle
matrice de V dans B la matrice A ∈ Mn,p (K) telle que :

A = (ai,j )1≤i≤n
1≤j≤p

avec : n
X
∀j ∈ [[1, p]] vj = ai,j ei
i=1

2.1.4.2 Changement de bases


Soit E un K−espace vectoriel de dimension n avec n ∈ N∗ . Si B et B ′ sont deux
bases de E, on appelle la matrice de passage de B à B ′ la matrice carré P de la
famille B ′ relativement à la base B, donc

P = matB (B ′ )
2.1. RAPPELS ET COMPLÉMENTS 47

Autrement dit, si B = (e1 , · · · , en ) et B ′ = (e′1 , · · · , e′n ) et si pour tout j ∈ [[1, n]],


on a : n
X

ej = pij ei
i=1
alors
P = (pij )1≤i,j≤n
Comme e′j = Ide (e′j ), pour tout j ∈ [[1, n]], il en découle que P n’est autre que la
matrice relativement à B ′ et B dans cet ordre de l’application identité de E, donc :
P = matB′ ,B IdE
B ′
Notation : On note PB la matrice de passage de B à B ′ .

Proposition 43

Si B, B ′ , B ′′ sont des bases de E, alors on a :


B
1. PB = In
B ′ B ′′ B ′
2. PB = PB × PB ′′
 −1
B B′
3. PB ′ = PB .

Proposition 44

Si B et B ′ sont deux bases de E et x un vecteurs de colonnes de coordonnées


B′
respectives dans B et B ′ sont X et X ′ alors X = P X ′ où P = PB est la
matrice de passage de B à B ′ .

Proposition 45

Soient E et F sont deux K−espaces vectoriels de dimensions finies non nulle p


et n respectivement. Soient B et B ′ deux bases de E et C et C ′ deux bases de
B′
et Q = PCC les matrices de passages respectives. Pour

F . On note P = PB
toute application linéaire f de E vers F , si M = matB,B′ (f ) et M ′ = matC ,C ′ (f )
alors M ′ = Q−1 M P .

2.1.5 Matrices carrées semblables


2.1.5.1 Matrices semblables

Définition 26

Deux matrices carrées M et M ′ de taille n à coefficients dans K sont semblables


s’il existe une matrice inversible P de taille n à coefficients dans K tel que
M ′ = P −1 M P
48 CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES

Proposition 46

Deux matrices A et B de Mn (K) sont semblables si et seulement si il existe deux


bases B et C d’un espace vectoriel E de dimension n et un endomorphisme u
de E tel que :
matB (u) = A et matC (u) = B

On dit que A et B représentent le même endomorphisme u dans les bases respectives


B et C .

Proposition 47

Si deux matrices sont semblables elles ont même rang, même déterminant et
même trace.

Attention ! Deux matrices peuvent avoir même rang, même déterminant, même
trace sans qu’elles soient semblables
Contre-exemple : Prenons :
   
1 0 0 0 0 0
A=  0 0 0  et B =  1 0 0 
1 1 −1 1 1 0

On a rg (A) = rg (B) = 2 et det(A) = det(B) = 0 et tr(A) = tr(B) = 0, cependant,


les matrices A et B ne sont pas semblables car, par exemple, B 3 = 0, mais A3 ̸= 0
car la diagonale de A3 est composée de 1, 0 et −1. Si A et B étaient semblables on
aurait A = P BP −1 pour un P ∈ GLn (K), par suite, on aurait A3 = 0, chose fausse.

2.1.5.2 Déterminant et trace d’un endomorphisme en dimension finie


La proposition 47 ci-dessus permet de donner la définition suivante du déterminant
et la trace d’un endomorphisme en dimension finie.

Définition 27

Soit E un K−espace vectoriel de dimension finie non nulle, et soit f un endo-


morphisme de E. On appelle déterminant de f (rep. trace de f ) le déterminant
(resp. la trace) d’une matrice représentant f dans une base quelconque de E

2.1.6 Rang
2.1.6.1 Définitions
2.1. RAPPELS ET COMPLÉMENTS 49

Définition 28

Soit E un K−espace vectoriel et U = (ui )i∈I une famille de vecteurs de E. Si


Vect(U ) est de dimension finie alors l’entier naturel n = dim(Vect(U )) s’appelle
le rang de la famille U , noté rg (U ).

Proposition 48

Soient E et F deux K−espaces vectoriels et f ∈ L(E, F ) une application linéaire


de E vers F . Pour toute famille U = (xi )i∈I de vecteurs de E, on note f (U ) =
(f (xi ))i∈I . Si le rang de U existe alors celui de f (U ) existe et on a :

rg (f (U )) ≤ rg (U )

Preuve:
Si rg (U ) = 0 alors xi = 0, pour tout i ∈ I, par suite f (xk ) = 0 pour
tout i ∈ I, donc f (U ) est la famille nulle indexée par I donc elle est de
rang 0. Si rg (U ) = r > 0. Comme r = dim(Vect(U )), il existe une base
de Vect(U )) à r vecteurs. Soit V = (v1 , · · · , vr ) une telle base. Il en découle
que Vect(f (U )) = Vect(f (V )) = Vect(f (v1 ), · · · , f (vr )), donc f (V ) est une
famille génératrice de Vect(f (U ) qui possède r vecteurs donc la dimension de
dim(Vect(f (U ))) ≤ r = rg (U ).

Définition 29

Soient E et F deux K−espaces vectoriels et f ∈ L(E, F ) une application linéaire


de E vers F . Si Im(f ) est un sous-espace vectoriel de dimension finie de F , alors
l’entier naturel n = dim(Im(f )) est appelé rang de f , noté rg (f ).

Remarque Soit f ∈ L(E, F ), alors le rang de f existe dans chacun des cas suivants :
1. Si E est de dimension finie et F quelconque.
2. Si E est quelconque et F de dimension finie.

Preuve:
• Si F de dimension finie alors Im(f ) est un sous-espace vectoriel de F , donc
Im(f ) est de dimension finie, par suite le rang de f existe.
• Si E est de dimension finie alors si U est une famille génératrice finie de E
alors Vect(f (U )) est une famille génératrice de Im(f ). Or d’après la proposition
48, on a rg (f (U )) existe et rg (f (U )) ≤ rg (U ), ce qui finit la preuve de la
remarque.
50 CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES

Définition 30

Soit n, p ∈ N∗ et A ∈ Mn,p (K). On appelle rang de A le rang de l’application


linéaire φA canoniquement associée à A. On note rg (A).

Proposition 49

Si A ∈ Mn,p (K) de colonnes C1 , · · · , Cp et de lignes L1 , · · · , Ln alors :

rg (A) = rg (C1 , · · · , Cp ) = rg (L1 , · · · , Ln )

Proposition 50

Si A ∈ Mn,p (K) ; alors rg (A) = rg (t A).

Proposition 51

Si A ∈ Mn,p (K) ; alors pour tout (P, Q) ∈ GLn (K) × GLp (K), on a :

rg (A) = rg (P AQ) = rg (P A) = rg (AQ).

Corollaire 8

Soit A ∈ Mn,p (K). Le rang de A ne change pas par l’une des opérations sui-
vantes :
1. Li ← Li + αLj , i ̸= j où i, j ∈ [[1, n]] avec i ̸= j et α ∈ K.
2. Li ← αLi où i ∈ [[1, n]] et α ∈ K et α ̸= 0.
3. Li ↔ Lj où i, j ∈ [[1, n]] avec i ̸= j
La même conclusion est valables avec le opérations sur les colonnes.

2.1.6.2 Théorème du rang

Lemme 1

E et F sont deux K−espaces vectoriels , E étant de dimension finie. Soit f ∈


L(E, F ) une application linéaire de E vers F et E ′ un supplémentaire de ker f
dans E, c’est-à-dire E = ker f ⊕ E ′ , alors l’application linéaire f ′ : E ′ → F ′ =
Im f ; x 7→ f ′ (x) = f (x) est un isomorphisme d’espaces vectoriels.
2.1. RAPPELS ET COMPLÉMENTS 51

Preuve:
x ∈ E′

′ ′
Si x ∈ E tel que f (x) = 0 alors par suite x ∈ E ′ ∩ ker(f ) d’où
f (x) = 0
x = 0. Ainsi f ′ est injective.
′′
Soit y ∈ Im(f ) donc il existe x ∈ E tel que f (x) = y. Écrivons x = x′ + x avec
′′
x′ ∈ E ′ et x ∈ ker(f ) alors f (x) = f (x′ ), et comme x′ ∈ E ′ , on y = f (x′ ) =
f ′ (x′ ), donc f est surjective.

Remarque I

en découle, en particulier, que l’application linéaire fe : E ′ → F ; x 7→ fe(x) = f (x)


est injective.

Théorème 5

(Théorème du rang) : E et F sont deux K−espaces vectoriels , E étant de


dimension finie. Soit f ∈ L(E, F ) une application linéaire de E vers F , alors

dim(E) = rg (f ) + dim(ker f ).

Preuve:
En adoptant les notations du lemme, on a rg (f ) = rg (f ′ ) . comme f ′ est un
isomorphisme, on a dim(E ′ ) = dim(Im(f )) = rg (f ), donc rg (f ) = dim(E ′ ).
Comme ker(f )⊕E ′ = E, on a dim(E ′ ) = dim(E)−dim(ker(f )), d’où la formule
du rang ci-dessus.

Remarques Les remarques suivantes sont utiles en pratique :


1. Soit f ∈ L(E, F ) avec E et F de dimensions finies. Alors :
(a) f est injective si et seulement si rg (f ) = dim(E)
(b) f est surjective si et seulement si rg (f ) = dim(F )
2. Soit n, p ∈ N∗ , M ∈ Mn,p (K) une matrice et φM l’application linéaire cano-
niquement associée à M , alors :
(a) rg (M ) = p si et seulement si p ≤ n et φM est injective.
(b) rg (M ) = n si et seulement si n ≤ p et φM est surjective.
3. Si E est un K−espace vectoriel de dimension n et f ∈ L(E) alors f est bijectif
si et seulement si rg (f ) = n.
4. Si n ∈ N∗ et A ∈ Mn (K), alors A est inversible si et seulement si rg (A) = n.
5. Si E, F, G sont des K−espaces vectoriels et f ∈ L(E, F ) et g ∈ L(F, G) alors :
rg (g ◦ f ) ≤ min(rg (f ), rg (g)).
6. Si n, r, p ∈ N∗ alors pour tout A ∈ Mn,r (K) et tout B ∈ Mr,p (K), on a :
rg (AB) ≤ min(rg (A), rg (B)).
52 CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES

2.1.6.3 Matrices équivalentes


Deux matrices A, B ∈ Mn,p (K) sont équivalentes si :
∃P ∈ Gln (K), ∃Q ∈ GLp (K), B = P AQ
La relations ARB ⇔ A et B sont équivalentes est une relation d’équivalence. Si
A ∈ Mn,p (K) tel que rg (A) = r, alors la classe d’équivalence de A pour la relation
R est :
cl(A) = {M ∈ Mn,p (K)/ rg (M ) = r}
En particulier :
1. Deux matrices A et B de Mn (K) sont équivalentes si et seulement si elles ont
même rang.
2. Pour toute matrice A de Mn,p (K) de rang r avec r > 0, la matrice A est
équivalente à la matrice Jn,p,r avec :
 
Ir 0r,p−r
Jn,p,r =
0n−r,r 0n−r,p−r
3. Pour la relation R, il y’a exactement m classes d’équivalence où m = min(n, p)
qui sont :
cl(0n,p ) et cl(Jn,p,r ), r ∈ [[1, m]].
Si deux matrices carrée sont semblables alors elles sont équivalentes et la réciproque
est fausse.

2.1.7 Déterminant
2.1.7.1 Définition, propriétés

Définition 31

Soit n ∈ N tel que n ≥ 2 et E un K−espace vectoriel de dimension n. On appelle


forme n−linéaire sur E, toute application ϕ : E n → K linéaire par rapport à
chaque xi de x = (x1 , · · · , xn ) ∈ E n .

Proposition 52

Soit n ∈ N tel que n ≥ 2 et E un K−espace vectoriel de dimension n et


ϕ : E n → K une forme n−linéaire.
Les assertions suivantes sont équivalentes :
(1) Pour tout X = (x1 , · · · , xn ) ∈ E n et toute permutation σ ∈ Sn , on a
ϕ(Xσ ) = ε(σ)ϕ(X) où Xσ = (xσ(1) , · · · , xσ(n) ) et ε(σ) la signature de la
permutation σ.
(2) Pour tout X = (x1 , · · · , xn ) ∈ E n et toute transposition τ ∈ Sn , on a
ϕ(Xτ ) = −ϕ(X) .
(3) Pour tout X = (x1 , · · · , xn ) ∈ E n s’il existe (i, j) ∈ [[1, n]]2 tel que i ̸= j
et xi = xj alors ϕ(X) = 0.
2.1. RAPPELS ET COMPLÉMENTS 53

(4) Pour toute famille X = (x1 , · · · , xn ) ∈ E n , si X est liée alors ϕ(X) = 0.

Définition 32

Soit n ∈ N tel que n ≥ 2 et E un K−espace vectoriel de dimension n. On


appelle forme n−linéaire alternée sur E toute application n−linéaire de E n vers
K vérifiant l’une des assertions (1),(2),(3),(4) de la proposition 52

Proposition 53

Soit n ∈ N tel que n ≥ 2 et E un K−espace vectoriel de dimension n. On note


An (E) l’ensemble des formes n−linéaire alternée sur E. Alors An (E) est une
droite vectoriel.

Proposition-Définition 2

Soit n ∈ N tel que n ≥ 2 et E un K−espace vectoriel de dimension n et B une


base de E ; alors il existe une et une seule forme n−linéaire alternée ϕ sur E tel
que ϕ(B) = 1. Cette unique forme n−linéaire alternée est appelée déterminant
par rapport à B et notée det.
B

Proposition 54

Soit n ∈ N tel que n ≥ 2 et E un K−espace vectoriel de dimension n et


E = (e1 , · · · , en ) une base de E . Si U = (u1 , · · · , un ) est une famille de n
vecteurs de E et si : n
X
∀j ∈ [[1, n]], uj = uij ei
i=1

alors n n
X Y X Y
det(U ) = ε(σ) ui,σ(i) = ε(σ) uσ(j),j
E
σ∈Sn i=1 σ∈Sn j=1

2.1.7.2 Résumé des propriétés du déterminant d’une famille de vecteurs


E est un K−espace vectoriel de dimension n (n ∈ N∗ ). On a les propriétés suivantes :
1. Si B est une base de E alors pour toute famille F de vecteurs de E, on a :
det(F ) = 0 si et seulement si F est liée.
B
2. Si B et B ′ sont deux bases de E et F une famille de vecteurs de E alors :
det′ (F ) = det′ (B) det(F )
B B B
54 CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES

Preuve:
Puisque les formes n−linéaires alternées forment une droite vectorielle, et
que det est non nulle, il existe λ ∈ K tel que : det′ = λ det. En appliquant
B B B
B et compte tenu de det(B) = 1, il vient λ = det′ (B), donc, pour toute
B B
famille F de vecteurs de E, on a : det′ (F ) = det′ (B) det(F ), ce qui
B B B
termine la preuve.

n
X
3. Soit F = (x1 , · · · , xn ) ∈ E n , k ∈ [[1, n]], x′k = xk + λj xj (où les λj j ∈
j=1
j̸=k
[[1, n]]\{k} sont des scalaires) et F ′ = (y1 , · · · , yn ) avec

xj si j ̸= k
∀j ∈ [[1, n]], yj =
x′k si j = k

alors det(F ) = det(F ′ ).


B B
On exprime ça en disant que : Le déterminant d’une famille de vecteur ne
change pas si on remplace un vecteur par lui même ajouté à une combinaison
linéaire des autres.
4. Si on permute deux vecteurs d’une famille, le déterminant est multiplié par
−1. Généralement si σ ∈ Sn et F = (x1 , · · · , xn ) ∈ E n alors :

det(xσ(1) , · · · , xσ(n) ) = ε(σ) det(x1 , · · · , xn )


B B

où ε(σ) est la signature de σ.


5. Si on multiplie un vecteur par un scalaire, le déterminant de la famille obtenue
est multiplié par ce scalaire.

2.1.7.3 Résumé concernant le déterminant des matrices carrées


1. Si A ∈ Mn (K) de colonnes C1 , · · · , Cn et de lignes L1 , · · · , Ln et si on note
respectivement C et L les bases canoniques de Mn,1 (K) et M1,n (K) alors

det(A) = det(C1 , · · · , Cn ) = det(L1 , · · · , Ln )


C L

2. Si A = (aij )1≤i,j≤n ∈ Mn (K) alors


X n
Y X n
Y
det(A) = ε(σ) ai,σ(i) = ε(σ) aσ(j),j
σ∈Sn i=1 σ∈Sn j=1

3. Pour toute A ∈ Mn (K), on a : det(A) = det(t A)


4. Si A = (aij )1≤i,j≤n ∈ Mn (K) alors pour tout (i, j) ∈ [[1, n]]2 , on a :
n
X n
X
det(A) = (−1)i+k aik det(Aik ) = (−1)k+j akj det(Akj )
k=1 k=1
2.1. RAPPELS ET COMPLÉMENTS 55

où Akℓ est la matrice carrée de taille n − 1 obtenue après suppression de la


ligne k et la colonne ℓ.
Si on note
Dij = det(Aij )
et
∆ij = (−1)i+j det(Aij )
on donne les appellations suivantes :
Dij : mineur.
∆ij : cofacteur.
On définit la comatrice de A : c’est la matrice dont le terme général est le
cofacteur ∆ij , notée Com(A) ; donc :

Com(A) = (∆ij )1≤i,j≤n

La matrice complémentaire de A est :


t
A
e= Com(A)

5. Si A, B ∈ Mn (K). Si A ≃ B (A et B sont semblables) alors det(A) = det(B).


6. Pour toute A, B ∈ Mn (K), on a : det(AB) = det(A) det(B).
En particulier : ∀m ∈ N, det(Am ) = (det(A))m .
7. Soit A ∈ Mn (K) ; alors A est inversibles si et seulement si det(A) ̸= 0, auquel
cas on a :
det(A−1 ) = (det(A))−1
Notons que si A est inversible alors ∀k ∈ Z, det(Ak ) = (det(A))k .
8. Pour tout A ∈ Mn (K) on a :

A ×t (Com(A)) = t (Com(A)) × A = det(A)In .

Autrement dit :
A×A e × A = det(A)In .
e=A

9. Pour tout λ ∈ K et toute A ∈ Mn (K), on a : det(λA) = λn det(A)


10. Si u ∈ L (E) alors det(u) = det(A) où A matrice représentant u dans une
base quelconque.

2.1.7.4 Opérations sur les lignes et le colonnes


X
Ci ← Ci + λj Cj ne change pas det(A)
j̸=i
Ci ↔ Cj change le signe de det(A)
Ci ← αCj multiplie det(A) par α

2.1.7.5 Déterminant de matrices triangulaires par blocs


56 CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES

Proposition 55
 
M N
Si A = est une matrice triangulaire par blocs où M ∈ Md (K) et
0 R
R ∈ Mq (K) avec d, q ∈ N∗ . alors :

det(A) = det(M ) det(R).

Preuve:
On écrit :      
M N Id 0 M N
A= = ×
0 R 0 R 0 Iq
et on se ramène à un cas simple qui se traite par récurrence.

Proposition 56
 
A1
Soit A = 
 ..  une matrice triangulaire supérieure de s blocs alors

.
As
s
Y
det(A) = det(Ak ).
k=1

Preuve:
Par récurrence et d’après la proposition 55.

2.2 Polynômes d’endomorphismes, polynôme mini-


mal
2.2.1 Définitions
Soit E un K − espace vectoriel et u ∈ L (E). On définit :
 0
u = IdE
∀k ∈ N, uk+1 = u ◦ uk

Pour tout P ∈ K[X], tel que


m
X
P = ak X k = an X n + · · · + a1 X + a0 ,
k=0
2.2. POLYNÔMES D’ENDOMORPHISMES, POLYNÔME MINIMAL 57

on définit : m
X
P (u) = ak uk = am um + · · · + a1 u + a0 IdE .
k=0
Soit Θu l’application :
Θu : K[X] → L(E)
tel que
∀P ∈ K[X], Θu (P ) = P (u)

Proposition 57

Θu est un morphisme d’algèbre.


Im(Θu ) noté K[u] est une sous-algèbre commutative de L(E).
ker(Θu ) noté Iu où Ann(u) est un idéal de K[X].

Preuve:
Il s’agit de démontrer que :
1. Θu (1) = IdE
2. ∀P, Q ∈ K[X], ∀λ ∈ K, Θu (P + λQ) = Θu (P ) + λΘu (Q)
3. ∀P, Q ∈ K[X], ∀λ ∈ K, Θu (P Q) = Θu (P ) ◦ Θu (Q)
Considérons deux polynômes :
 m
X
ax X k

 P =



k=0
q
X
bk X k




 Q =
k=1

et si, par exemple, q < m, on peut écrire :


m
X
Q= bk X k
k=1

avec bk = 0 pour tout k tel que k > q, la même chose si q > m avec interversion
des rôles.
• Le premier point est immédiat par définition.
• Avec les notations ci-dessus, on a :
m
X
Θu (P + λQ) = (ak + λbk )uk
k=0
m q
X X
= ak uk + λ bk uk
k=0 k=0
= Θu (P ) + λΘu (Q)
58 CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES

m
X
• Commençons par le cas simple Q = X j , alors P Q = ak X k+j , par suite
k=0 !
m
X m
X m
X
k+j
Θu (P Q) = P Q(u) = ak u = ak u k ◦ u j = ak uk ◦ uj = P (u) ◦
k=0 k=0 k=0
Q(u) = Θu (P ) ◦ Θu (Q).
q
X
Pour le cas général : Θ(P Q) = bj P X j , donc
j=0

Θu (P Q) = P Q(u)
q
X
= bj P (u) ◦ uj
j=0
q
X
= P (u) ◦ bj uj
j=0
= P (u) ◦ Q(u)
= Θu (P ) ◦ Θu (Q)

Corollaire 9

Si P, Q ∈ K[X] alors :

∀u ∈ L (E), P (u) ◦ Q(u) = Q(u) ◦ P (u) = P Q(u)

Le corollaire ci-dessus est trés important en pratique, par exemple si on sait que
P (u)(x) = 0, pour un certain vecteur x de E et on part de l’expression P (u)(Q(u)(x)),
en utilisant le résultat du corollaire on aurait : P (u)(Q(u)(x)) = Q(u)(P (u)(x)) =
Q(u)(0) = 0

Proposition-Définition 3

Si Iu ̸= {0} alors il existe un unique polynôme unitaire πu ∈ K[X] tel que

Iu = πu (u)K[X].

Le polynôme πu s’appelle le polynôme minimal de l’endomorphisme u.

2.2.1.1 Exemples
1. Le polynôme minimal de l’endomorphisme nul est π0 = X
2. Soit h = α IdE une homothétie ; alors πh = X − α
3. Soit u un projecteur de E ; alors πu = X 2 − X si u ̸∈ {0, IdE }.
4. Soit s une symétrie de E non triviale ; alors πs = X 2 − 1.
2.2. POLYNÔMES D’ENDOMORPHISMES, POLYNÔME MINIMAL 59

2.2.1.2 Cas de la dimension finie

Proposition 58

Si E est de dimension finie alors le polynôme minimal existe pour tout endo-
morphisme de E

2.2.1.3 Contre-exemple
Soit E = R[X] et D : E → E défini par D(P ) = P ′ . Alors D n’admet pas de
polynôme minimal.

Preuve:
m
X
En effet si πD existe alors m = deg(πD ) ≥ 1. Posons πD = ak X k = am X m +
k=s
· · · as X s tel que as ̸= 0 et am = 1 ; donc πD (D) = Dm + · · · + as Ds . Comme
πD (D) = 0, on a en particulier πD (D)(X s ) = 0. Or Dk (X s ) = 0 pour tout
k > S, donc πD (D)(X s ) = s!as , donc s!as = 0, chose fausse puisque as ̸= 0.

2.2.2 Cas des matrices carrées


On donne de la même manière les définitions suivantes :
Définition 33

Soit A ∈ Mn [K]. Alors :


1. K[A] = {P (A)/P ∈ K[X]}la sous-algèbre commutative de Mn (K) des
matrices qui sont des polynômes en A.
2. IA = {P ∈ K[X]/P (A) = 0} : l’idéal des polynômes annulateurs de A.

Proposition-Définition 4

Pour tout n ∈ N∗ et toute matrice A de Mn (K), l’idéal IA est non nul, en


particulier il existe un et un seule polynôme unitaire πA tel que IA = πA K[X].
Le polynôme πA s’appelle le polynôme minimal de la matrice carrée A.

Proposition 59

Soit A ∈ Mn (K) et soit u l’endomorphisme canoniquement associé à A, alors :

Iu = IA et πu = πA
60 CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES

Proposition 60

Si A et B sont deux matrices semblables de Mn (K), précisément B = U −1 AU


avec U ∈ GLn (K) alors :
1. ∀P ∈ K[X], P (B) = U −1 P (A)U .
2. πA = πB et IA = IB .

Exemple Soit A une matrice carrée de Mn (K), n ≥ 2, tel que rg (A) = 1, alors

πA = X 2 − tr(A)X

Preuve:
Soit u l’endomorphisme canoniquement associé à A alors comme rg (A) = 1,
on a rg (u) = 1, donc par le théorème du rang, on a : dim(ker(u) = n − 1. Soit
V = (v1 , · · · , vn−1 , vn une base de Kn adaptée à une somme directe :

Kn = ker(u) ⊕ Kvn

La matrice de u relativement à la vase V est de la forme :


0 · · · 0 a1
 
 .. ..
 . . a2 

B= . .. 
 .. . 
0 · · · 0 an

Remarquons que B 2 = an B et que an = tr(B) = tr(A) = t, donc le polynôme


X 2 − tX est un polynôme annulateur de B, donc de A, donc πA ∈ {X, X −
t, X 2 − tX}. Si πA = X alors A = 0 et si πA = Xt alors A = tA choses non
vraies donc π = X 2 − tX = t2 − tr(A)X.

2.2.3 Quelques remarques importantes


Proposition 61

Soit E un K − espace vectoriel non nul et u ∈ L (E) admettant un polynôme


annulateur non nul. Si d = deg(πu ) alors la famille(IdE , u, · · · , ud−1 ) est une
base de K[u].
En particulier dim(K[u]) = deg(πu ).
2.2. POLYNÔMES D’ENDOMORPHISMES, POLYNÔME MINIMAL 61

Preuve:
d−1
X d−1
X
k
La famille est libre car si αk u = 0 le polynôme Q = αk X k est un
k=0 k=0
polynôme annulateur de u et si Q est non nulle cela contredirait la définition du
polynôme minimal, donc Q = 0 et les αk sont nuls. La famille est génératrice
car si P ∈ K[X] et R le reste de la division euclidienne de P par πu alors
P (u) = R(u) or R ∈ Kd−1 [X], ce qui établit le résultat.

Remarques Soit u ∈ L (E) tel que Iu ̸= {0} (donc le polynôme minimal de u


existe). On donne les remarques suivante :
1. Pour tout polynôme P ∈ K[X], on a P = πu si et seulement si les trois
conditions suivantes sont vérifiées :
(a) P est unitaire.
(b) P (u) = θ (autrement dit P ∈ Iu où Iu est l’idéal annulateur de u.)
(c) ∀Q ∈ K[X], Q(u) = θ ⇒ P |Q.
2. Le polynôme minimal πu de u est l’unique polynôme annulateur de u unitaire
de degré minimal.
3. On a deg(πu ) ≥ 1.
4. u est inversible si et seulement si πu (0) ̸= 0.

Preuve:
1. Par définition du polynôme minimal.
2. Si P est un polynôme annulateur unitaire de u alors πu |P , donc deg(πu ) ≤
deg(P ). Si P est un polynôme unitaire annulateur de u est de degré
minimal on aurait deg(P ) ≤ deg(πu ), et comme par ailleurs πu |P , on a
aussi deg(πu ) ≤ deg(P ), donc P et πu sont unitaires de même degré donc
égaux.
3. Sinon πu serait constant et comme πu (u) = θ, on aurait πu = 0, ce qui
n’est pas le cas.
4. On va démontrer deux implications :
• Si πu (0) = 0 alors X|πn , donc πu = XQ(X) avec Q ∈ K[X], donc
u◦Q(u) = θ. Si u est inversible alors en composant avec u−1 on a Q(u) = 0
ce qui est impossible car deg(Q) < deg(πu ).
• Réciproquement si πu (0) ̸= 0 alors πu = a0 + XQ(X) avec a0 = πu (0) ∈
K∗ et Q ∈ K[X], donc θ = πu (u) = a0 IdE +u ◦ Q(u), donc en posant
1
v = − Q(u) on a u ◦ v = v ◦ u = IdE , donc u est inversible et u−1 = v.
a0
62 CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES

2.3 Stabilité
2.3.1 Définitions et premières propriétés
Définition 34

Soit u ∈ L (E) et F un sous-espace vectoriel de E. On dit que F est stable par


u si u(F ) ⊂ F . Si c’est le cas u induit l’endomorphisme uF ∈ L (F ) tel que
uF (x) = u(x) pour tout x ∈ F appelé l’endomorphisme de F induit par u.

Exemples :

1. {0} et E sont stables par tout endomorphisme de E.


2. Si h est une homothétie alors tout sous-espace vectoriel de E est stable par h.

Proposition 62

Si u et v sont deux endomorphismes de E tel que u ◦ v = v ◦ u alors ker v et


Im v sont stables par u.

Preuve:
Soit x ∈ ker u alors u(v(x) = v(u(x)) = v(0) = 0, donc v(x) ∈ ker u. Soit
x ∈ Im u alors ∃y ∈ E tel que x = u(y) donc v(x) = v(u(y)) = u(v(y)) ∈ Im u

Remarques En particulier si P est un polynôme alors :


1. ker P (u) et Im P (u) sont stables par u.
2. ker u et Im u sont stables par P (u).
3. un cas très pratique est quand P = (X − λ)m , donc P (u) = (u − λ Id)m .

2.3.1.1 La sous-algèbre LF (E) des endomorphismes stabilisant F


Soit u ∈ L (E). On pose LF (E) = {u ∈ L (E)/u(F ) ⊂ F }

Proposition 63

LF (E) est une sous-algèbre de L (E).

Remarque Si u ∈ LF (E) alors K[u] est une sous-algèbre commutative de LF (E)

2.3.2 Interprétation matricielle


2.3.2.1 base adaptée à un sous-espace stable.
2.3. STABILITÉ 63

Proposition 64

Soit u un endomorphisme de E. les assertions suivantes sont équivalentes :


(i) F est stable par u.  
A B
(ii) il existe une base B adaptée tel que matB (u) = où A ∈ Mp (K)
0 C
et p = dim(F )  
A B
(iii) Pour toute base B adaptée tel que matB (u) = où A ∈ Mp (K)
0 C
et p = dim(F )

Proposition 65
s
Si E = ⊕ Fk et si u est un endomorphisme de E tel que Fk est stable par u
k=1
s
pour tout k ∈ [[1, s]] alors la matrice de u dans une base B = ∪ Bk adaptée à
 k=1
A1 0
la somme directe ci-dessus est de la forme A = 
 .. , c’est-à-dire

.
0 As
diagonale par blocs, où les Ak sont les matrices respectives des endomorphismes
induits uk relativement à Bk

Remarque réciproquement s’il existe une base de la forme ci-dessus tel que la
matrice de u dans cette base est diagonale par blocs alors les sous espaces Fk =
s
Vect(Bk ) sont u−stables et ⊕ Fk = E.
k=1

2.3.3 Polynôme minimal et stabilité


Proposition 66

Soit u ∈ L (E) et F un sous-espace vectoriel de E stable par u. Alors Iu ⊂ IuF .


Cela veut dire en particulier que tout polynôme annulateur de u annule uF . En
particulier si le polynôme minimal de u existe il annule uF , par suite :

Preuve:
Soit P ∈ Iu , donc P (u) = θ ou θ est l’endomorphisme nul de E.
Xm m
X
k
• Soit x ∈ E, alors si on pose P = ak X , on a P (uF ) = ak ukF , donc
k=0 k=0
m
X
pour tout x ∈ F , on a P (uF )(x) = ak ukF (x).
k=0
• Démontrons par récurrence que pour tout j ∈ N on a ujF (x) = uj (x).
64 CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES

• Pour j = 0 on a u0 = IdE et u0F = IdF , donc le résultat est vrai.


• Soit j ∈ N tel que ujF (x) = uj (x), alors uj+1 j j
F (x) = uF (uF (x)) = uF (u (x)).
j j
On a F est stable par u, donc F est aussi stable par u , donc uF (x) ∈ F , donc
uF (uj (x)) = u(uj (x)) = uj+1 (x).
Xm
• Il découle de tout ça que P (uF )(x) = ak uk (x) = P (u)(x) = 0, donc
k=0
P (uF ) = θF , et par suite P ∈ IuF , ce finit complètement la preuve du fait que
Iu ⊂ IuF .

Proposition 67

Soit u un endomorphisme de E tel que Iu ̸= {0}, et F un sous-espace stable


par u. Alors IuF ̸= {0} et πuF |πu .

Preuve:
Si P est un polynôme comme F est stable par uX on aussi F est stable par
k
P (u) car u (F ) ⊂ F pour tout k ∈ N et par suite ak uk (F ) ⊂ F.. Si de plus
P (u) = 0 alors P (uF ) = 0, donc πuF |P . Comme π(u) = 0, on a πuF |πu .

2.4 Lemme de décomposition des noyaux


2.4.1 Le lemme
Théorème 6

Si P1 , · · · , Ps (avec s ∈ N, s ≥ 2) sont des polynômes 2 à 2 premiers entre eux


Y s
et P = Pk , alors , pour tout endomorphisme u ∈ L (E), on a :
k=1

s
M
ker(P (u)) = ker(Pk (u)).
k=1

Preuve:
Par récurrence sur s.
• Pours = 2, alors P = P1 P2 avec P1 ∧ P2 = 1. Par le théorème de Bezout, il
existe U, V ∈ K[X] tel que U P1 + V P2 = 1, donc (U P1 )(u) + (V P2 )(u) = IdE .
Soit x ∈ E ′ = ker(P (u)) alors :

x = IdE (x) = (V P2 )(u)(x) + (U P1 )(u)(x)


2.4. LEMME DE DÉCOMPOSITION DES NOYAUX 65

Posons x1 = (V P2 )(u)(x) et x2 = (U P2 )(u)(x) alors P1 (u)(x1 ) = (U P1 P2 )(u)(x) =


U P (u)(x) = (U (u)◦P (u))(x) = U (u)(0) = 0 car P (u) = 0 puisqu’on a supposé
que x ∈ E ′ = ker(P (u)). De la même façon, P2 (u)(x2 ) = 0, donc x = x1 + x2
avec x1 ∈ ker(P1 (u)) et x2 ∈ ker(P2 (u))
Soit x ∈ ker(P1 (u)) ∩ ker(P2 (u)). Par la relation (⋆) ci-dessus, on a :

x = IdE (x) = U (u)(P1 (u)(x)) + V (u)(P2 (u)(x)) = 0

donc x = 0. Ainsi on a :

ker(P1 (u)) ⊕ ker(P2 (u)) = ker(P1 P2 (u))

• Soit s ∈ N, s ≥ 2 tel que la propriété en question est vraie et soit P1 , · · · , Ps+1


s+1
Y
des polynômes deux à deux premiers entre eux , posons P = Pk et Q =
k=1
s
Y
Pk alors Q ∧ Ps+1 = 1 car si R est un polynôme irréductible qui divise Q et
k=1
Rs+1 alors R divise un des Pk pour 1 ≤ k ≤ s et Ps+1 , ce qui contredit le fait
que Pk et Ps+1 sont premiers entre eux. D’après le résultat pour s = 2, on a :

ker(P (u)) = ker(Q(u)) ⊕ ker(Ps+1 (u)).

Par hypothèse de récurrence, on a :


s
M
ker(Q(u) = ker(Pk (u))
k=1

Donc :
s+1
M
ker(P (u)) = ker(Pk (u))
k=1

Exercice : En s’inspirant de la preuve démontrer que si (πj ) est la famille des


projecteurs associés à la somme directe ci-dessus, alors πj ∈ K[u] pour tout j.

2.4.2 Cas particulier intéressant : Si P (u) = 0


Proposition 68

Si P1 , · · · , Ps sont des polynômes de K[X] deux à deux premiers entre eux et u


Ys
un endomorphisme de E tel que P (u) = 0 avec P = Pk , alors
k=1

s
M
E= ker(Pk (u))
k=1
66 CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES

Preuve:
Conséquence immédiate du théorème 6 ci-dessus. Ici ker(P (u)) = ker(0) = E.

2.4.3 Exemples fondamentaux


2.4.3.1 Exemple 1 :
Soit π un projecteur alors P = X 2 − X est un polynôme annulateur de π. Comme
P = X(X − 1), on a : E = ker π ⊕ ker(π − IdE ). En remarquant que ker(π − IdE ) =
Im(π), on retrouve : ker(π) ⊕ Im(π) = E.

2.4.3.2 Exemple 2 :
Par le même raisonnement, si s est un symétrie de E, on a :

E = ker(s − IdE ) ⊕ ker(s + IdE ).

2.5 Éléments propres d’un endomorphisme, d’une


matrice carrée
Dans tout ce qui suit K est un sous-corps de C et E un K − espace vectoriel non
réduit à {0}.

2.5.1 Définitions et premières propriétés


2.5.1.1 Endomorphismes

Définition 35

Soit u ∈ L (E).
Soit λ ∈ K. On dit que λ est une valeur propre de u s’il existe un vecteur x ∈ E
tel que x ̸= 0 et u(x) = λx. On note Sp(u) l’ensemble des valeurs propres de u.
Soit x ∈ E. On dit que x est un vecteur propre de u si x ̸= 0 et ∃λ ∈ K tel que
u(x) = λx.

Notation : Eλ (u) = ker(u − λ IdE ), pour tout λ ∈ K.

Exemples 1. On suppose que E est non réduit à {0}. Si u est l’homothétie de


rapport α alors l’unique valeur propre de u est α.
2.5. ÉLÉMENTS PROPRES D’UN ENDOMORPHISME, D’UNE MATRICE CARRÉE67

Preuve:
Comme E est non réduit à {0}, soit x ∈ E tel que x ̸= 0. On a u(x) = αx,
donc α est une valeur propre de u. Réciproquement, soit λ une valuer
propre de u, alors ∃x ∈ E, x ̸= 0 et u(x) = λx. Or u(x) = αx, donc
αx = λx. Comme x ̸= 0, on a α = λ.

2. u : K[X] → K[X]; P 7→ u(P ) = XP ′ , alors les valeurs propres de u sont les


entiers naturels. Autrement dit Sp(u) = N.

Preuve:
Remarquons que u(X n ) = X(nX n−1 ) = nX n . Comme X n ̸= 0, l’entier
naturel n est une valeur propre de u. Réciproquement, soit λ une valeur
propre de u, alors il existe un polynôme P non nul tel que u(P ) = λP .
Xn
Notons n = deg(P ) et posons :P (X) = ak X k . On a XP ′ (X) =
k=0
λP (X), donc :
n
X n
X
k
kak X = λak X k ,
k=1 k=0

et par identification des coefficients : λa0 = 0 et ∀k ∈ [[1, n]], (k−λ)ak = 0.


Comme an ̸= 0, on a λ = n et ak = 0 pour tout k ∈ [[0, n[[. En conclusion
Sp(f ) = N.

3. Soit E = C ∞ (R) l’espace vectoriel réel des applications infiniment dérivables


de R vers R. Soit u : E → E, f 7→ u(f ) = f ′ ; alors Sp(u) = R.

Preuve:
Pour tout λ ∈ R, si on pose ∀t ∈ R, f (t) = eλt alors u(f ) = λf .

4. De même pour E = C ∞ (R) et l’application linéaire v : E → E, f 7→ f ′′ on a :


Sp(v) = R.

Preuve:

Soit λ ∈ R tel que λ ≥ 0 et fλ (t) = cos λt alors v(fλ ) = −λfλ et fλ
√ −λ est une valeur propre de u. Par ailleurs si on
est non nulle ; donc
pose gλ (t) = ch( λt), on a v(gλ ) = λgλ et gλ ̸= 0, donc λ est une valeur
propre de v. On a démontré que pour tout λ ≥ 0, les réels λ et −λ sont
des valeurs propres de v, donc Sp(v) = R.

5. L’endomorphisme D : K[X] → K[X], P 7→ P ′ admet une et une seule valeur


propre à savoir 0.
68 CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES

Preuve:
Remarquons que pour P = 1, par exemple, on a D(P ) = 0 = 0.P donc
0 ∈ Sp(D). Réciproquement, si λ est une valeur propre de D, il existe un
polynôme non nul P tel que D(P ) = λP , donc P ′ = λP . Forcément P
est constant car sinon, on aurait deg(P ′ ) = deg(P ), donc P ′ = 0 et alors
λ = 0.

Proposition 69

Soit λ ∈ K. Alors λ ∈ Sp(u) ⇔ (u − λ IdE ) non injectif ⇔ Eλ (u) ̸= {0}.

Définition 36

si λ est une valeur propre de u , Eλ (u) s’appelle sous-espace propre

Remarques On fait les remarques suivantes :


1. 0 ∈ Sp(u) ⇔ u non injectif. (En dimension finie c’est équivalent à u non
bijectif). En effet , ce n’est qu’un cas particulier de la proposition 69.
2. Soit θ l’endomorphisme nul de E, alors : Sp(θ) = {0}. En effet ce n’est qu’un
cas particulier de l’exemple d’une homothétie. Directement , si α ∈ Sp(θ))
alors il existe un vecteur non nul x tel que θ(x) = λx. Or θ(x) = 0, donc
λx = 0 et x ̸= 0, donc λ = 0.

2.5.1.2 Matrices
Valeurs propres, vecteurs propres, sous-espaces propres d’un endomorphisme, lors-
qu’ils existent sont appelés éléments propres de l’endomorphisme. On donne la dé-
finition suivante qui définit les éléments propres d’une matrice carrée :

Définition 37

les éléments propres de A sont ceux de l’endomorphisme canoniquement associé.

Remarques Comme conséquence de cette définition, on a :


1. Soit λ ∈ K. λ est une valeur propre de A si :

X ̸= 0
∃X ∈ Mn1 (K), .
AX = λX

2. X ∈ Mn1 (K) est un vecteur propre associé à la valeur propre λ de A si X ̸= 0


et il existe λ ∈ K tel que AX = λX
2.5. ÉLÉMENTS PROPRES D’UN ENDOMORPHISME, D’UNE MATRICE CARRÉE69

3. On note aussi Sp(A) ensemble des valeurs propres de A. Eλ (A) = {X/AX =


λX}, alors λ ∈ Sp(A) ssi Eλ ̸= {0}, dans ce cas Eλ s’appelle le sous-espace
propre associé à λ. On note parfois Eλ (A) = ker(A − λIn ) en identifiant une
matrice à son endomorphisme canoniquement associé.
4. Si K et L sont deux sous-corps de C tel que K ⊂ L alors pour toute matrice
A de Mn (K) on a : SpK (A) ⊂ SpL (A)
5. Pour tout λ ∈ K, λ est une valeur propre de A si et seulement si A − λIn est
non inversible si et seulement si det(A − λIn ) = 0.
6. En particulier, 0 est une valeur propre de A si et seulement si A est non
inversible si et seulement si det(A) = 0.
7. Sp(On ) = {0} (où On est la matrice carrée nulle d’ordre n.)

2.5.1.3 Premières propriétés

Proposition 70

si λ1 , ..., λs sont des valeurs propres 2 à 2 distinctes de u alors la somme des


sous-espaces propres est directe.

Preuve:
Comme les λk sont deux à deux distincts les polynômes X − λk sont deux à
deux premiers entre eux et le lemme des noyaux permet d’écrire en posant
Ys
Q= (X − λk ) :
k=1
s
ker(Q(u)) = ⊕ ker(u − λk IdE ),
k=1

ce qui termine la preuve de la proposition.

Corollaire 10

une famille de vecteurs propres associée à des valeurs propres 2 à 2 distinctes


est libre.

Preuve:
Soient λ1 , . . . , λs des valeurs propres deux à deux distinctes d’un endomor-
phisme u et x1 , . . . , xs des vecteurs propres respectifs associés. Pour tout α1 , . . . , αs ∈
s
X
K, si αk xk = 0, comme αk xk ∈ Eλk (u), pour tout k ∈ [[1, s]] et que la somme
k=1
de Eλk (u) est directe, en vertu de la proposition 70, on a ∀k ∈ [[1, s]], αk xk =
0, et comme xk ̸= 0, on a αk = 0, d’où la liberté de la famille (xk )1≤k≤s .
70 CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES

Proposition 71

si λ ∈ Sp(u) alors P (λ) ∈ Sp(P (u)). si x est un vecteurs propre de u associé à


λ, alors x est vp de P (u) associé à P (λ).

Corollaire 11

Toute valeur propre de u est une racine de πu

Preuve:
En effet si λ ∈ Sp(u) alors π(λ) ∈ Sp(π(u)) = {0}, donc π(α) = 0

Remarque On a les propriétés similaires pour les matrices

2.5.2 Cas de la dimension finie, polynôme caractéristique


Dans tout ce qui suit E de dim n non nulle.
Motivation : Si λ est une valeur propre d’une matrice A, on remarque que c’est
une racine d’un polynôme de degré n.

2.5.2.1 Polynôme caractéristique d’une matrice, d’un endomorphisme

Proposition 72

f (x) = det(xI − A) est une fonction polynômiale. Le polynôme associé noté χA


vérifie ce qui suit :
(i) il est unitaire de degré n.
(ii) χA = X n − tr(A)X n−1 + · · · + (−1)n det(A).

Preuve:

−aij si i ̸= j
Soit x ∈ K et si on pose A = (aij ), posons ac
ij = ; alors
x − aii si i = j

X n
Y
f (x) = Dσ avec ∀σ ∈ Sn , Dσ = ε(σ) a[
iσ(i)
σ∈Sn i=1

On voit facilement que Dσ est polynômiale en x , on confondra désormais


polynôme et fonction polynômiale associée.
On suppose à présent que n ≥ 2 (le cas n = 1 étant très facile à vérifier) ; soit
2.5. ÉLÉMENTS PROPRES D’UN ENDOMORPHISME, D’UNE MATRICE CARRÉE71

σ ∈ Sn tel que σ ̸= Id ; posons

Y = {i ∈ [[1, n]]/σ(i) ̸= i}

alors card(Y ) ≥ 2 ; en effet Y ̸= ∅ car σ ̸= Id, et si i ∈ Y , posons j = σ(i)


alors i ̸= j et par injectivité de σ, on a σ(i) ̸= σ(j) donc j ̸= σ(j) donc j ∈ Y .
Il en découle que deg(Dσ ) ≤ n − 2 Pour tout σ ∈ Sn tel que σ ̸= Id. Sauf
DId , tous les monômes Dσ sont de degré plus petit ou égal à n − 2. Comme par
ailleurs, deg(DId ) = n, les monômes de f (x) de degré n et celui de degré n − 1
se trouvent dans DId . Comme
n
Y Xn
n
DId (X) = (X − aii ) = X − ( aii )X n−1 + ...
i=1 i=1

on a
χA (X) = X n − tr(A)X n−1 + · · · + (−1)n det(A)

Proposition 73

Soient A, B ∈ Mn (K). Alors :


1. A et tA on le même polynôme caractéristique. Autrement dit : χtA = χA .
2. Si A et B sont semblables alors χA = χB

Preuve:
1. Soit x ∈ K, alors χtA (x) = det(xIn − tA) = det(t(xIn − A)) = det(xIn −
A) = χA (x).
2. Comme A et B sont semblables, il existe P ∈ GLn (K) tel que B =
P AP −1 , donc, pour tout x ∈ K, on a : χB (x) = det(xIn −B) = det(xIn −
P AP −1 ) = det(P (xIn − A)P −1 ) = det(P ) det(xIn − A) det(P −1 ) =
det(xIn − A) = χA (x), on a utilisé que det(P −1 ) = (det(P ))−1 .

Remarque La réciproque n’est pas vraie, voici un contre exemple : On prends


E = R3 et (e1 , e2 , e3 ) la base canonique de R3 et soit :
   
1 0 0 1 1 0
A =  0 1 0  et B =  0 0 0 
0 0 0 1 1 1

On a χA = χB = X(X − 1)2 , cependant E1 (A) est un plan vectoriel de R3 , à savoir :


Re1 + Re2 alors que E1 (B) est une droite vectorielle, à savoir Re3 . Donc A et B ne
sont pas semblables.
Remarquons que A et B ont aussi le même rang (elles ont le même déterminant et
la même trace puisqu’elles ont le même polynôme caractéristique).
72 CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES

Définition 38

Soit E un K−espace vectoriel de dimension finie n (avec n ≥ 1). Le polynôme


caractéristique d’un endomorphisme u de E est le polynôme caractéristique
d’une matrice qui le représente dans une base quelconque de E.

Remarque Cette définition est pourvue de sens car si deux matrices A et B repré-
sentes u dans des bases respectives, les matrices A et B sont semblables, donc d’après
la proposition 73, on a χA = χB , donc le polynôme caractéristique en question ne
dépends que de u.
] Exemple : Soit π un projecteur de E de rang r tel que 0 < r < n = dim(E). On
sait que Im(π) ⊕ ker(π) = E. Soit B une base de E adaptée à cette somme directe,
alors la matrice de π relativement à cette base est :
 
Ir 0
A=
0 0
de sorte que : χπ = χA = (X − 1)r X n−r .

2.5.2.2 Polynôme caractéristique et stabilité


Rappel : Si M = diag(M1 , · · · , Ms ) est une matrice triangulaire supérieure par
blocs diagonaux, c’est-à-dire , M est de la forme :
 
M1
...

 
M =
 
 O . ..


Ms
alors s
Y
det(M ) = det(Mk ).
k=1

Remarque C’est valable aussi si la matrice est triangulaire inférieur pa blocs.

Proposition 74

Soit u ∈ L (E) et F un sous-espace vectoriel non nul de E u−stable et uF


l’endomorphisme induit associé. Alors χuF |χu

Preuve:
Soit F un sous-espace vectoriel de E stable par u et F ′ un supplémentaire de
F , donc
(⋆⋆) F ⊕ F ′ = E
Soit
B = (v1 , · · · , vr , · · · , vn )
2.5. ÉLÉMENTS PROPRES D’UN ENDOMORPHISME, D’UNE MATRICE CARRÉE73

une base adptée à la somme directe (⋆⋆), alors la matrice de u relativement à


B est :  
B C
A = matB (u) =
0 D
Donc χu = χB χD = χuF χD et χuF |χu .

2.5.2.3 Polynôme caractéristique et spectre

Proposition 75

λ ∈ Sp(A) ssi χA (λ) = 0. En particulier A a au plus n valeurs propres

Corollaire 12

Soit u ∈ L (E). Alors Sp(u) est fini et card(Sp(u)) ≤ dim(E).

Définition 39

multiplicité d’une vp : Soit λ ∈ Sp(u), la multiplicité de λ est son ordre de


multiplicité mλ (u) dans le polynôme caractéristique χu .

Proposition 76

Si λ ∈ Sp(u) alors 1 ≤ dim(Eλ (u) ≤ mλ (u)

Preuve:
Posons d = dim(Eλ (u)) et m = mλ (u). Comme λ est une valeur propre de u, on
a d ≥ 1. Soit E ′ un supplémentaire de Eλ (u). Si B = (v1 , · · · , vr , vr+1 , · · · , vn )
est une base adaptée à la somme directe Eλ (u) ⊕ E ′ = E alors la matrice de u
relativement à B est de la forme :
 
Id C
A = matB (u) =
0 D

Il en résulte que le polynôme caractéristique de u est

χu = (X − λ)d χD

en particulier ((X − λ)d |χu . Comme m = mλ (u) est la multiplicité de λ dans


χu , alors :
χu = (X − λ)m Q et (X − λ) ̸ |Q;
donc :
(X − λ)d |(X − λ)m Q et (X − λ) ∧ Q = 1
74 CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES

et par le lemme de Gauss,

(X − λ)d |(X − λ)m ,

donc d ≤ m.

2.5.2.4 Cas où χu est scindé

• Lorsque le polynôme caractéristique d’un endomorphisme en dimension finie ou


d’une matrice carrée est scindé, on propose deux façons de l’écrire :
- Première façon :
n
Y
χu = (X − λk )
k=1

avec λ1 , · · · , λk les valeurs propres de u, comptées avec leur ordres de multiplicités.


- Deuxième façon :
Ys
χu = (X − µk )mk
k=1

avec s = card(Sp(u)) et µ1 , · · · , µs les valeurs propres deux à deux distinctes de u.

• Lorsque le polynôme caractéristique d’un endomorphisme est scindé , on peut


calculer son determinant et sa trace en fonction des valeurs propres, ce qui est résumé
par la :

Proposition 77

Soit u ∈ L(E) tel que χu est scindé, précisément :


n
Y s
Y
χu = (X − λk ) = (X − µk )mk
k=1 k=1

avec les λk , k ∈ [[1, n]] les valeurs propres de u comptées avec leur multiplicités
et les µj , j ∈ [[1, s]] les valeurs propres deux à deux distinctes de u ; alors :
n s

Y Y
µj m j




 det(u) = λk =
k=1 j=1
X n X s




 tr(u) = λ k = mj µj
k=1 j=1

Remarque C’est aussi valable pour une matrice carrée ayant le polynôme caracté-
ristique scindé.
2.6. VALEURS PROPRES ET POLYNÔMES ANNULATEUR 75

2.6 Valeurs propres et polynômes annulateur


2.6.1 Théorème de Cayley-Hamilton
Théorème 7

Soit u ∈ L(E) alors χu (u) = 0.

Preuve:
On va démontrer que pour tout vecteur x ∈ E, on a χu (u)(x) = 0.
- Si x = 0, c’est vrai.
- si x ̸= 0, il existe un entier naturel non nul p maximal tel que la famille Fx =
(uk (x))0≤k≤p−1 est libre : effet p = 1 convient et l’ensemble en question est une
partie de N∗ majorée par n, on prend son plus grand élément p. Par définition
de p, la famille x, u(x), · · · , up (x)) est liée donc il existe (a0 , · · · , ap−1 ) ∈ Kp tel
que :
p−1
X
up (x) = ak uk (x)
k=0

Ainsi si on pose
p−1
X
P = Xp − ak X k
k=0
on a
P (u)(x) = 0.
Le sous-espace vectoriel F = Vect(Fx ) est stable par u puisque les images des
vecteurs de la famille Fx , par u sont des combinaison linéaires de ceux ci. Si
on note uF l’endomorphisme induit on a χuF |χu . On va montrer que :

χuF = P

et comme P (u)(x) = 0, il en découlera que par suite χuf (u)(x) = 0 donc


χu (u)(x) = 0.
La matrice de uF relativement à la base Fx de F est :
 
0 · · · · · · 0 a0
 .. .. .. 
1 . . . 
 .
Bp = matFx (uF ) = 0 . . . . . ... .. 
 . 
. . . .
 .. . . .. 0 .. 

0 · · · 0 1 ap−1

Une récurrence sur p permet de démontrer que χB = P .


En effet , il est aisé de prouver ce résultat pour p = 2. Soit p ≥ 3 tel que le
76 CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES

résultat est vrai pour p − 1, alors en développant suivant la première ligne , on


a:
X ··· ··· 0
0 −a0
.. .. ..
−1 X . . .
. . . . . . . . . .. ..
0 . .
χB = .. .. .. ..
. . . 0 .
.. ...
. X −ap−1
0 · · · · · · 0 −1 X − ap
X 0 ··· ··· 0 −a1
... .. ..
−1 X . .
.. .. .. .. ..
0 . . . . .
= X .. ... ... ..
. 0 .
.. ..
. . X −ap−1
0 ··· ··· 0 −1 X − ap
−1 X · · · 0 −a1
0
.. .. . ..
0 −1 . . .. .
... ... ... ..
0 0 .
+ (−1)p+1 a0 .. .. .. ..
. . . X .
.. ...
. −1 X
0 · · · · · · · · · 0 −1

Donc :
p−1
!
X
χB = X X p−1 − ak X k−1 + (−1)p−1+1 a0 (−1)p−1
k=1

Donc :
p−1 p−1
X X
p j p
χB = X − aj X − a0 = X − ak X k
j=1 k=0

Remarques Le théorème s’exprime aussi comme suit :


1. πu |χu
2. χu ∈ Iu
3. On a dim(K[u]) ≤ dim(E). Notons que si n ̸= 0 alors dim(K[u]) > 0 ; en effet
IdE ∈ K[u] et IdE ̸= 0.

2.6.2 Autres liens entre χA et πA


2.7. DIAGONALISATION 77

Proposition 78

Soit n ∈ N∗ et A ∈ Mn (K), alors, χA et πA ont les mêmes racines.

Preuve:
En effet si λ est une racine de χA alors λ ∈ Sp(A). On a déjà vu qu’alors
πA (λ) = 0. Réciproquement, si πA (λ) = 0, alors, πA s’écrit : πA = (X − λ)Q.
Forcément Q(A) ̸= 0, donc il existe Y ∈ Mn,1 (K) tel que X = Q(A)Y ̸= 0. On
a (A − λIn )Q(A) = 0, donc (A − λIn )X = 0 et λ ∈ Sp(A).

Remarque En particulier, si χA estY scindé alors πA est scindé


Yet dans ce ′ cas si
mk
Sp A = {λk , k ∈ [[1, s]]} alors χA = (X − λk ) et πA = (X − λk )mk avec
mk , m′k des entiers tel que 1 ≤ m′k ≤ mk et mk est la multiplicité de λk dans χA .

Proposition 79

Si P est un polynôme annulateur de u alors toute valeur propre de u est une


racine de P

Preuve:
En effet toute valeur propre de u est une racine du polynôme minimal πu de u
et comme P (u) = 0, on a πu |P et le résultat en découle.

2.7 Diagonalisation
Dans tout ce qui suit les espaces vectoriels considérés sont de dimension finie non
nulle.

2.7.1 Endomorphisme, matrice diagonalisable


2.7.1.1 Endomorphismes diagonalisables

Proposition 80

Les assertions suivantes sont équivalentes.


(i) il existe une base B de E tel que matB (u) est diagonale.
M
(ii) Sp(u) non vide et E = Eλ (u)
λ∈Sp(u)

(iii) E admet une base formée de vecteurs propres de u.


78 CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES

Preuve:
• Supposons qu’on a (i) et soit B une base de E tel que la matrice A =
matB (u) est diagonale. Notons λ1 , · · · , λs , les termes deux à deux distincts
qui apparaissent dans la diagonale de A avec des éventuelles répétitions pour
[ Ci la sous-famille de B de touts les
chacun d’eux. Pour tout i ∈ [[1, s]], notons
vecteurs e tel que u(e) = λi e. Soit C = Ci , la réunion étant faite de façon à
ordonner les Ci par ordre croissant de l’indice i. On a alors :
 
∆1
matC (u) = 
 ... 

∆s


∀k ∈ [[1, s]] ∆k = λk Ink
avec nk le nombre de vecteurs de la famille Ck . Donc
s
M
E= Ek
k=1

avec Ek = Vect(Ck ) = Eλk (u).


• Supposons que (ii)[est vraie. Pour tout λ ∈ Sp(u), notons Cα une base de
Eλ (u) et soit C = Cλ . Alors, C est une base de E adaptée à la somme
λ∈Sp(u)
directe de l’hypothèse et c’est clairement une base formée de vecteurs propres
de u puisque si e est un vecteur de C , il existe λ ∈ Sp(u) tel que e est un
vecteur de Cλ , donc e ∈ Eλ (u), donc u(e) = λe et par suite e est un vecteur
propre de u.
• Supposons que (iii) est vraie, soit B = (e1 , . . . , en ) une base de E formée
de vecteurs propres de u. Alors pour tout i ∈ [[1, n]], il existe λi ∈ K tel que
u(ei ) = λi ei , donc la matrice de u relativement à B est :

matB (u) = diag(λ1 , · · · , λn ).

Conclusion : On a démontré les implications : (i) ⇒ (ii), (ii) ⇒ (iii) et (iii) ⇒


(i), donc les assertions (i), (ii) et (iii) sont équivalentes.

Définition 40

Si l’une des assertions (i), (ii), (iii) de la proposition 80 est réalisée, on dit que
u est diagonalisable.

Remarque Toute base B de E formée de vecteurs propres de u est appelée base


de diagonalisation de u.
2.7. DIAGONALISATION 79

Proposition 81

Soit u un endomorphisme
X tel que Sp(u) ̸= ∅. Alors u est diagonalisable si et
seulement si dim(Eλ ) = dim E
λ∈Sp(u)

Théorème 8

Soit u ∈ L (E). Alors une condition nécessaire pour que u soit diagonalisable
est χu est scindé. Si cette condition est remplie alors u est diagonalisable si et
seulement si pour tout λ ∈ Sp(u), on a m(λ) = d(λ) où m(λ) est la multiplicité
de λ et d(λ) = dim(Eλ (u).

Preuve:
En effet, le fait que χu soit scindé est une condition nécessaire pour que u
soit diagonalisable puisque si u est diagonalisable il admet une matrice YD =
diag(λ1 , · · · , λs ) dans une base de diagonalisation et par suite ,χu = (X −
X
λk ). Supposons donc que χu est scindé alors on a n = m(λk ). En particulier
X X
u est diagonalisable ssi n = d(λk ) ssi (m(λk ) − d(λk ) = 0 ssi m(λk ) =
d(λk ), ∀k car on sait que m(λk ) − d(λk ) ≥ 0, pour tout k ∈ [[1, s]].

Exemple Soit α, β, γ, λ ∈ R et la matrice


 
α β 0
A =  0 γ 0  ∈ M3 (R)
0 λ α

Donner une condition nécessaire et suffisante sur α, β, γ, λ pour que A soit diagona-
lisable.
Réponse : On remarque que α ∈ Sp(A) et que e1 et e3 sont des vecteurs propres
associés à α, don la multiplicité de α dans χA est supérieure ou égale à 2, donc le
polynôme caractéristique de A est de la forme : χA = (X − α)2 (X − b) de sorte
que χA est scindé, donc tr(A) = 2α + b = 2α + γ et γ = b. Il en découle que
χA = (X − α)2 (X − γ). La dimension du sous-espace vectoriel propre Eα (A) est
d(α) = 3 − rg (A − αA) = rg (A′ ) avec :
 
0 β 0
A′ =  0 γ − α 0 
0 λ 0

• Si α ̸= γ alors rg (A′ ) = 1 et d(α) = 2 = m(α), donc A est diagonalisable.


• Si α = γ alors m(α) = 3 d’une part, et d’autre part : si β = λ = 0 alors rg (A′ ) = 0,
80 CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES

donc d(α) = 3 et A est diagonalisable, et si β ̸= 0 ou λ ̸= 0 alors rg (A′ ) = 1, donc


d(α) = 2 < 3 = m(α) et A n’est pas diagonalisable.
Résumé : La matrice A est diagonalisable si et seulement si

α=γ
α ̸= γ ou
β=λ=0
si et seulement si :
α ̸= γ ou β = λ = 0

2.7.1.2 Matrice carrée diagonalisable

Définition 41

Une matrice carrée est diagonalisable si l’endomorphisme canoniquement associé


est diagonalisable.

Proposition 82

une matrice carrée est diagonalisable ssi elle est semblable à une matrice diago-
nale.

2.7.2 Autres caractérisation des endomorphismes diagonali-


sables
2.7.2.1 Décomposition spectrale
s s
Notation : Si E = ⊕ Ek on note E
fk = ⊕ Ej et πk la projection sur Ek parallèle-
k=1 j=1
j̸=k
ment à E
ek .

Proposition 83

Si u est diagonalisable et λk , k ∈ [[1, s]] ses valeurs propres deux à deux distinctes
X s
alors u = λk πk où les πk sont les projecteurs associés à la somme directe :
k=1
s
E = ⊕ Ek
k=1

Preuve:
Xx = x1 +
si X· · · + xs avec xk ∈ Ek (u) alors u(x) = u(x1 ) + · · · + u(xs ) =
λk xk = λk πk (x)
2.7. DIAGONALISATION 81

Théorème 9
s
X
Si P ∈ K[X] alors, avec les notations ci-dessus, P (u) = P (λk )πk
k=1

Preuve:
m
XP = X , raisonnons par récurrence sur m. Pour m = 0, il vient IdE =
Si
πk , chose juste. Pour m = 1 c’est la prop ci-dessus. Soit m ∈ N∗ tel que
X X
um = λm m
k πk . On a πj u = λm m
k πj πk = λj πj de sorte que u
m+1
= u.um =
X X
λ j πj u m = λm+1
j πj .
j
N
X
Pour finir, soit P ∈ K[X] tel que P = am X m , alors :
m=0

N
X
P (u) = am um
m=0
XN Xs
= am λm
j πj
m=0 j=1
s N
!
X X
= am λ m
j πj
j=1 m=0
Xs
= P (λj )πj .
j=1

2.7.2.2 Conséquences

Proposition 84

Si u est diagonalisable de valeurs propres deux à deux distinctes λ1 , · · · , λs alors


Ys
le polynôme scindé à racines simples : π = (X − λj ) annule u.
j=1

Preuve:
Comme π(λj ) = 0 pour tout j, c’est une conséquence immédiate du théorème
précèdent.
82 CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES

Théorème 10

u est diagonalisable ssi son polynôme minimal πu est scindé à racines simples.

Preuve:
Y
Si u est diagonalisable et Sp(u) = {λ1 , · · · , λs } alors le polynôme π = (X −
λj ) annule u. Or chaque λj est une racine du polynôme minimal πu , donc Y π|πu et
par suite π = πu , donc πu est scindé simple. Réciproquement si πu = (X−λj )
avec les λj deux à deux distincts, alors par le lemme des noyaux et πu (u) = 0,
s
on a E = ⊕ Eλj (u) donc u est diagonalisable.
j=1

Corollaire 13

u est diagonalisable ssi il existe un polynôme P scindé à racines simples tel que
P (u) = 0. Dans un tel cas les valeurs propres de u sont parmi les racines de P .

Preuve:
Si u est diagonalisable alors P = πu est un polynôme annulateur de u scindé à
racines simples d’aprés le théorème 10 .
Réciproquement, si P est un polynôme scindé à racines simples tel que P (u) = θ
alors πu |P et par suite πu est scindé à racines simples, donc, d’après le théorème
10, l’endomorphisme u est diagonalisable.

Corollaire 14

Si dim E = n et u admet n valeurs propres deux à deux distinctes, alors u est


diagonalisable et les sous-espaces propres sont des droites vectorielles.

Remarques On fait les remarques suivantes :


1. Si dim(E) = n, un endomorphisme u ∈ L(E) posséde exactement n valeurs
propres si et seulement si le polynôme caractéristique de u est scindé à racines
simples.
2. Si dim(E = n et u ∈ L(E) un endomorphisme possédant exactement n valeurs
propres alors πu = χu .
2.8. TRIGONALISATION 83

Proposition 85

Soit u ∈ L(E) un endomorphisme diagonalisable et F est un sous-espace vecto-


riel de E. Si F est stable par u alors l’endomorphisme induit uF est diagonali-
sable

Preuve:
Comme u est diagonalisable , son polynôme minimal πu est scindé à racines
simples, or le polynôme minimale πuF de uF divise πu , donc πuF est scindé à
racine simples , par suite uF est diagonalisable.

2.8 Trigonalisation
Tout espace vectoriel considéré dans ce paragraphe est de dimension finie non nulle

2.8.1 Définitions
2.8.1.1 Endomorphisme trigonalisable

Définition 42

Un endomorphisme u est trigonalisable s’il existe une base B de E tel que


T = matB (u) est triangulaire supérieur.

Remarques Soit u ∈ L(E) ( E étant un K − espace vectoriel de dimension finie


non nulle n.) On a les remarques suivantes :
1. S’il existe une base C de E tel que matC (u) est triangulaire inférieure alors u
est trigonalisable.

Preuve:
Si C = (ck )1≤k≤n Soit B = (bk )1≤k≤n tel que bk = cn−k+1 alors matB (u)
est triangulaire sup.

2. Si u est trigonalisable représenté par une matrice triangulaires T = (tij )1≤i,j≤n


alors les termes diagonaux t11 , · · · , tnn sont exactement les valeurs propres de
u comptées avec leur multiplicités.
84 CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES

Preuve:
Si u est représenté par T alors son polynôme caractéristique est χu =
Yn
(X − tkk ), ce qui prouve le résultat énoncé.
k=1

Exemples On donne les exemples suivants :


1. Tout endomorphisme diagonalisable est trigonalisable.
2. u : R3 [X] → R3 [X]; P 7→ (X + 3)P ′ . Si B = (1, X, X 2 ) est la base canonique
de E alors :  
0 3 0
matB (u) =  0 1 6 
0 0 2

2.8.1.2 Matrice trigonalisable

Définition 43

Soit M ∈ Mn (K) une matrice carrée. M est trigonalisable si l’endomorphisme


canoniquement associé est trigonalisable.

Proposition 86

M est trigonalisable si et seulement si M est semblable à une matrice triangu-


laire sup ssi M est semblable à une matrice triangulaire inférieure.

Remarque Toute matrice triangulaire supérieure ou inférieure, toute matrice dia-


gonale est trigonalisable.

2.8.2 Caractérisation par les polynômes caractéristique


2.8.2.1 Caractérisation

Théorème 11

Soit u un endomorphisme. les assertions suivantes sont équivalentes :


(i) u est trigonalisable
(ii) Le polynôme caractéristique χu est scindé .
2.8. TRIGONALISATION 85

Preuve:
- Si u est trigonalisable, il existe une base dans laquelle la matrice de u est
Yn
triangulaire supérieure T , donc χu = (X − λk ) où les λk sont les termes
k=1
diagonaux de T .
- Réciproquement, par récurrence sur la dimension n de E.
• Si n = 1, on a forcément πu = X − c, donc u est une homothétie donc u est
même diagonalisable.
• Soit n ∈ N∗ tel que la propriété à démontrer est vraie pour tout espace
vectoriel de dimension n. Soit E un espace vectoriel de dimension n + 1 et
u ∈ L(E) tel que χu est scindé. Soit λ une racine de χu , donc λ est une valeur
propre de u, e1 un vecteur propre associé et E ′ un supplémentaire de Ke1 .
Considérons une base B ′ = (e2 , · · · , en+1 ) de E ′ et la base de E sous-jacente
B = (e1 , e2 , · · · , en+1 ). alors :
 
λ L
 0 
A = matB (u) =  ..
 

 . B 
0

avec B ∈ Mn (K) et L ∈ M1,n (K). On a alors chu = (X − α)χB , et comme χu


est scindé, il en est de même de χB . Soit v l’endomorphisme canoniquement as-
socié à B, alors χv = χB , donc χv est scindé, donc, par hypothèse de récurrence,
on a v est trigonalisable, donc B est trigonalisable, donc il existe Q ∈ GLn (K)
et une matrice
 triangulaire supérieure
 T1 ∈ Mn (K ) tel que B = QT1 Q−1 ,
λ L
 0  
1 0

donc A =  .. . Soit P = , alors P ∈ GLn+1 (K) et
 
 . QT1 Q−1  0 Q
0
 
λ LQ
   0
1 0

−1 −1
P = . On a P AP =  = T est une matrice
 
0 Q −1  .
.
 . T1 
0
triangulaire de Mn+1 (K) et comme A = P T P −1 , la matrice A est trigonali-
sable, donc l’endomorphisme u est trigonalisable, ce qui termine la preuve du
théorème.

Remarque On a un théorème similaire pour les matrices carrées : Une matrice


carrée A ∈ Mn (K) est trigonalisable si et seulement si son polynôme caractéristique
χA est scindé.

2.8.2.2 Cas où K = C
86 CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES

Théorème 12

Soit E un C espace vectoriel de dimension finie. Alors tout endomorphisme de


E est trigonalisable.

Théorème 13

Toute matrice carrée de Mn (C) est trigonalisable.

2.8.3 Endomorphismes et matrices nilpotents


2.8.3.1 Rappel

Définition 44

Soit E un K − espace vectoriel et u ∈ L (E). On dit que u nilpotent s’il existe


un entier naturel non nul k tel que uk = 0. Le plus petit k vérifiant uk = 0
s’appelle indice de nilpotence de u.

Définition 45

Soit A une matrice carrée. A est nilpotente s’il existe k ∈ N∗ tel que Ak = 0. le
plus petit k ∈ N∗ vérifiant Ak = 0 s’appelle indice de nilpotence de A.

Exemple : Si E est de dimension finie non nulle n alors un endomorphisme u est


nilpotent si et seulement si un = 0.

2.8.3.2 Caractérisation

Proposition 87

Soit E un espace vectoriel de dimension finie. Un endomorphisme u de E est


nilpotent si et seulement si u est trigonalisable et admet 0 comme unique valeur
propre.

Preuve:
Si u est nilpotent alors il existe k ∈ N∗ tel que uk = 0. Soit A ∈ Mn (K) une
matrice représentant u.
• Si K = C, alors A est trigonalisable, et comme Ak = 0, la seule valeur propre
de A est 0.
• Si K ̸= C, la matrice A est toujours dans Mn (C) et elle est par conséquent
trigonalisable, et comme Ak = 0, la seule valeur propre de A est 0 donc le
polynôme caractéristique de A est PA = X n et comme PA ∈ K[X], le polynôme
2.8. TRIGONALISATION 87

caractéristique de A en tant qu’élément de K[X] est χA = X n , donc A est


trigonalisable avec unique valeur propre 0. Donc u est trigonalisable avec unique
valeur propre 0.
Réciproquement si u est trigonalisable et 0 est l’unique valeur propre de u alors
il existe une base C de E tel que la matrice T de u relativement à C est :
 
0
...

 
T =
 
 0 . ..


0

triangulaire supérieure avec les termes diagonaux nuls, donc χu = X n et par


Cayley-Hamilton, on a un = 0 et par suite u est nilpotent.

Remarques Ces remarques sont très utiles en pratique :


• Si A ∈ Mn (K) est une matrice dont le polynôme caractéristique χA est scindé et
si A admet une unique valeur propre λ, alors A est diagonalisable si et seulement si
A = λIn .
• On a une remarque similaire pour un endomorphisme u ∈ L(E) avec E de
dimension finie n.
• Cela revient à dire : un endomorphisme u ∈ L(E) avec E K − espace vectoriel de
dimension finie n(resp. matrice A ∈ Mn (K)) trigonalisable avec une unique valeur
propre λ est diagonalisable si et seulement si u = λ IdE (resp. A = λIn ).

2.8.4 Une autre réduction d’endomorphisme trigonalisable


Soit u un endomorphisme trigonalisable, donc χu est scindé. Si Sp(u) = {λ1 , · · · , λs }
s
Y
alors χu = (X − λk )mk . Pour tout k ∈ [[1, s]], on a 1 ≤ mk ≤ n où n = dim(E).
k=1
Le lemme de décomposition des noyaux permet d’écrire :
s
M
E= ker(u − λk IdE )mk .
k=1

Puisque (u − λk IdE )mk ∈ K[u], le sous-espace vectoriel Fk = ker(u − λk IdE )mk est
stable par u et si on note uk l’endomorphisme induit associé on a uk = IdFk +νk avec
νk = uk − λk IdFk . On remarque que Fk = ker(νk )mk , ce qui se traduit par νkmk = 9,
donc νk est nilpotent. Ceci est résumé par la :

Proposition 88

Si u ∈ L(E) est un endomorphisme trigonalisable alors si

Sp(u) = {λ1 , · · · , λs }
88 CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES

et s
Y
χu = (X − λk )mk
k=1

alors : s
M
E= ker(u − λk IdE )mk
k=1

les sous-espaces vectoriels Fk = ker(u − λk IdE )mk ; k ∈ [[1, s]], sont stables par u
et si pour tout k ∈ [[1, s]], on note uk l’endomorphisme de Fk induit par u à Fk ,
alors uk = λk IdFk +νk où νk ∈ L(Fk ) est un endomorphisme nilpotent de Fk .

Remarque Avec les notations ci-dessus, si on note πk les projecteurs sur Fk paral-
lèlement à s
M
Fk =
c Fj
j=1
j̸=k

et pour tout x ∈ E :
s
X
ν(x) = νj (πj (x))
j=1

alors ν est un endomorphisme nilpotent de E et on a

u=ν+δ et ν ◦ δ = δ ◦ ν

où s
X
δ= λj πj .
j=1

Preuve:
On à démontrer :
• ν est nilpotent :
En effet : ν n = 0 où n = dim(E) car pour tout k ∈ [[1, s]], on a νk mk = 0 et
mk ≤ n donc νk m = 0
• δ est diagonalisable :
En effet ⊕Fk = E et pour tout x ∈ Fk , δ(x) = λk x, donc les λk sont les valeurs
propres de δ et les sous-espaces propres associés Fk son en somme directe.
• δ et ν commutents
:
X
En effet, si x = xk avec xk ∈ Fk alors
k=1

s
X
δ(x) = λk xk ,
k=1
2.8. TRIGONALISATION 89

donc s
X
ν(δ(x)) = λk νk (xk );
k=1

par ailleurs
s
X
ν(x) = νk (xk )
k=1

et comme νk (xk ) ∈ Fk , on a
s
X
δ(ν(x)) = λk νk (xk ),
k=1

ce qui prouve ν ◦ δ = δ ◦ ν.

Remarque La décomposition de Dunford hors programme postule que toute endo-


morphisme u trigonalisable se décompose de façon unique sous le forme u = δ + ν
tel que :
• δ un endomorphisme diagonalisable de E
• ν un endomorphisme nilpotent de E
• δ ◦ ν = ν ◦ δ.
Les remarques ci-dessus ont déjà prouvé l’existence d’une telle décomposition. L’uni-
cité est un peu plus difficile et de toute façon c’est du hors programme.
90 CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES
Chapitre 3

Espace vectoriels normés

3.1 Norme sur un espace vectoriel :


Dans tout ce qui suit K désigne l’un des corps R ou C. Si λ ∈ K alors |λ| désigne le
module de λ (qui coincide avec sa valeur absolue si λ est réel ).

3.1.1 Norme, semi norme, distance


3.1.1.1 Norme : Définition, premières remarques

Définition 46

Soit E un K espace vectoriel. On appelle norme sur E toute application N de


E vers R+ tel que :
(1) (∀(x, y) ∈ E 2 ) N (x + y) ≤ N (x) + N (y)
(2) (∀x ∈ E)(∀λ ∈ K) N (λx) = |λ|N (x)
(3) (∀x ∈ E) N (x) = 0 ⇒ x = 0

Remarques E désigne un K espace vectoriel, on a les remarques suivantes :


1. Dans la pratique , on adopte la notation ∥x∥ au lieu de N (x).
Le lecteur peut réécrire la définition d’une norme à l’aide de cette notation.
2. Le couple (E, ∥.∥) où E est un K espace vectoriel et ∥.∥ une norme sur E
s’appelle un espace vectoriel normé ( evn en abrégé).
3. Si ∥.∥ est une norme sur E alors : ∥0∥ = 0 et ∥−x∥ = ∥x∥ pour tout x ∈ E.
En effet, pour λ = −1, l’axiome de l’homogénéité donne le résultat.
4. Si ∥.∥ est une norme sur E alors on a :

∀(x, y) ∈ E 2 | ∥x∥ − ∥y∥ | ≤ ∥x − y∥

91
92 CHAPITRE 3. ESPACE VECTORIELS NORMÉS

Preuve:
On a : ∥x∥ = ∥x − y + y∥ ≤ ∥x − y∥ + ∥y∥, donc :

∥x∥ − ∥y∥ ≤ ∥x − y∥

Par symétrie des rôles, on a aussi :

∥y∥ − ∥x∥ ≤ ∥y − x∥

Comme ∥x − y∥ = ∥y − x∥, on en déduit :

−∥x − y∥ ≤ ∥x∥ − ∥y∥ ≤ ∥x − y∥

et finalement :
|∥x∥ − ∥y∥| ≤ ∥x − y∥

5. Les axiomes (1), (2), (3) définissant une norme sont nommés respectivement :
(1) : Axiome de l’inégalité triangulaire.
(2) : Axiome de l’homogénéité.
(3) : Axiome de la séparation.
6. Si N réalise (1) et (2), on dit que N est une semi-norme sur E. Une norme est
donc une semi-norme mais une semi-norme n’est pas forcément une norme, ce
qui est prouvé par le contre-exemple suivant :
7. Si ν : E → R est une application qui satisfait les axiomes (1) et (2) de la
définition 46 ci-dessus, alors ν est à valeurs dans R+ . En effet : On a tout
d’abord ν(0) = ν(0.0) = |0|ν(0) = 0 (homogénéité) ; si x ∈ E alors par
homogénéité, on a ν(−x) = ν(x) ; ensuite ν(0) = ν(x − x) = ν(x + (−x)) ≤
ν(x) + ν(−x) =≤ 2ν(x), donc ν(x) ≥ 0.

3.1.1.2 Semi norme

Définition 47

On appelle semi-norme sur E, une application ν : E → R+ tel que :


1. ∀(x, y) ∈ E 2 ν(x + y) ≤ ν(x) + ν(y).
2. ∀λ ∈ K, ∀x ∈ E, ν(λ.x) = |λ|ν(x).

Remarque Un norme est donc une semi-norme qui satisfait aussi l’axiome de sé-
paration. Ainsi toute norme est une semi-norme mais une semi- norme peut ne pas
être une norme comme le montreront les exemples suivants.

Exemples Voici des exemples intéressants de semi-normes :


3.1. NORME SUR UN ESPACE VECTORIEL : 93

1. Soit E = CM([0, 1], R) l’espace vectoriel réel des fonction continues


Z 1 par mor-
ceaux de [0, 1] vers R, et pour tout f ∈ E, posons : N (f ) = |f (t)|dt ; alors
0
N est une semi-norme sur E, mais ce n’est pas une norme car pour f définie
par : 
1 si x = 0
f (x) = ,
0 si 0 < x ≤ 1
on a N (f ) = 0 alors que f ̸= 0.
2. Soit (E, ∥.∥) un espace vectoriel normé, X un ensemble non vide et A une partie
finie non vide de X. On considère E X , l’espace vectoriel des applications de
X vers E et pour tout f ∈ E X , on pose :
X
νA (f ) = ∥f (a)∥
a∈A

Alors νA est une semi-norme sur E X . On remarque que pour tout f ∈ E X , on


a νA (f ) = 0 si et seulement si f est nulle sur A. Il en découle que :
(a) si A ⊊ X alors νA n’est pas une norme sur E X
(b) X est fini alors νX est une norme sur E X .
3. Soit X un ensemble infinie et E = B(X, R) l’espace vectoriel des applications
bornées de X vers R.
Soit φ : N → X une application injective. Pour tout f ∈ E, posons :
+∞
X |f (φ(n))|
ν(f ) =
n=0
2n
Alors ν est bien définie et c’est une semi-norme sur E. De plus ν est une norme
sur E si et seulement si φ est bijective, c’est-à-dire φ(N) = X.

Preuve:
• L’application ν est bien définie car si f ∈ E, il existe M ∈ R tel que
|f (φ(n))| M
∀n ∈ N, |f (x)| ≤ M , donc 0 ≤ n
≤ n et la série géométrique
X 1 2 2
est convergente, donc ν(f ) est bien un nombre réel positif.
2n
• Si f, g ∈ X alors pour tout n ∈ N, on a :

|(f + g)(φ(n))| ≤ |f (φ(n))| + |g(φ(n))|,

ce qui fournit facilement :

ν(f + g) ≤ ν(f ) + ν(g)

• Finalement, il est aisé de remarquer que pour tout f ∈ E et tout λ ∈ R,


on a : ν(λf ) = |λ|ν(f ).
Remarquons que pour tout f ∈ E, on a : ν(f ) = 0 si et seulement si f est
nulle sur φ(N), donc si φ(N ) = X alors ν est une norme et si φ(N) ̸= X,
94 CHAPITRE 3. ESPACE VECTORIELS NORMÉS

soit b ∈ X\φ(N) et f l’application de X vers R définie par f (b) = 1 et


f (x) = 0 pour tout x ∈ X\{b}, alors f est bien un élément de E car elle
est bornée sur X. On a ν(f ) = 0 puisque f (φ(n)) = 0 pour tout n ∈ N
car ∀n ∈ N, φ(n) ̸= b, par contre f ̸= 0 puisque f (b) = 1.

3.1.1.3 Distance associée à une norme

Définition 48

Soi X un ensemble non vide . On appelle distance sur X toute application


d : X 2 → R+ vérifiant :
(1) ∀(x, y) ∈ X 2 d(x, y) = d(y, x)
(2) ∀(x, y, z) ∈ X 3 d(x, y) ≤ d(x, z) + d(z, y)
2
(3) ∀(x, y) ∈ X d(x, y) = 0 ⇔ x = y

Remarque on a alors :

∀x ∈ E, ∥x∥ = d(x, 0) = d(0, x)

Exemple Pour tout (m, n) ∈ N2 , on pose



0 si m = n
d(m, n) = = 1 − δm,n
1 si m ≠ n
où δm,n est le symbole de Kronnecker. Alors d est une distance sur N.

Preuve:
Soit m, n, p ∈ N :
• Il est clair que d(m, n) = d(n, m) puisque δm,n = δn,m .
• On a d(m, n) + d(n, p) ≥ d(m, p) car si m = p alors d(m, p) = 0 et si si
m ̸= p alors forcément m ̸= n ou n ̸= p donc d(m, n) = 1 ou d(n, p) = 1, par
suite d(m, n) + d(n, p) ≥ 1 = d(m, p).
• On a d(m, m) = 0 et si m ̸= n alors d(m, n) = 1 ̸= 0, par suite on a :
d(m, n) = 0 ⇔ m = n.

Proposition 89

Si (E, ∥.∥) est un espace vectoriel normé alors l’application :

d : E2 → R+
(x, y) 7→ d(x, y) = ∥x − y∥

est une distance sur E appelé distance associée à la norme ∥.∥


3.1. NORME SUR UN ESPACE VECTORIEL : 95

Preuve:
On va établir que l’application d ainsi définie vérifie les trois axiomes d’une
distance :
• Soit (x, y) ∈ E 2 , on a ∥x − y∥ = ∥y − x∥, donc d(x, y) = d(y, x).
• Soit (x, y, z) ∈ E 3 alors, par l’axiome de l’inégalité triangulaire, on a :

∥x − y∥ = ∥(x − z) + (z − y)∥ ≤ ∥x − z∥ + ∥y − z∥ ,

ce qui donne :

∀(x, y, z) ∈ E 3 d(x, y) ≤ d(x, z) + d(z, y)

• Soit (x, y) ∈ E 2 , alors :

d(x, y) = 0 ⇔ ∥x − y∥ = 0

Par l’axiome de séparation, on a

∥x − y∥ = 0 ⇔ x − y = 0

donc :
∀(x, y) ∈ E 2 d(x, y) = 0 ⇔ x = y
.

3.1.1.4 Distance d’un point à une partie d’un espace vectoriel normé

Proposition-Définition 5

Soit A une partie non vide d’un espace vectoriel normé E et a ∈ E. La partie :

YA = {∥x − a∥ /x ∈ A},

admet une borne inférieure comme partie de R. le nombre réel inf YA est appelé
distance du point a à la partie A de E et est noté d(a, A).

Preuve:
Comme A est non vide on a YA ̸= ∅, et comme YA ⊂ R+ , on a YA est non vide
minorée (par 0 par exemple), donc YA admet une borne inférieure.
96 CHAPITRE 3. ESPACE VECTORIELS NORMÉS

Remarques Retenons les remarques suivantes :


1. Si a ∈ A alors d(a, A) = 0 mais la réciproque est fausse.
Contre-exemple : Prenons A =]1, 5[ dans R muni de la valeur absolue(qui
est bien une norme). Alors d(5, A) = inf |x − 5| = 0, cependant, 5 ̸∈ A.
1<x<5
2. Si A est un singleton {b} alors d(a, A) = ∥b − a∥.
3. Soit x ∈ E et A une partie non vide finie de E, alors il existe a ∈ A tel que
d(x, A) = d(x, a) = ∥x − a∥.
En effet, dans ce cas l’ensemble YA = {∥x − a∥ /x ∈ A} est une partie finie
de non vide de R, donc admet un plus petit élément de la forme d(x, a) avec
a ∈ A.
Exemples
q 1. Soit E = R2 et pour tout x = (x1 , x2 ) ∈ R2 , posons ∥x∥ =
x21 + x22 , alors c’est une norme de R2 . Soit A = {(t, 0)/t ∈ R} et x = (1, 2).
p
Pour tout t ∈ R on a : d((t, 0), (1, 2)) = ∥(t, 0) − (1, 2)∥ = (t − 1)2 + 4 est
minimal si f (t) est minimal avec f (t) = (t − 1)2 + 4, or pour tout t ∈ R, on
a : f ′ (t) = 2(t − 1) et f ′′ (t) = 2 ce qui donne un minimum absolu pour f au
point t = 1 à savoir f (1) = 4, donc d(x, A) = 2
2. Dans l’espace vectoriel normé (R, |.|), prenons A = Z, alors pour tout nombre
réel x, si on note p = [x] la partie entière de x alors :
d(x, Z) = min(x − [x], 1 + [x] − x)
donc 
 x − p si p ≤ x ≤ p + 1

d(x, Z) = 2
1
 p + 1 − x si p + < x ≤ p + 1

2

3.1.1.5 Norme induite sur un sous-espace vectoriel

Proposition 90

Soit (E, ∥.∥) un espace vectoriel normé et F un sous-espace vectoriel de E. Alors


la restriction ∥.∥F , de ∥.∥ à F est une norme sur F

Preuve:
Immédiate puisque F ⊂ E et que ∥x∥F = ∥x∥, pour tout x ∈ F , par définition,
,donc tous les axiomes d’une norme sont vérifiées par ∥.∥F sur F .

Remarque Si aucune confusion n’est à craindre, on adopte la même notation pour


la norme de E et celle de F induite par celle de E. En d’autres termes si x ∈ F
alors ∥x∥ désigne en même temps la norme de x dans l’ evn E et dans F muni de
la norme induite.
Exemple E = C muni du module, et F = R, la norme induite : la valeur absolue.
3.1. NORME SUR UN ESPACE VECTORIEL : 97

3.1.2 Exemples de normes


On donne ici des exemples fondamentaux de normes et on verra plus loin les liens
possibles entre elles quand elles sont définies sur un même espace vectoriel :
Exemples 1. Soit n ∈ N∗ . Pour tout x = (x1 , ..., xn ) ∈ Kn , on pose :

Xn
∥x∥1 = |xk |






 k=1

n
! 21
X

 ∥x∥2 = |xk |2


 k=1
 ∥x∥∞ = sup |xk |


1≤k≤n

Alors : ∥.∥i pour i = 1, 2, ∞ respectivement sont trois normes sur Kn . On a :

∥.∥∞ ≤ ∥.∥2 ≤ ∥.∥1 ≤ n ∥.∥∞

2. Soit E = C ([a, b], K) le K − espace vectoriel des fonction continues du segment


[a, b] vers K a, b nombres réels tel que a < b ). Pour tout f ∈ E, on pose :
 Z b
∥f ∥1 = |f (t)|dt





 a
 Z b  21
2
 ∥f ∥2 = |f (t)| dt
a



 ∥f ∥∞ = sup |f (t)|


x∈[a,b]

Alors il s’agit de trois normes sur E.


3. Soit E = K[X] le K − espace vectoriel des polynômes à coefficients dans K. Si
+∞
X
P ∈ K[X] alors P s’écrit : P = ak X k où (ak ) est la suite des coefficients de
k=0
P (on sait qu’elle est nulle à partir d’un certain rang d’où le sens de l’écriture
précédente). On vous inspirant de l’exemple 1 définir trois normes sur K[X]
en donnant les expressions en fonction des coefficients de P .
Par exemple :

X
∥P ∥1 = |ak |
k=0

4. Soit E un K − espace vectoriel et soit φ un automorphisme de E. Démontrer


que si ∥.∥ est une norme sur E alors ∥.∥φ définie par :

∀x ∈ E ∥x∥φ = ∥φ(x)∥

est une norme sur E.


On suppose que E = R2 sous quelles conditions sur les nombres réels a, b, c et
d on définit une norme en associant x = (x1 , x2 ) ∈ R2 le nombre réel positif :
p
∥x∥ = (ax1 + cx2 )2 + (bx1 + dx2 )2
98 CHAPITRE 3. ESPACE VECTORIELS NORMÉS
p
5. Soit n ∈ N∗ et E = Mn (R). Pour tout A ∈ E, on pose ∥A∥ = tr(tAA). Si
n X
X n
A = (aij ) alors ∥A∥ = |aij |2 et c’est une norme sur E.
i=1 j=1

3.1.3 Boule, sphère


3.1.3.1 Définition d’une boule, sphère

Définition 49

Soit (E, ∥.∥) un espace vectoriel normé et soit a ∈ E et r ∈ R+ . Alors, les sous
ensembles de E respectifs suivants :
1. B(a, r) = {x ∈ E/∥x − a∥ < r}.
2. Bf (a, r) = {x ∈ E/∥x − a∥ ≤ r}.
3. S(a, r) = {x ∈ E/∥x − a∥ = r}.
sont respectivement appelés : boule ouverte, boule fermée et sphère toutes de
centre a et de rayon r.

Remarques Nous retenons :


1. Le cas r = 0 : On a : B(a, 0) = ∅ et Bf (a, 0) = S(a, 0) = {a}

2. On a Bf (a, r) = B(a, r) ∪ S(a, r) et B(a, r) ∩ S(a, r) = ∅

3. Lorsque a = 0 et r = 1, on parle de la boule unité (fermée et ouverte) et la


sphère unité.

Preuve:
le 1) est facile à faire
le 2) par définition des boules et de la sphere , pour la réunion et pour l’inter-
section : supposons que c’est non vide et soit x un élément de l’intersection ,
alors ∥x − a∥ = r et ∥x − a∥ < r ; absurde.

3.1.3.2 Exemple : Les boules de R2 muni des normes usuelles


La sphère unité de R2 muni des normes usuelles respectives ∥.∥1 , ∥.∥2 , ∥.∥∞ sont
représentée ci-dessous par les figures respectives de gauche à droite :

Rassemblées dans une seule figure :


3.1. NORME SUR UN ESPACE VECTORIEL : 99

3.1.4 Partie bornée d’un espace vectoriel normé , application


bornée
Définition 50

Soit (E, ∥.∥) un espace vectoriel normé et A une partie de E. On dit que A est
bornées si A est contenue dans une boule fermée de E de centre l’origine de.
Autrement dit s’il existe R ≥ 0 tel que :

∀x ∈ A ∥x∥ ≤ R

Remarques On a les remarques suivantes :


1. A est bornée si et seulement si A est contenue dans une boule fermée ou ouverte
de centre a ∈ E et de rayon r ∈ R+
2. Une boule ouverte, une boule fermée et une sphère sont des parties bornées de
E
3. Si A est bornée alors toute partie de A est bornée.
4. Toute intersection de parties bornées est bornée.
5. Toute réunion finie de parties bornées est bornée
6. Si E ̸= {0} alors E n’est pas une partie bornée de E
7. Tout sous espace vectoriel non nul de E n’est pas une partie bornée de E

Définition 51

Soit (E, ∥.∥) un espace vectoriel normé et X un ensemble non vide. Une appli-
cation f de X vers E est dite bornée si f (X) est une partie bornée de l’espace
vectoriel normé (E, ∥.∥)

Proposition 91

Soit A une partie non vide bornée de E. Alors l’ensemble :

XA = {∥x − y∥ /(x, y) ∈ A2 }

admet une borne supérieure. Le nombre réel positif sup(XA ) s’appelle le dia-
mètre de A. On le note δ(A) ou d(A).
100 CHAPITRE 3. ESPACE VECTORIELS NORMÉS

Preuve:
Puisque A est bornée, il existe un nombre réel M tel que : ∥x∥ ≤ M pour tout
x ∈ A. Il en résulte que : pour tout (x, y) ∈ A2 , on a :

∥x − y∥ ≤ ∥x∥ + ∥y∥ ≤ 2M

La partie XA de R est non vide car 0 ∈ XA (prendre a ∈ A et x = y = a). Elle


est majorée en plus donc elle admet une borne supérieure δ(A)

Exercice :
Soit E un espace vectoriel normé. Soit a ∈ E et r ∈]0, +∞[. Prouver que : δ(B(a, r)) =
δ(Bf (a, r)) = δ(S(a, r)) = 2r.

Exemple Diamètre de la boule ouverte A = B(a, r) avec r > 0 et a ̸= 0.


Remarquons que si (x, y) ∈ A2 alors ∥x − y∥ ≤ ∥x − a∥ + ∥y − a∥ ≤ 2r Donc 2r est
un majorant de l’ensemble :

Y = {∥x − y∥ /(x, y) ∈ A2 }

On va construire une suite (yn ) de points de Y qui converge vers 2r. Posons alors
nr a nr a
pour tout n ∈ N, yn = ∥un − vn ∥ avec un = a + et vn = a − .
n + 1 ∥a∥ n + 1 ∥a∥
n
On a alors : ∥un − a∥ = ∥vn − a∥ = r < r, donc yn ∈ Y et on a d’autre part :
n+1
n
yn = 2r de sorte que : lim yn = 2r.
n+1 n→+∞
Conclusion : sup Y = 2r, par suite δ(A) = δ(B(a, r)) = 2r

3.1.5 Application lipschitzienne


Définition 52

Soient E et F deux espaces vectoriels normés dont les normes prennent la même
notation ∥.∥. Soit A une partie non vide de E et f une application de A vers
F . On dit que f est lipshitzienne sur A s’il existe une constante réelle positive
k tel que :
∀(x, y) ∈ A2 ∥f (x) − f (y)∥ ≤ k ∥x − y∥

Remarques 1. Si une constante positive k réalise la condition ci-dessus alors


toute constante k ′ tel que k ′ ≥ k la réalise, par suite on peut toujours choisir
k > 0.

2. L’application ∥.∥ : E → R, x 7→ ∥x∥ est une application lipschitzienne de


(E, ∥.∥) vers R muni de la valeur absolue (k = 1 convient.)
3.1. NORME SUR UN ESPACE VECTORIEL : 101

Exemple Si f : I → R est une application dérivable d’un intervalle de R non trivial


I vers R et si de plus f ′ est bornée sur I alors f est lipschitzienne. En effet il existe
M > 0 tel que ∀t ∈ I, |f ′ (t)| ≤ M . Soit (x, y) ∈ I 2 tel que x < y. Par le théorème
des accroissement finis appliqué à la restriction de f à [x, y], il existe un réel c tel
que f (y) − f (x) = f ′ (c)(x − y), donc |f (x) − f (y)| ≤ |f ′ (c)||x − y| ≤ M |x − y|. Si
y < x, le résultat est le même par symétrie et finalement, si x = y , le résultat reste
valable car c’est une égalité.

3.1.6 Ouvert, Fermé


Définition 53

Soit A une partie de l’espace vectoriel normé (E, ∥.∥). On dit que A est une
partie ouverte (ou simplement un ouvert) de E si A est vide ou A est non vide
et : (∀a ∈ A)(∃ε > 0) B(a, ε) ⊂ A. On dit que A est une partie fermée (ou un
fermé) si son complémentaire dans E est un ouvert.

Remarques 1) ∅ et E sont à la fois des ouverts et des fermés


2) Si A est une partie de E et si A ̸= E alors A est fermée si pour tout x ∈
/ A il
existe ε > 0 tel que B(x, ε) ∩ A = ∅.

Proposition 92

Soit (E, ∥.∥) un espace vectoriel normé . Alors :


(1) ∅ et E sont des ouverts.
(2) Toute réunion (finie ou infinie) d’ouverts est un ouvert.
(3) Toute intersection finie d’ouverts est un ouvert.

Contre-exemple : Famille d’ouverts dont l’intersection n’est pas un ou-


vert :
Prenons
  E = R muni de la valeur absolue et pour tout n ∈ N∗ , posons On =
1 1 \
− , . Alors (On )n∈N∗ est une famille d’ouvert et On = {0} n’est pas un
n n n∈N∗

ouvert.

Proposition 93

Soit (E, ∥.∥) un espace vectoriel normé. Alors :


(1) ∅ et E sont des fermés
(2) Toute intersection (finie ou infinie) de fermés est un fermé.
(3) Toute réunion finie de fermés est un fermé.
102 CHAPITRE 3. ESPACE VECTORIELS NORMÉS

Contre-exemple : Famille de fermés dont la réunion n’est pas un fermé :


Prenons
 E = R  muni de la valeur absolue et pour tout n [ ∈ N∗ , posons Fn =
1 1
−1 + , 1 − . Alors (Fn )n∈N∗ est une famille de fermés et Fn =] − 1, 1[ n’est
n n n∈N∗
pas un fermé.

3.1.7 Voisinage
Dans tout ce qui suit (E, ∥.∥) est un espace vectoriel normé.

Définition 54

Soit a ∈ E et V une partie de E. On dit que V est un voisinage de a si V


contient une boule ouverte de centre a. Autrement dit si :

(∃ε > 0)(∀x ∈ E) ∥x − a∥ < ε ⇒ x ∈ V

Remarques On retient les remarques suivantes sur les voisinages :


1. V est un voisinage de a s’il existe un ouvert U de E tel que x ∈ U et U ∈ V .
2. E est un voisinage de tout point a de E

3. L’intersection de deux voisinages de a est un voisinage de a

4. Si une partie W de E contient un voisinage de a alors W est elle même un


voisinage de a.

Preuve:
1. Par définition d’un ouvert.
2. Clair puisque E est un ouvert.
3. Si V1 et V2 sont deux voisinages de a, alors il existe U1 , U2 ouverts de E
tel que a ∈ U1 et a ∈ U2 et U1 ⊂ V1 et U2 ⊂ V2 . Soit U = U1 ∩ U2 , alors
U est un ouvert de E et a ∈ U et U ⊂ V1 ∩ V2 , donc V1 ∩ V2 est bien un
voisinage de a.
4. Si V est un voisinage de a alors il existe U ouvert de E tel que a ∈ U ⊂ V ,
donc pour toute partie W de E contenant V , on a aussi : a ∈ U ⊂ V , ce
qui prouve que W est un voisinage de a.

Proposition 94

Une partie non vide U de E est un ouvert de E si et seulement si U est voisinage


de chacun de ses points.
3.1. NORME SUR UN ESPACE VECTORIEL : 103

Preuve:
Conséquence immédiate de la définition d’un ouvert.

3.1.8 Topologie
3.1.8.1 Introduction
Topologie de topo et logos : science du lieu.
Lorsqu’un espace vectoriel est muni d’une norme , cela permet de définir des notions
topologiques comme : partie ouverte , fermé, compacte, connexe par arcs, point
adhérent, adhérence, intérieur et frontière d’une partie.
La topologie permet aussi de définir les suites convergents, les fonction continues.

3.1.8.2 Topologie associée à une norme sur un espace vectoriel


Soit (E, ∥.∥) un espace vectoriel normé. On note O l’ensemble des ouverts de (E, ∥.∥)
. On peut ainsi dire que l’on a les trois points suivants :
(i) ∅ ∈ O et E ∈ O
[
(ii) Si (Oi )i∈I est une famille d’éléments de O alors Oi ∈ O
i∈I

(iii) Si O et O′ sont deux éléments de O O ∩ O′ ∈ O

Définition 55

On exprime ça en disant que (E, O) est l’espace topologique associé à E et à la


norme ∥.∥ . On dit aussi que O est la topologie sur E associée à la norme ∥.∥

3.1.9 Normes équivalentes


Définition 56

Soit E un K − espace vectoriel et N et N ′ deux normes sur E. on dit que N et


N ′ sont équivalentes s’il existe deux constantes réelles, strictement positives, c
et C tel que :
cN ≤ N ′ ≤ CN,
ce qui veut dire exactement :

∀x ∈ E, cN (x) ≤ N ′ (x) ≤ CN (x)

Remarques N et N ′ étant deux normes d’un espace vectoriel normé E, on a les


remarques suivantes :
104 CHAPITRE 3. ESPACE VECTORIELS NORMÉS

1. Pour démontrer dans la pratique que N et N ′ sont équivalentes, on démontre


l’existence de deux constantes strictement positives k et k ′ tel que :

N ≤ kN ′ et N ′ ≤ k ′ N

En effet cela est équivalent à :


1
N ≤ N ′ ≤ k′N
k
1
donc si on prends c = et C = k ′ , on tombe sur la condition de la définition
k
ci-dessus.
N
2. On peut dire que N et N ′ sont équivalentes si et seulement si les fonctions ′
N
N′
et sont bornées sur E\{0}.
N
3. N et N ′ sont équivalentes si et seulement si il eixiste m, M > 0 tel que m ≤
N ′ (x)
≤ M , pour tout x ∈ E\{0}. Ce qui donne une méthode pratique pour
N (x)
prouver que deux normes ne sont pas équivalentes qui est :
4. Pour que N et N ′ ne soient pas équivalentes, il suffit de trouver une suite
(xn ) ∈ E N tel que xn ̸= 0, ∀n ∈ N et

N ′ (xn ) N ′ (xn )
lim = +∞ ou lim =0
n→+∞ N (xn ) n→+∞ N (xn )

5. Si on note SN 1
la sphère unité de (E, N ), on peut dire que N et N ′ sont
1
équivalentes si et seulement si SN est bornée dans (E, N ′ ) et SN
1
′ est bornée

dans (E, N ).
6. On verra plus lois que les assertions suivantes sont équivalentes :
(a) N et N ′ sont équivalentes.
(b) (E, N ) et (E, N ′ ) ont les mêmes ouverts.
(c) (E, N ) et (E, N ′ ) ont les mêmes fermés.
(d) (E, N ) et (E, N ′ ) ont les mêmes parties bornées.

Exemple Les normes ∥.∥k , k ∈ {1, 2, ∞} de Rn sont équivalentes puisque :

∥.∥∞ ≤ ∥.∥2 ≤ ∥.∥1 ≤ n ∥.∥∞

3.1.10 Points adhérents, adhérence


3.1.10.1 Définition, propriétés
Dans tout ce qui suit , on considère un espace vectoriel normé (E, ∥.∥)
3.1. NORME SUR UN ESPACE VECTORIEL : 105

Définition 57

Soit A une partie de E. Un point a de E est dit adhérent à A si toute boule


ouverte de centre a rencontre A en au moins un point.
Autrement dit :
(∀r > 0)(∃x ∈ A) ∥x − a∥ < r
On note A ou Adh(A) l’ensemble des points adhérents à A et on l’appelle l’adhé-
rence de A.

Proposition 95

Soit (E, ∥.∥) un espace vectoriel normé, alors, pour toute partie A de E, l’adhé-
rence Adh(A) de A est un fermé de E et A ⊂ Adh(A).

Preuve:
Pour tout a ∈ A et pour tout r > 0, on a a ∈ B(a, r) ∩ A, donc (⋆⋆) :
B(a, r) ∩ A ̸= ∅, donc a ∈ Adh(A) et par suite A ⊂ Adh(A).
Démontrons que Adh(A) est fermé, pour cela soit x ∈ E tel que x ̸∈ Adh(A).
Par définition de l’adhérence, il existe r > 0 tel que B(x, r)∩A = ∅. Démontrons
r
que (⋆) : B(x, ) ∩ Adh(A) = ∅. Si on n’a pas (⋆), il existe b ∈ Adh(A) tel
2
r r
que ∥b − x∥ < , et comme b ∈ Adh(A), on a B(b, ) ∩ A ̸= ∅, donc il existe
2 2
r
a ∈ A tel que ∥b − a∥ < . Il en découle que ∥x − a∥ ≤ ∥x − b∥ + ∥b − a∥ < r,
2
donc a ∈ B(x, r), ce qui contredit (⋆⋆) ci-dessus. Ainsi on a (⋆) et finalement
Adh(A) est un fermé.

Proposition 96

Soit (E, ∥.∥) un espace vectoriel normé. Pout toutes parties A et B de E, on a

A ⊂ B ⇒ Adh(A) ⊂ Adh(B).

Preuve:
Supposons que A ⊂ B. Soit x ∈ Adh(A). Pour tout r > 0, on a B(x, r)∩A ̸= ∅.
Or A ⊂ B, donc B(x, r) ∩ A ⊂ B(x, r) ∩ B et par suite B(x, r) ∩ B ̸= ∅ et
x ∈ Adh(B), donc Adh(A) ⊂ Adh(B).
106 CHAPITRE 3. ESPACE VECTORIELS NORMÉS

Proposition 97

Soit (E, ∥.∥) un espace vectoriel normé. Pour toute partie A de E on a A est
fermée si et seulement si Adh(A) = A.

Preuve:
En effet, si A = Adh(A) alors d’après la proposition 95, on déduit que A
est fermée. Réciproquement, si A est fermée, on sait déjà que A ⊂ Adh(A),
réciproquement pour tout x ∈ E, si x ̸∈ A, comme A est fermé, ∃r > 0 tel
que B(x, r) ∩ A = ∅, et cela signifie que x ̸∈ Adh(A), donc ∀x ∈ E, x ̸∈ A ⇒
x ̸∈ Adh(A) et par contraposée, on a : ∀x ∈ E, x ∈ Adh(A) ⇒ x ∈ A, donc
Adh(A) ⊂ A et finalement A = Adh(A).

Proposition 98

Soit (E, ∥.∥) un espace vectoriel normé. Pour toute partie A de E, l’adhérence
de A est l’intersection de tous les fermés contenant A. C’est donc le plus petit
fermé (au sens de l’inclusion) contenant A.

Preuve:
\
Soit I l’ensemble des fermés F de E tel que A ⊂ F . Alors F0 = F est un
F ∈I
fermé de E et A ⊂ F0 . Par ailleurs pour tout F ∈ I, on a F0 ⊂ F , donc F0 est
le plus petit fermé de E contenant A. Démontrons que Adh(A) = F0 . Puisque,
en vertu de la proposition 95, on a Adh(A) est un fermé de E contenant A, on a
F0 ⊂ Adh(A). Or A ⊂ F0 , donc par la proposition 96, on a Adh(A) ⊂ Adh(F0 ).
Par la proposition 97, on a F0 étant fermé donc Adh(F0 ) = F0 , en conclusion
F0 = Adh(A).

Proposition 99

Soit (E, ∥.∥) un espace vectoriel normé. Pour toutes parteis A et B de E, on a :


1. A ⊂ A
2. A ⊂ B ⇒ A ⊂ B
3. (A ∪ B) = A ∪ B et (A ∩ B) ⊂ A ∩ B. Cette inclusion peut être stricte.
3.1. NORME SUR UN ESPACE VECTORIEL : 107

Preuve:
Onva donner les preuves et un contre-exemple.
1. On a A ⊂ A car si x ∈ A toute boule de centre a rencontre A en a par
exemple.
2. Si A ⊂ B, soit x ∈ A, pour tout r > 0, on a B(a, r) ∩ A ⊂ B(a, r) ∩ B et
comme B(a, r) ∩ A ̸= ∅, on a B(a, r) ∩ B ̸= ∅, donc x ∈ B.
 
A⊂A∪B A⊂A∪B
3. On a , donc par le 2) ci-dessus, on a donc
B ⊂A∪B B ⊂A∪B
A∪B ⊂A∪B
On a A ⊂ AB ⊂ B donc A ∪ B ⊂ A ∪ B et comme A ∪ B est un fermé ,
on a A ∪B ⊂ A ∪ B 
A∩B ⊂A A∩B ⊂A
Comme , on a : donc A ∩ B ⊂ A ∩ B.
A∩B ⊂B A∩B ⊂B
Pour A =]0, 1[, B =]1, 2[, on a A ∩ B = ∅ mais A = [0, 1], B = [1, 2] donc
∅ = A ∩ B ⊊ {1} = A ∩ B.

Proposition 100

Une partie A de E est fermée si et seulement si A = A

3.1.10.2 Densité

Définition 58

Soit (E, ∥.∥) un espace vectoriel normé, A et B deux parties de E tel que A est
non vide et A ⊂ B. On dit que A est dense dans B si B ⊂ A.

Exemples Voici deux exemples de parties dense à retenir :


1. E = R muni de la valeur absolue. Q est dense dans R ( voir la preuve dans le
cours de MPSI). De même R\Q est dense dans R.
2. Soit n ∈ N∗ et on considère Mn (K) muni d’une norme quelconque notée ∥.∥.
Alors GLn (K) est dense dans Mn (K).

Preuve:
Soit A ∈ Mn (K) et r > 0 un réel strictement positif. Démontrons que la boule
B(A, r) rencontre GLn (K), c’est-à-dire qu’il existe une matrice inversible M
tel que ∥M − A∥ < r. Pour cela posons :
1
∀p ∈ N∗ , Mp = A − In .
p
108 CHAPITRE 3. ESPACE VECTORIELS NORMÉS

Remarquons que :
 
∗ 1
n
∀p ∈ N , det(Mp ) = (−1) χA ,
p

où χA est le polynôme caractéristique de A. On sait que deg(χA ) = n, et


qu’alors χA possède au plus n racines, donc :
 
∗ 1
∃p0 ∈ N , ∀p ≥ p0 , χA ̸= 0.
p

Ainsi, pour tout p ≥ p0 , la matrice Mp est inversible et vérifie :

1
∥Mp − A∥ = ∥In ∥
p

∥In ∥
et par suite il suffit de choisir p tel que p > pour avoir ∥M − A∥ < r pour
r
M = Mp .

3.1.11 Points intérieurs,intérieur d’une partie d’un espace vec-


toriel normé
3.1.11.1 Définition, propriétés
Dans tout ce qui suit , on considère un espace vectoriel normé (E, ∥.∥)

Définition 59

Soit A une partie de E. Un point a de E est dit intérieur à A s’il existe une
boule ouverte de centre a contenue dans A .
Autrement dit :

(∃r > 0)(∀x ∈ E) ∥x − a∥ < r ⇒ x ∈ A

Définition 60


Soit A une partie de E.On note A l’ensemble des points intérieurs à A et on
l’appelle l’intérieur de A.

Proposition 101

L’intérieur d’une partie A est la réunion de tous les ouverts contenus dans A.
C’est donc le plus grand ouvert (au sens de l’inclusion) contenu dans A.
3.1. NORME SUR UN ESPACE VECTORIEL : 109

Exercice : Pour toute partie X de E , on note X c le complémentaire de X dans


E, c’est-à-dire : X c = E\X.
Soient A et B deux parties de E ,

1. Montrer que A ⊂ A
◦ ◦
2. Montrer que A ⊂ B ⇒ A ⊂ B
◦ ◦ ◦ ◦ ◦ ◦
3. Comparer (A ∪ B) et A ∪ B puis (A ∩ B) et A ∩ B
◦ c ◦
4. Prouver que (A)c = Ac et A = Ac . retrouver les résultats ci-dessus à partir
de ceux de l’exercice sur l’adhérence.
Exercice :
1. Montrer que si A est une partie bornée d’un espace vectoriel normé E alors
son adhérence A est bornée et δ(A) = δ(A)
2. En est il de même de l’intérieur de A ?
Exercice : Soit A une partie de E.
1. Prouver que A = {x ∈ A/d(x, A) = 0}
2. Montrer que δ(A) = δ(A) = δ(∂A)

Proposition 102


Une partie A de E est ouverte si et seulement si A = A

Preuve:

Si A est ouverte on va montrer que A ⊂ A. Soit x ∈ A, il existe r > 0 tel que

B(x, r) ⊂ A, donc x ∈ A
◦ ◦
Réciproquement , si A = A , soit x ∈ A ; comme x ∈ A on a : ∃r > 0 tel que
B(a, r) ⊂ A, donc A est un ouvert.

3.1.12 Frontière
Définition 61

Soit A une partie de l’espace vectoriel normé E. on appelle frontière de A, le



sous ensemble de E noté Fr(A) ou ∂A tel que : ∂A = A\ A


Remarques 1) ∂A est un fermé car c’est l’intersection de deux fermés : A et (A)c
2) On a : ∂E = ∅ et ∂∅ = ∅

3.1.13 Norme produit


110 CHAPITRE 3. ESPACE VECTORIELS NORMÉS

Proposition 103

Soit n ∈ N∗ et (Ek , Nk ) pour 1 ≤ k ≤ n une famille d’espaces normés et soit


Yn
E= Ek . Pour tout x ∈ E avec x = (x1 , ..., xn ) on pose :
k=1

n n
! 21
X X n
∥x∥1 = Nk (xk ), ∥x∥2 = (Nk (xk )2 , ∥x∥∞ = sup Nk (xk )
k=1
k=1 k=1

Alors il s’agit de trois normes sur E. De plus elles sont équivalentes. Si ∥.∥
désigne l’une d’elles alors (E, ∥.∥) est appelé espace vectoriel normé produit des
Ek

Remarques 1) Le plus souvent on prends la norme infinie pour l’espace vectoriel


normé produit.
2) Dans le cas particulier Ek = K pour tout k on retrouve des résultats déjà vus.

3.2 Suites dans un espace vectoriel normé, conver-


gence
Dans toute cette section (E, ∥.∥) est un espace vectoriel normé.

3.2.1 Le K − espace vectoriel E N des suites à valeurs dans E


3.2.1.1 Definitions
Une suite à valeurs dans E est une application u d’une partie I de N vers E. On
la note (un )n∈I . Les suites les plus utilisés sont celles pour lesquelles I est de la
forme Np avec p ∈ N où Np est l’ensemble des entiers naturels ≥ à p.Ces suites se
ramènent au cas I = N et souvent on a I = N∗ , on les note donc (un )n≥0 et (un )n≥1
respectivement. Si on note (un ) c’est que I = N.
L’ensemble de toutes les suites de I vers E est noté E I

3.2.1.2 Opérations
Si u = (un ) et v = (vn ) sont deux suites et λ ∈ K on définit les suite u + v et λ.u
comme suit :
∀n ∈ N (u + v)n = un + vn et (λ.u)n = λun

Proposition 104

(E N , +, .) est une K espace vectoriel


3.2. SUITES DANS UN ESPACE VECTORIEL NORMÉ, CONVERGENCE 111

3.2.1.3 Suite bornée

Définition 62

Un suite (un ) à valeurs dans E est bornée si l’ensemble de ses valeurs {Un /n ∈
N} est une partie bornée de l’espace vectoriel normé E. C’est-à-dire si :

(∃M ∈ R+ )(∀n ∈ N) ∥un ∥ ≤ M

Exemple Soit E = C ([0, 1], R) l’espace vectoriel des fonctions continue muni de la
norme ∥.∥∞ et la suite (un ) tel que :

(∀n ∈ N)(∀x ∈ [0, 1]) un (x) = nxn

On a : ∥un ∥∞ = n car la fonction x 7→ xn est croissante sur [0, 1] et sa valeur


maximale est atteinte au point 1. On a donc en particulier : lim ∥un ∥∞ = +∞,
n→+∞
d’où la suite (un ) n’est pas bornée dans l’espace vectoriel normé (E, ∥.∥∞ ).
Regardons maintenant ce qui se passe pour cette suite dans l’espace vectoriel normé
(E, ∥.∥1 ). Calculons pour n ∈ N :
Z 1
n
∥un ∥1 = |un (x)|dx =
0 n+1
Dès lors que :
(∀n ∈ N) ∥un ∥1 ≤ 1
et la suite (un ) est bornée dans l’espace vectoriel normé (E, ∥.∥1 ).
Nous remarquons que la notion de ’suite bornée’ dépends de la norme utilisée même
si on a le même espace vectoriel

3.2.2 Suites convergentes


Définition 63

Soit (un ) une suite (un ) à valeurs dans E et ℓ ∈ E. On dit que ℓ est une limite
de la suite (un ) si : la suite réelle (∥un − ℓ∥)n est convergente vers 0

On voit que l’on se ramène à l’étude d’une suite réelle, donc on peut utiliser tout ce
qu’on sait à propos de ce ca particulier important, notamment si (un ) ∈ E N est une
suite tel qu’il existe une suite réelle (αn ) et un vecteur ℓ ∈ E, tel que :

∃n0 ∈ N, ∀n ∈ N, n ≥ n0 ⇒ ∥un − ℓ∥ ≤ αn

et lim αn = 0 alors ℓ est une limite de (un ).


n→+∞
112 CHAPITRE 3. ESPACE VECTORIELS NORMÉS

Proposition 105

Si une suite admet une limite ℓ alors elle est unique. On la note ℓ = lim un .
n→+∞

Preuve:
Si ℓ et ℓ′ sont des limites des (un ), alors pour tout n ∈ N, on a :

∥ℓ′ − ℓ∥ = ∥ℓ′ − un + un − ℓ∥
≤ ∥un − ℓ′ ∥ + ∥un − ℓ∥

et comme lim ∥un −ℓ∥ = lim ∥un −ℓ′ ∥ = 0, on a lim (∥un − ℓ′ ∥ + ∥un − ℓ∥) =
n→+∞ n→+∞ n→+∞
0 et par suite ℓ = ℓ′ .

Remarques O note les remarques suivantes :


1. on dit qu’une suite (un ) est convergente si elle admet une limite ℓ ∈ E.
2. On dit qu’une suite est divergente si elle n’est pas convergente.
3. On peut dire que lim un = ℓ si et seulement si : pour tout voisinage V de ℓ,
n→+∞
il existe un entier naturel N tel que : un ∈ V dès que n ≥ N , ce qu’on exprime
comme suit :
(∀V ∈ V (ℓ))(∃N ∈ N)(∀n ≥ N ) un ∈ V
4. Deux normes équivalentes d’un espace vectoriel normé E ont les même suites
convergentes.(On verra que la réciproque est vraie).

Proposition 106

Si est l’ensemble des suites convergentes à valeurs dans E alors S est un sous-
espace vectoriel de E, de plus l’application L qui associe à chaque u de S sa
limite est une application linéaire de S vers E

Remarques 1) En particulier si (un ) et (vn ) sont deux suites convergentes de limites


respectives ℓ et ℓ′ et si λ ∈ K alors la suite somme (un + vn ) et la suite (λun ) sont
convergentes et :
lim (un + vn ) = ℓ + ℓ′
n→+∞

et
lim (λun ) = λℓ
n→+∞

3.2.3 Valeur d’adhérence d’une suite


3.2. SUITES DANS UN ESPACE VECTORIEL NORMÉ, CONVERGENCE 113

Définition 64

On appelle extractrice toute application φ : N → N strictement croissante.

Les exemples les plus utilisés sont φ(n) = 2n, ψ(n) = 2n + 1 et χ(n) = n2 .

Proposition 107

Si φ : N → N est une extractrice alors on a

∀n ∈ N, φ(n) ≥ n.

Preuve:
Par récurrence :
• Pour n = 0, on a φ(0) = 0 ∈ N, donc φ(0) ≥ 0.
• Soit n ∈ N tel que φ(n) ≥ n, alors comme n + 1 > n et φ est strictement
croissante, on a φ(n + 1) > φ(n), donc φ(n + 1) > n, donc φ(n + 1) ≥ n + 1.

Définition 65

Soit (un ) une suite à valeurs dans E. On appelle sous-suite ou suite extraite
de (un ) toute suite de la forme (uφ(n) ) où φ est une application strictement
croissante de N vers N.

Définition 66

Soit (un ) une suite à valeurs dans E et a ∈ E. On dit que a est une valeur
d’adhérence de la suite (un ) s’il existe une sous-suite de la suite (un ) qui converge
vers a.

Proposition 108

a est une valeur d’adhérence de (un ) si et seulement si :

(∀ε > 0)(∀N ∈ N)(∃n > N ) ∥un − a∥ < ε

Proposition 109

Soit (un ) une suite d’un espace vectoriel normé (E, ∥.∥). Si (un ) est convergente
de limite ℓ, alors toute sous-suite (uφ(n) ) de (un ) est convergente de limite ℓ.
114 CHAPITRE 3. ESPACE VECTORIELS NORMÉS

Preuve:
Soit ε > 0, il existe N ∈ N tel que pour tout n ∈ N, on aie : n ≥ N ⇒
∥un − ℓ∥ < ε, donc si n ≥ N , on a φ(n) ≥ n par la proposition 107, donc
∥uφ(n) − ℓ∥ < ε, et par suite on a prouvé que :

∀ε > 0, ∃N ∈ N, ∀n ∈ N, n ≥ N ⇒ ∥uφ(n) − ℓ∥ < ε,

donc lim uφ(n) = ℓ.


n→+∞

3.2.4 Suites de Cauchy, espace vectoriel normé complet


Définition 67

Une suite (un ) à valeurs dans un espace vectoriel normé E est dite de Cauchy
si :
(∀ε > 0)(∃N ∈ N)(∀p ≥ N )(∀q ≥ N ) ∥up − uq ∥ < ε

Remarques On note les remarques suivantes :


1. Si N1 et N2 sont deux normes équivalentes alors les espaces vectoriels normés
(E, N1 ) et (E, N2 ) ont les mêmes suites de Cauchy.
2. On peut dire que (un ) est de Cauchy si pour tout voisinage V de 0 , il existe
N ∈ N tel que pour tout p, q ≥ N on aie : up − uq ∈ V . Si on note V (0)
l’ensemble des voisinages de 0 ,alors cela s’écrit :

(∀V ∈ V (0))(∃N ∈ N)(∀p, q ≥ N ) up − uq ∈ V

3. Toute suite convergente et de Cauchy mais on verra que la réciproque est


fausse en général.

Définition 68

On dit qu’un espace vectoriel normé (E, ∥.∥) est complet si toute suite de Cauchy
à valeurs dans E est convergente. On dit aussi que (E, ∥.∥) est un espace de
Banach.

Remarque Si N1 et N2 sont deux normes équivalentes de E alors on a : (E, N1 )


est complet si et seulement si (E, N2 ) est complet.

Exemple R muni de la valeur absolue et C muni du module sont des espaces de


Banach.
3.2. SUITES DANS UN ESPACE VECTORIEL NORMÉ, CONVERGENCE 115

Proposition 110
n
Y
Si Ei avec i ∈ {1, ..., n} sont des espaces de Banach alors E = Ei est un
i=1
espace de Banach.

Corollaire 15

Pour tout d ∈ N∗ , l’espace vectoriel normé (Kd , ∥.∥k ) où k ∈ {1, 2, ∞}, sont des
espaces de Banach.

Remarque on verra plus loin que Kd muni de n’importe quelle norme est un espace
de Banach.

Proposition 111

Toute suite de Cauchy à valeurs dans (E, ∥.∥) est bornée

Preuve:
Soit (un ) une telle suite. En prenant ε = 1, il existe N ∈ N tel que ∥up − uq ∥ < 1
pour p, q ≥ N . En particulier (p = N et q = n ≥ N ), on a pour tout n ≥ N :

∥un − uN ∥ < 1

et comme :
∥un ∥ − ∥uN ∥ ≤ ∥un − uN ∥
on a :
∥un ∥ ≤ 1 + ∥uN ∥
pour tout n ≥ N . En prenant : M ′ = max(∥uk ∥/k ≤ N } et M = max(M ′ , ∥uN ∥+
1) on voit que :
∀n ∈ N ∥un ∥ ≤ M

3.2.5 Suite dans un espace normé produit


Proposition 112

Soient F et G deux espaces vectoriels normés et soit E = F × G muni de la


norme produit. Soit (un ) une suite à valeurs dans E et posons un = (vn , wn ) pour
tout n ∈ N. Alors la suite (un ) converge vers ℓ = (ℓ1 , ℓ2 ) ∈ E si et seulement si
(vn )et (wn ) convergent respectivement vers ℓ1 et ℓ2
116 CHAPITRE 3. ESPACE VECTORIELS NORMÉS

Preuve:
un = (vn , wn ). Supposons que (un ) converge vers ℓ = (ℓ, ℓ′ ) ∈ F ×G. On adopte
la norme ∥.∥∞ . On a :

∥vn − ℓ∥ ≤ ∥wn − ℓ∥∞
∥un − ℓ′ ∥ ≤ ∥un − ℓ∥∞

et comme ∥un − ℓ∥∞ tends vers 0, on a vn tends vers ℓ et wn tends vers ℓ′ .


Réciproquement supposons que (vn ) tends vers ℓ et (wn ) tends vers ℓ′ . On
adopte la norme ∥.∥1 . On a :

∥un − ℓ∥1 = ∥vn − ℓ∥ + ∥wn − ℓ′ ∥

Le membre de droite est le terme général d’une suite qui converge vers 0 dans
R, donc (un ) converge vers ℓ.

Remarques 1. La proposition est valable si E = E1 × ... × En avec n ∈ N et


n ≥ 2. On a évité le cas général ca on aurait des notations lourdes.
2. On a une application pratique de cette propositions dans le cas de E = Kn

3.2.6 Caractérisation séquentielle de la fermeture et de l’adhé-


rence d’une partie
Proposition 113

Soit A une partie non vide de E. Alors l’adhérence de A est l’ensemble de toutes
les limites possibles de suites convergentes dans E à valeurs dans A

Corollaire 16

Une partie A de E est fermée si et seulement si pour toute suite (an ) à valeurs
dans A si (an ) converge vers ℓ ∈ E alors : ℓ ∈ A

Corollaire 17

Soit E un espace vectoriel normé et A et B deux parties de E tel que A ̸= ∅ et


A ⊂ B. Alors A est dense dans B si et seulement si pour tout b ∈ B, il existe
une suite (an ) ∈ AN tel que lim an = b.
3.3. LIMITES ET CONTINUITÉ DES FONCTIONS 117

3.3 Limites et continuité des fonctions


Dans tout ce qui suit E et F sont deux espaces vectoriels normés dont les normes
prennent la même notation ∥.∥.

3.3.1 Limites
3.3.1.1 Limite d’une application en un point adhérent à une partie

Définition 69

Soit A une partie non vide de E et a ∈ A, c’et-à-dire un point adhérent à A.


Soit ℓ ∈ F . On dit que ℓ est une limite de l’application f en a si :

(∀ε > 0)(∃η > 0)(∀x ∈ A) ∥x − a∥ < η ⇒ ∥f (x) − ℓ∥ < ε

Exemple • Si E = F = R muni de la valeur absolue et A =]x0 − α, x0 + α[ on


retrouve la définition de la limite quand x tends vers x0 avec x ̸= x0 .
• Si E = F = R et A =]x0 , x0 + α[ alors on retrouve la définition de la limite de f
quand x tends vers x0 à droite.

Remarque Si a ∈ A la seule limite possible d’une application f de A vers F est


f (a)

3.3.1.2 Extension de la notion de limite

Définition 70

Soit A une partie de R contenant un intervalle de la forme [a, +∞[ et ℓ ∈ E. on


dit que lim f (x) = ℓ si :
x→+∞

(∀ε > 0)(∃α > 0)(∀x > α) ∥f (x) − ℓ∥ < ε

Remarque On définit de même : lim f (x) = ℓ


x→−∞

3.3.1.3 Caractérisation séquentielle

Proposition 114

Soit f : A → F une application, a ∈ A, ℓ ∈ F , alors lim f = ℓ si et seulement si


a
pour toute suite (an ) ∈ AN tel que an → a, on af (an ) → ℓ.
118 CHAPITRE 3. ESPACE VECTORIELS NORMÉS

Preuve:
Supposons que (⋆) lim f (x) = ℓ. Soit (an ) ∈ AN une suite tel que (⋆⋆)
x→a
lim an =
n→+∞
x∈A
a. Soit ε > 0, alors par (⋆) il existe η > 0 tel que :

∀x ∈ A, ∥x − a∥ < η ⇒ ∥f (x) − ℓ∥ < ε

Par (⋆⋆), il existe N ∈ N tel que :

∀n ∈ N, n ≥ N ⇒ ∥an − a∥ < ε

On a alors :
∀n ∈ N, n ≥ N ⇒ ∥f (an ) − ℓ∥ < ε.
donc lim f (an ) = ℓ.
n→+∞
lim = ℓ, alors
Réciproquement, supposons qu’on a la négation de x→a
x∈A

1
∃ε0 > 0, ∀n ∈ N∗ , ∃an ∈ A, ∥an − a∥ < et ∥f (an ) − ℓ∥ > ε.
n
On a ainsi construit une suite (an ) ∈ AN tel que lim an = a mais on n’a pas
n→+∞
lim f (an ) = ℓ.
n→+∞

3.3.1.4 Cas d’un espace produit

Proposition 115
Y
Soit (Ei , Ni )1≤i≤n une famille d’espaces vectoriels normés et E = Ei l’espace
vectoriel normé produit. Soit ℓ = (ℓi )1≤i≤n ∈ E et

f :A→E

de composantes (fi )1≤i≤n une application et a ∈ A. Alors

lim f (x) = ℓ ⇔ ∀i ∈ [[1, n]], x→a


x→a
lim fi (x) = ℓi
x∈A x∈A

3.3.1.5 Opérations sur les limites

Proposition 116

E et F sont deux espaces vectoriels normés sur le corps K, A une partie de E


et a ∈ A. Soient f : A → F et g : A → F deux applications de A vers F et
ℓ, ℓ′ ∈ F et λ ∈ K.
3.3. LIMITES ET CONTINUITÉ DES FONCTIONS 119

Si lim f = ℓ et lim g = ℓ′ alors lim (f + λg) = ℓ + λℓ′ .


x→a x→a x→a

Preuve:
Pour tout x ∈ A, on a :

(⋆) ∥(f + λg)(x) − (ℓ + λℓ′ )∥ ≤ ∥f (x) − ℓ∥ + (1 + |λ|)∥g(x) − ℓ′ ∥.

Soit ε > 0. Comme lim f (x) = ℓ et lim g(x) = ℓ′ , il existe η1 , η2 > 0 tel que :
x→a x→a
 ε
 ∥x − a∥ < η1 ⇒ ∥f (x) − ℓ∥ <
∀x ∈ A, 2 ε .

 ∥x − a∥ < η2 ⇒ ∥g(x) − ℓ ∥ <
2(1 + |λ|)

Donc si on note η = min(η1 , η2 ), on a en vertu de l’inégalité (⋆) ci-dessus, pour


tout x ∈ A :
ε ε
∥x − a∥ < η ⇒ ∥(f + λg)(x) − (ℓ + λℓ′ )∥ < + (1 + |λ|) =ε
2 2(1 + |λ|)

ce qui prouve que lim (f + λg) = ℓ + λℓ′ .


x→a

3.3.1.6 Limite d’un composé d’applications

Proposition 117

E, F, G sont des espaces vectoriels normés, f : A ⊂ E → F , g : B ⊂ F → G des


lim f = b alors b ∈ B. Si alors
applications tel que f (A) ⊂ B. Soit a ∈ A. Si x→a
x∈A
lim g ◦ f = c.
lim g(x) = c alors x→a
x→b
x∈B x∈A

Preuve:
La démonstration comporte deux parties :
• Démontrons tout d’abord que b ∈ B, pour cela soit r > 0, prouvons que
B(b, r) ∩ B ̸= ∅. Comme lim f (x) = b et r > 0, il existe η > 0 tel que pour
x→a
tout x ∈ A, on ait : (⋆) ∥x − a∥ < η ⇒ ∥f (x) − b∥ < r, et comme a ∈ A
et η > 0, on a A ∩ B(a, η) ̸= ∅, soit alors x0 ∈ A ∩ B(a, η) alors x0 ∈ A,
donc f (x0 ) ∈ f (A) et comme f (A) ⊂ B, on a f (x0 ) ∈ B. Par ailleurs comme
x0 ∈ B(a, η), on a ∥x0 − a∥ < η, donc d’après (⋆), on a ∥f (x0 ) − b∥ < r, donc
f (x0 ) = y0 réalise y0 ∈ B et y0 ∈ B(b, r), ce qui démontre que B ∩ B(b, r) ̸= ∅.

• Soit ε > 0, comme lim g(x) = ℓ, il existe α > 0 tel que ∀x ∈ B, ∥x − b∥ <
x→b
120 CHAPITRE 3. ESPACE VECTORIELS NORMÉS

α ⇒ ∥g(x) − ℓ| < ε, et comme α > 0 et lim = b, il existe η > 0 tel que :


x→a
∀x ∈ A, ∥x − a∥ < η ⇒ ∥f (x) − b| < α. Donc pour tout x ∈ A, si ∥x − a∥ < η
alors f (x) ∈ B et |f (x) − b∥ < α, par suite ∥g(f (x)) − ℓ| < ε, donc on a
démontré que :

∀ε > 0, ∃η >, ∀x ∈ A, ∥x − a∥ < η ⇒ ∥(g ◦ f )(x) − ℓ| < ε

ce qui démontre que lim (g ◦ f )(x) = ℓ


x→a

3.3.2 Continuité
Définition 71

Soit f une application d’une partie A non vide de E vers F et soit a ∈ A.


1. On dit que f est continue au point a si lim f (x) = f (a).
x→a
2. On dit que f est continue sur A si f est continue en tout point de A.

Proposition 118

f est continue au point a si et seulement si pour toute suite (an ) ∈ AN tel que
an → a, on a f (an ) → f (a).

Proposition 119

Si f, g : A → F sont continues au point a ∈ A alors f + λg est continue au point


a.

Preuve:
Conséquence immédiate de la proposition 116.

Proposition 120

f : A ⊂ E → F, g : B ⊂ F → G tel que f (A) ⊂ B. Soit a ∈ A. Si f est continue


au point a et g continue au point f (a) alors g ◦ f est continue au point a.

Preuve:
Conséquence immédiate de la proposition 117.
3.3. LIMITES ET CONTINUITÉ DES FONCTIONS 121

Proposition 121

Si f, g : A → F continues et C une partie de A dense dans A, alors si f et g


coïncident sur C elles coïncident sur A.

Preuve:
Soit x ∈ A. Par densité de C il existe une suite (cn ) ∈ C N tel que lim cn = x.
n→+∞
Par continuité de f et g on a f (x) = lim f (cn ) et g(x) = lim g(cn ) et
n→+∞ n→+∞
comme cn ∈ C, pour tout n, on a ∀n ∈ N, f (cn ) = g(cn ), d’où, lim f (cn ) =
n→+∞
lim g(cn ) et finalement f (x) = g(x). Donc ∀x ∈ A, f (x) = g(x).
n→+∞

3.3.3 Topologie et continuité


3.3.3.1 Topologie induite

Proposition 122

Soit A une partie de E.


1. On appelle ouvert de la partie A toute partie de la forme O′ = O ∩ A où
O est un ouvert de E.
2. On appelle ouvert de A, toute partie F ′ de A tel qu’il existe une partie
fermée F de E tel que F ′ = F ∩ A.
3. On appelle voisinage, dans A d’un point x de A, toute partie V de A tel
qu’il existe un ouvert O de A tel que x ∈ O et O ⊂ V .

Remarques On fait les remarques suivantes. Il est recommandé au lecteur de les


démontrer :
1. Une partie F de A est un fermé de A si et seulement si A\F est un ouvert de
A.
2. Si O est l’ensemble des ouverts de E alors O ′ = {O ∩ A/O ∈ O} est l’ensemble
des ouverts de A. Le couple (A, O ′ ) est un espace topologique (vérifie les trois
axiomes de la proposition ). sa topologie est appelé topologie induite sur A
par celle de E. Notons que A n’est pas forcément un espace vectoriel.
3. Soit x ∈ A. Un voisinage de x dans A est une partie V ′ de E de la forme
V ′ = V ∩ A, où V est un voisinage de x dans E.
122 CHAPITRE 3. ESPACE VECTORIELS NORMÉS

Proposition 123

Soit f une application d’une partie A de E vers F . Alors f est continue sur A
si et seulement si l’image réciproque par f de tout ouvert deF est un ouvert de
A.

Preuve:
• Supposons que f est continue sur A. Soit O un ouvert de F . Si O ∩ f (A) = ∅
alors f −1 (O) = ∅ est un ouvert de A. Sinon alors W = f −1 (O) ̸= ∅. Montrons
que W est un ouvert de A. pour cela soit x ∈ W alors x ∈ A , c’est-à-dire :
f (x) ∈ O. Comme O est un ouvert de F , il existe ε > 0 tel que B(f (x), ε) ⊂ O,
et comme f est continue au point x,il existe αx > 0 tel que : f (B(x, αx ) ∩ A) ⊂
B(f (x), ε). V = B(x, αx ) ∩ A est un ouvert de A auquel appartient x et on a
V ⊂ W . On a montré que W est voisinage de chacun de ses points, donc un
ouvert de A.
• réciproquement , supposons que l’image réciproque de tout ouvert de F est
un ouvert de A. Soit a ∈ A, montrons que f est continue au point a. Soit
W = B(f (a), ε) une boule ouverte de centre a (ε > 0). par hypothèse, f −1 (W )
est un ouvert de A, donc il existe un ouvert O de E tel que f −1 (W ) = O ∩ A.
En particulier a ∈ O car f (a) ∈ W , donc il existe α > 0 tel que B(a, α) ⊂ O.
On a par suite :

∀x ∈ A ∥x − a∥ < α ⇒ ∥f (x) − f (a)∥ < ε

Ceci donne la continuité de f au point a.

Proposition 124

Soit f une application d’une partie A de E vers F . Alors f est continue sur A
si et seulement si l’image réciproque par f de tout fermé deF est un fermé de
A.

Preuve:
On applique la proposition 15 en remarquant que pour toute partie A de F on
a : f −1 (F \A) = E\f −1 (A)

Remarques Voici des conséquences très utiles en pratique des propositions précé-
dentes :
1) Soit A une partie de l’espace vectoriel normé (E, ∥.∥) et f : A → R une applica-
tion. Alors :
1. F = {x ∈ A/f (x) = 0}, F1 = {x ∈ A/f (x) ≥ 0} et F2 = {x ∈ A/f (x) ≥ 0}
sont des fermés de A.
3.3. LIMITES ET CONTINUITÉ DES FONCTIONS 123

2. O = {x ∈ A/f (x) ̸= 0}, O1 = {x ∈ A/f (x) > 0} et O2 = {x ∈ A/f (x) < 0}


sont des ouverts de A.

2) Soit A une partie de E est f et g deux applications de A vers E. Alors :


1. F = {x ∈ A/f (x) = g(x)} est un fermé de A
2. O = {x ∈ A/f (x) < g(x)} est un ouvert de A.
3. Ω = {x ∈ A/f (x) ̸= g(x)} est un ouvert de A.

Preuve:
Immédiat car des images réciproques par des fonctions continues de l’une des
parties suivante de R : Soit {0} ou [0, +∞[ ou ] − ∞, 0] qui sont des fermés de
R.
Soit ] − ∞, 0[ ou ]0, +∞[ qui sont des ouverts de R

3.3.4 Continuité uniforme


Définition 72

Soit A une partie non vide de E et f une application de A vers F . On dit que
f est uniformément continue sur A si :

(∀ε > 0)(∃η > 0)(∀(x, y) ∈ A2 ) ∥x − y∥ < η ⇒ ∥f (x) − f (y)∥ < ε

Remarque Tout application f de A vers F qui est lipschitzienne sur A est unifor-
mément continue sur A

Proposition 125

Si une application f de A vers F est uniformément continue sur A alors f est


continue sur A

3.3.4.1 Exemple

Proposition 126

Soit (E, ∥.∥) un espace vectoriel normé, alors l’application : ∥.∥ considérée
comme application de l’espace vectoriel normé E vers l’espace vectoriel normé
R est une application uniformément continue sur E
124 CHAPITRE 3. ESPACE VECTORIELS NORMÉS

Preuve:
En effet elle lipschitzienne sur E en vertu de l’inégalité :

∀x, y ∈ E, |∥x∥ − ∥y∥| ≤ ∥x − y∥.

Proposition 127

Soit A une partie non vide de E. l’application x 7→ d(x, A) est uniformément


continue sur E.

Preuve:
Soit x, y ∈ E. Pour tout a ∈ A, on a d(x, A) ≤ d(x, a), et comme

d(x, a) ≤ d(x, y) + d(y, a),

il vient : d(x, A) ≤ d(x, y) + d(y, a) pour tout a ∈ A. Donc

inf d(x, A) ≤ d(x, y) + inf d(y, a),


a∈A a∈A

ce qui donne
d(x, A) ≤ d(x, y) + d(y, A),
donc
d(x, A) − d(y, A) ≤ d(x, y)
et par symétrie des rôles on a aussi

d(y, A) − d(x, A) ≤ d(y, x),

d’où
∀x, y ∈ E, |d(x, A) − d(y, A)| ≤ ∥x − y∥.
Il en découle que l’application x 7→ d(x, A) est lipschitzienne, donc uniformé-
ment continue sur E.

Proposition 128

E et F sont deux espaces vectoriels normés. Alors :


1. Si A est une partie de E et c ∈ F , l’application constante fc : A → F, x 7→
c est uniformément continue, donc continue sur A.
2. Si A est une partie de E, pour tout α ∈ K et tout b ∈ E, l’application
gα,b : A → E, x 7→ αx + b est uniformément continue, donc continue sur
A.
3.4. COMPACITÉ 125

Preuve:
1. L’application fc est lipschitzienne, donc elle est continue.
2. Pour tout x, y ∈ A, on a ∥gα,b (x) − gα,b (y)∥ = ∥α(x − y)∥ = |α|∥x − y∥,
donc gα,b est lipschitzienne, donc continue.

Remarque En particulier, si (E, ∥.∥) est un espace vectoriel normé, l’application


identique de E, à savoir IdE : E → E; x 7→ Id(x) = x, est uniformément continue
de (E, ∥.∥) vers (E, ∥.∥). Elle corresponds à gα,b pour α = 1 et b = 0.

3.4 Compacité
Dans tout ce qui suit (E, ∥.∥) est un espace vectoriel normé.

3.4.1 Définitions et propriétés


Définition 73

Soit K une partie de E. On dit que K est compacte (ou un compact) si : de


toute suite (xn ) à valeurs dans K on peut extraire une suite convergente dont
la limite appartient à K

Remarques Soit K une partie de E, on a les remarques suivantes :


1. K est compacte si toute suite à valeurs dans K admet une valeur d’adhérence
qui, elle même, appartient à K.
2. K est compact si toute suite à valeurs dans K admet aux moins une sous-suite
convergente dont la limite appartient à K.
3. ∅ est un compact par définition.
4. Si K est finie alors K est compacte.

Preuve:
En effet, si K = {a1 , . . . , am } avec m ∈ N∗ , soit (xn ) ∈ KN une suite à
valeurs dans K. Si, pour tout k ∈ [[1, m]], on note Ik = {n ∈ N/xn =
m
[
ak }, alors Ik = N, donc, il existe au moins k ∈ [[1, m]] tel que Ik est
k=1
une partie infinie de N, il existe une application strictement croissante
φ : N → N tel que Ik = φ(N). La suite (xφ(n) ) est constante de valeur ak ,
donc converge vers ak .
126 CHAPITRE 3. ESPACE VECTORIELS NORMÉS

Exemples Voici quelques exemples de compacts. Les propositions à venir per-


mettent d’en avoir d’autres plus importants.
1. Si A est une partie finie d’un espace vectoriel normé E alors A est compacte.
2. Dans (R, |.|), tout segment [a, b] est un compact. En effet toute suite à valeurs
dans [a, b]est bornée donc elle admet une sous-suite (xφ(n) ) convergente vers
ℓ ∈ R. Comme [a, b] est fermé et que xφ(n) ∈ [a, b] pour tout n ∈ N, il en
découle que ℓ ∈ [a, b].
3. Toute union finie de segments de R est un compact de R.
4. Soit (xn ) ∈ E N une suite convergente de limite ℓ dans un espace vectoriel
normé E. Si on note S = {xn /n ∈ N}, l’ensemble des valeurs de la suite (xn ),
alors l’ensemble K = {ℓ} ∪ S est un compact de E.

Théorème 14

Tout compact de E est un fermé borné de E

Preuve:
Soit K un compact de E.
• Montrons que K est fermé, pour cela, soit (xn ) une suite à valeurs dans K
convergente vers ℓ ∈ E. Comme K est compact , la suite (xn ) admet une valeur
d’adhérence λ avec λ ∈ K. Or la suite (xn ) étant convergente vers ℓ , elle admet
une unique valeur d’adhérence à savoir ℓ, donc ℓ = λ et par suite ℓ ∈ K. Donc
K est fermé.
• K est bornée, sinon ,on aurait :

(∀n ∈ N)(∃xn ∈ K) ∥xn ∥ ≥ n

On a donc une site (xn ) à valeurs dans K vérifiant ∥xn ∥ ≥ n pour tout n ∈ N.
En particulier :
lim ∥xn ∥ = +∞
n→+∞

Comme K est compact, il existe une sous-suite (xφ(n) ) de la suite (xn ) conver-
gente vers ℓ ∈ K. On a :

(∃N ∈ N)(∀n ≥ N ) xφ(n) − ℓ < 1

En particulier :
(∀n ≥ N ) xφ(n) ≤ ∥ℓ∥ + 1
Donc la suite (xφ(n) ) est bornée, ce qui est en contradiction avec le fait que
lim ∥xn ∥ = +∞
n→+∞
3.4. COMPACITÉ 127

Proposition 129

Si K est une partie compacte de E et si A est une partie fermée de K alors A


est une partie compacte de E

Preuve:
Soit (an ) une suite à valeurs dans A. Alors (an ) ∈ K N , et comme K est compact,
elle admet une valeur d’adhérence a ∈ K. Il reste à montrer que a ∈ A. Comme
K est un fermé de E, le fermé A de K est aussi un fermé de E. Il existe une
sous suite (aφ(n) ) de la suite (an ) qui converge vers a, donc par fermeture de A
, on a : a ∈ A.

Corollaire 18

Toute intersection de compacts de E est un compact de E

Preuve:
Si (Ki )i∈I est une famille de compacts alors les Ki sont fermés , donc leur
intersection est un fermé contenu dans un compact Kj pour un certain j ∈ I,
donc cette intersection est un compact.

Proposition 130

E et F sont deux espaces vectoriels normés. Soit K un compact de E et f :


K → F une application continue. Alors f (K) est un compact de F .

Preuve:
Soit (yn ) une suite à valeurs dans f (K). Montrons qu’elle admet au moins une
valeur d’adhérence appartenant à f (K). Pour tout n ∈ N, il existe xn ∈ K tel
que f (xn ) = yn . La suite (xn ) étant à valeurs dans le compact K, elle admet
une valeur d’adhérence λ ∈ K. Soit donc (xφ(n) ) une sous-suite de (xn ) de
limite λ. Par continuité de f , la suite (f (xφ(n) ) = (yφ(n) ) est convergente vers
f (λ). Il en résulte que f (λ) est une valeur d’adhérence de la suite (yn ). Comme
λ ∈ K, on a f (λ) ∈ f (K), ce qui finit la preuve.
128 CHAPITRE 3. ESPACE VECTORIELS NORMÉS

Proposition 131

Soit (E, ∥.∥) un espace vectoriel normé et K une partie non vide compacte de E
et soit f : K → R une application continue , alors f est bornée sur K et atteint
ses bornes.

Preuve:
D’après la proposition qui précède , f (K) est une parte compacte de R , elle est
donc fermée bornée. Soient m et M ses bornes inférieur et supérieur respective-
ment. Il existe une suite (xn ) de f (K) qui converge vers m et par fermeture on
a m ∈ f (K) donc il existe a ∈ K tel que f (a) = m, par le même raisonnement
il existe b ∈ K tel que f (b) = M .

Proposition 132

Si E1 et E2 sont deux espaces vectoriels normés et si K1 et K2 sont deux com-


pacts respectifs de E1 et E2 alors K1 × K2 est un compact de E1 × E2 .

Preuve:
Soit (zn ) = ((xn , yn ))n une suite à valeurs dans K1 ×K2 . Comme K1 est compact
, il existe une sous-suite (xφ(n) ) de la suite (xn ) convergeant vers λ1 ∈ K1 . La
suite (yφ(n) )n étant à valeurs dans le compact K2 de F , elle admet une sous-
suite (yφ(ψ(n)) ) convergeant vers λ2 ∈ K2 . La suite (xφ(ψ(n)) )n est une sous-suite
de (xφ(n) ), donc elle converge vers λ1 . Il en résulte que si on pose : χ = φ◦ψ alors
la suite (zχ(n) )n = ((xφ(ψ(n)) , xφ(ψ(n)) )n est une sous-suite de (zn ) qui converge
vers λ = (λ1 , λ2 ) ∈ K1 × K2 . Ceci termine la preuve de la proposition.

Remarque Généralement, pour n ∈ N, n ≥ 2, si E1 , ..., En sont des espaces vec-


toriels normés et si K1 , ..., Kn sont des compacts respectifs de E1 , ..., En alors K =
Yn Yn
Ki est un compact de E = Ei : on peut le prouver par récurrence sur n ou
k=1 k=1
directement en s’inspirant de la preuve pour le cas n = 2

Théorème 15

(de Heine) E et F sont des espaces vectoriels normés. Soit f : A → F une


application. Si A est compacte et f continue sur A alors f est uniformément
continue sur A.

Exercice
Soit (E, ∥.∥) un espace vectoriel normé et (un ) ∈ E N une suite convergente de limite
ℓ. Montrer que K = {ℓ} ∪ {un /n ∈ N} est un compact de E.
3.5. APPLICATIONS LINÉAIRES ET MULTILINÉAIRES CONTINUES 129

3.5 Applications linéaires et multilinéaires continues


3.5.1 Application linéaires continues
Proposition 133

Soient E et F deux espaces vectoriels normés dont les normes sont notées ∥.∥E
et ∥.∥F . Soit f ∈ L(E, F ) une application linéaire de E vers F . Les assertions
suivantes sont équivalentes :
(i) f est continue sur E
(ii) f est continue en 0E
(iii) f est bornée sur la boule fermée unité
(iv) f bornée sur la sphère unité
(v) (∃k ∈ R+ )(∀x ∈ E) ∥f (x)∥F ≤ k ∥x∥E
(vi) f est lipschitzienne sur E.

Preuve:
(i) ⇒ (ii) : clair
(ii) ⇒ (i) : Soit x0 ∈ E et g définie par g(x) = f (x) − f (x0 ) pour tout x ∈ E ,
alors : g = f ◦ u avec u(x) = x − x0 de E vers E. Il est clair que u est continue
au point x0 (translation) et comme f est continue au point 0 = u(x0 ), alors
par composition g est continue au point x0 , donc : lim g(x) = g(x0 ) = 0 donc
x→x0
lim f (x) = f (x0 ).
x→x0
Conclusion : on a prouvé que : (i) ⇐⇒ (ii).
(ii) ⇒ (iii) : Comme f est continue au point 0E , on a :

(∃α > 0)(∀x ∈ E) ∥x∥E < α ⇒ ∥f (x)∥F < 1

α α 2
Soit x ∈ Bf (0, 1) alors x = < α donc ∥f (x)∥F <
2 2 α
(iii) ⇒ (iv) : clair .
(iv) ⇒ (v) : Supposons qu’il existe M > 0 tel que ∥f (x)∥F ≤ M pour tout
x
x ∈ E tel que ∥x∥E = 1.Soit x ∈ E tel que x ̸= 0E , alors = 1 et
  ∥x∥E E
x
par suite f ≤ M , ce qui donne : ∥f (x)∥F ≤ M ∥x∥E , inégalité
∥x∥E F
valable aussi pour x = 0E donc valable sur E.
(v) ⇒ (vi) : Si x, y ∈ E alors : ∥f (x) − f (y)∥F = ∥f (x − y)∥F ≤ k ∥x − y∥E
donc f est k− lipschitzienne.
(vi) ⇒ (i) : clair.
130 CHAPITRE 3. ESPACE VECTORIELS NORMÉS

Proposition 134

Soient E et F deux espaces vectoriels normés (avec E non nul) et soit Lc (E, F )
le sous-ensemble de L(E, F ) des applications linéaires continues de E vers F .
Alors Lc (E, F ) est un sous-espace vectoriel de L(E, F ).

3.5.2 Application multilinéaires continues

Proposition 135

Soient (E1 , ∥.∥1 ), · · · , (Em , ∥.∥m ) et (F, ∥.∥) des espaces vectoriels normés et E =
Ym
Ek l’espace vectoriel normé produit des Ek . Soit f : E → F une application
k=1
m−linéaire. Les assertions suivantes sont équivalentes :
(i) f est continue sur E
(v) (∃k ∈ R+ )(∀(x1 , · · · , xm ) ∈ E) ∥f (x1 , · · · , xm )∥ ≤ k ∥x1 ∥1 · · · ∥xm ∥m

Exemples Les exemples suivants sont à retenir :

1. Soit (E, ⟨.⟩) un espace


p préhilbertien réel. On verra que l’application ∥.∥ : E →
R+ , x 7→ ∥x∥ = ⟨x, x⟩ est une norme sur E, appelée la norme associée au
produit scalaire de E.
L’application E 2 → R, (x, y) 7→ ⟨x, y⟩ est continue, car on verra que l’inégalité
de Cauchy-Schwarz donne :

∀(x, y) ∈ E 2 , |⟨x, y⟩| ≤ ∥x∥∥y∥

2. Soit E un K−espace vectoriel de dimension n avec n ∈ N∗ . Soit b = (bk )1≤k≤n


Xn
une base de E, et pour tout x = xk bk , on note ∥x∥b = sup |xk |. On sait
1≤k≤n
k=1
que ∥.∥b est une norme sur E. L’application :

f : E n → K, (V1 , . . . , Vn ) 7→ det(V1 , . . . , Vn )
b

est continue car multilinéaire et comme pour tout V = (Vj )1≤j≤n , si on pose
3.5. APPLICATIONS LINÉAIRES ET MULTILINÉAIRES CONTINUES 131

n
X X n
Y
Vj = ai,j bi , on sait que f (V ) = ε(σ) aσ(j),j , de sorte que :
i=1 σ∈Sn j=1

X n
Y
|f (V )| ≤ ε(σ) aσ(j),j
σ∈Sn j=1

X n
Y
≤ ε(σ) aσ(j),j
σ∈Sn j=1
n
XY
≤ aσ(j),j
σ∈Sn j=1
XY n
≤ sup |ak,ℓ |
1≤k,ℓ≤n
σ∈Sn j=1
Yn
= n! ∥Vk ∥.
k=1

donc, en vertu de la proposition 135, f est continue.


3. Si E est un espace euclidien orienté de dimension n avec n ≥ 3, le produit
vectoriel permet de définir l’application

g : E n−1 → E, V = (V1 , . . . , Vn−1 ) 7→ g(V ) = V1 ∧ · · · ∧ Vn−1


n
Y
qui est (n − 1)−linéaire et vérifie |g(V )| ≤ ∥Vj ∥, donc elle est continue en
j=1
vertu de la proposition 135.

On considéré des espaces vectoriels normés E, F1 , . . . , Fn et G et soit Φ une applica-


n
Y
tion n linéaire de F = Fk vers G. Soit A une partie de E et pour tout k ∈ [[1, n]],
k=1
on considère une application fk : A → Fk . On note f = Φ(f1 , . . . , fn ), l’application
de A vers G tel que :

∀x ∈ A, f (x) = Φ(f1 , . . . , fn )(x) = Φ(f1 (x), . . . , fn (x))

Proposition 136

Avec les notations ci-dessus, si Φ est continue sur F alors :


1. Si les applications fk sont continues en un point a de A alors Φ(f1 , . . . , fn )
est continue au point a.
2. Si les applications fk sont continues sur A alors Φ(f1 , . . . , fn ) est continue
sur A.
132 CHAPITRE 3. ESPACE VECTORIELS NORMÉS

Preuve:
On donne la preuve pour n = 2. Pour tout x ∈ A, on a :

f (x) − f (a) = Φ(f1 (x), f2 (x)) − Φ(f1 (a), f2 (a))


= Φ(f1 (x) − f1 (a), f2 (x)) + Φ(f1 (a), f2 (a) − f2 (x))

donc :

∥f (x) − f (a)∥G ≤ ∥Φ(f1 (x) − f1 (a), f2 (x))∥G + ∥Φ(f1 (a), f2 (a) − f2 (x))∥G

Par continuité de Φ, il existe une constante k > 0 tel que

∀(y1 , y2 ) ∈ F1 × F2 , ∥Φ(y1 , y2 )∥G ≤ k∥y1 ∥F1 ∥y2 ∥F2

Il en découle que :

∥f (x) − f (a)∥G ≤ k∥f1 (x) − f1 (a)∥F1 ∥f2 (x))∥F2 + k∥f1 (a)∥F1 ∥f2 (x) − f2 (a))∥F2 .

Comme f1 et f2 sont continues au point a, on a :

lim (k∥f1 (x) − f1 (a)∥F1 ∥f2 (x))∥F2 + k∥f1 (a)∥F1 ∥f2 (x) − f2 (a))∥F2 ) = 0.
x→a

donc
lim f (x) = f (a),
x→a

et f est continue au point a.

3.6 Espaces vectoriels normés de dimension finies


3.6.1 Les compacts de (Kn , ∥.∥∞ )
Notons que les trois normes usuelles de Kn sont équivalentes par suite les compacts
de Kn sont les mêmes pour ces normes. On verra par la suite qu’en fait toutes les
normes de Kn sont équivalentes et que les compacts sont le fermés bornés.

Proposition 137

On a ce qui suit :
1. Tout segment [a, b] de R est un compact de R.
2. Si [a, b] et [c, d] sont des segments de R alors le pavé K = [a, b] + i[c, d] est
un compact de C.
3. Si r ∈ R∗+ , alors le disque fermé ∆r = {z ∈ C/|z| ≤ r} est un compact de
C.
3.6. ESPACES VECTORIELS NORMÉS DE DIMENSION FINIES 133

Proposition 138

On considère l’espace vectoriel normé (Kn , ∥.∥∞ ), alors :


1. Pour tout r > 0, la boule fermée

Bf (0, r) = {x ∈ Kn / ∥x∥∞ ≤ r}

est un compact de (Kn , ∥.∥∞ ).


2. Les compacts de (Kn , ∥.∥∞ ) sont les fermés bornés.

3.6.2 Equivalence des normes en dimension finie


Théorème 16

Soit E un espace vectoriel de dimension finie, alors toutes les normes de E sont
équivalentes.

Preuve:
Si E = {0}, il n’y a qu’une seule norme. Sinon, notons n la dimension de E et
soit B = (e1 , ..., en ) une base de E. Pour tout x ∈ E posons : ∥x∥ = sup |xi |
1≤i≤n
n
X
et soit N une norme quelconque sur E. Alors pour tout x = xi ei ∈ E, on
k=1
a: n
X
N (x) ≤ |xk |N (ek ) ≤ k ∥x∥
k=1


k = sup N (ek )
1≤k≤n

Soit S la sphère unité de (E, ∥.∥). Alors S est compacte de E d’après la pro-
position ci-dessus. N comme application de (E, ∥.∥) vers R est continue car
lipshitzienne car si (x, y) ∈ E 2 , alors :

|N (x) − N (y)| ≤ N (x − y) ≤ k ∥x − y∥

Alors elle est bornée sur S et atteint sa borne inférieur m. Comme N (x) > 0
x
pour tout x ∈ S , on a : m > 0. Soit x ∈ E\{0} alors : ∈ S et par suite
  ∥x∥
x
N ≥ m, ce qui donne : N (x) ≥ m ∥x∥ , inégalité valable aussi si x = 0.
∥x∥
Ainsi :
∀x ∈ E m ∥x∥ ≤ N (x) ≤ k ∥x∥
134 CHAPITRE 3. ESPACE VECTORIELS NORMÉS

Il en résulte que toute norme N sur E est équivalente à la norme ∥.∥, donc
toutes les normes sur E sont équivalentes.

3.6.3 Compacité en dimension finie


3.6.3.1 Une note sur les normes équivalentes
Soit E un espace vectoriel et ∥.∥ et ∥.∥′ deux normes de E.
On dit que ∥.∥ est plus fine que ∥.∥′ s’il existe une constante k > 0 tel que :

∥.∥′ ≤ k ∥.∥

On peut donc dire que ∥.∥ est plus fine que ∥.∥′ si l’application

IdE : (E, ∥.∥) → (E, ∥.∥′ ); x 7→ x

est continue.
• On rappelle que ∥.∥ et ∥.∥′ sont équivalents s’il existe deux constantes k1 et k2
strictement positives tel que :

k1 ∥.∥ ≤ ∥.∥′ ≤ k2 ∥.∥

Ainsi deux normes sont équivalentes si chacune d’elles est plus fine que l’autre.
On peut donc dire que ∥.∥ et ∥.∥′ sont équivalentes si l’application :

IdE : (E, ∥.∥) → (E, ∥.∥′ ); x 7→ x

est bicontinue.
• Si deux normes sont équivalentes alors elles ont :
1. Les mêmes suites convergentes.
2. Les mêmes parties fermées.
3. Les mêmes parties ouvertes.
4. Les mêmes parties bornées.
5. Les mêmes parties compactes.
6. La même adhérence pour chaque partie A de E.

3.6.3.2 Compacité en dimension finie

Proposition 139

soit (E, ∥.∥) un K− espace vectoriel normé de dimension finie. Alors une partie
K de E est compacte si et seulement si K est fermée bornée.
3.6. ESPACES VECTORIELS NORMÉS DE DIMENSION FINIES 135

Preuve:
Supposons que E est de dimension non nulle n soit B = (e1 , · · · , en ) une base
Xn
de E et munissons E de la norme ν(x) = sup |xi | pour x = xi ei . Pour
1≤i≤n
i=1
tout R > 0, on note Bν,R la boule fermée de centre 0 et de rayon R. Soit K
une partie de E. Si K est compacte on a déjà vu que K est fermée bornée.
Si K est fermée bornée, il existe R > 0 tel que K ⊂ Bν,R . Soit φ : Kn →
Xn
E; X 7→ φ(X) = xi ei , pour tout X = (xi )1≤i≤n ∈ Kn . Alors φ est linéaire
i=1
et réalise ν(φ(x)) = ∥x∥∞ pour tout (xi ) ∈ K n , par suite φ est continue. La
boule fermée B(0, R) de Kn est compacte par la proposition ci-dessus, donc
φ(B(0, R)) = Bν,R est un compact de E, or K est un fermé contenu dans Bν,R
donc K est compact.

3.6.4 Applications linéaires et multiplinéaires continues en


dimension finie
3.6.4.1 Applications linéaires

Proposition 140

Si E et F sont deux (E, ∥.∥) et si en plus E est de dimension finie alors L(E, F ) =
Lc (E, F ) : Toute application linéaire de E vers F est continue.

Preuve:
Si E = {0} c’est trivial Sinon, soit B = (e1 , ..., en ) une base de E. Si x =
Xn
xk ek alors :
k=1
 n
X
∥f (x)∥ ≤ sup |xk | ∥f (ek )∥
1≤k≤n
k=1

Comme en dimension finie toutes les normes sont équivalentes et que ∥.∥∞ :
x 7→ sup |xk | est une norme sur E, il existe k > 0 tel que ∥.∥∞ ≤ k ∥.∥ de
1≤k≤n
sorte que :
∀x ∈ E ∥f (x)∥ ≤ k ′ ∥x∥
n
X
avec k ′ = k ∥f (ek )∥
k=1
136 CHAPITRE 3. ESPACE VECTORIELS NORMÉS

3.6.4.2 Applications multilinéaires

Proposition 141

Si E1 , . . . , Em sont des espaces vectoriels normés de dimensions finies avec m ≥ 2


Ym
et si E = Ek et (F, ∥.∥) un espace vectoriel normé de dimension quelconque
k=1
(finie ou infinie) alors toutes application m−linéaire de E vers F est continue.

Remarques On fait les remarques suivantes sur la proposition :


1. E est l’espace vectoriel normé produit des Ek , mais la conclusion reste vraie
même si on munit E d’une autre norme.
2. Il n’est pas nécessaire d’avoir F de dimension finie, mais dans le cas de dimen-
sion infinie il faut préciser sa norme. La continuité a lieu pour toute norme de
F.

3.6.4.3 Conséquence : Continuité des applications polynomiales

Définition 74

Soit m ∈ N∗ . On appelle fonction polynomiale de Kn vers K toute application


f : Kn → K tel qu’il existe une partie finie non vide J de Nm et une famille
(aα )α∈J ∈ KJ tel que si pour tout α ∈ J, on pose α = (αk )1≤k≤m on aie :

X m
Y
m
∀x = (xk )1≤k≤m ∈ K , f (x) = aα xλk k
α∈J k=1

Les notations de la définition 74 ci-dessus sont conservées, on a la proposition sui-


vante :

Proposition 142

Si on note πk l’application :

πk : Km → K; x = (xk )1≤k≤m 7→ πk (x) = xk

alors : m
X Y
f= aα πkαk
α∈J k=1
3.6. ESPACES VECTORIELS NORMÉS DE DIMENSION FINIES 137

Preuve:
C’est immédiat puisque pour tout x ∈ K et tout k ∈ [[1, m]], on a :

πk (x) = xk

Proposition 143

Soit m ∈ N∗ et A une partie de Km . Si f : A → K est la restriction à A d’une


application polynomiale de Km vers K alors f est continue sur A.

Preuve:
Les applications πk sont linéaires et Km de dimension finie donc elles sont
continues sur Km . Pour tout p ∈ N∗ l’application : Vp : K → K; t 7→ tp est
m
Y
continue et finalement l’application : W : Km → K; x 7→ xk est continue
k=1
car m−linéaire et K de dimension finie. On a :
X
∀x = (xk )1≤k≤m ∈ Km , f (x) = aα W ((Vαk (πk (x)))1≤k≤m )
α∈J

d’où la continuité de f .

3.6.4.4 Exemples à connaître


1. L’application det : Mn (K) → K; X 7→ det(X) est continues car polynomiale
en les coefficients xij de la matrice X.
2. L’application χ : Mn (K) → Kn [X]; M 7→ χM est continues car ses compo-
santes dans la base canonique (X k )0≤k≤n de Kn [X] sont des fonctions polyno-
miales en les coefficients mij de la matrice M .
3. L’application γ : Mn (K) → Mn (K); M 7→ Com(A) où Com(A) est la coma-
trice de A est continue car si on note γij , 1 ≤ i, j ≤ n ses composantes dans la
base canonique (Eij )1≤i,j≤n sont définies par :

γij (M ) = (−1)i+j det(Mij )

où Mij est la matrice obtenue en barrant la ligne i et la colonne j de M , alors


les les γij sont polynomiales en les coefficients de M .

3.6.5 Complétude et dimension finie


138 CHAPITRE 3. ESPACE VECTORIELS NORMÉS

Proposition 144

Soit E un espace vectoriel normé quelconque et A une partie compacte de E.


Si une suite à valeurs dans A admet une unique valeur d’adhérence λ alors
lim un = λ
n→+∞

Preuve:
Supposons qu’on n’a pas lim un = ℓ. Alors il existe ε > 0 tel que :
n→+∞

(⋆) ∀n ∈ N, ∃p > n, ∥up − ℓ∥ ≥ ε.

Pour n = 0, il exist p0 ∈ N tel que p0 > 0 et ∥up0 − ℓ∥ ≥ ε. Si on suppose qu’il


existe p0 , · · · , pn tel que p0 < · · · < pn et ∀k ∈ [[0, n]] , ∥upk − ℓ∥ ≥ ε, alors
en appliquant (⋆) ci-dessus il existe pn+1 > pn tel que ∥upn+1 − ℓ∥ ≥ ε. Il en
découle que ∀k ∈ [[0, n + 1]], ∥upk − ℓ∥ ≥ ε. Si, pour tout n ∈ N, on pose :
φ(n) = pn , on a φ : N → N est une application strictement croissante et la
sous-suite (uφ (n)) vérifie :

(⋆⋆) ∀n ∈ N, ∥uφ(n) − ℓ∥ ≥ ε.

La suite (uφ (n)) est une suite à valuers dans A compacte, donc il existe une
application ψ : N → N strictement croissante tel que lim uφ(ψ(n)) = ℓ′ avec
n→+∞
ℓ′ ∈ A. Il est clair que ℓ′ est une valeur d’adhérence de (un ), par suite ℓ′ = ℓ.
( Par hypothèse, ℓ est l’unique valeur d’adhérence de (un ).) D’après (⋆⋆) ci-
dessus, on a
(⋆ ⋆ ⋆) ∀n ∈ N, ∥uψ(φ(n)) − ℓ∥ ≥ ε
et par passage à la limite on obtient 0 ≥ ε, ce qui est faux.

Remarque La réciproque est vrai : si (un ) converge alors elle admet une unique
valeur d’adhérence même si la suite n’est pas supposée avoir ses valeurs dans un
compact.

Proposition 145

Si E est un espace vectoriel normé de dimension finie alors toute suite (un ) ∈ E N
d’éléments de E bornée ayant une unique valeur d’adhérence λ est convergente
de limite λ.
3.6. ESPACES VECTORIELS NORMÉS DE DIMENSION FINIES 139

Preuve:
En effet, comme la suite (un ) est bornée, il existe R > 0 tel que ∀n ∈ N, un ∈
Bf (0, R). La boule fermée Bf (0, R) est un fermé borné de E. Comme E est de
dimension finie, Bf (0, R) est compacte, d’où le résultat d’après la proposition
144.

Proposition 146

Soit E un espace vectoriel normé de dimension finie, alors toute suite bornée
d’éléments de E admet au moins une valeur d’adhérence.

Preuve:
Si (un ) est une suite bornée il existe R ≥ 0 tel que ∀n ∈ N, ∥un ∥ ≤ R. Alors
(un ) ∈ B N , où B est la boule fermée de centre 0 et de rayon R, laquelle est
fermée bornée donc compacte puisque E est de dimension finie. Il en découle
que (un ) admet au moins une valeur d’adhérence α appartenant à B.

Théorème 17

Soit E un espace vectoriel normé. Tout sous-espace vectoriel de dimension finie


de E est un fermé de E.

Preuve:
Soit (un ) ∈ F N tel que lim un = ℓ avec ℓ ∈ E. On va démontrer que ℓ ∈ F .
n→+∞
Comme la suite (un ) est convergente dans E elle est bornées dans E donc dans
F . Par la proposition 146, la suite (un ) admet une valeur d’adhérence λ dans
F , qui est aussi une valeur d’adhérence de (un ) dans E. Donc λ = ℓ et par
suite ℓ ∈ F .

Théorème 18

Tout espace vectoriel normé (E, ∥.∥) de dimension finie est complet

Preuve:
Soit (un ) une suite de Cauchy dans E. Alors (un ) est bornée. Par la proposition
146, la suite (un ) admet au moins une valeur d’adhérence. Supposons que λ1 et
λ2 sont deux valeurs d’adhérence de (un ). Il existe φ1 , φ2 : N → N strictement
croissants tel que
∀k ∈ {1, 2} lim uφk (n) = λk
n→+∞
140 CHAPITRE 3. ESPACE VECTORIELS NORMÉS

Soit ε > 0 alors il existe N ∈ N tel que

∀p, q ≥ N, ∥up − uq ∥ < ε

En particulier pour tout n ∈ N, on a :

n ≥ N ⇒ ∥uφ1 (n) − uφ2 (n) < ε

puisque pour tout k ∈ {1, 2}, on a φ(n) ≥ n ≥ N .


Par passage à la limite on obtient

∀ε > 0, ∥λ1 − λ2 ∥ < ε

, donc λ1 = λ2 .
Ce qui précède permet de dire que (un ) admet une unique valeur d’adhérence
ℓ. Or (un ) étant bornée, il existe M ≥ 0 tel (un ) ∈ Bf (0, M ) qui est compact,
donc par la proposition 144 on a lim un = ℓ.
n→+∞

Proposition 147

Pour tout n ∈ N∗ l’espace vectoriel normé Kn est complet.

Remarque C’est clair que c’est vrai pour n’importe quelle norme de Kn , puisque
toutes les normes sont équivalentes

3.7 Connexes par arcs


Dans tout ce qui suit (E, ∥.∥) est un K− espace vectoriel normé.

3.7.1 Définitions
Définition 75

On appelle chemin continue de E, tout couple (I, f ) où I est un intervalle non


vide de R et f une application continue de I vers E.

Définition 76

Soit A une partie non vide de A. On dit que A est connexe par arc si pour tout
(a, b) ∈ A2 , il existe un chemin continue φ : [0, 1] → E tel que φ(0) = a et
φ(1) = b

Remarque Intuitivement cela veut dire que tout couple de points de A peuvent
être joints par un chemin continu.
3.7. CONNEXES PAR ARCS 141

Définition 77

Une partie A de E est dite convexe si :

(∀(a, b) ∈ A2 )(∀t ∈ [0, 1]) (1 − t)a + tb ∈ A

Proposition 148

Soit E un espace vectoriel normé.


1. Toute intersection non vide de convexes est un convexe.
2. Toute boule ouverte non vide est convexe
3. Toute boule fermée est convexe
4. E est convexe.

Preuve:
\
1. Soit (Ci )i∈I une famille de convexes et C = Ci . Soit (a, b) ∈ C et
i∈I
t ∈ [0, 1] Alors pour tout i ∈ I et comme Ci est convexe, on a : (1 − t)a +
tb ∈ Ci donc (1 − t)a + tb ∈ C.
2. Soit A = B(a, r) une boule ouverte avec r > 0. Soit (x, y) ∈ A2 et soit
t ∈ [0, 1] alors :

∥(1 − t)x + ty∥ ≤ (1 − t) ∥x∥ + t ∥y∥ < r(1 − t + t) = r

3. même principe
4. trivial

Proposition 149

Soit E un espace vectoriel normé et A une partie de E,alors :


1. A est convexe si et seulement A est étoilée par rapport à tout point a ∈ A.
2. S’il existe a ∈ A tel que A est étoilée par rapport à a alors A est connexe
par arcs.
3. En particulier si A est convexe alors A est connexe par arcs.

Preuve:
Si (a, b) ∈ A2 on pose pour tout t ∈ [0, 1] :

φ(t) = (1 − t)a + tb
142 CHAPITRE 3. ESPACE VECTORIELS NORMÉS

Il est clair que φ est continue et vérifie : φ(0) = a et φ(1) = b

Remarque Réciproquement , il existe des parties connexes par arc qui ne sont pas
convexes. Par exemple dans R2 soit A = {x ∈ R2 / ∥x∥2 ≥ 1 alors :
• A n’est pas convexe car parexemple
 : a = (0, 1) ∈ A et b = (1, 0) ∈ A mais pour
1 1 1
t = , on a : (1 − t)a + tb = , ∈
/A
2 2 2

Proposition 150

Soit A une partie de R. Les assertions suivantes sont équivalentes :


1. A est un intervalle.
2. A est convexe.
3. A est connexe par arcs.

3.7.2 Connexité par arcs et continuité


Proposition 151

Soient E et F deux espaces vectoriels normés, A une partie non vide de E et


f : A → F une application. Si f est continue sur A et A connexe par arcs alors
f (A) est connexe par arcs.

Corollaire 19

(Théorème des valeurs intermédiaires) Soit f : A ⊂ E → R. Si f est continue


sur A et A connexe par arcs alors f (A) est un intervalle de R.

3.7.3 Composantes connexes par arcs d’une partie


Soit (E, ∥.∥) un espace vectoriel normé et A une partie non vide de E. On considère la
relation R sur A tel que : Si (x, y) ∈ A2 alors xRy s’il existe un chemin γ : [0, 1] → E
tel que γ(0) = x et γ(1) = y et γ continue et γ([0, 1]) ⊂ A. On abrégera en disant il
existe un chemin continue liant x et y dans A.

Proposition 152

La relation R est une relation d’équivalence sur A


3.7. CONNEXES PAR ARCS 143

Définition 78

Une classe d’équivalence de R s’appelle composante connexe par arcs de A.

Remarques 1. Deux composantes connexes sont soit égales soit disjointes


2. Toute composante connexe par arcs est connexe par arcs.
3. Toute partie connexe par arcs de A est contenue dans une composante connexe
par arcs de A.

3.7.4 Méthodes pour montrer qu’une partie est connexe par


arcs.
3.7.4.1 Partie étoilée par rapport à un point

Définition 79

Soit E en K − espace vectoriel, A une partie de E et a ∈ A. On dit que A est


étoilée par rapport à A si :

∀x ∈ A, ∀t ∈ [0, 1], (1 − t)a + tx ∈ A

Proposition 153

Une partie A de E est convexe si et seulement si A est étoilé par rapport à a


pour tout a ∈ A.

Proposition 154

S’il existe a ∈ A tel que A est étoilée par rapport à a alors A est connexe par
arcs.

3.7.4.2 Méthode pour démontrer qu’une partie est connexe par arcs
Pour démontrer que A est connexe par arcs, on suit les étapes suivantes :
1. On regarde si A est un sous-espace vectoriel de E. Si c’est le cas , on sait qu’
un sous-espace vectoriel de E est convexe donc connexe par arcs.
2. Sinon, on regarde si A est une partie convexe de E.
3. Sinon, on regarde si on peut trouver une élément de A tel que A est étoilée
par rapport à a.
4. Sinon, on essaye de voir si A est l’image par une application continue d’un
connexe par arcs.
5. Sinon, on recours à la définition générale de partie connexe par arcs.
144 CHAPITRE 3. ESPACE VECTORIELS NORMÉS
Chapitre 4

Espaces préhilbertiens réels.

Dans tout ce qui suit tous les espace vectoriels considérés sont des espaces vectoriels
sur R.

4.1 Généralités
4.1.1 Produit scalaire, espaces préhilbertiens réels
Définition 80

On appelle produit scalaire sur E toute application de E 2 vers R bilinéaire


symétrique positive définie. On dit forme bilinéaire sur E symétrique positive
définie. On note ⟨, ⟩ une telle forme. Pour tout x, y, x1 , x2 , y1 , y2 ∈ E et λ ∈ R,
on a alors :
1. ⟨x1 + λx2 , y⟩ = ⟨x1 , y⟩ + λ⟨x2 , y⟩.
2. ⟨x, y1 + λy2 ⟩ = ⟨x, y1 ⟩ + λ⟨x, y2 ⟩.
3. ⟨x, y⟩ = ⟨y, x⟩.
4. ⟨x, x⟩ ≥ 0.
5. ⟨x, x⟩ ⇒ x = 0.
p
Remarques 1. On note ∥x∥ = ⟨x, x⟩, pour tout x ∈ E.
Exemples Dans chacun des exemples ci-dessus, E est un espace vectoriel réel et
⟨.⟩ est un produit scalaire sur E.
1. E = Rn avec n ∈ N∗ , et pou tout x = (xk )1≤qk≤n , y = (yk )1≤qk≤n ∈ E :
n
X
⟨x, y⟩ = xk y k
k=1

2. E = C([0, 1], R) l’espace vectoriel réel des applications continues de [0, 1] vers
R. Pour tout f, g ∈ E on pose :
Z 1
⟨f, g⟩ = f (t)g(t)dt
0

145
146 CHAPITRE 4. ESPACES PRÉHILBERTIENS RÉELS.

3. E = R[X], a, b ∈ R tel que a < b, ω : [a, b] → R une application positive non


identiquement nulle et continue sur [a, b]. Pour P, Q ∈ R[X], on pose :
Z b
⟨P, Q⟩ω = ω(t)P (t)Q(t)dt
a

4. E = Mn (R) (avec n ∈ N∗ ), pour A, B ∈ E, on pose :

⟨A, B⟩ = tr(t AB)

5. n ∈ N , E = Rn [X] et a = (a0 , . . . , an ) ∈ Rn+1 une famille de nombres réels


deux à deux distincts. Pour P, Q ∈ E :
n
X
⟨P, Q⟩a = P (ak )Q(ak )
k=0

4.1.2 Inégalité de Cauchy-Shwarz, inégalité de Minkowski


Proposition 155

Soit E un espace préhilbertien réel, alors :


1. Pour tout (x, y) ∈ E 2 , on a :

|⟨x, y⟩| ≤ ∥x∥ ∥y∥

avec égalité si et seulement si la famille (x, y) est liée.


2. Pour tout (x, y) ∈ E 2 , on a :

∥x + y∥ ≤ ∥x∥ + ∥y∥

avec égalité si et seulement si y = λx avec λ ∈ R+ .

Proposition 156
p
L’application E → R+ , x 7→ ∥x∥ = ⟨x, x⟩ est une norme sur E, appelée norme
euclidienne associée au produit scalaire de E ;

4.1.3 Identités
Dans tout ce qui suite E est un espace préhilbertion réel.

4.1.3.1 Identités remarquables


4.2. ORTHOGONALITÉ 147

Proposition 157

Pour tout x, y ∈ E et tout λ ∈ R, on a :

∥x + λy∥2 = ∥x∥2 + λ2 ∥y∥2 + 2λ⟨x, y⟩

En particulier, pour tout x, y ∈ E, on a :

∥x + y∥2 = ∥x∥2 + ∥y∥2 + 2⟨x, y⟩




∥x − y∥2 = ∥x∥2 + ∥y∥2 − 2⟨x, y⟩

4.1.3.2 Identité du parallélogramme

Proposition 158

Pour tout x, y ∈ E on a :

∥x + y∥2 + ∥x − y∥2 = 2(∥x∥2 + ∥y∥2 )

Remarque Pour démontrer qu’une norme n’est pas une norme euclidienne (c’est-
à-dire elle ne provient pas d’un produit scalaire), il suffit de prouver que l’identité
du parallélogramme n’est pas satisfaite pour un certain couple (x, y) de E 2 .

4.1.3.3 Identités de polarisation

Proposition 159

Pour tout x, y ∈ E on a :
1
⟨x, y⟩ = (∥x + y∥2 − ∥x − y∥2
4
Pour tout x, y ∈ E, on a :
1
⟨x, y⟩ = (∥x + y∥2 − ∥x∥2 − ∥y∥2
2

4.2 Orthogonalité
4.2.1 Généralités
Dans tout ce paragraphe E est un espace préhilibertien réel.

Définition 81

Soit (x, y) ∈ E 2 . On dit que x est orthogonal à y si ⟨x, y⟩ = 0.


148 CHAPITRE 4. ESPACES PRÉHILBERTIENS RÉELS.

Remarque x est orthogonale à y si et seulement si y est orthogonal à x. On dit


que x et y sont orthogonaux et on note x⊥y.

Proposition 160

Soit x, y ∈ E et α, β ∈ R, alors :
1. 0⊥x
2. x⊥x ⇔ x = 0
3. Si x⊥y alors αx⊥βy.

4.2.2 Orthogonal d’une partie

Définition 82

Soit A une partie de E. On appelle orthogonal de A et on note A⊥ la partie de


E définie par :

A⊥ = {x ∈ E/∀a ∈ A, x⊥a} = {x ∈ E/∀a ∈ A, ⟨a, x⟩ = 0}

Proposition 161

Pour toutes parties A et B de E on a :


1. A ⊂ A⊥⊥
2. A ⊂ B ⇒ B ⊥ ⊂ A⊥
3. Si F1 et F2 sont des sous-espaces vectoriels alors (F1 +F2 )⊥ = (F1 )⊥ ∩(F2 )⊥

Preuve:
1. Soit x ∈ A, donc pour tout y ∈ A⊥ , on a ⟨x, y⟩ = 0, donc x ∈ A⊥⊥ et
finalement A ⊂ A⊥⊥ .
2. Supposons que A ⊂ B, soit x ∈ B ⊥ alors pour tout a ∈ A, on a a ∈ B,
donc ⟨x, a⟩ = 0, donc pour tout x ∈ B ⊥ on a x ∈ A⊥ donc B ⊥ ⊂ A⊥ .
3. On a F1 ⊂ F1 + F2 et F2 ⊂ F1 + F2 , donc d’après le résultat ci-dessus,
on a (F1 + F2 )⊥ ⊂ F1⊥ et (F1 + F2 )⊥ ⊂ F2⊥ , donc (F1 + F2 )⊥ ⊂ F1⊥ ∩ F2⊥ .
Inversement soit x ∈ F1⊥ ∩ F2⊥ , pour tout y ∈ F1 + F2 il existe (y1 , y2 ) ∈
F1 ×F2 tel que y = y1 +y2 , donc ⟨x, y⟩ = ⟨x, y1 +y2 ⟩ = ⟨x, y1 ⟩+⟨x, y2 ⟩ = 0.
4.2. ORTHOGONALITÉ 149

Remarques On donne les remarques suivantes :


1. E ⊥ = {0}, en particulier pour démontrer qu’un vecteur a de E est nul, il suffit
de prouver que ∀x ∈ E, ⟨x, a⟩ = 0.
2. {0}⊥ = E
3. Pour toute partie A de E, A⊥ est un sous-espace vectoriel fermé de E.
4. Pour toute partie A de E, on a A⊥ = (Vect A)⊥
5. Si A et B sont deux parties de E, on dit que A et B sont orthogonales et on
note A⊥B si :
∀(a, b) ∈ A × B, ⟨a, b⟩ = 0
Remarquons que :
A⊥B ⇔ A ⊂ B ⊥ ⇔ B ⊂ A⊥

Preuve:
On va donner les preuves de toutes les remarques ci-dessus :
1. Soit x ∈ E ⊥ alors x ∈ E et pour tout y ∈ E, on a ⟨x, y⟩ = 0, en particulier
pour y = x, on a ⟨x, x⟩ = 0, donc ∥x∥ = 0 donc x = 0. Ainsi E ⊥ ⊂ {0}
et comme 0 ∈ E ⊥ , on conclut que E ⊥ = {0}.
2. On a ∀x ∈ E, ⟨x, 0⟩ = 0, donc E ⊂ {0}⊥ et comme {0}⊥ ⊂ E, on a
{0}⊥ = E.
3. Soit A une partie non vide de E. On a A⊥ ̸= ∅ car 0 ∈ A⊥ . Si a, b ∈ A⊥
et λ ∈ R, on a a + λb ∈ A⊥ car pour tout x ∈ A, on a ⟨a + λb, x⟩ =
⟨a, x⟩ + λ⟨b, x⟩ = 0. Donc A⊥ est un sous-espace vectoriel de E. Soit (xn )
une suite à valeurs dans A⊥ tel que xn −→ ℓ avec ℓ ∈ E. On va prouver
n→+∞

que ℓ ∈ A . Soit a ∈ A, alors ∀n ∈ N, ⟨a, xn ⟩ = 0. Par continuité de
l’application x 7→ ⟨a, x⟩, le passage à la limite donne lim ⟨a, xn ⟩ = ⟨a, ℓ⟩.
n→+∞
Il en découle que ⟨a, ℓ⟩ = 0, pour tout a ∈ A, donc que ℓ ∈ A⊥ , ce qui
achève la preuve du fait que A⊥ est fermée.
4. Comme A ⊂ Vect A, on a (Vect A)⊥ ⊂ A⊥ . Réciproquement, soit x ∈ A⊥ ,
on va prouver que x ∈ (Vect A)⊥ , pour cela considérons y ∈ Vect A, donc
m
X
il existe a1 , . . . , am ∈ A et λ1 , . . . , λk ∈ R tel que y = λk ak . On a
k=1
m
X m
X
⟨x, y⟩ = ⟨x, λ k ak ⟩ = λk ⟨x, ak ⟩ = 0 puisque ∀k ∈ [[1, n]], ⟨x, ak ⟩ =
k=1 k=1
0. Ainsi on a prouvé que A⊥ = (Vect A)⊥ , pour toute partie non vide de
E.
5. Si A⊥B, soit x ∈ A alors pour tout b ∈ B, on a ⟨x, b⟩ = 0 puisque A⊥B,
donc x ∈ B ⊥ donc A ⊂ B ⊥ . Ainsi A⊥B ⇒ A ⊂ B ⊥ . Par symétrie des
rôles on a aussi A⊥B ⇒ B ⊂ A⊥ . Si A ⊂ B ⊥ alors par définition, pour
150 CHAPITRE 4. ESPACES PRÉHILBERTIENS RÉELS.

tout (a, b) ∈ A × B, on a ⟨a, b⟩ = 0, donc A⊥B.


ce qui achève les preuves de toutes les remarques ci-dessus.

4.2.3 Familles orthogonales, familles orthonormées


4.2.3.1 Définition, exemples

Définition 83

Soit I un ensemble non vide fini ou dénombrable et F = (xi )i∈I une famille de
vecteurs de E.
On dit que F est une famille orthogonlae si

∀i, j ∈ I, i ̸= j ⇒ ⟨xi , xj ⟩ = 0.

On dit que F est une famille orthonormée si :

∀(i, j) ∈ I 2 , ⟨xi , xj ⟩ = δij (symbole de Kronnecker

Remarque Si de plus la famille F est une base de E, on parle de base orthogonale


(resp. base orthonormée.)

Remarque Toute famille orthogonale dont le vecteurs sont non nuls est une famille
libre.

Preuve:
Soit (ei )i∈I une telle famille. Si J est une partie finie non vide de I et (αi )i∈J
une famille de scalaires tel que :
X
αi ei = 0
i∈J

soit k ∈ J, alors : X
⟨ek , αi ei ⟩ = 0
i∈J

donc
αk ∥ek ∥2 = 0
et comme ek ̸= 0 on a αk = 0.
4.2. ORTHOGONALITÉ 151

Exemples :
1. On considère E = C2π (R, R) l’espace vectoriel des applications continues pé-
riodiques de R vers R muni de produit scalaires :
Z 2π
2
(f, g) ∈ E ; ⟨f, g⟩ = f (t)g(t)dt
0

Les familles C = (t 7→ cos(nt))n∈N et S = (t 7→ sin(nt))n∈N sont des familles


orthogonales de E. Bien entendu, ce ne sont pas des bases orthonormées.
2. On sait que si n ∈ N∗ alors le produit scalaire usuel de Rn est défini par : Pour
n
X
x = (x1 , · · · , xn ) et y = (y1 , · · · , yn ), ⟨x, y⟩ = xi yi . Pour ce produit scalaire
i=1
la base canonique B = (e1 , · · · , en ) de Rn est une base orthonormée de Rn
+∞
X +∞
X
3. Soit E = R[X] muni du produit scalaire : Pour P = an X n et Q = bn X n ,
n=0 n=0
+∞
X
on pose ⟨P, Q⟩ = an bn . Alors la bse canonique (1, X, X 2 , · · · , X n , · · · ) est
n=0
une base orthonormée de E.

4.2.3.2 Existence des bases orthonormées : Procédé de Gram-Schmidt


On rappelle le théorème donnant le procédé d’orthonormalisation de Gram-Schmidt :

Théorème 19

Soit E un espace euclidien de dimension n; n ̸= 0 et C = (u1 , · · · , un ) une base


de E. Alors il existe une et une seule base orthonormée E = (e1 , · · · , en ) de E
tel que :

 Vect{u1 , · · · , uk } = Vect{e1 , · · · , en }
∀k ∈ [[1, n]], .
⟨uk , ek ⟩ > 0

Remarques On donne les remarques suivantes :


1. Tout espace euclidien de dimension non nulle admet des bases orthonormées.
2. Si E est un espace préhilbertien réel alors tout sous-espace vectoriel F de
dimension finie non nulle de E admet des bases orthonormées pour le produit
scalaire sous-jacent de E.
3. Si U = (uk )k∈N est une famille libre d’un espace préhilbertien E alors il existe
une famille orthonormée E = (ek )k∈N tel que Vect(uj )j∈[[0,k]] = Vect(ej )j∈[[0,k]]
pour tout k ∈ N.
4. Si U = (uk )k∈Z est une famille libre d’un espace préhilbertien E alors il existe
une famille orthonormée E = (ek )k∈Z tel que Vect(uj )j∈[[−k,k]] = Vect(ej )j∈[[−k,k]]
pour tout k ∈ N.
152 CHAPITRE 4. ESPACES PRÉHILBERTIENS RÉELS.
Z 1
Exercice Soit E = R2 [X] muni du produit scalaire ⟨P, Q⟩ = P (t)Q(t)dt, pour
0
tout P, Q ∈ E et U = (U0 , U1 , U2 ) avec Uk = X k pour tout k ∈ [[0, 2]]. Déterminer
l’orthonormalisé de Gram-Schmidt E = (E0 , E1 , E3 ) de U .

4.2.4 Expression du produit scalaires dans une base ortho-


normée
Proposition 162

Soit E un espace euclidien de dimension non nulle n et E = (e1 , · · · , en ) une


n
X n
X
base orthonormée de E. Alors si x = xi ei et y = yi ei sont deux vecteurs
i=1 i=1
de E, on a :
n
X
t t
⟨x, y⟩ = xi y i = XY = YX
i=1

où   

x1 y1
X =  ...  et Y =  ... 
   
xn yn
sont les colonnes des coordonnées de x et y dans la base E

Proposition 163

Soit E un espace euclidien de dimension non nulle n et E = (e1 , · · · , en ) une


base orthonormée de E, alors :
n
X
∀x ∈ E, x= ⟨x, ek ⟩ek .
k=1

Preuve:
n
X
Si on pose x = xk ek alors d’après la proposition ci-dessus ⟨x, ek ⟩ = xk , d’où
k=1
le résultat.

Remarque Si E est un espace préhilbertien réel admettant une base orthonormée


dénombrable (ei )i∈I alors si :  X


 x = xi ei

 i∈I

 X



 y = yi ei
i∈I
4.2. ORTHOGONALITÉ 153

sont deux vecteurs de E alors :


X sX
⟨x, y⟩ = xi yi et ∥x∥ = x2i
i∈I i∈I

4.2.5 Conséquences : Théorème de représentation, supplé-


mentaire orthogonal d’une sous-espace vectoriel de di-
mension finie
4.2.5.1 Théorème de représentation

Théorème 20

Soit E un espace euclidien de dimension non nulle n. Pour toute forme linéaire
f sur E, il existe un et un seule vecteur a de E tel que f = ⟨a, .⟩, c’est-à-dire :

∀x ∈ E, f (x) = ⟨a, x⟩

Preuve:
Unicité : Si a, a′ répondent au problème alors pour tout x ∈ E on a f (x) =
⟨a, x⟩ = ⟨a′ , x⟩, donc ⟨a − a′ , x⟩ = 0 et par suite a − a′ ∈ E ⊥ = {0} d’où a = a′ .
Existence : Comme E est de dimesnion finie, E admet une base orthonormée
Xn n
X
E = (e1 , · · · , en ). Soit x ∈ E tel que x = xi ei alors f (x) = xi f (ei ) =
i=1 i=1
n
X
⟨a, x⟩ où a = f (ei )ei .
i=1

Exercice Pour tout P, Q ∈ R2 [X], on pose ⟨P, Q⟩ = P (−1)Q(−1) + P (0)Q(0) +


P (1)Q(1). Déterminer, après avoir justifié son existence et unicité le polynôme A ∈
R2 [X], tel que pour tout polynôme P ∈ R2 [X] on aie : P ′ (0) = ⟨A, P ⟩.
Exercice Soit (a, b) ∈ R2 tel que a < b et n ∈ N∗ . Soit g : [a, b] → R une application
continue par morceaux sur [a, b].
1. Démontrer qu’il existe un et un seul α = (α0 , . . . , αn ) ∈ Rn+1 tel que :
Z b n
X
∀P ∈ Rn [X], g(t)P (t)dt = αk P (k) (0).
a k=0

On note φ(g) l’unique α ci-dessus.


2. On note CM([a, b], R) l’espace vectoriel des applications continues par morceaux
de [a, b] vers R et on le munit de la norme de convergence uniforme ∥.∥∞ . Dé-
montrer que l’application φ : CM([a, b], R) → Rn+1 ; g 7→ φ(g) est continue de
(CM([a, b], R), ∥.∥∞ ) vers Rn+1 .
154 CHAPITRE 4. ESPACES PRÉHILBERTIENS RÉELS.

4.2.5.2 Supplémentaire orthogonal d’un sous-espace vectoriel de dimen-


sion finies

Définition 84

On dit qu’un sous-espace vectoriel F de E admet un supplémentaire orthogonal


si F + F ⊥ = E.

- Il est aisé de voir que F ∩F ⊥ = {0}, donc si F admet un supplémentaire orthogonal


on a F ⊕ F ⊥ = E.

Proposition 164

Si F admet un supplémentaire orthogonal alors F ⊥⊥ = F . En particulier F ⊥


admet aussi un supplémentaire orthogonal.

Preuve:
Supposons que F admet un supplémentaire orthogonal, alors F ⊕ F ⊥ = E. On
sait déjà que F ⊂ F ⊥⊥ . Réciproquement soit x ∈ F ⊥⊥ écrivons x = x1 + x2
avec x1 ∈ F et x2 ∈ F ⊥ . Alors 0 = ⟨x, x2 ⟩ = ⟨x1 , x2 ⟩ + ∥x2 ∥2 = ∥x2 ∥2 , donc
x2 = 0 et par suite x = x1 donc x ∈ F .

Théorème 21

Si F est un sous-espace vectoriel de dimension finie d’un espace préhilbertien


quelconque E alors F admet un supplémentaire orthogonal. Autrement dit F ⊕
F ⊥ = E et F = F ⊥⊥ .

Preuve:
Si F = {0} ou F = E, le résultat est banal puisque E ⊕ {0} = E.
Si F ̸= {0} soit p = dim(F ) et E = (e1 , · · · , ep ) une base orthonormée de F .
Soit a ∈ E. L’application f : F → R; x 7→ f (x) = ⟨a, x⟩ est une forme linéaire
sur F . Comme F est de dimension finie, il existe b ∈ F tel que f = ⟨b, .⟩ Donc
pour tout x ∈ F , on a ⟨a, x⟩ = ⟨b, x⟩ donc a − b ∈ F ⊥ . Posons alors a − b = b′
avec b′ ∈ F ⊥ . Alors a = b + b′ avec (b, b′ ) ∈ F × F ⊥ . Ainsi on a

(∀a ∈ E)(∃(b, b′ ) ∈ F × F ⊥ ) a = b + b′

donc E = F + F ⊥ , ce qui termine la preuve de la proposition.


4.3. PROJECTION ORTHOGONALE 155

L’exercice ci-dessous montre qu’un sous-espace vectoriel d’un espace préhilbertien


peut ne pas admettre de supplémentaire orthogonal.
Exercice Soit E = C ([0, 1], R) l’espace vectoriel des applications continues de [0, 1]
Z R et F = {f ∈ E/f (0) = 0}. On munit E du produit scalaire défini par ⟨f, g⟩ =
vers
1
f (t)g(t)dt. Démontrer que dans l’espace préhilbertien (E, ⟨.⟩) on a F ⊥ = {θ} où
0
θ est l’application nulle de [0, 1] vers R.
Réponse Soit g Z∈ F ⊥ et considérons f définie par f (t) = tg(t) alors f ∈ F , donc
1
⟨f, g⟩ = 0, donc tg 2 (t)dt = 0. Comme t 7→ tg 2 (t) est continue positive sur [0, 1],
0
elle est nulle donc g est nulle sur ]0, 1], et par continuité, g est nulle sur [0, 1].

4.3 Projection orthogonale


Dans toute cette section E désigne un espace préhilbertien réel non forcément de
dimension finie.

4.3.1 Généralités
4.3.1.1 Définition, caractérisation

Définition 85

Soit F un sous-espace vectoriel de E tel que F ⊕ F ⊥ = E. La projection or-


thogonale pF sur F parallèlement à F ⊥ s’appelle projection orthogonale sur
F.

pF (x) ∈ F
On a donc pF ∈ L(E) et ∀x ∈ E,
x − pF (x) ∈ F ⊥
Avec les notations ci-dessus, on a la :

Proposition 165

2 y∈F
Pour tout (x, y) ∈ E , on a : pF (x) = y ⇔
x − y ∈ F⊥

Preuve:
Si pF (x) = y alors y ∈ Im(pF ) = F . Par ailleurs, comme x = y + (x − y)
alors x − y ∈ F ⊥ . Réciproquement, si y ∈ F et x − y ∈ F ⊥ ,comme en plus
x = y + (x − y) on a bien pF (x) = y.
156 CHAPITRE 4. ESPACES PRÉHILBERTIENS RÉELS.

4.3.1.2 Caractérisation métrique

Théorème 22

(Pythagore)
Soit E un espace préhilbertien réel, alors :

∀(x, y) ∈ E 2 x⊥y ⇔ ∥x + y∥2 = ∥x∥2 + ∥y∥2

Preuve:
On a ∥x + y∥2 = ∥x∥2 + ∥y∥2 + 2⟨x, y⟩ et le résultat en découle immédiatement.

Remarque Généralement si m ≥ 2 et x1 , · · · , xm des vecteurs deux à deux ortho-


gonaux avec m ∈ N, m ≥ 2, alors :
m
X m
X
2
∥ xk ∥ = ∥xk ∥2 .
k=1 k=1

Attention ! La réciproque n’est pas vraie si m ≥ 3.

Théorème 23

Soit F un sous-espace vectoriel de E admettant un supplémentaire orthogonal.


Alors :
1. Pour tout x ∈ E, on a d(x, F ) = d(x, pF (x)) = ∥x − pF (x)∥

z∈F
2. Si z est un vecteur de E tel que alors z = pF (x).
d(x, F ) = ∥x − z∥

Preuve:
1. Rappelons que d(x, F ) = inf{d(x, y)/y ∈ F }. Soit y ∈ F , on a (pF (x) −
y)⊥(x − pF (x)), donc par le théorème de Pythagore, on a : ∥x − y∥2 = ∥pF (x) −
y∥2 + ∥x − pF (x)∥2 . Il en découle que ∥x − pF (x)∥ ≤ ∥x − y∥, et comme en plus
pF (x) ∈ F , on a d(x, F ) = ∥x − pF (x)∥

2. Si z ∈ F et d(x, F ) = ∥x−z∥ alors ∥x−z∥ ≤ ∥x−pF (x)∥ puisque pF (x) ∈ F .


Or, ce qui précède montre que

∥x − z∥2 = ∥pF (x) − z∥2 + ∥x − pF (x)∥2

donc
∥pF (x) − z∥2 = ∥x − z∥2 − ∥x − pF (x)∥2
4.3. PROJECTION ORTHOGONALE 157

donc ∥pF (x) − z∥2 ≤ 0 donc ∥pF (x) − z∥ = 0 et par suite z = pF (x).Ce qui
achève la preuve du théorème 23

4.3.2 Cas où F est de dimension finie


Soit E un espace préhilbertien. Selon Le théorème 21, si F est un sous-espace vec-
toriel de dimension finie de E alors F ⊕ F ⊥ = E, ce qui eut dire que la projection
orthogonale pF existe pour un tel sous-espace vectoriel.

4.3.2.1 Expression du projeté orthogonale

Proposition 166

Soit F un sous-espace vectoriel de dimension finie non nulle p de E et C =


(e1 , · · · , ep ) une base orthonormée de F , alors si pF est la projection orthogonale
de E sur F on a : p
X
∀x ∈ E, pF (x) = ⟨x, ek ⟩ek .
k=1

Preuve:
Soit k ∈ [[1, p]], alors ek ⊥(x − pF (x)), donc : ⟨ek , x⟩ = ⟨ek , pF (x)⟩ et comme
X n
pF (x) ∈ F et C est une base orthonormée de F , on a : pF (x) = ⟨pF (x), ek ⟩ek
k=1
et le résultat en découle.

4.3.2.2 Inégalité de Bessel

Proposition 167

Soit F un sous-espace vectoriel de dimension finie non nulle p de E et C =


(e1 , · · · , ep ) une base orthonormée de F , alors :
p
X
∀x ∈ E, |⟨x, ek ⟩|2 ≤ ∥x∥2 .
k=1

Preuve:
Par le théorème de Pythagore, on a : ∥x∥2 = ∥pF (x)∥2 +∥x−pF (x)∥2 , et comme
158 CHAPITRE 4. ESPACES PRÉHILBERTIENS RÉELS.

p
X
2
∥pF (x)∥ = |⟨x, ek ⟩|2 , l’inégalité en découle.
k=1

4.4 Bases hilbertiennes


Dans tout ce qui suit E est un espace préhilbertien réel de dimension infinie.
Définition 86

Soit E = (ek )k∈N une famille de vecteurs de E.


1. On dit que E est une famille totale de E si Vect(E ) est dense dans E.
2. On dit que E est une base hilbertienne de E si E est à la fois totale et
orthonormée.

On considère une famille orthonormée E = (ek )k∈N de E. On note V = Vect(E ), et,


pour tout n ∈ N, Vn = Vect{ek }0≤k≤n et πn la projection orthogonale de E sur Vn .
Rappelons que
n
X
πn (x) = ⟨x, ek ⟩ek
k=0
On a alors : [
V = Vn .
n∈N
En effet si x ∈ V = Vect(E ) . Si x = 0 alors x ∈ Vn pour tout n ∈ N, sinon
+∞
X
alors x s’écrit x = αk ek avec (αk )k∈N une famille de scalaires réels à support fini
k=0
non vide. Ce support étant une partie non vide finie de N, il est contenu dans un
n
X
intervalle de la forme [[0, n]] avec n ∈ N et par suite x = αk ek , donc x ∈ Vn .
k=0
Si (uk )k∈N est une suite de vecteurs d’un espace normé , on convient de noter (si
elles existent) :
Xn +∞
X
lim uk = uk
n→+∞
k=0 k=0
Avec toutes les notations et conventions ci-dessus,on a le :
Théorème 24

Les assertions suivantes sont équivalentes


(1) La famille E est une base hilbertienne.
(2) Pour tout x ∈ E , on a lim πn (x) = x.
n→+∞
+∞
X
(3) Pour tout x ∈ E, on a : x = ⟨x, ek ⟩ek .
k=0
4.4. BASES HILBERTIENNES 159

+∞
X
2
(4) Pour tout x ∈ E, on a : ∥x∥ = |⟨x, ek ⟩|2 (Parseval).
k=0

Preuve:
• Supposons (1). Soit x ∈ E et ε > 0, alors il existe a ∈ Vect(E ) tel que
∥x − a∥ < ε. Comme a[∈ V = Vect(E ) alors en vertu de la remarque ci-dessus
que V = Vect(E ) = Vn , il existe N ∈ N tel que a ∈ VN . Soit n ∈ N tel
n∈N
que n ≥ N , alors VN ⊂ Vn par suite d(x, Vn ) ≤ d(x, VN ) et comme a ∈ VN ,
on a d(x, VN ) ≤ ∥x − a∥ par suite d(x, Vn ) < ε, et comme πn (x) ∈ Vn on a
d(x, πn (x)) < ε. On a donc prouvé que :

∀ε > 0, ∃N ∈ N, ∀n ∈ N, n ≥ N ⇒ ∥πn (x) − x∥ < ε

ce qui prouve le fait que lim πn (x) = x.


n→+∞
• Réciproquement si on a (2), soit x ∈ E alors pour tout ε > 0 il existe N ∈ N
tel que pour tout n ∈ N tel que n ≥ N on a d(x, πn (x)) < ε. Si on pose
a = πN (x), on a a ∈ Vect(E ) et ∥x − a∥ < ε, ce qui prouve la densité de
Vect(E ) dans E.
• Vu la convention faite ci-dessus, il est clair que (2) ⇔ (3)
• Supposons qu’on a (3), cela veut dire que lim πn (x) = x. Rappelons que
n→+∞
n
X
πn (x) = ⟨x, ek ⟩ek . Par continuité de l’application E → R; x 7→ ∥x∥2 , on
k=0
a ∥x∥2 = lim ∥πn (x)∥2 . Par le théorème de Pythagore on a ∥πn (x)∥2 =
n→+∞
n
X
|⟨x, ek ⟩|2 , ce qui établit (4).
k=0
• Réciproquement, supposons que l’on a (4) alors si x ∈ E. Pour tout n ∈ N,
n
X
on a : πn (x) = ⟨x, ek ⟩ek , donc :
k=0
 n
X
2
|⟨x, ek ⟩|2

∥πn (x)∥ =





 k=0
et

 Xn n
X n
X
|⟨x, ek ⟩|2

 ⟨x, πn (x)⟩ = ⟨x, ⟨x, ek ⟩ek ⟩ = ⟨x, ek ⟩⟨x, ek ⟩ =



k=0 k=0 k=0
160 CHAPITRE 4. ESPACES PRÉHILBERTIENS RÉELS.

donc :

∥x − πn (x)∥2 = ∥x∥2 + ∥πn (x)∥2 − 2⟨x, πn (x)⟩


Xn n
X
= ∥x∥2 + |⟨x, ek ⟩|2 − 2 |⟨x, ek ⟩|2
k=0 k=0
n
X
= ∥x∥2 − |⟨x, ek ⟩|2
k=0

Or par (4) on a le second membre tends vers 0, ce qui finit la preuve.

4.5 Espaces euclidiens : rappels et compléments


Dans tout ce qui suit E est un espace euclidien de dimension non nulle.

4.5.1 Matrices orthogonales, endomorphismes orthogonaux


4.5.1.1 Matrices orthogonales

Proposition-Définition 6

Soit A ∈ Mn (R). Les assertions suivantes sont équivalentes


t
(1) AA = In
(2) A t A = In
(3) A est inversible et A−1 = t A
(4) Les colonnes de A forment une base orthonormée de Mn,1 (R).
(5) Les lignes de A forment une base orthonormée de M1,n (R).
(6) Il existe deux bases orthonormées B et B ′ tel que A est la matrice de
passage de B à B ′ .
Si l’une des assertions est vérifiée, on dit que A est une matrice orthogonale.

Preuve:
Rappelons que si M ∈ Mn (K) alors M est inversible à droite si et seulement si
M est inversible à gauche si et seulement si M est inversible, auquel cas, les trois
inverses sont égaux. En effet si M est inversible il est clair que M est inversible
à droite et à gauche et les trois inverses sont égaux. Réciproquement, si M est
inversible à droite par exemple , il existe M ′ ∈ Mn (K) tel que M M ′ = In , donc
det(M M ′ ) = 1, donc det(M ) det(M ′ ) = 1, en particulier, det(M ) ̸= 0 et M est
inversible. Comme M M ′ = In , on a M −1 (M M ′ ) = M −1 , donc M ′ = M −1 . Le
même raisonnement est valable si on suppose que M est inversible à gauche.
4.5. ESPACES EUCLIDIENS : RAPPELS ET COMPLÉMENTS 161

Ce rappel nous donne immédiatement :

(1) ⇔ (2) ⇔ (3)

Notons
t ′
A = (aij )1≤i,j≤n et A = (aij )1≤i,j≤n
On a alors :

∀(i, j) ∈ [[1, n]]2 , aij = aji
Si i, j ∈ Mn,1 (R), les produits scalaires respectifs des colonnes Ci et Cj et des
lignes Li et Lj de la matrice A sont :
 n n
X X
a′ik akj

 ⟨Ci , Cj ⟩ = aki akj =



k=1 k=1
X n X n
aik a′kj




 ⟨Li , Lj ⟩ = a ik a jk =
k=1 k=1

Il en découle que le terme général de la matrice t AA est :

cij = ⟨Ci , Cj ⟩

et le terme général de la matrice At A est :

dij = ⟨Li , Lj ⟩

Donc : t AA = In si et seulement si pour tout (i, j) ∈ [[1, n]]2 , on a cij = δij


(symbole de Kronnecker), si et seulement si la famille (Ck )1≤kn est une base
orthonormée de Mn,1 (R), donc (1) ⇔ (4). De même : At A = In si et seulement
si pour tout (i, j) ∈ [[1, n]]2 , on a dij = δij si et seulement si la famille (Lk )1≤kn
est une base orthonormée de M1,n (R), donc (2) ⇔ (5). Il en découle que l’on
a à présent démontré que :

(1) ⇔ (2) ⇔ (3) ⇔ (4) ⇔ (5)

Pour terminer, on va démontrer que (4) ⇔ (6).


- Supposons qu’on a (6), et soit : B = (ek )1≤k≤n et B ′ = (e′k )1≤k≤n sont deux
bases orthonormée tel que A = (aij )1≤i,j≤n est la matrice de passage de B à
B ′ alors, pour tout k ∈ [[1, n]], la colonne i de A est Ci = (pki )1≤k≤n , donc si
i, j ∈ [[1, n]] alors :
n
X
⟨Ci , Cj ⟩ = pik pjk = ⟨e′i , e′j ⟩ = δij
k=1
162 CHAPITRE 4. ESPACES PRÉHILBERTIENS RÉELS.

ce qui prouve (4).


- Supposons qu’on a (4) : Soit B = (ek )1≤k≤n une base orthonormée de E et
soit B ′ = (e′k )1≤k≤n tel que :
n
X
(⋆) ∀j ∈ [[1, n]], e′j = akj ek
k=1

Alors :
∀i, j ∈ [[1, n]], ⟨e′i , e′j ⟩ = ⟨Ci , Cj ⟩ = δij
Donc B ′ est une base orthonormée de E. Il est clair par (⋆) ci-dessus que A
est la matrice de passage de B à B ′ , ce qui achève la preuve de (6).

Proposition 168

L’ensemble des matrices orthogonales est un sous-groupe du groupe linéaire


GLn (R), noté On (R). La partie de On (R) :

SOn (R) = {A ∈ On (R)/ det(A) = 1}

est un sous-groupe de On (R) appelé le groupe spécial orthogonal.

Attention ! L’ensemble des matrices orthogonales de déterminant −1 ne forment


pas un groupe puisque le produit de deux de ces matrices est dans SOn (R).

Proposition 169

Soit A est une matrice orthogonale alors det(A) ∈ {−1, 1}.

Remarque Si B ∈ On (R) tel que det(B) = −1 alors

On (R) = SOn (R) ∪ (B.SOn (R)) = SOn (R) ∪ (SOn (R).B)

4.5.1.2 Endomorphismes orthogonaux


E est un espace euclidien de dimension n avec n ≥ 1.

Proposition-Définition 7

Soit u un endomorphisme de E. Les assertions suivantes sont équivalentes :


(1) u conserve la produit scalaire, c’est-à-dire :

∀(x, y) ∈ E 2 ⟨u(x), u(y)⟩ = ⟨x, y⟩

(2) u conserve la norme , c’est-à-dire :

∀x ∈ E ∥u(x)∥ = ∥x∥
4.5. ESPACES EUCLIDIENS : RAPPELS ET COMPLÉMENTS 163

(3) Il existe une base orthonormée E de E tel que matE (u) est une matrice
orthogonale.
(4) Pour toute base orthonormée E la matrice matE (u) est une matrice or-
thogonale.
(5) u transforme au moins une base orthonormée de E en une base orthonor-
mée de E.
(6) u transforme toute base orthonormée de E en une base orthonormée de
E.
Si l’une des assertions ci-dessus est vérifiée on dit que u est un automorphisme
orthogonal.

Proposition 170

Pour tout endomorphisme orthogonal u de E, on a det(u) ∈ {−1, 1}.

Remarque En particulier les endomorphismes orthogonaux sont des automorphismes,


d’où l’appellation : Automorphismes orthogonaux.

Proposition 171

L’ensemble des automorphismes orthogonaux de E est un sous-groupe du groupe


linéaire GL(E) isomorphe à On (R). On le note O(E).

4.5.2 Réduction des matrices et endomorphismes orthogo-


naux
4.5.2.1 Résultats généraux

Théorème 25

Soit u un automorphisme orthogonal et F un sous-espace vectoriel de E, alors


F est stable par u si et seulement si F ⊥ est stable par u.

Preuve:
Supposons que F est stable par u et soit v = uF l’endomorphisme induit.
Notons que v est un automorphisme de F car v est injectif et F de dimension
finie. Il en découle que F est stable par u−1 car car si b ∈ F alors v −1 (b) = a ∈
F , or b = v(a) = u(a), donc a = u−1 (b), donc u−1 (b) ∈ F Soit x ∈ F ⊥ alors
pour tout y ∈ F , on a :

⟨u(x), y⟩ = ⟨u(x), u(u−1 (y))⟩ = ⟨x, u−1 (y)⟩ = 0

en vertu de la remarque ci-dessus que F est stable par u−1 . Ainsi pour tout
164 CHAPITRE 4. ESPACES PRÉHILBERTIENS RÉELS.

x ∈ F ⊥ , on a u(x) ∈ F ⊥ , donc F ⊥ est stable par u.

Proposition 172

Soit u ∈ O(E) un automorphisme orthogonal. Alors Sp(u) ∈ {−1, 1}.

Preuve:
Si λ ∈ Sp(u) alors, il existe x ∈ E tel que x ̸= 0 et u(x) = λx. On a :

⟨u(x), u(x)⟩ = ⟨x, x⟩ = λ2 ⟨x, x⟩

donc (λ2 − 1) ∥x∥2 = 0, et comme x ̸= 0, on a λ2 = 1, donc λ ∈ {−1, 1}.

Lemme 2

Soit u un endomorphisme orthogonal de E et E1 = ker(u − IdE ) et E−1 =


ker(u + IdE ), et notons F = E1 (u) ⊕ E−1 (u) et G = F ⊥ , alors :
1. E1 (u)⊥E−1 (u).
2. F et G sont stables par u.
3. Si v = uG est l’endomorphisme de G induit par u alors Sp(v) = ∅.

Preuve:
Démontrons les trois points de la proposition :
1. Soit x ∈ E1 (u) et y ∈ E−1 (u), alors d’une part ⟨u(x), u(y)⟩ = ⟨x, y⟩ car u
est un automorphisme orthogonal ; d’autre part : ⟨u(x), u(y)⟩ = ⟨x, −y⟩
, donc ⟨x, y⟩ = −⟨x, y⟩ et ⟨x, y⟩ = 0.
2. F est stable par u car E1 (u) et E−1 (u) sont stables par u. Le théorème
?? permet de dire que G est stable par u.
3. Supposons que v admet une valeur propre λ, alors λ serait une valeur
propre de u donc λ ∈ {−1, 1}. Comme il existe x ∈ E\{0} tel que
v(x) = λx, on aurait x ∈ F , chose impossible car F ∩ G = {0}.

Proposition 173

On a   
cos θ ε sin θ
O2 (R) = /θ ∈ R, ε ∈ {−1, 1}
sin θ −ε cos θ
4.5. ESPACES EUCLIDIENS : RAPPELS ET COMPLÉMENTS 165

Preuve:
 
a c
Soit A = ∈ M2 (R). Si A ∈ O2 (R) alors les colonnes de A forment
b d  2
 a + b2 = 1
une base orthonormée de M2,1 (R), donc : c2 + d2 = 1 . L’égalité ac+bd = 0
ac + bd = 0

 
a d a d
s’écrit aussi = 0, donc les vecteurs X = et Y = sont
b −c b −c
colinéaires,
 et comme X ̸= 0 car ∥X∥ = 1, il existe ε ∈ R tel que Y = εX,

 ε = ±1
c = −εb

donc . On sait que a2 + b2 = 1 si et seulement si ∃θ ∈ R tel que

 d = εa
 2
 a + b2 = 1  
cos(θ) = a cos(θ) −ε sin(θ)
donc A = .
sin(θ) = b sin(θ) ε cos(θ)
Réciproquement il est aisé de voir que de telles matrices sont orthogonales (les
colonnes sont orthogonales entre elles et chacune de norme 1), ce qui finit la
preuve de la proposition.

Remarque Il y’a donc deux types de matrices orthogonales de taille 2, à savoir :


 
cos θ − sin θ
1. Les matrices de la forme Rθ = appelées matrices de rota-
sin θ cos θ
tion.  
cos θ sin θ
2. Les matrices de la forme Sθ = appelées matrices de symé-
sin θ − cos θ
trie.
Il est aisé de voir que :
SO2 (R) = {Rθ /θ ∈ R}

Proposition 174

Soit θ ∈ R alors :
1. la matrice de rotation Rθ est diagonalisable si et seulement si θ ≡ 0[π].
Précisément :
- Si θ ̸≡ 0[π] alors Rθ n’a aucune valeur propre réelle.
- Si θ = 2kπ, k ∈ Z alors Rθ = In .
- Si θ = (2k + 1)π alors Rθ = −In .
2. La matrice de symétrie Sθ est diagonalisable.
 Précisément
 Sθ est orthogo-
1 0
nalement semblable à la matrice J = c’est-dire Sθ = t P JP
0 −1
où P ∈ O2 (R).
166 CHAPITRE 4. ESPACES PRÉHILBERTIENS RÉELS.

Preuve:
On va étudier les deux matrices Rθ et Sθ
1) Le polynôme caractéristique de Rθ est χRθ = X 2 − 2 cos θX + 1, qui est un
trinôme de discriminent : δ = cos2 θ − 1 = − sin2 θ, donc Sp(Rθ ) ̸= ∅ ⇔ δ =
0 ⇔ θ ≡ 0 [π].
• Si θ = 0 [2π] alors Rθ = In .
• Si θ = π [2π], alors Rθ = −I2 .
• Si θ ̸= 0 [π] alors Rθ n’a aucune valeur propre donc n’est pas diagonalisable.
2) Le polynôme caractéristique de Sθ est χSθ = X 2 − 1, donc χSθ = (X −
1)(X + 1)

Lemme 3

Soit E un K − espace vectoriel de dimension finie n avec n ∈ N∗ et K = R ou C.


Si u est un endomorphisme de E, alors u admet une droite ou un plan stable.

Preuve:
Si K = C, l’endomorphisme u est trigonalisable donc u admet une valeur propre
λ. Si e est un vecteur propre associé à λ, alors la droite Ke est stable par u.
Si K = R et Sp(u) ̸= ∅, le raisonnement ci dessus est valable.
Si Sp(u) = ∅ alors le polynôme minimal de u s’écrit πu = P1 · · · Ps . avec
s ∈ N∗ et pour tout j ∈ [[1, s]], le polynôme Pj s’écrit Pj = X 2 − aj x − bj avec
∆j = a2j + 4bj < 0. ; comme πu (u) = 0, on a P1 (u) ◦ · · · ◦ Ps (u) = 0, donc les
endomorphismes Pj (u) ne sont pas tous injectifs, il existe alors k ∈ [[1, s]] tel
que Pk (u) et non injectif, donc il existe x0 ∈ E tel que x0 ̸= 0 et Pk (u)(x0 ) = 0,
donc u2 (x0 ) = ak u(x0 ) + bk x0 , en particulier si F = Vect{x0 , u(x0 )}, on a F
est stable par u et dim(F ) = 2 car u n’ayant pas de vecteur propre, la famille
(x0 , u(x0 )) est libre.

4.5.2.2 Réduction des matrices et endomorphismes orthogonaux


Nous allons démontrer que tout endomorphisme orthogonal est représenté par une
matrice diagonale par blocs avec des termes diagonaux ayant une des formes sui-
vantes : Im , −Im ou Rθ avec θ ∈ R\πZ. Nous allons commencer par le cas particulier
important où u n’a aucune valeur propre réelle.

Théorème 26

Soit E un espace euclidien de dimension non nulle n et u un endomorphisme


orthogonal de E tel que Sp(u) = ∅. Alors n est pair et il existe une base ortho-
4.5. ESPACES EUCLIDIENS : RAPPELS ET COMPLÉMENTS 167

normée E de E tel que


 
Rθ1
matE (u) = 
 .. ,

.
Rθs

avec 2s = n et pour tout k ∈ [[1, s]], θk ∈ R\πZ.

Preuve:
Comme Sp(u) = ∅, le polynôme caractéristique χu de u est pair car tout
polynôme impair à coefficients réels admet au moins une racine réelle, donc
n = dim(E) = deg(χu ) est pair. Il en découle qu’il existe s ∈ N∗ tel que
n = 2s. On va démontrer le reste du théorème par récurrence sur s.
• Si s = 1, alors dim(E) = 2, donc si B est une base orthonormée de E alors
A = matB (u) ∈ O(2) et comme Sp(u) = ∅, forcément, A est de la forme Rθ
avec θ ∈ R\πZ, en vertu de la proposition 174.
• Soit s ∈ N∗ tel que la propriété à démontrer est vraie pour tout espace
euclidien de dimension 2s. Soit E un espace euclidien de dimension 2s + 2 et
u ∈ O(E) tel que Sp(u) = ∅. D’après le lemme 3, et le fait que Sp(u) = ∅, il
existe un plan F de E stable par u, et d’après le théorème 25, F ⊥ est stable par
u et on a F ⊕ F ⊥ = E. Comme dim(F ) = 2, on a dim(F ⊥ ) = 2s et l’hypothèse
de récurrence permet de dire qu’il existe deux bases perspectives orthonormées
B1 et B2 de F et F ⊥ tel les endomorphismes induits u1 et u2 sur F et F ⊥
réalisent matB1 (u1 ) = Rθ1 et matB2 (u2 ) = diag(Rθ2 , . . . , Rθs+1 ) où θk ∈ R\πZ,
pour tout k ∈ [[1, s + 1]] . Si B est la base de E obtenue par concaténation de
B1 et B2 , on a matB (u) = diag(Rθ1 , . . . , Rθs+1 ) , ce qui termine la preuve.

Théorème 27

Soit E un espace euclidien de dimension n avec n ̸= 0 et soit u ∈ On (E) un


endomorphisme orthogonal de E. Alors il existe une base orthonormée B de E
tel que matB (u) est une matrice diagonale par blocs dont les blocs diagonaux
sont parmi les suivants :
1. le bloc Ip avec p ∈ N∗ qui apparaît 0 ou 1 fois.
2. le bloc −Iq avec q ∈ N∗ qui apparaît 0 ou 1 fois.
3. des blocs Rθ avec θ ∈ R et θ ̸≡ 0 [π] qui apparaissent 0 ou s fois avec
s ∈ N∗ .
168 CHAPITRE 4. ESPACES PRÉHILBERTIENS RÉELS.

Autrement dit :
 
Ip

 −Iq 

M = matB (u) = 
 Rθ1 

 .. 
 . 
Rθs

avec (p, q, s) ∈ N3 et p + q + 2s = n avec la convention p = 0(resp.(q = 0


(resp.(s = 0))) si un bloc de la forme Ip (resp(−Iq ( resp. Rθ ))) apparaît 0 fois
dans M .

Preuve:
Soit u un endomorphisme orthogonal de E.
• Si Sp(u) = ∅, c’est terminé en vertu du théorème 26 ci-dessus.
• Si Sp(u) = {1} alors E = E1 (u) ⊕ G avec G = (E1 (u))⊥ et on a vu dans le
lemme 2 que Sp(uG ) = ∅. Donc, en vertu du théorème 26, la matrice de u dans
une base orthonormée adaptée est de la forme A = diag(Ip , Rθ1 , . . . , Rθs ).
• Si Sp(u) = {−1} alors E = E−1 (u) ⊕ G avec G = (E−1 (u))⊥ et on a
vu que dans le lemme 2 que Sp(uG ) = ∅. Donc, en vertu du théorème 26,
la matrice de u dans une base orthonormée adaptée est de la forme A =
diag(−Iq , Rθ1 , . . . , Rθs ).
• Si Sp(u) = {−1, 1} alors E = E1 (u)⊕E−1 (u)⊕G avec G = (E1 (u)+E−1 (u))⊥
et on a vu dans le lemme 2 que Sp(uG ) = ∅. Donc, en vertu du théorème
26, la matrice de u dans une base orthonormée adaptée est de la forme A =
diag(Ip , −Iq , Rθ1 , . . . , Rθs ).

Remarque La version matricielle de ce théorème est : pour toute matrice orthogo-


nale Ω il existe une matrice orthogonale P tel que Ω = P ∆tP avec ∆ une matrice
de la forme :  
Ip

 −Iq 

∆=
 Rθ1



 . . .


Rθs
avec (p, q, s) ∈ N3 et p + q + 2s = n avec la convention p = 0(resp.(q = 0 (resp.(s =
0))) si un bloc de la forme Ip (resp(−Iq ( resp. Rθ ))) apparaît 0 fois dans M .

4.5.3 Endomorphismes et matrices symétriques


4.5.3.1 Endomorphisme symétrique d’un espace préhilbertien réel.
4.5. ESPACES EUCLIDIENS : RAPPELS ET COMPLÉMENTS 169

Définition 87

Soit (E, ⟨.⟩) un espace préhilbertien réel de dimension finie ou infinie et u ∈


L(E). On dit que u est symétrique si

∀x, y ∈ E, ⟨x, u(y)⟩ = ⟨u(x), y⟩

Proposition 175

Soit (E, ⟨.⟩) un espace préhilbertien réel de dimension finie ou infinie et u un


endomorphisme symétrique de E et F un sous-espace vectoriel de E. Si F est
stable par u alors F ⊥ est stable par u.

Preuve:
Soit x ∈ F ⊥ , montrons que u(x) ∈ F ⊥ pour cela soit y ∈ F alors ⟨u(x), y⟩ =
⟨x, u(y)⟩ = 0 car u(y) ∈ F par stabilité de F et x ∈ F ⊥ par hypothèse.

4.5.3.2 Adjoint d’un endomorphisme, endomorphisme auto-adjoint


Dans tout ce qui suit (E, ⟨.⟩) est un espace euclidien.
Théorème-Définition 1

Soit E un espace euclidien et u un endomorphisme de E. Il existe un et un seule


endomorphisme v de E tel que :

∀(x, y) ∈ E 2 ⟨u(x), y⟩ = ⟨x, v(y)⟩

L’endomorphisme v s’appelle l’endomorphisme adjoint de u et on le note u∗

Preuve:
On va prouver l’existence et l’unicité de v :
• Existence :Soit y ∈ E et l’application :

φy : E → R; x 7→ φy (x) = ⟨u(x), y⟩,

alors φy est une forme linéaire sur E car pour tout x1 , x2 ∈ E et λ ∈ R,


on a : φy (x1 + λx2 ) = ⟨u(x1 + λx2 ), y)⟩ = ⟨u(x1 ) + λu(x2 ), y⟩ = ⟨u(x1 ), y⟩ +
λ⟨u(x2 ), y⟩ = φy (x1 ) + λφy (x2 ). Par le théorème de représentation des formes
linéaires dans un espace euclidien, il existe un vecteur unique vy tel que :
∀x ∈ E, φy (x) = ⟨vy , x⟩. Cela permet de définir une application v : E → E tel
que ∀y ∈ E, v(y) = vy réalisant : ∀x, y ∈ E, ⟨u(x), y⟩ = ⟨x, v(y)⟩. Montrons que
v ainsi définie est linéaire. Soit y1 , y2 ∈ E et λ ∈ R, alors pour tout x ∈ E on
170 CHAPITRE 4. ESPACES PRÉHILBERTIENS RÉELS.

a : ⟨x, v(y1 + λy2 )⟩ = ⟨u(x), y1 + λy2 ⟩ = ⟨u(x), y1 ⟩ + λ⟨u(x), y2 ⟩ = ⟨x, v(y1 )⟩ +


λ⟨x, v(y2 )⟩ = ⟨x, v(y1 )+λv(y2 )⟩ et par unicité on a : v(y1 +λy2 ) = v(y1 )+λv(y2 ),
d’où v est linéaire.
• Unicité : Si v et w sont deux solutions du problème alors :

∀(x, y) ∈ E 2 , ⟨x, v(y)⟩ = ⟨x, w(y)⟩ = ⟨u(x), y⟩

Il en découle que ∀y ∈ E, ∀x ∈ E⟨x, v(y) − w(y)⟩ = 0 donc : ∀y ∈ E, v(y) −


w(y) ∈ E ⊥ = {0} donc v = w.

Proposition 176

Soit u et v deux endomorphismes de E. Les assertions suivantes sont équiva-


lentes :
1. v = u∗
2. Pour toute base orthonormée E de E matE (v) =t (matE (u)).
3. Il existe une base orthonormée E de E tel que matE (v) =t (matE (u)).

Proposition-Définition 8

Soit u un endomorphisme de E, alors u est symétrique si et seulement si u = u∗ .


On dit aussi que u est autoadjoint.

Proposition 177

Soit u, v des endomorphismes de E et λ ∈ R, alors :


1. (u∗ )∗ = u
2. (u ◦ v)∗ = v ∗ ◦ u∗ .
3. (u + λv)∗ = u∗ + λv ∗

4.5.3.3 Caractérisation d’un endomorphisme orthogonal par son adjoint

Proposition 178

un endomorphisme u est orthogonal si et seulement si u est inversible et u−1 = u∗

Preuve:
Si u est inversible et u−1 = u∗ , soit x ∈ E, alors ∥u(x)∥2 = ⟨u(x), u(x)⟩ =
⟨x, u∗ (u(x))⟩ = ⟨x, x⟩ = ∥x∥2 , donc pour tout x ∈ E, on a : ∥u(x)∥ = ∥x∥ donc
u est un endomorphisme orthogonal. Réciproquement, si u est un endomor-
phisme orthogonal alors u est inversible. Soit (x, y) ∈ E 2 . Puisque u conserve
4.5. ESPACES EUCLIDIENS : RAPPELS ET COMPLÉMENTS 171

le produit scalaire, on a : ⟨u(x), y⟩ = ⟨u(x), u(u−1 (y))⟩ = ⟨x, u−1 (y)⟩. Cela veut
dire que u∗ = u−1 .

4.5.3.4 Endomorphismes symétriques en dimension finie

Proposition 179

Soit u un endomorphisme de E. Les assertions suivantes sont équivalentes :


(1) u est un endomorphisme symétrique.
(2) Il existe une base orthonormée E de E tel que la matrice relativement à
E de u est réelle symétrique.
(3) Pour toute base orthonormée E de E, la matrice relativement à E de u
est réelle symétrique.

Remarque Il faut donc faire attention au fait que la base adoptée doit être ortho-
normée. Si la matrice de u relativement à une base quelconque est symétrique réelle,
cela ne suffit pas pour dire que u est symétrique.

4.5.3.5 Réduction des endomorphismes et matrices symétriques en di-


mension finie

Proposition 180

Soit u un endomorphisme symétrique de E. Alors u admet au moins une valeur


propre.

Preuve:
On va faire la preuve en trois étapes :
- Si dim(E) = 1 alors u est une homothétie, donc si λ est le rapport e cette
homothétie, alors λ est une valeur propre de u.
- Si dim(E) = 2, il existe une base orthonormée B de E tel que A = matB (u)
est symétrique. Posons  
a b
A=
b d
Le polynôme caractéristique de A est

χA = X 2 − (a + d)X + ad − b2

C’est un trinôme de discriminant : δ = (a + d)2 − 4(ad − b2 ) = a2 + d2 + 2ad −


4ad + b2 = (a − d)2 + b2 , donc δ ≥ 0 et χA admet au moins une racine λ, donc
u admet une valeur propre.
- Si E est de dimension n avec n ≥ 1 selon le lemme 3, l’endomorphisme u
admet un sous-espace stable F tel que 1 ≤ dim(F ) ≤ 2. Les résultats des
172 CHAPITRE 4. ESPACES PRÉHILBERTIENS RÉELS.

étapes ci-dessus permet de dire que l’endomorphisme induit uF admet une


valeur propre λ, donc u admet au moins une valeur propre.

Proposition 181

Soit u un endomorphisme symétrique de E. Si λ et µ sont deux valeurs propres


de u, alors :
λ ̸= µ ⇒ Eλ (u)⊥Eµ (u)

Preuve:
Considérons λ, µ ∈ Sp(u) tel que λ ̸= µ et montrons que Eλ (u)⊥Eµ (u). Pour
cela soit x ∈ Eλ (u) et y ∈ Eµ (u) deux vecteurs propres associés respective-
ment aux valeurs propres distinctes λ et µ de u. On a ⟨u(x), y⟩ = λ⟨x, y⟩ =
⟨x, u(y)⟩ = µ⟨x, y⟩, donc (λ − µ)⟨x, y⟩ = 0. Comme λ − µ ̸= 0, on a : ⟨x, y⟩ = 0.
Ainsi Eλ (u)⊥Eµ (u).

Le théorème ci-dessous s’appelle le théorème spectral

Théorème 28

Soit u un endomorphisme symétrique de E, alors u est diagonalisable dans une


base orthonormée, c’est-à-dire que E admet une base formée de vecteurs propres
de u.

Preuve:
Par récurrence sur la dimension de E.
- Si dim(E) = 1, un endomorphisme symétrique u de E est une homothétie.
Si B = (e1 ) avec e1 ∈ E tel que ∥e1 ∥ = 1, alors B est base orthonormée de
diagonalisation de u.
- Soit n ∈ N∗ tel que pour tout espace euclidien F de dimension n, tout endo-
morphisme symétrique de F admet une base orthonormée de diagonalisation.
Soit alors E un espace euclidien de dimension n + 1 et u un endomorphisme
symétrique de E. D’après la proposition 180, l’endomorphisme u admet au
moins une valeur propre λ1 . Soit e un vecteur propre associé à λ1 et notons
1
e1 = e. Il est clair que e1 est un vecteur propre de u associé à λ1 et que
∥e1 ∥
∥e1 ∥ = 1. Soit F = (Re1 )⊥ alors E = Re1 ⊕ F et Re1 et F sont stables par u.
F muni du produit scalaire induit par celui de E est un espace euclidien de di-
mension n. Comme n ≥ 1, on a, par hypothèse de récurrence, l’endomorphisme
induit uF est diagonalisable dans une base orthonormée B ′ = (ek )2≤k≤n+1 . Soit
B = (ek )1≤k≤n+1 , alors B est une base orthonormée de E et c’est bien une base
de vecteurs propres de u, donc B est une base orthonormée de diagonalisation
4.5. ESPACES EUCLIDIENS : RAPPELS ET COMPLÉMENTS 173

de u.

Voici la version matricielle du théorème spectral qui s’applique à une matrice réelle
symétrique. Il faut, chaque fois que l’on veut l’utiliser, faire attention et s’assurer
que la matrice symétrique concernée est réelle.

Théorème 29

Soit A ∈ Sn (R) une matrice carrée réelle symétrique d’ordre n avec n ∈ N∗ , alors
il existe une matrice orthogonale P et une matrice diagonale réelle ∆ toutes de
taille n tel que A = t P ∆P . On dit que A est orthogonalement diagonalisable.
174 CHAPITRE 4. ESPACES PRÉHILBERTIENS RÉELS.
Chapitre 5

Intégrales généralisées, séries


numériques.

Les chapitres en questions sont déjà fait en première année. Vue leur importance
en deuxième année, on propose des de donner les rappels essentiels sur les deux
chapitres.

5.1 Intégrales généralisées


Le chapitre des intégrales généralisée ou intégrale sur un intervalle quelconque est
traité en première année. Le cadre était celui des application f : I → K continues
par morceaux d’un intervalle I de R vers K (avec K = R ou C.)

5.1.1 Fonctions continues par morceaux : Rappels


La notion de fonction intégrable sur un intervalle I est plus vaste que celle des fonc-
tions continues par morceaux intégrales, mais le programme des classes préparatoires
se limite à ces fonctions. Vu l’importance de cette notion par la suite, on donne des
rappels dans ce sous-paragraphe.

5.1.1.1 Définitions
On considère des applications f : I → C où I est un intervalle de R.
On rappelle que si [a, b] est un segment de R, on appelle subdivision de [a, b] toute
suite (ak )0≤k≤n de nombres réels tel que : a = a0 ≤ · · · ≤ an = b.
Si A = (ak )0≤k≤n et B = (bk )0≤k≤m , on dit que A et moins fine que B si
{a0 , · · · , an } ⊂ {b0 , · · · , bm }.

Définition 88

Soit [a, b] un segment de R et f une application de [a, b] vers K. On dit que f est
continue par morceaux sur [a, b] s’il existe une subdivision (ak )0≤k≤n de [a, b] tel
que pour tout k ∈ {0, · · · , n − 1}, f est continue sur ]ak , ak+1 [ et se prolonge en

175
176 CHAPITRE 5. INTÉGRALES GÉNÉRALISÉES, SÉRIES NUMÉRIQUES.

une fonction continue sur [ak , ak+1 ]. Une telle subdivision est appelée subdivision
adaptée à f .

Remarques On fait les remarques suivantes :


1. Si f est CM sur [a, b] et (ak )0≤k≤n est une subdivision adaptée alors f admet
une limite à droite et une limite à gauche en tout point ak tel que 0 < k < n
et une limite à droite au point a et une limite à gauche au point b.
2. Si A = (ak )0≤k≤n est une subdivision adaptée à une fonction f continue par
morceaux sur [a, b] il en est de même pour toute subdivision B = (bk )0 ≤ k ≤
m plus fine que A .
3. Si f est une fonction de [a, b] vers K, continue par morceaux, alors la sub-
division la moins fine adaptée à f est celle formée par a,b et les points de
discontinuité de f . En particulier, si f est continue sur ]a, b[ alors cette subdi-
vision est (a, b).

5.1.1.2 Exemples et contre-exemples


1. Soit f : [−2, 1] → R; x 7→ E(x) (partie entière). Alors f est continue par
morceaux sur [−2, 1] : les points de discontinuité de f sont : −1, 0 et 1. On
voit que : 

 −2 si −2 ≤ x < −1
−1 si −1 ≤ x < 0

f (x) =

 0 si 0≤x<1
1 si x=1

En particulier les limites à droites et à gauche aux points de discontinuité


sont :
 
f (−1−) = −2 f (0−) = −1
; ; f (1−) = 0.
f (−1+) = −1 f (0+) = 0
( 1
sin si x ̸= 0
2. L’application f : [0, 1] → R définie par f (x) = x n’est pas
0 si x = 0
1
continue par morceaux car x 7→ sin n’admet pas de limite quand x tends
x
vers 0 à droite.
( 1
si x ̸= 0
3. L’application f : [−1, 1] → R; x 7→ x n’est pas continue par
0 sinon
morceaux car : lim+ f (x) = +∞.
x→0

Définition 89

Soit f : I → K une application d’un intervalle I de R vers K. On dit que f est


continue par morceaux si la restriction de f à tout segment contenu dans I est
continue par morceaux.
5.1. INTÉGRALES GÉNÉRALISÉES 177

Proposition 182

Toute application f : I → K continue sur I est continue par morceaux sur I.

Notation : On notera CM(I, K) l’ensembles des applications de I vers K continues


par morceaux sur I.

Exemples x 7→ ln(x) est continue par morceaux surR∗+ .


ln(x) si x > 0
L’application f de R+ vers R définie par f (x) = n’est pas
0 si x = 0
continue par morceaux sur R+ car elle n’est pas CM sur [0, 1] : elle n’a pas de limite
en 0 à droite.

5.1.2 Intégrales généralisées


Une fonction f : [a, b] → K continue par morceaux est intégrable sans aucun soucis.
Le problème se pose si à la place du segment [a, b] on a un intervalle I non borné ou
un intervalle de la forme ]a, b[ ou ]a, b] ou [a, b[, c’est-à-dire un intervalle borné mais
non fermé. Une intégrale d’une fonction continue par morceaux sur de tels intervalle
quand elle existe s’appelle intégrale généralisée ou impropre.

5.1.2.1 Définition
Soit I un intervalle de R de bornes α et β finies ou infinies. Soit f une application de
Z x
I vers K et a ∈ I. On considère l’application Fa : I → K tel que Fa (x) = f (t)dt
a
pour tout x ∈ I. Si Fa admetZune limite L1 en α à droiteZ et une limite L2
en β à
gauche on dit que l’intégrale f converge et on pose : f = L2 − L1 . On note
Z β Z β I I Z β
aussi f (t)dt. Ainsi f (t)dt = Fa (β−) − Fa (α+). On écrit aussi : f (t)dt =
α α α
[Fa (t)]βα = Fa (β−) − Fa (α+). Z x Z x
Si b ∈ I on remarque que pour tout x ∈ I, on a Fb (x) = f (t)dt = f (t)dt +
Z a b a

f (t)dt donc Fb = Fa + c où c est une constante, ce qui permet de dire que la


b Z
définition ci-dessus et la valeur de f quand elle existe ne dépendent que de I et
I
f.

5.1.2.2 Exemples
Z x
Exemples 1) f (x) = ln x pour tout x ∈]0, 1], F1 (x) = ln tdt = x ln x − x vérifie
Z 1 1

F (1−) = F (1) = −1 et F (0+) = 0 donc ln tdt = −1


0
178 CHAPITRE 5. INTÉGRALES GÉNÉRALISÉES, SÉRIES NUMÉRIQUES.

1

 √
 si 0 < x ≤ 1
Exemples 2) Pour tout x ∈]0, +∞[ on pose f (x) = x . On
 1 si 1 < x

x2 Z x
voit que f est continue par morceaux sur ]0, +∞[ car continue. F1 (x) = f (t)dt =
 √ 1

 2 x − 2 si 0 < x ≤ 1
 Z +∞
, donc F1 (+∞) = 1 et F1 (0+) = −1, donc f (t)dt =
 1 − 1 si 1 < x
 0
x
1+1=2

5.1.2.3 Propriétés
Dans tout ce qui suit I est un intervalle de R de bornes éventuellement infinies a et
b.

Proposition 183
Z b
Soit f ∈ CM(I, K) et c ∈ I. L’intégrale f converge si et seulement si les
Z c Z b a Z b Z c Z b
intégrales f et f convergent, auquel cas on a f= f+ f
a c a a c

Proposition 184
Z Z
Soient f, g ∈ CM(I, K) et λ ∈ K. Si les intégrales f et g convergent alors
Z Z Z Z I I

(f + λg) converge et (f + λg) = f + λ g


I I I I

Proposition 185
Z
Soit f ∈ MC(I, K) alors |f | ∈ CM(I, K) et si |f | converge il en est de même
Z Z Z I

de f et dans ce cas on a f ≤ |f |
I I I

Définition 90
Z Z
Soit f ∈ CM(I, K). Si |f | converge on dit que l’intégrale f est absolument
I I
convergente
5.1. INTÉGRALES GÉNÉRALISÉES 179

Définition 91
Z
Soit f ∈ CM(I, K). On dit que f est integrable ou sommable sur I si f est
I
absolument convergente.

5.1.3 Cas des fonctions positives


Dans tout ce qui suit f est une application d’un intervalle I vers R, positive et
continue par morceaux sur I.

Proposition 186

I = [a, b[ avec a ∈ R et b ∈ R ∪ {+∞} avec a < b. Soit f : [a, b[→ R positive


Z b
et CM sur [a, b[. Alors l’intégrale f (t)dt est convergente si et seulement si f
a
est integrable sur [a, b[ si et seulement si l’ensemble
Z x 
Xf = f (t)dt/x ∈ [a, b[
a

est majoré, auquel cas on a :


Z b
f (t)dt = sup(Xf ).
a

Z +∞
2
Exemples l’intégrale I = e−x cos x dx est divergente car la fonction x 7→
0 Z x
2
f (x) = e−x cos x
étant continue sur R+ il suffit de prouver que x 7→ n’est pas
0
majorée, et pour cela, on considère pour tout n ∈Z N tel que n ≥ 10 les réels
bn
π π 1
an = + nπ et bn = + nπ + et posons In = f (x)dx. On va démontrer
2 X 2 n an

que la série In est divergente et cela donnera en particulier le fait que la suite
Z bn 
f (t)dt est non majorée car son terme général est majoré par une somme
0
partielle de la série.La fonction x 7→ cos2 x est croissante sur l’intervalle [an , bn ] donc
la fonction x 7→ −x cos2 x est décroissante sur cet intervalle et par suite pour tout
1
x ∈ [an , bn ], on a f (x) ≥ f (bn ) et par suite In ≥ f (bn ). Or un simple calcule mon-
X n
trer que lim f (bn ) = 1, donc la série In est divergente or sa somme partielle
n→+∞
X n Z bn Z x
Sn = In ≤ f (x)dx, ce qui prouve que x 7→ f (t)dt n’est pas majorée
k=10 0 0
Z +∞
donc l’intégrale f (x)dx est divergente.
0
180 CHAPITRE 5. INTÉGRALES GÉNÉRALISÉES, SÉRIES NUMÉRIQUES.

Remarques Généralement, si I est un intervalle de R et f ∈ CM(I, R+ ) alors :


1) f est intégrable sur I si et seulement si l’ensemble
Z 
X= f /J segment contenu dans I
J
Z
est majoré, auquel cas sup(X) = f .
I
2) On note a et b les bornes éventuellement infinies de I. S’il existe une suite
([an , bn ])n∈N de segments contenus dans I tel que pour tout n ∈ N, on aie :
an+1 ≤ an ≤ bn ≤ bn+1
Z bn 
et lim an = a et lim bn = b et si la suite f (t)dt est majorée alors f est
an
integrable et Z b Z bn
f (t)dt = lim f (t)dt
a n→+∞ an

Proposition 187

Soit f, g ∈ CM(I, R+ ).
Z Z
1. Si f ≤ g alors g convergente ⇒ f convergente.
I I
2. Si I = [a, b[ avec a ∈ R et a < b ≤ +∞( resp. I =]a, b] avec −∞ ≤ a < b
et b ∈ R) et f = O(g) au voisinage de b à gauche (resp. au voisinage de a
Z b Z b
à droite) alors : g(t)dt converge ⇒ f (t)dt converge.
a a
3. Si I = [a, b[ avec a ∈ R et a < b ≤ +∞( resp. I =]a, b] avec −∞ ≤ a < b
et b ∈ R) et f = o(g) au voisinage de b à gauche (resp. au voisinage de a
Z b Z b
à droite) alors : g(t)dt converge ⇒ f (t)dt converge.
a a
4. Si I =]a, b](resp. I = [a, b[ et f ∼ g au voisinage de b à gauche (resp. au
Z b Z b
voisinage de a à droite) alors les intégrales f (t)dt et g(t)dt sont de
a a
même nature.

Remarque Si f : I → R est continue par morceaux négative sur I, en étudiant −f


on trouve des résultats similaires à ceux des fonctions positives.

5.1.4 Intégrales de références usuelles


Z 1
5.1.4.1 L’intégrale ln tdt
0
Z 1
L’application t 7→ ln t est continue négative sur ]0, 1]. L’intégrale ln tdt est conver-
Z 1 0

gente de valeur −1. Précisément , ln tdt = [t ln t − t]10 = −1


0
5.1. INTÉGRALES GÉNÉRALISÉES 181
Z +∞
5.1.4.2 L’intégrale e−λt dt , λ réel
0

Proposition 188
Z +∞
Soit λ ∈ R, alors l’intégrale e−λt dt est convergente si et seulement si λ > 0
Z +∞ 0
1
, auquel cas, on a e−λt dt = .
0 λ

Preuve:
Z x
1
En effet pour tout x > 0, on a F (x) = e−λt dt =
(1 − e−λx ), donc F admet
0 λ
1
une limite en +∞ si et seulement si λ > 0, auquel cas, cette limite est .
λ

Z +∞ Z b
1 1
5.1.4.3 Les intégrales de Riemann dt et dt
1 tα a (b − t)α

Proposition 189

Soit α un nombre réel, alors :


Z +∞
1
1. L’intégrale dt est convergente si et seulement si α > 1.
1 tα
Z b
2 1
2. Si (a, b) ∈ R tel que a < b alors α
dt est convergente si et
Z b a (b − t)
1
seulement si α
dt est convergente si et seulement si α < 1.
a (t − a)

5.1.5 Conséquences : Les tests tα et |t − a|α


Proposition 190

Soit f : [a, +∞[ vers K une application continue par morceaux : S’il existe un
tα f (t) est bornées sur un intervalle de la forme [b, +∞[
nombre réel α > 1 tel que Z
+∞
( b ≥ a) alors l’intégrale f (t)dt est absolument convergente. C’est le cas
a
en particulier si t 7→ tα f (t) admet une limite ℓ (ℓ ∈ K), quand t tends vers +∞.
182 CHAPITRE 5. INTÉGRALES GÉNÉRALISÉES, SÉRIES NUMÉRIQUES.

Preuve:
Supposons t →7 tα f (t) bornée sur [b, +∞[, cela veut dire que |f (t)| = O(tα )
au voisinage de +∞. D’après les critères de comparaison ci-dessus on a la
Z +∞
convergence de l’intégrale |f (t)|dt.
b
Si lim tα f (t) existe dans K alors t 7→ tα f (t) est bornée au voisinage de +∞.
+∞
C’est donc un cas particulier du précédent.

Pour les deux propositions qui suivent a et b sont deux nombres réels tel que a < b.

Proposition 191

Soit f : [a, b[ vers K une application continue par morceaux : S’il existe un
nombre réel α < 1 tel que (b − t)α f (t) est bornées sur un intervalle de la forme
Z b
[c, b[ ( a ≤ c < b ) alors l’intégrale f (t)dt est absolument convergente. C’est
a
le cas en particulier si t 7→ (b − t)α f (t) admet une limite ℓ (ℓ ∈ K), quand t
tends vers b à gauche.

Proposition 192

Soit f :]a, b] vers K une application continue par morceaux : S’il existe un
nombre réel α < 1 tel que (t − a)α f (t) est bornées sur un intervalle de la forme
Z b
]a, c] ( a < c ≤ b ) alors l’intégrale f (t)dt est absolument convergente. C’est
a
le cas en particulier si t 7→ (t − a)α f (t) admet une limite ℓ (ℓ ∈ K), quand t
tends vers a à droite.

5.1.5.1 Exemples
Z 1
1
Exemples 1) Convergence de l’intégrale I = p . Tout d’abord l’appli-
0 x(1 − x)
1
cation f :]0, 1[→ R, x 7→ p est CM sur ]0, 1[. Au voisinage de 0 à droite,
x(1 − x)
Z 1
1 2
on a f (x) ∼ √ donc l’intégrale f (x)dx est convergente. Au voisinage de 1 à
x 0 Z 1
1
gauche, on a f (x) ∼ √ donc l’intégrale f (x)dx converge. En conclusion,
1−x 1
2
Z 1
1
l’intégrale p dx est convergente.
0 x(1 − x)
5.1. INTÉGRALES GÉNÉRALISÉES 183
Z 1
sin(1/x)
Exemples 2) Convergence de l’intégrale p dx. L’application f :
0 x(1 + cos2 x)
sin(1/x)
]0, 1] → R; x 7→ p est CM sur ]0, 1]. Le problème se pose uniquement
x(1 + cos2 x)
1
au voisinage de 0 à droite. Pour tout x ∈]0, 1], on a : |f (x)| ≤ √ , donc x 7→
Z 1 x
√ sin(1/x)
xf (x) est bornée sur ]0, 1], d’où l’intégrale p dx est absolument
0 x(1 + cos2 x)
convergente.
Z +∞
Exemples 3) Convergence de l’intégrale I = x4 e−x dx. L’application f :
0
[0, +∞[→ R; x 7→ x4 e−x est continue, le problème se pose uniquement à la borne
+∞.
On a : lim x2 f (x) = lim x6 e−x = 0, donc l’intégrale en question converge abso-
x→+∞ x→+∞
lument.
Z +∞
1
Exemples 4) Convergence de l’intégrale I = √ dx. L’application f :
0 x + x2
1
]0, +∞[→ R; x 7→ √ est continue sur l’intervalle ]0, +∞[.
x + x2
1
• Au voisinage de 0 à droite on a f (x) ∼ √ et comme l’intégrale de Riemann
Z 1 Z 1 x
1
√ dx est convergente, on a f (x)dx est convergente.
0 x 0 Z +∞
1 1
• Au voisinage de +∞, on a f (x) ∼ 2 et l’intégrale de Riemann dx est
Z +∞ x 1 x2
1
convergente donc dx est convergente.
1 x2
Z +∞
Il découle de ce qui précède que f (x)dx est convergente.
0 √
• Pour calculerZcette intégrale on fait le changement de variable t = x, ce qui
+∞
1
fournit I = 2 3
dt. La décomposition en élément simple de la fraction
0 t +1
1
rationnelle F (X) = 3 s’écrit :
X +1

α βX + γ
F (X) = + 2
X +1 X −X +1
et on a :
1
• lim (t + 1)F (t) = α = .
t→−1 3
1
• lim tF (t) = 0 = α + β ⇒ β = − .
t→+∞ 3
2
• F (0) = 1 = α + γ ⇒ γ =
3
184 CHAPITRE 5. INTÉGRALES GÉNÉRALISÉES, SÉRIES NUMÉRIQUES.

+∞  
t−2
Z
2 1
Il en découle que I = − 2 dt, donc
3 0 t+1 t −t+1
+∞  
1 2t − 1
Z
2 1 1 3
I= − 2 + 2 dt
3 0 t+1 2t −t+1 2t −t+1

On a : +∞
+∞   
1 2t − 1
Z
1 2 t+1
− 2 dt = ln √ = 0.
0 t+1 2t −t+1 3 t2 − t + 1 0
Donc :
Z +∞ Z +∞
1 1
I = 2
dt = 2 dt
0 t −t+1 0 t − 2 + 43
1
√   +∞ √
4 3 2 1 4 3 4π 4π
= arctan √ t − = = √ .
3 2 3 2 0 3 2 6 3 3

5.1.6 Techniques d’intégration


5.1.6.1 Changement de variable
Si I et J sont deux intervalle de R non vides et non réduits en un singleton, on
appelle C 1 −difféomorphisme de I vers J tout application φ : I → J tel que :
• φ est bijective.
• φ et de classe C 1 sur I.
• φ−1 sont est de classe C 1 sur J.
On peut démontrer que φ est un C 1 −difféomorphisme de I vers J si et seulement
si :
• φ et de classe C 1 sur I.
• ∀x ∈ I, φ(x) ̸= 0.
Il en découle que φ est un C 1 −difféomorphisme de I vers J si et seulement si φ est
de classe C 1 sur I et φ′ est strictement positive ou strictement négative sur I.

Proposition 193

Soient I et J deux intervalles de R non vides et non réduits à un singleton


et φ : I → JZun C 1 −difféomorphisme
Z de I vers J. Soit f ∈ CM(J, R) alors
les intégrales f (t)dt et |φ′ (t)|f (φ(t))dt sont de même nature et en cas de
J I
convergence elles sont égales, c’est-à-dire que :
Z Z
f (s)ds = |φ′ (t)|f (φ(t))dt
J I

5.1.6.2 Intégration par parties


Si a, b ∈ R∪{−∞, +∞} tel que −∞ ≤ a < b ≤ +∞ et f :]a, b[→ K une application.
alors :
5.2. SÉRIES NUMÉRIQUES 185

• f (a+) désigne la limite de f (x) quand x tend vers a à droite si a ∈ R et la limite


de f (x) quand x tend vers −∞ si a = −∞.
• f (b−) désigne la limite de f (x) quand x tend vers b à gauche si b ∈ R et la limite
de f (x) quand x tend vers +∞ si b = +∞.

Proposition 194

Soit (a, b) ∈ R ∪ {−∞, +∞} tel que −∞ ≤ a < b ≤ +∞ et u et v deux


application de l’intervalle ]a, b[ vers K toutes les deux de classe C 1 sur ]a, b[. Si
les limites La = f (a+) et Lb = f (b−) existent dans K alors :
Z n Z b

1. Les intégrales u (t)v(t)dt et u(t)v ′ (t)dt sont de même nature.
a a
2. En cas de convergence on a :
Z b Z b
′ b
u (t)v(t)dt = [u(t)v(t)]a − u(t)v ′ (t)dt
a a


[u(t)v(t)]ba = Lb − La = f (b−) − f (a+)

5.2 Séries numériques


X
On appelle série numérique une série un avec un ∈ K avec K = R ou C. On
donne dans ce paragraphe les rappels essentiels des notions vues en première année.

5.2.1 Rappels
Si (un )n≥0 est une suite à valeurs dans K, on lui associe la suite des sommes (Sn )n≥0
X n
définie par Sn = uk . on dit que (Sn ) est la suite des sommes partielles de la série
X k=0
un .
X
Si la suite (Sn ) est convergente de limite S, on dit que la série numérique un est
+∞
X
convergente de somme S et on note S = un .
n=0
Si (an )n≥0 est une suite numérique il existe une et une seule
Xsuite numérique (un )n≥0
tel que (an ) est la suite des sommes partielles de la série un . Elle est définie par :

u0 = a0 ; ∀n ∈ N∗ , un = an − an−1
Cela nous donne un critère de convergence des suites :
La suite (an ) est convergente si et seulement si la série de terme général un = an+1 −
an est convergente. Attention elles n’ont pas forcément la même limite.Précisément,
+∞
X
en cas de convergence si on note ℓ = lim an et S = un on a S = ℓ − a0 ;
n=0
186 CHAPITRE 5. INTÉGRALES GÉNÉRALISÉES, SÉRIES NUMÉRIQUES.

n
X 1
Exemples Montrons que la suite (an )n≥1 définie par an = Hn −ln(n) où Hn =
k=1
k
(série harmonique) est convergente. Pour cela estimons un = an+1 − an . On a
1 n+1
un = − ln
n+1 n
 −1  
1 1 1
= 1+ − ln 1 +
n n n
    
1 1 1 1 1
= 1− +O − + O
n n n2 n n2
 
1
= O .
n2
X
Il en découle que la série un est convergente, donc la suite (an ) est convergente.
X
A retenir : Si une série numérique un est convergente de somme S alors :
• Son terme général un converge vers 0.
• Pour tout n ∈ N, on note Rn = S − Sn où Sn est la somme partielle d’ordre n ; Rn
X+∞
s’appelle le reste d’ordre n. On a Rn = uk et Rn converge vers 0.
k=n+1

5.2.2 Séries à termes positifs


5.2.2.1 Rappel
X
Une série à terme positifs est une série numérique un tel que un ≥ 0 pour tout
n ∈ N. Une telle série est soit convergente soit sa somme partielle tends vers +∞,
+∞
X
auquel cas on posera un = +∞.
n=0

Proposition 195
X
Une série un à termes positifs est convergente si et seulement si sa somme
partielle (Sn ) est majorée, auquel cas on a :
+∞
X
un = sup Sn
n=0 n∈N

Définition 92
X X
On dit qu’une série un est absolument convergente si la série |un | est
convergente.
5.2. SÉRIES NUMÉRIQUES 187

Proposition 196
X
Si la série un est absolument convergente elle est convergente et :

+∞
X +∞
X
un ≤ |un |
n=0 k=0

5.2.2.2 Critères de comparaison

Proposition 197
X X
Soient an et bn deux séries à termes positifs. Si an ≤ bn à partir d’un
certain
X rang alors : X
bn convergente ⇒ an convergente.
+∞
X X+∞
an = +∞ ⇒ bn = +∞
n=0 n=0

+∞
X +∞
X
Remarque Si an ≤ bn pour tout n ∈ N alors an ≤ bn
n=0 n=0

Proposition 198
X X
Soit un une série numérique et an une série à termes positifs.
X X
Si un = O(an ) alors : an convergente ⇒ un est absolument convergente.
X X
Si un = o(an ) alors : an convergente ⇒ un est absolument convergente.
X X
Si un ∼ an alors : an et un sont de même nature.

5.2.3 Série de référence


5.2.3.1 Séries géométriques
Une série de terme général q n avec q ∈ C est appelée série géométrique de raison q.
Proposition 199
X
La série géométrique q n est convergente si et seulement si |q| < 1, auquel
+∞
X 1
cas , on a : qn =
n=0
1−q

+∞
X qm
Remarque Si |q| < 1 alors pour tout m ∈ N, on a qn =
n=m
1−q
188 CHAPITRE 5. INTÉGRALES GÉNÉRALISÉES, SÉRIES NUMÉRIQUES.

5.2.3.2 Série de Riemann


1
Une série de terme général un = α ( n ≥ 1 ) où α ∈ R est appelée série de Riemann.
n
Si α = 1 on l’appelle série harmonique.
Proposition 200
X 1
Soit α ∈ R. La série de Riemann est convergente si et seulement si α > 1.

5.2.4 Regle de D’Alembert pour les séries numériques


Proposition 201

Soit (un ) une suite de nombre complexes non nuls tel qu’il existe ℓ ∈ R+ tel
que :
un+1
lim =ℓ
n→+∞ un
Alors :
X
1. Si ℓ < 1 alors la série un est absolument convergente.
X
2. Si ℓ > 1 alors la série un est grossièrement divergente.

Preuve:
1−ℓ
- Si ℓ < 1, pour ε = , il existe N ∈ N tel que, pour tout n ∈ N tel que
2
n ≥ N + 1, on a :
un 1−ℓ
−ℓ <
un−1 2
En particulier :

|un | 1−ℓ ℓ+1


∀n ∈ N, n ≥ N + 1 ⇒ < +ℓ=
|un−1 | 2 2

ℓ+1
Donc en posant q = , on a 0 < q < 1 et pour tout n ≥ N + 1, on a
2
: |un | ≤ |uN |q n−N = Cq n , avec C = |uN |q −N .
|un | ≤ q|un−1 |, en particulierX
Comme la série géométrique q n est convergente, la convergence absolue de
n≥N
X
un en découle.
ℓ−1
- Si ℓ > 1, on a pour ε = , il existe N entier tel que si n ≥ N + 1 alors
2
un ℓ−1 ℓ+1
≥ ℓ− = , donc |un | ≥ uN q n−N = Cq n avec C = |uN |q −N donc
un−1 2 2
5.2. SÉRIES NUMÉRIQUES 189

un tends vers +∞, ce qui justifie la divergence grossière de la série.

5.2.5 Séries alternées


Définition 93
X
On dit que la série numérique réelle un est alternée si :

∀n ∈ N, un un+1 ≤ 0

Proposition 202
X
La série un est alternée si et seulement si il existe une suite (αn ) de signe
constant tel que un = (−1)n αn pour tout n ∈ N.

Remarque On peut toujours se ramener à un = (−1)n αn avec αn ≥ 0 : il suffit de


considérer la série opposée.
On donne le théorème suivant appelé le critère spécial des séries alternées (C.S.S.A.)
qui donne une condition suffisante de convergence d’une série alternée et une esti-
mation du reste d’ordre n :
Théorème 30

Soit un = (−1)n αn avec les condition suivantes :


1. La suite (αn ) est positive décroissante.
2. lim αn = 0.
n→+∞
Alors on a :
X
1. La série alternée un est convergente.
2. Pour Xtout n ∈ N, on a |Rn | ≤ |un+1 | où Rn est le reste d’ordre n de la
série un .

Exemples On donne les exemples suivants :


X
1. (−1)n n est une série alternée divergente.
X (−1)n
2. ; n ≥ 1 est une série alternée convergente mais non absolument
n
convergente appelée la série harmonique alternée. Pour tout n ∈ N∗ , on a :
1
|Rn | ≤ .
n+1
X (−1)n
3. ; n ≥ 1 est une série alternée absolument convergente. Pour tout
n2
1
n ∈ N∗ , on a : |Rn | ≤ .
(n + 1)2
190 CHAPITRE 5. INTÉGRALES GÉNÉRALISÉES, SÉRIES NUMÉRIQUES.

5.2.6 Séries absolument convergentes


Définition 94
X
Une série numérique un est dite absolument convergente si la série des mo-
X
dules (ou valeurs absolues) |un | est convergente.

Exemples On donne les exemple suivants :


X (−1)n
1. La série est absolument convergente car son terme général un =
n
n2
(−1) 1 X 1
réalise |un | = et la série de Riemann est convergente.
n2 n2 √ n2
X sin( n)
2. La série un avec un = 2 √ est absolument convergente car
n + (−1)n n + 2
1 X
pour tout n ∈ N tel que n > 2, on a |un | ≤ 2 √ et la série αn est
n − n+2
1
convergente car αn ∼ 2 quand n tend vers +∞.
n

Théorème 31

Si une série umun est absolument convergente alors elle est convergente et on
a:
+∞
X +∞
X
un ≤ |un |
n=0 n=0

Preuve:
Pour tout nombre réel x, on définit les nombres réels x+ = max(x, 0) et x− =
max(−x, 0). On a alors

x + x− = |x|
 +
∀x ∈ R
x + − x− = x
X
Si une série un est absolument convergente alors comme on a

u+

n ≤ |un |
∀n ∈ N,
u−
n ≤ |un |
X X
les deux série u+n et u−
n sont deux séries à termes positifs convergentes,

donc leur différence est convergente et comme un = u+ n − un , pour tout n ∈ N,
X +∞
X
la série un est convergente et sa somme est S = un = S + − S − où
n=0
5.3. SOMMATION DES RELATIONS DE COMPARAISON. COMPARAISON SÉRIES ET INTÉGR

+∞
X +∞
X

+
S = u+
n et S = u−
n.
n=0 n=0
• Remarquons que pour tout n ∈ N, on a :
+∞
X n
X
un ≤ |uk |,
n=0 k=0

donc, par passage à la limite, on a :


+∞
X +∞
X
un ≤ |un |.
n=0 n=0

5.3 Sommation des relations de comparaison. Com-


paraison séries et intégrales.

Ce paragraphe est d’une importance particulière car il traite deux points impor-
tants :D’une part, la sommation des relations de comparaison pour les séries et pour
les intégrales qui ont des applications importantes et d’autre part, la relation entre
les intégrales et les séries, notamment comment l’un se ramène à l’autre quand des
hypothèses sont vérifiées.

5.3.1 Sommation des relations de comparaison pour les séries

X X
Si un et vn sont deux séries numériques tel que vn = o(un ) ou vn = O(un )
ou un ∼ vn , on sait que les natures des deux séries sont liée, mais on approfondira
en étudiant les liens entre les sommes partielles ou les restes des deux séries. On
résume tout dans la proposition suivante :
192 CHAPITRE 5. INTÉGRALES GÉNÉRALISÉES, SÉRIES NUMÉRIQUES.

Proposition 203
X X
Soient an et bn deux séries à termes positifs. On note Sn et Sn′ les sommes
partielles respectives et en cas de convergence on note Rn et Rn′ les restes res-
pectifs.
- OnX suppose que an = O(bn ) quand
X n tends vers +∞. Alors :
• Si bn est convergente alors an est convergente et Rn = O(Rn′ ).
X X
• Si an est divergente alors bn est divergente et Sn = O(Sn′ )
- OnX suppose que an = o(bn ) quand
X n tends vers +∞. Alors :
• Si bn est convergente alors an est convergente et Rn = o(Rn′ ).
X X
• Si an est divergente alors bn est divergente et Sn = o(Sn′ )
X X
- On suppose que an ∼ bn quand n tends vers +∞. Alors : an et bn sont
de même nature et :
• En cas de convergence on a : Rn ∼ Rn′ .
5.3. SOMMATION DES RELATIONS DE COMPARAISON. COMPARAISON SÉRIES ET INTÉGR

• En cas de divergence on a : Sn ∼ Sn′ .

5.3.2 Sommation des relations de comparaison pour les inté-


grales
Proposition 204

Soient f et g deux applications continues par morceaux et positives sur un


intervalle de la forme [a, b[ avec a ∈ R et a < b ≤ +∞.
- On suppose que f = O(g) au voisinage de b (à gauche si b est fini).
Z b Z b
• Si g(t)dt converge alors f (t)dt converge et, au voisinage de b (à gauche
a Z b a Z b 
si b est fini), on a : f (t)dt = O g(t)dt .
Z b x Z b x

• Si f (t)dt diverge alors g(t)dt diverge et, au voisinage de b (à gauche si


a Z x a Z x 
b est fini), on a : f (t)dt = O g(t)dt .
a a
- On suppose que f = o(g) au voisinage de b (à gauche si b est fini).
Z b Z b
• Si g(t)dt converge alors f (t)dt converge et, au voisinage de b (à gauche
a Z b a Z b 
si b est fini), on a : f (t)dt = o g(t)dt .
Z b x Z b x

• Si f (t)dt diverge alors g(t)dt diverge et, au voisinage de b (à gauche si


a Z x a Z
x 
b est fini), on a : f (t)dt = o g(t)dt .
a a
- On suppose que f ∼ g au voisinage de b (à gauche si b est fini). Alors les
Z b Z b
intégrales f (t)dt et g(t)dt sont de même nature et :
a a Z b Z b
• En cas de convergence, on a : f (t)dt ∼ g(t)dt, au voisinage de b (à
x x
gauche si b est fini). Z x Z x
• En cas de divergence, on a f (t)dt ∼ g(t)dt, au voisinage de b (à gauche
a a
si b est fini).

Proposition 205

Soient f et g deux applications continues par morceaux et positives sur un


intervalle de la forme ]a, b] avec b ∈ R et −∞ ≤ a < b.
- On suppose que f = O(g) au voisinage de a (à droite si a est fini).
Z b Z b
• Si g(t)dt converge alors f (t)dt converge et, au voisinage de a (à droite
a a
194 CHAPITRE 5. INTÉGRALES GÉNÉRALISÉES, SÉRIES NUMÉRIQUES.
Z x Z x 
si a est fini), on a : f (t)dt = O g(t)dt .
Z b a Z b a

• Si f (t)dt diverge alors g(t)dt diverge et, au voisinage de a (à droite si


a Z b a Z
b 
a est fini), on a f (t)dt = O g(t)dt .
x x
- On suppose que f = o(g) au voisinage de a (à droite si a est fini).
Z b Z b
• Si g(t)dt converge alors f (t)dt converge et, au voisinage de a (à droite
a Z x a Z x 
si a est fini), on a : f (t)dt = o g(t)dt .
Z b a Z b a

• Si f (t)dt diverge alors g(t)dt diverge et, au voisinage de a (à droite si


a Z b aZ b 
a est fini), on a f (t)dt = o g(t)dt .
x x
- On suppose que f ∼ g au voisinage de b (à droite si a est fini). Alors les
Z b Z b
intégrales f (t)dt et g(t)dt sont de même nature et :
a a Z x Z x
• En cas de convergence, on a : f (t)dt ∼ g(t)dt, au voisinage de a (à
a a
gauche si a est fini).
Z b Z b
• En cas de divergence, on a : f (t)dt ∼ g(t)dt, au voisinage de a (à gauche
x x
si a est fini).

5.3.3 Série et intégrales


5.3.3.1 Transformation d’une intégrale en une série

Proposition 206

Soit f : [a, b[→ R continue par morceaux et positive (a ∈ R, b ∈ R ∪ {+∞}


avec a < b. Soit (an ) une suite tel que a0 = a et (an ) croissante et lim an = b.
Z an+1 Zn→+∞
b
On note un = f (t)dt, pour tout n ∈ N.Alors l’intégrale f (t)dt est
an X a
convergente si et seulement si la série un est convergente, auquel cas, on a :

Z b +∞
X +∞ Z
X an+1
f (t)dt = un = f (t)dt.
a n=0 n=0 an

+∞
| sin(t)|
Z
Exemple L’intégrale dt est divergente. En effet si on prends an = nπ
0 t
pour tout n ∈ N, on a bien a0 = 0 et (an ) croissante de limite +∞. Il suffit donc de
Z (n+1)π
X | sin(t)|
prouver que un est divergente où un = dt. Par le changement de
nπ t
5.3. SOMMATION DES RELATIONS DE COMPARAISON. COMPARAISON SÉRIES ET INTÉGR
Z π Z π
sin(θ) sin θ 2 1
variable θ = t − nπ, on a un = dθ, donc un ≥ dθ =
0 nπ + θ 0 (n + 1)π Xπ n + 1
qui est le terme d’une série divergente (série harmonique), donc la série un est
divergente.

5.3.3.2 Comparaison série intégrale

Proposition 207

Soit a ∈ R et f : [a, +∞[→ R une application positive continue par morceaux


décroissante. Soit p = min{k ∈ N/a ≤ k}, et pour tout n ≥ p, on pose :
Z n+1
un = f (n) − f (t)dt
n
X
Alors la série un est convergente.

Preuve:
Z n+1
Comme f est décroissante, f (t)dt ≤ f (n) pour tout n ≥ p, donc un ≥ 0
X n
et par suite la série un est une série à termes positifs. Il suffit de prouver
que sa somme partielle est majorée. Soit n ≥ p, alors un ≤ f (n) − f (n + 1) par
X n
suite, Sn = uk ≤ f (p) − f (n + 1) ≤ f (p) ≤ f (a).
k=p

Corollaire 20

Soit a ∈ R et f : [a, +∞[→ R une application positive continue par morceaux


décroissante. Soit p = E(a) + 1. Alors :
X X Z n+1
1. Les séries f (n), n ≥ p et f (t)dt, n ≥ p sont de même nature.
n
X Z +∞
2. La série f (n), n ≥ p et l’intégrale f (t)dt sont de même nature.
a
196 CHAPITRE 5. INTÉGRALES GÉNÉRALISÉES, SÉRIES NUMÉRIQUES.
Chapitre 6

Fonction vectorielles à variable réelle

6.1 Dérivation
6.1.1 Définitions
6.1.1.1 Dérivabilité en un point

Définition 95

Soit t0 un point intérieur de I. On dit que f : I → F est dérivable au point t0 si


f (t) − f (t0 )
Ft0 : t 7→ admet une limite quant t → t0 et t ∈ I\{t0 }. Cette limite
t − t0
si elle existe est appelé vecteur dérivée de f au point t0 et notée ℓ = f ′ (t0 ).

On peut donc dire que f est dérivable au point t0 si et seulement si il existe un


vecteur ℓ ∈ F et une fonction ϕ définie sur un voisinage pointé V de t0 tel que :

 ∀t ∈ V, f (t) = f (t0 ) + (t − t0 )ℓ + (t − t0 )ϕ(t)
lim ϕ(t) = 0
 t→t0
t∈V

En particulier si f est dérivable au point t0 alors au voisinage de t0 , on a :

f (t) = f (t0 ) + (t − t0 )f ′ (t0 ) + o((t − t0 )

ce qui revient à dire que pour h voisin de 0, on a :

f (t0 + h) = f (t0 ) + hf ′ (t0 ) + o(h)

En particulier :

Proposition 208

f dérivable au point t0 alors f est continue au point t0

197
198 CHAPITRE 6. FONCTION VECTORIELLES À VARIABLE RÉELLE

Définition 96

Soit t0 ∈ I tel qu’il existe α > 0 tel que [t0 , t0 +α[⊂ I. On dit que f est dérivable
f (t) − f (t0 )
au point t0 à droite si t 7→ Ft0 (t) = admet une limite quand t tends
t − t0
vers t0 et t > t0 . Si c’est le cas on note fd′ (t0 ) cette limite nommé vecteur dérivé
à droite.

On définit aussi la dérivabilité à gauche avec la notation fg′ (t0 ).

Proposition 209

Soit t0 un point intérieur à I, alors f est dérivable au point t0 si et seulement


si f est dérivable au pint t0 à droite et à gauche et fd′ (t0 ) = fg′ (t0 ).

Exemple : Soit n ∈ N∗ , A ∈ Mn (K) et l’application : f : R → Mn (K); t 7→ exp(tA)


f est dérivable sur R et ∀t ∈ R, f ′ (t) = A exp(tA).
En effet, soit t0 ∈ R. Pour tout h ∈ R, on a :
f (t0 + h) − f (t0 )) = exp(t0 A)(exp(hA) − In )
+∞ k k
X h A
= exp(t0 A)
k=1
k!
+∞ k k
X h A
= hA exp(t0 A) + exp(t0 A)
k=2
k!

Donc si h ∈ R∗ alors :
+∞ k−1 k
1 X h A
(f (t0 + h) − f (t0 )) = A exp(t0 A) + exp(t0 A)
h k=2
k!
+∞ k−1 k
X h A
Si on pose φ(h) = , on a lim φ(h) = 0 car (on munit Mn (K) d’une norme
k=2
k! h→0

d’algèbre) :
+∞
X |h|k−1 ∥A∥k
∥φ(h)∥ ≤ ∥ exp(t0 A)∥
k=2
k!
1
= ∥ exp(t0 A)∥ (exp(|h|∥A∥) − |h|∥A∥ − 1)
|h|
∥ exp(t0 A)∥∥A∥2
∼ |h|
2
de sorte que lim φ(h) = 0.
h→0
Par définition de la dérivabilité, et compte tenu de
f (t0 + h) = f (t0 ) + h exp(t0 A) + hφ(h) et lim φ(h) = 0,
h→0

on a f dérivable au point t0 et f ′ (t0 ) = A exp(t0 A).


6.1. DÉRIVATION 199

6.1.1.2 Interpretation géométrique

Si (I, f ) représente un mouvement f ′ (t0 ) est le vecteur vitesse instantanée à l’instant


t0 .

6.1.1.3 Utilisation des coordonnée

Si F est de dimension p non nulle et B = (e1 , · · · , ep ) une base de F , notons


fk , k ∈ [[1, p]] les fonctions coordonnées de f dans B, alors :

Proposition 210

f est dérivable au point t0 si et seulement si chaque fk est dérivable au point


p
X
t0 , auquel cas f (t0 = fk′ (t0 )ek .
k=1

C’est une conséquence immédiate de la propriété générale sur les limites en dimen-
sion finie.

6.1.1.4 Fonction dérivée

Définition 97

f est dérivable sur I si f est dérivable en tout point intérieur à I et à droite(resp.


gauche) des éventuelles bornes finies de I.

Si f : I → F dérivable sur I, l’application f ′ : I → F, t 7→ f ′ (t) s’appelle fonction


dérivée de f .

6.1.2 Opérations
6.1.2.1 linéarité

Proposition 211

Soient f et g deux applications d’un intervalle I de R vers F .

Si t0 est un point intérieur à I, alors , si f et g sont dérivable au point t0 alors f + λg


est dérivable au point t0 et (f + λg)′ (t0 ) = f ′ (t0 ) + λg ′ (t0 ).
Si f et g sont dérivables sur I alors f + λg dérivable sur I et (f + λg)′ = f ′ + λg ′
On a les mêmes résultats pour la dérivabilité au point t0 à droite (rep. à gauche)
avec la condition [t0 , t0 + α[⊂ I et α > 0 (resp.]t0 − α, t0 ] ⊂ I).
200 CHAPITRE 6. FONCTION VECTORIELLES À VARIABLE RÉELLE

6.1.2.2 Composé avec une application linéaire


F et G sont deux evn de dime finie et L ∈ L (F, G) et f : I → F une application.
Si f est dérivable au point t0 alors L ◦ f est dérivable au point t0 et (L ◦ f )′ (t0 ) =
L(f ′ (t0 )).
Si f est dérivable sur I alors L ◦ f est dérivable sur I et (L ◦ f )′ = L ◦ f ′ .
Exemple : Soit A une matrice donnée de Mn (K), et pour tout nombre réel t, on
pose : f (t) = tr(tA). Alors f est dérivable et f ′ (t) = tr(A). Chose qu’on retrouve en
remarquant que f (t) = t tr(A)

6.1.2.3 Application bilinéaire

Proposition 212

Si B : E × F → G bilinéaire et h = B(f, g), donc h(t) = B(f (t), g(t)) pour


tout t ∈ I alors si f et g dérivables en t0 alors B(f, g) aussi et (B(f, g))′ (t0 ) =
B(f ′ (t0 ), g(t0 )) + B(f (t0 ), g ′ (t0 )).

En particulier si E est un espace euclidien et f, g : I → E dérivables au point t alors


⟨f, g⟩ est dérivable au point t et ⟨f, g⟩′ (f ) = ⟨f ′ (t), g(t)⟩ + ⟨f (t), g ′ (t)⟩, de même

∥f ∥2 est dérivable au point t et ∥f ∥2 (t) = ⟨f (t), f ′ (t)⟩

6.1.2.4 Composée
I et J sont deux intervalles , φ : I → R dérivable sur I tel que φ(I) ⊂ J et f : J → F
dérivable , alors f ◦ φ est dérivable sur I et (f ◦ φ)′ = φ′ (f ′ ◦ φ)

6.1.3 Dérivées d’ordre supérieur, fonction de classe C k


Définition 98

Si f : I → F une application. Pour tout n ∈ N, on définit f (n) si elle existe


comme suit :
- Pour n = 0, on définit : f (0) = f .
- Pour tout n ∈ N,si on définit l’application f (n) : I → F et si f (n) est dérivable,
alors : f (n+1) = (f (n) )′ .
On dit que f est au moins n fois dérivable sur I si les f (k) existent pour tout
k ∈ [[0, n]].
On dit que f est infiniment dérivable sur I, si f est n fois dérivable sur I pour
tout n ∈ N

Proposition 213

Soit (n, p, q) ∈ N3 tel que p + q = n et f : I → F une application. Si f est au


moins n fois dérivable et m, q ∈ N tel que m + q = n alors f (p) et f (q) existent
6.1. DÉRIVATION 201

et
(f (p) )(q) = (f (q) )(p) = f (p+q) = f (n) .

Définition 99

Soit n ∈ N, on dit que f est de classe C n sur I si f est n fois dérivable sur I et
f (n) est continue sur I. On dit que f est de classe C ∞ sur I si f est de classe
C n sur I, pour tout n ∈ N.

Remarque : que f est de classe C ∞ si et seulement si f est infiniment dérivable.


Notations : On note :
Dn (I, F ) : l’ensemble des applications de I vers F , n fois dérivables.
C n (I, F ) : l’ensemble des applications de I vers F de classe C n .
D∞ (I, F ) :l’ensemble des applications infiniment dérivables ;
C ∞ (I, F ) : l’ensemble des applications C ∞
Remarques :
1. Pour tout n ∈ N, on a :
 ∞
 D (I, F ) ⊂ Dn+1 (I, F ) ⊂ Dn (I, F )
 C ∞ (I, F ) ⊂ C n+1 (I, F ) ⊂ C n (I, F )



C n (I, F ) ⊂ Dn (I, F ) \ \
∞ ∞ n
C n (I, F )




 D (I, F ) = C (I, F ) = D (I, F ) =
n∈N n∈N

2. Dn (I, F ) est un sous-espace vectoriel de F I et Dn+1 (I, F ) et C n (I, F ) sont des


sev de Dn (I, F ).
3. Soit n ∈ N ∪ {∞} et f : I → F une application. Si F est muni d’une base
B = (e1 , · · · , ep ) et si (fk )1≤k≤p sont les composantes de f alors f est n fois
dérivable (rep. de classe C n ) si et seulement si tous les fk sont n fois dérivables
p
X (m)
n (m)
(resp. de classe C ), auquel cas on a (∀m ∈ [[0, n]]) f = fk ek .
k=1

6.1.3.1 interpretation de la dérivée seconde


Si f : t 7→ f (t) est la loi horaire d’un mouvement sur F dans l’intervalle de temps
I alors si f est deux fois dérivable au point t0 ∈ I, le vecteur f ′′ (t0 ) est le vecteur
acceleration à l’instant t0 .

6.1.3.2 Formule de Leibnitz

Proposition 214

E, F, G sont des espaces vectoriels normés de dimensions finies et B : E×F → G


une application bilinéaire.
Soit f : I → E et g : I → F deux applications n fois dérivables (resp. de classe
202 CHAPITRE 6. FONCTION VECTORIELLES À VARIABLE RÉELLE

C n ) alors B(f, g) est n fois dérivable (resp. de classe C n ) et :


n  
(n)
X n
(B(f, g)) = B(f (n−k) , g (k) )
k=0
k

6.1.3.3 Composition

Proposition 215

Soit f : J → F et φ : I → R tel que φ(I) ⊂ J. Si φ est n fois dérivables (resp.


de classe C n ) sur I et f est n fois dérivable (resp. de classe C n ) sur J alors f ◦ φ
est n fois dérivable (resp. de classe C n ) sur I

6.2 Intégrales
Dans tout ce qui suit F est un espace vectoriel de dimension finie non nulle et [a, b]
est un segment de R.

6.2.1 Définition de l’intégrale sur un segment d’un fonction


CM
Définition 100

Soit f : [a, b] → F une application. On dit que f est continue par morceaux
sur [a, b] si les fonctions coordonnées f1 , · · · , fp de f relativement à une base
B = (e1 , · · · , ep ) sont continues par morceaux sur [a, b].

Cette définition a un sens car si B


b = (b e1 , · · · , ebp ) est une autre base de F et P =
B
PB la matrice de passage alors si fˆ1 , · · · , fˆp sont les fonctions coordonnées de f
b

relativement à Bb alors :
p p
X X
f= fk ek = fbk ebk
k=1 k=1

et    
f1 (t) fb1 (t)
 ..   . 
(1) ∀t ∈ I,  .  = P  .. 
fp (t) fbp (t)

Montre que les fk sont CM sur [a, b] si et seulement si les fbk le sont.
Remarques :
1. On note CM([a, b], F ) l’ensemble des fonctions continues par morceaux de
[a, b] vers F . C’est un sous-espace vectoriel du K−espace vectoriel F [a,b] des
applications de [a, b] vers F .
6.2. INTÉGRALES 203

2. Si I est un intervalle quelconque de R, une application f : I → F est continue


par morceaux sur I si f est continue par morceaux sur tout segment contenu
dans I. On note CM(I, F ) le sous-espace vectoriel de telles applications.
Le (1) ci dessus montre que l’on a :
 Z b   Z b

 f1 (t)   fb1 (t) 
 a   a 
.. ..
=P
   
 Z b.  Z b.
  
 
   
fp (t) fbp (t)
a a

et par suite :
p Z b  p Z b 
X X
fk (t)dt ek = fk (t)dt ebk
b
k=1 a k=1 a

ce qui permet de donner :

Proposition-Définition 9

Soit f ∈ CM([a, b], F ) de coordonnées f1 , · · · , fp relativement à une base B de


F . Alors le vecteur : p Z b 
X
fk (t)dt ek
k=1 a

ne dépends pas de la base B. On l’appelle l’intégrale de f sur le segment [a, b]


Z Z b Z b
Notation : On note f ou f ou f (t)dt
[a,b] a a

6.2.2 Linéarité et additivité de l’intégrale


Proposition 216
Z b
1. Linéarité : Pour tout f, g ∈ CM([a, b], F ) et tout λ ∈ K, on a : (f +
Z b Z b a

λg) = f +λ g
a a
2. Relation de Chasles :Soit I un intervalle de R, f ∈ CM(I, F ) et a, b, c ∈ I,
Z b Z c Z b
alors : f= f+ f
a a c

Proposition 217

E et F sont deux espaces vectoriels normés de dimensions finies.


Soit L : E → F une application linéaire et f : [a, b] → E une application
204 CHAPITRE 6. FONCTION VECTORIELLES À VARIABLE RÉELLE

continue par morceaux, alors L ◦ f est continue par morceaux de [a, b] vers F et
Z b Z b 
L◦f =L f
a a

6.2.3 Sommes de Riemann


Proposition 218

Pour tout f ∈ CM([a, b], F ), on a :

b n−1  
b−aX b−a
Z
f (t)dt = lim f a+k
a n→+∞ n k=0 n

Preuve:
Il suffit de raisonner sur les fonctions coordonnées relativement à une base de
F.

n−1
X n
X
Remarque : Valable si on remplace par
k=0 k=1

6.2.4 Inégalité triangulaire


Proposition 219
Z b Z b
Soit f ∈ CM([a, b], F ), alors : f ≤ ∥f ∥
a a

Preuve:
Pour tout n ∈ N∗ , on a :
n−1   n  
b−aX b−a b−aX b−a
f a+k ≤ f a+k
n k=0 k n k=1 k

Le résultat en découle par passage à la limite.

6.2.5 Intégrale et primitive


6.2. INTÉGRALES 205

Définition 101

Soit f : I → F une application. On appelle primitive de f sur I toute application


Φ : I → F tel que Φ est dérivable sur I et Φ′ = f sur I.

Proposition 220

si (fk )1≤k≤p sont les composantes de f dans une base B = (e1 , . . . , ep ), donc :
p
X
f = fk ek , et Φk une primitive de fk sur I, pour tout k ∈ [[1, p]] alors Φ =
k=1
p
X
Φk ek est une primitive de f sur I.
k=1

Preuve:
p p
X X

En posant Φ = Φk ek , on sait que : Φ = Φ′k ek et comme Φ′k = fk , on a
k=1 k=1
p
X
Φ′ = fk e k = f .
k=1

Proposition 221

Soit f : I → F une application. Alors :


Si Φ1 et Φ2 sont deux primitives de f sur I alors Φ2 − Φ1 = C où C est un
vecteur constant de F .
Si Φ est une primitive de f alors le primitives de f sont Φc = Φ + c avec c ∈ F

Preuve:
Il suffit de raisonner en utilisant les composantes et le même résultat pour les
fonction à valeurs dans K, vu en première année.

Proposition 222

Soit I un intervalle de R, a ∈ I et fZ : I → F une application continue sur


x
I. l’application F définie par F (x) = f (t)dt est une primitive de f . C’ est
a
l’unique primitive de f qui s’annule au point a.
206 CHAPITRE 6. FONCTION VECTORIELLES À VARIABLE RÉELLE

Preuve:
Il suffit de raisonner en utilisant les composantes et le même résultat pour les
fonction à valeurs dans K, vu en première année.

6.2.6 Techniques d’intégration


6.2.6.1 Changement de variables

Théorème 32

I et J sont deux intervalle de R et φ : I → J une application de classe C 1 . Soit


f : J → F une application continue, alors :
Z φ(b) Z b
∀(a, b) ∈ I ,2
f (s)ds = φ′ (t).f (φ(t))dt
φ(a) a

Preuve:
Comme f est continue elle admet une primitive Φ sur J et on a :
Z φ(b) Z φ(b)
f (s)ds = Φ′ (s)ds
φ(a) φ(a)
= Φ(φ(b)) − Φ(φ(a))
Z b
= (Φ ◦ φ)′ (t)dt
a
Z b
= φ′ (t)f (φ(t))dt
a

6.2.6.2 Intégration par parties


E, F et G sont des espaces vectoriels normés de dimensions finies.

Théorème 33

Soit B : E × F → G une application bilinéaire et u : I → E et v : I → F des


applications de classe C 1 . Alors :
Z b Z b

∀(a, b) ∈ I 2 b
B(u (t), v(t)) = [B(u(t), v(t))]a − B(u(t), v ′ (t))dt
a a
6.2. INTÉGRALES 207

Preuve:
Conséquence immédiate de la formule de dérivation de B(u, v).

6.2.7 Inégalité des accroissements finis


Théorème 34

Soit f : [a, b] → F une application de classe C 1 et soit

M = sup ∥f ′ (t)∥
t∈[a,b]

Alors
∥f (b) − f (a)∥ ≤ M (b − a)

Preuve:
Z b
1
Comme f est de classe C sur [a, b], on a f (b) − f (a) = f ′ (t)dt, donc :
Z b Z b Z b a

∥f (b) − f (a)∥ = ∥ f ′ (t)dt∥ ≤ ∥f ′ (t)∥dt ≤ M dt = M (b − a).


a a a

Remarques :
1. Si M est un majorant de ∥f ′ ∥([a, b]) , l’inégalité est valable.
2. Si f : I → F de classe C 1 et f ′ est bornée sur I alors on a :
∀(x, y) ∈ I 2 , ∥f (y) − f (x)∥ ≤ M |y − x|
pour tout majorant M de ∥f ′ ∥ sur I.
3. Il est possible de ne jamais avoir l’égalité : exemple f (t) = eit de [0, 2π] vers C.
Si on a une égalité il vient : ∥f (2π) − f (0)∥ = M.2π par suite M = 0 , chose
fausse car ∥f ′ (t)∥ = 1, montre que M ≥ 1.

6.2.8 Formules de Taylor


6.2.8.1 Taylor avec reste intégrale

Théorème 35

Soit f : [a, b] → F de classe C n+1 alors :


n b
(b − a)k (b − t)n (n+t)
X Z
(k)
f (b) = f (a) + f (t)dt
k=0
k! a n!
208 CHAPITRE 6. FONCTION VECTORIELLES À VARIABLE RÉELLE

6.2.8.2 Taylor avec reste Lagrange

Théorème 36

Soit f : I → F de classe C n+1 . Si f (n+1) est bornée sur I alors alors :


n
2
X (b − a)k |b − a|n+1
∀(a, b) ∈ I f (b) − f (k) (a) ≤ sup ∥f (n+t) (t)∥
k=0
k! (n + 1)! t∈I

Remarque : C’est une généralisation de l’inégalité des accroissements finis.

6.2.8.3 Taylor-Young

Théorème 37

Soit f : I → F de classe C n et a ∈ I, alors :


n
X (x − a)k
f (x) = f (k) (a) + (x − a)n ε(x), avec lim ε(x) = 0
k=0
k! x→a

ε étant définie sur I∩]a − α, a + α[, avec α > 0

Remarque : On écrit :
n
X (x − a)k
f (x) = f (k) (a) + o((x − a)n )
k=0
k!

et on l’appelle un développement limité de f au voisinage de a d’ordre n.

6.2.8.4 Comparaison des trois formules


La formule de Taylor-Young est locale : comportement asymptotique de f au voi-
sinage de a. Les deux autres formules sont globales : comportement de f sur tout
l’intervalle, elles nécessitant plus d’hypothèses.

6.3 Arcs paramètrés


Un arc paramètré est un couple γ = (I, f ) où I est un intervalle et f une application
de I vers F . Si f est de classe C k , on dit que γ est un arc de classe C k .
Le sous ensemble f (I) de F s’appelle support de l’arc paramètré γ
Si x ∈ f (I) et f −1 ({x}) est fini, son cardinal s’appelle la multiplicité du point x.
Si γ est de classe C 1 , un point de paramètre est dit régulier si f ′ (t) ̸= 0. Si c’est le
cas alors f ′ (t) est un vecteur tangent au support.
Chapitre 7

Séries dans
un espace vectoriel normé,
familles sommables
de nombres complexes.

7.1 Ensembles dénombrables


Définition 102

Soit E un ensemble.
On dit que E est dénombrable s’il existe une bijection f : N → E.
On dit que E est au plus dénombrable si E est fini ou dénombrable.

Remarques 1. E est dénombrable s’il existe une bijection g de E vers N.


2. Si E est dénombrable alors si f : N → E est une bijection, on a :

E = {f (n)/n ∈ N}.

3. si A et B sont équipotentes alors A est dénombrable si et seulement si B est


dénombrable.

Proposition 223

Les ensembles N et Z sont dénombrables.


Toute partie infinie de N est dénombrable.

209
210CHAPITRE 7. SÉRIES DANSUN espace vectoriel normé,FAMILLES SOMMABLESDE

Preuve:
• N et dénombrable puisque l’application identique de N est une bijection de
N vers N.
 n
 + 1 si n ∈ 2N
• Z est dénombrable, en effet, soit f : N → Z; n 7→ 2 .
n−1
 − si n ∈ 2N + 1
2
C’est bien une application. Elle est injective car si n, m ∈ N tel que f (n) =
n m
f (m) alors si f (n) ∈ N∗ forcément n et m sont pairs et alors + 1 = + 1 et
2 2
n−1 m−1
n = m. Si, par ailleurs, f (n) ∈ Z) alors n et m sont impairs et = ,
2 2
donc m = n.
f est surjective car si k ∈ Z, deux cas sont possibles :
- Si k > 0 alors 2(k − 1) ∈ N et f (2(k − 1)) = k.
- Si k ≤ 0 alors −2k + 1 ∈ N et f (−2k + 1) = k
• Soit A une partie infinie de N. Posons

f (0) = min(A)
.
∀n ∈ N , f (n + 1) = min(A\{f (0), · · · , f (n)})

f est bien définie puisque toute partie non vide de N admet un plus petit élé-
ment.
- L’application f est injective car , par construction, elle est strictement crois-
sante.
- L’application f est surjective car si a ∈ A, deux cas sont possibles :
• Si a = f (0) terminé.
• Si a ̸= f (0) alors a > f (0). Soit

Ia = {k ∈ N/a > f (k)}.

Ia est une partie de N, non vide car 0 ∈ Ia et majorée car si k ∈ Ia on a k ≤ f (k)


car f application strictement croissante de N vers N et comme f (k) < a, on
a k < a donc a est un majorant de Ia . Il en découle que Ia admet un plus
grand élément p et on a alors f (p) < a ≤ f (p + 1) donc a ∈ A\{f (0), . . . , f (p)}
et comme f (p + 1) = min(A\{f (k)/0 ≤ k ≤ p}, on a f (p + 1) ≤ a donc
a = f (p + 1) et f est surjective, donc bijective.

Proposition 224

N2 est dénombrable
7.1. ENSEMBLES DÉNOMBRABLES 211

Preuve:
Soit f : N2 → N; (m, n) 7→ f (m, n) = 2m (2n + 1) − 1 ; Alors f est une bijection.
En effet f est injective car si m, n, p, q ∈ N tel que f (m, n) = f (p, q) alors
2m (2n + 1) = 2p (2q + 1) ; si m = 0 alors forcément p = 0 car sinon on aurait
l’égalité d’un entier pair et un autre impair. Donc m = p = 0, par suite n = q.
Si m ̸= 0 alors 2m |2p (2q + 1) et 2m ∧ (2q + 1) = 1 ; par le lemme de Gauss, il
en découle que 2m |2p donc m ≤ p ; de manière similaire on a aussi p ≤ m donc
p = m et par suite n = q.
f est surjective car : Soit x ∈ N alors :
- Si x = 0, on a f (0, 0) = 0.
- Si x ≥ 1 alors x + 1 ≥ 1 et x s’écrit de façon unique
+∞
Y
x+1= pαk k
k=1

qui est la décomposition en produit de nombre premiers de x + 1 avec αk = 0


si pk ne divise pas x + 1. On a p1 = 2 et pk impair pour tout k > 1 de sorte que
+∞
Y
m
x + 1 = 2 u avec m = λ1 et m = pαk k est impair donc de la forme 2n + 1 ,
k=2
de cette façon on a :

x = 2n (2m + 1) − 1 = f (n, m)

Proposition 225

Si A et B sont deux ensembles dénombrables alors A × B est dénombrable

Preuve:
Si A et B sont dénombrables il existe f : N → A et g : N → B applications
bijectives ; soit

h : N2 → A × B; (m, n) 7→ h(m, n) = (f (m), g(n))

alors h est une bijection de N2 vers A × B ; et comme par la proposition 224


l’ensemble N2 est dénombrable alors A × B est dénombrable.

Proposition 226

Toute union au plus dénombrable d’ensembles au plus dénombrables est un


ensemble au plus dénombrable. Si au moins un des ensembles est dénombrable
leur union est dénombrable.
212CHAPITRE 7. SÉRIES DANSUN espace vectoriel normé,FAMILLES SOMMABLESDE

Notons les précisions suivantes :


1. Toute union finie d’ensembles finies est finie.
2. Toute union finie ou dénombrable d’ensembles dénombrables est dénombrable
3. Une union dénombrable d’ensembles finis est finie ou dénombrable.

7.2 Familles sommables de nombres complexes


Toutes le familles considérées dans ce paragraphe sont indexées par des ensembles
non vides au plus dénombrables.
Si I est un ensemble on note P(I) l’ensemble des parties de I, Pf (I) l’ensemble des
parties finies de I et Pf⋆ (I) l’ensemble des parties non vides finies de I.

7.2.1 Familles sommables de nombres réels positifs


Définition 103

Soit a = (ai )i∈I une famille de nombres réels positifs , I étant non vide au plus
dénombrable. On dit que la famille a est sommable si l’ensemble
( )
X
Xa = ai /J ∈ Pf⋆ (I)
i∈J

est une partie majorée de R, auquel cas on note :


X
ai = sup Xa .
i∈I

Remarque :

i la famille de nombres réels positifs (ai )i∈I n’est pas sommable, on convient de
poser : X
ai = +∞
i∈I

Proposition 227

Si a = (ai )∈I et b = (bi )i∈I sont deux familles de nombres réels positifs tel que :

∀i ∈ I, a i ≤ bi

alors :
X X
1. b sommable ⇒ a sommable et ai ≤ bi
i∈I i∈I
2. a non sommable ⇒ b non sommable.
7.2. FAMILLES SOMMABLES DE NOMBRES COMPLEXES 213

Preuve:
X X
1. Si b est sommable de somme B, soit J ∈ Pf⋆ (I),on a : ai ≤ bi ≤ B,
i∈J i∈J
donc l’ensemble Xa est majoré et sup(Xa ) ≤ B, donc la famille a est
sommable et si A est sa somme on a A ≤ B
2. Si a n’est pas sommable alors a n’est pas sommable (contraposée).

Théorème 38

Soit σ : I → I une bijection et a = (ai )i∈I une famille de nombres réels positifs
et aσ = (aσ(i) )i∈I . Alors a est sommable si et seulement si aσ est sommable,
auquel cas, on a : X X
ai = aσ(i)
i∈I i∈I

Preuve:
Supposons que a = (ai )i∈I est une famille sommable de somme S et soit σ une
permutation de I,et notons aσ = (aσ(i) )i∈I . Si J est une partie finie de I, alors
J ′ = σ(J) est une partie finie de I de même cardinal que J, de plus on a :
X X
(⋆) ak = aσ(j)
k∈J ′ j∈J

Il en découle qu’avec les notations adoptées ci-dessus, on a Xa est majoré si


et seulement si Xaσ est majoré ; donc a est sommable si et seulement si aσ est
sommable et si on note S et Sσ leur sommes respectives , on a en vertu de (⋆)
ci-dessus, en cas de sommabilité, S ≤ Sσ et Sσ ≤ S donc S = Sσ .

Théorème 39

Soit (ai )i∈I une famille de nombres réels positifs.


1. Si la famille (ai )i∈I est sommable alors, pour tout (Ij )j∈J , partition au
plus dénombrable de I (c’est-à-dire J ensemble au plus dénombrable) on
a:
(a) Pour tout j ∈ J, la famille (ai )i∈Ij est sommable.
X
(b) Si, pour tout j ∈ J, on note : Sj = ai , alors la famille (Sj )j∈J est
i∈Ij
X X
sommable et on a : ai = Sj
i∈I j∈J

2. S’il existe une partition au plus dénombrable (Ij )j∈J de I tel que :
(a) Pour tout j ∈ J, la famille (ai )i∈Ij est sommable.
214CHAPITRE 7. SÉRIES DANSUN espace vectoriel normé,FAMILLES SOMMABLESDE
X
(b) Si, pour tout j ∈ J, on note : Sj = ai , la famille (Sj )j∈J est
i∈Ij
sommable
X X
alors la famille (ai )i∈I est sommable et on a : ai = Sj
i∈I j∈J

Remarque Soit X a = (ai )i∈I une famille de nombres réels positifs. En tenant compte
de la convention ai = +∞ si la famille a n’est pas sommable on peut énoncer
i∈I
que :
pour tout (Ij )j∈J , partition au plus
X X Xde I , si pour tout j ∈ J, la famille
dénombrable
(xi )i∈J est sommable alors on a : ai = ai
i∈I j∈J i∈Ij

7.2.2 Familles sommables de nombres complexes


7.2.2.1 Définitions

Définition 104

Soit u = (ui ) ∈ CI une famille de nombres complexes indexée par I au plus


dénombrable. On dit que u est sommable si la famille des modules |u| = (|ui |)i∈I
est sommable.

Proposition 228

Pour tout nombre réel x, on pose x+ = sup(x, 0) et x− = sup(−x, 0).


1. Soit a = (an ) une famille de nombres réels alors la famille a est sommable
si et seulement si les familles a+ = ((ai )+ )i∈I et a− = ((ai )− )i∈I sont
sommables.
2. Soit z = (zj )j∈I une famille de nombres complexes, alors la famille z est
sommables si et seulement si les familles Re(z) = (Re(z
X j ))j∈IXet I m(z) =
(I m(zj ))j∈I sont sommables, auquel cas, on a : zj = Re(zj ) +
j∈I j∈I
X
i I m(zj )
j∈I

Définition 105

Si x = (xi )i∈I est une famille sommable de nombre réels, on définit la somme
de x comme suit : S = S+ − S− où S+ et S− sont les sommes respectives de x+
et x− .
Autrement dit : X X X
xi = (xi )+ − (xi )−
i∈I i∈I i∈I
7.2. FAMILLES SOMMABLES DE NOMBRES COMPLEXES 215

Si (zi )i∈I est une familleX


sommable de X nombres complexes , on définit la somme
de z comme suit : Σ = Re(zk ) + i I m(zi )
k∈I k∈I

7.2.3 Propriétés de la somme


Proposition 229

Si (ui ) et (vi ) sont deux familles sommables


Xde nombres complexes
X et λ ∈ C
X
alors la famille (ui + λvi ) est sommable et (ui + λvi ) = ui + λ vi .

Proposition 230

la famille (zk ) est sommable si et seulement si la famille (|zk |) est sommable,


X X
auquel cas on a : zk ≤ |zk |

Proposition 231
X
La famille (zn ) est sommable si et seulement si la série zn est absolument
X X+∞
convergente auquel cas, elle est convergente et on a zn = zn
n∈N n=0

Proposition 232

σ : NX → I une bijection. La famille (zi )i∈I est sommable si et seulement si la


série zσ(n) est absolument convergente auquel cas, elle est convergente et on
X X+∞
a zi = zσ(n)
i∈I n=0

Théorème 40

Sommation par paquets : Si I est un ensemble dénombrable et (In ) une partition


de I soit (zi )i∈I une famille sommable ; alors, pour tout n la famille (zi )i∈In est
sommable, et si on note sn sa somme, alors la famille (sn )n∈N est sommable et
on a :
X +∞
X
zi = sn .
i∈I n=0

Remarques On fait les remarques importantes suivantes :


216CHAPITRE 7. SÉRIES DANSUN espace vectoriel normé,FAMILLES SOMMABLESDE

1. Si on remplace N par un ensemble dénombrable J, le théorème reste valable.


2. On a une réciproque en appliquant la réciproque à la famille des modules :
Si (Ij )j∈J est une partition dénombrable de I et si pour tout j ∈ J la famille
(zi )i∈Ij est sommable et, pour tout j ∈ J, on note :
 X

 s j = zi

i∈Ij
X ,


 s
e j = |z i |
i∈Ij

et si la famille (sej )j∈J est sommable alors :


— la famille (zi )i∈I est sommable.
— La famille (sj )j∈J est sommable.
— On a : X XX
zi = zi
i∈I j∈J i∈Ij

7.2.4 Suites doubles


Une suite double est une application u : I → C où I est une partie non vide de
N2 , notée (upq )(p,q)∈I où upq = u(p, q) pour tout (p, q) ∈ I. Les cas usuels sont
N2 , N × N∗ , N∗ × N, (N∗ )2 .

Théorème 41

Soit a = (aij )(i,j)∈N2 une suite double sommable de nombres réels positifs. Alors :
Pour tout i ∈ N, la famille (aij )j∈N est sommable. Si, pour tout j ∈ N, Sj =
+∞
X X +∞
X
aij , la famille (Sj )j∈N est sommable et aij = Sj
i=0 (i,j)∈N2 j=0

Théorème 42

Soit (aij une suite double de réels positifs. Si pour tout i ∈ N, la famille (aij )j∈N
+∞
X
est sommable et si, pour tout i ∈ N, Si = aij , la famille (Si )i∈N est sommable,
j=0
X +∞
X
alors la famille (aij ) (i,j)∈N2 est sommable et aij = Si
(i,j)∈N2 i=0

Remarque Les théorèmes ci-dessus restent valables si on interverti les rôles des
indices i et j.
Si (aij )(i,j)∈N2 est une famille de nombres complexes , en appliquant le théorème
40 et ses remarques à la famille des modules (aij )(i,j)∈N2 on obtient les résultats
suivants :
7.2. FAMILLES SOMMABLES DE NOMBRES COMPLEXES 217

Proposition 233

Soit (aij )(i,j)∈N2 une suite double sommable, alors :


— Pour tout i ∈ N, la famille (aij )j∈N est sommable.
— Pour tout j ∈ N, la famille (aij )i∈N est sommable.
— Si on pose X
Si = aij ,
j∈N

pour tout i ∈ N et X
Tj = aij ,
i∈N

pour tout j ∈ N alors les familles (Si )i∈N et (Tj )j∈N sont sommables et :

X +∞
X +∞
X
aij = Si = Tj .
(i,j)∈N2 i=0 j=0

Proposition 234

Soit (aij )j∈N une suite double tel que :


— Pour tout i ∈ N, la famille (aij )j∈N est sommable.
— En notant, pour tout i ∈ N,
+∞
X
Sei = |aij |,
j=0

la famille (Sei )i∈N est sommable.


alors :
— En notant, pour tout i, j ∈ N :
 X
 i

 S = aik
k∈N
X ,


 Tj = a kj
k∈N

les famille (Si )i∈N et (Tj )j∈N sont sommables.


— La famille (aij )(i,j)∈N2 est sommable .
— On a :
X +∞
X +∞
X
aij = Si = Tj .
(i,j)∈N2 i=0 j=0
218CHAPITRE 7. SÉRIES DANSUN espace vectoriel normé,FAMILLES SOMMABLESDE

7.2.5 Série produit de Cauchy


X X
Si a = an et b = bn sont deux séries de nombres complexes. On associe aux
séries a et b :
X n
X
1. La série c = cn , avec cn = ak bn−k , pour tout n ∈ N.
k=0

2. La famille u = (ak bℓ )(k,ℓ)∈N2 .

On cherche à étudier la série et c et la famille u, et dans le cas de sommabilité des


deux comparer leur sommes.

Théorème 43
X X
Si les série a = an et b = bn sont absolument convergentes alors :
1. La série c est absolument convergente.
2. La famille u est sommable.
+∞
X +∞
X +∞
X X
3. Si on note A = an ; B = bn ; C = cn et S = ak bℓ . alors
n=0 n=0 n=0 (k,ℓ)∈N2
AB = C = S.

Preuve:
n
X
- La série c est absolument convergente car si Cn′ = |ck | alors Cn′ ≤ A′ B ′ où
k=0
+∞
X +∞
X
A′ = |an | ; B ′ = |bn |, en effet :
n=0 n=0

n
X k
X
Cn′ = aj bk−j
k=0 j=0
n X
X k
≤ |aj ||bk−j |
k=0 j=0
n X
n n
! n
!
X X X
≤ |aj ||bk | = |aj | |bk |
k=0 j=0 j=0 k=0
+∞
! +∞
!
X X
≤ |aj | |bk | = A′ B ′
j=0 k=0
7.3. SÉRIES DANS UN espace vectoriel normé DE DIMENSION FINIE 219

7.3 Séries dans un espace vectoriel normé de dimen-


sion finie
Dans tout ce paragraphe, E est un espace vectoriel normé de dimension finie non
nulle.

7.3.1 Généralités
7.3.1.1 Définition, exemples

Définition 106
n
X
Soit (un ) une suite à valeurs dans E. La suite (Sn ) où Sn = uk pour tout
X k=0
n ∈ N s’appelle la série de terme général un , notée : un .

Sn s’appelle la somme partielle d’ordre n.

Remarques On fait les remarques suivantes :


Pour une suite (un )n≥p avec p un entier naturel, la série associée peut se noter :
1. X
un .
n≥p

2. Si (an )n∈N ∈ E N est une suite, il existe une et une


Xseule suite (un )n∈N tel que
an est la somme partielle d’ordre n de la série un . C’est la suite définie
par : 
u0 = a0
∀n ∈ N∗ , un = an − an−1

Exemples : Dans Mn (K) , si A est une matrice fixée, on dispose des séries :
X An
1. La série , appelée série exponentielle.
n!
X
2. La série An appelée série de Neuman.

7.3.1.2Structure d’espace vectoriel


X X
Si S = un et T = vn sont deux séries et si λ ∈ K, on définit la série
X X
S+T = (un + vn ) et la série λ.S = (λun )

Proposition 235

L’ensemble des séries à valeurs dans E muni des lois + et . ci-dessus est un
K − espace vectoriel.
220CHAPITRE 7. SÉRIES DANSUN espace vectoriel normé,FAMILLES SOMMABLESDE

7.3.2 Convergence
Définition 107
X
La série un est convergente si la suite (Sn ) des sommes partielles est conver-
gente. Si c’est le cas S = lim(Sn ) s’appelle la somme de la série et on note :
X+∞
S= un .
n=0

Proposition 236

Soit E un espace vectoriel normé de dimension finie. L’ensemble Sc des séries


convergentes à valeurs dans E est un sous-espace vectoriel de l’espace vectoriel
des séries à valeurs dans E. L’application qui associée à chaque série convergente
X
sa somme est une application linéaire de Sc vers E. En particulier si un et
X X
vn sont deus séries convergentes et λ ∈ K alors la série (λun + vn ) est
convergente et :
+∞
X X+∞ +∞
X
(λun + vn ) = λ un + vn
n=0 n=0 n=0

Proposition 237
X
Si la série un est convergente alors son terme général converge vers 0. C’est-
à-dire lim(un ) = 0.
X
Si un est une série tel que la suite (un ) est divergente ou tends vers une limite
X
non nulle on dit que la série un est grossièrement divergente.

Définition 108
X
Si un est une série convergente de somme S ; pour tout n ∈ N, on pose
X
Rn = S − Sn . Rn s’appelle le reste d’ordre n de la série convergente un .

Proposition 238

X +∞
X
Si la série un est convergente alors Rn = uk et Rn tends vers 0 quand
k=n+1
n tends vers +∞.
7.4. SÉRIES DANS UNE ALGÈBRE NORMÉE DE DIMENSION FINIE 221

Preuve:
Fixons n ∈ N et considérons la série de terme général up avec p ≥ n + 1 ;
Si on note Σp sa somme partielle, on a pour tout p ≥ n + 1, on a : Σp =
p
X X
uk = Sp − Sn où (Sp ) est la suite des sommes partielles de la série uk ,
k=n+1
+∞
X
donc lim(Σp ) = S − Sn = Rn , ce qui donne Rn = uk .
k=n+1

7.3.3 Série absolument convergente


Définition 109
X
On dit qu’une série un est absolument convergente si la série numérique
X
∥un ∥ est convergente.

 
1 1 1
Exemple : Dans M2 (R), muni de la norme euclidienne, soit A = − ;
3 1 1
X 1
alors la série An est absolument convergente. En effet on a A = − J où J =
  3
1 1 n 1 n n n
, donc A = (−2/3) J de sorte que ∥A ∥ = (2/3) ∥1/2J∥ et comme la
1 1
X 2
série géométrique (2/3)n est convergente, on a l’absolue convergence recherchée.

Théorème 44
X
Si un est absolument convergente elle est convergente et

+∞
X +∞
X
un ≤ ∥un ∥
n=0 n=0

Attention : On rappelle que E est de dimension finie. Ce résultat n’est pas toujours
vrai en dimension infinie.

7.4 Séries dans une algèbre normée de dimension


finie
7.4.1 algèbre normée de dimension finie
222CHAPITRE 7. SÉRIES DANSUN espace vectoriel normé,FAMILLES SOMMABLESDE

Définition 110

On appelle K−algèbre normée de dimension finie une K−algèbre A de di-


mension finie tel que l’espace vectoriel sous-jacent est muni d’une norme ∥.∥
sous-multiplicative, c’est-à-dire :

∀a, b ∈ A , ∥a × b∥ ≤ ∥a∥ ∥b∥

p sur Mn (K) qui font de Mn (K) une algèbre normée.


Exemple : Il existe des normes
Exemple la norme ∥M ∥ = tr(tAA).

Remarque Soit A est une algèbre normée alors :


1. ∀p ∈ N∗ , ∀a ∈ A , ∥ap ∥ ≤ ∥a∥p
2. Si 1A est l’unité de A alors ∥1A ∥ ≥ 1

7.4.1.1 Série de Neumann


Soit A X une algèbre normée de dimension finie dont l’unité est notée 1A . Si a ∈ A ,
la série an est appelée série de Neumann.

Théorème 45

Soit a ∈ A tel que ∥a∥ < 1, alors :


X
1. La série de Neumann an est absolument convergente.
+∞
X
2. 1A − a est inversible dans l’algèbre A et on a : (1A − a) −1
= an
n=0

Preuve:
Soit a ∈ A tel que ∥a∥ < 1.
1. On a :
∀n ∈ N∗ , ∥an ∥ ≤ ∥1A ∥ ∥an ∥ ≤ ∥1A ∥ ∥a∥n
donc :
∀n ∈ N, ∥an ∥ ≤ ∥1A ∥ ∥a∥n
X
La série géométrique ∥a∥n est convergente puisque ∥a∥ < 1 ; donc la
X
série de Neumann an est absolument convergente.(En particulier, elle
est convergente).
7.4. SÉRIES DANS UNE ALGÈBRE NORMÉE DE DIMENSION FINIE 223

n
X +∞
X
k
2. Pour tout n ∈ N, posons Sn = a et S = ak , alors :
k=0 k=0

(1A − a)Sn = Sn − Sn a
Xn Xn
k
= a − ak+1
k=0 k=0
Xn n+1
X
= ak − ak
k=0 k=1
= a0 − an+1
= 1A − an+1

Par continuité de l’application : A → A ; x 7→ (1A − a)x (car linéaire en


dimension finie), on a par passage à la limite (1A −a)×S = 1A . La même
méthode donne S × (1A − a) = 1A . Il découle de tout ça que 1A − a est
+∞
X
−1
inversible et que : (1A − a) = S = an .
n=0

Remarque La condition ∥a∥ < 1 n’est qu’une condition suffisante pour la conver-
gence de la série de Neumann ; en effet, si par exemple A = Mm (K); m ∈ N; m ≥ 2
et on considère la matrice E12 dont tous les coefficients sont nuls sauf celui de la ligne
1 et la colonne 2, lequel valant 1 et soit p ∈ N et XAp = pE12 ; alors ∥Ap ∥ = p ∥E12 ∥
n’est pas bornée, cependant la série de Neumann Anp est convergente puisque la
matrice Ap est nilpotente.

7.4.1.2 Série exponentielle


X an
Soit A une algèbre normée de dimension finie et a ∈ A . La série s’appelle
n!
série exponentielle de a.

Théorème 46
X an
Pour tout a ∈ A , la série exponentielle est absolument convergente. Sa
n!
somme est notée ea ou exp(a).

Preuve:
En effet puisque A est une algèbre normée, alors pour tout n ∈ N∗ , on a :
224CHAPITRE 7. SÉRIES DANSUN espace vectoriel normé,FAMILLES SOMMABLESDE

n
an ∥a∥n X ak
≤ ∥1A ∥ . Donc si Sn = , alors :
n! n! k=0
k!

n n
X ak X ak
Sn ≤ ∥1A ∥ + ≤ ∥1A ∥ + ∥1A ∥ ≤ ∥1A ∥ Tn
k=1
k! k=1
k!

où n
X ∥a∥k
Tn = .
k=0
k!
X an
Or lim Tn = e∥a∥ , donc la série exponentielle est absolument conver-
n→+∞ n!
gente

Proposition 239

Pour tout a ∈ A on a : ∥ea ∥ ≤ ∥1A ∥e∥a∥

Preuve:
n
X ak
Soit n ∈ N et Sn = la somme partielle de la série exponentielle. Par
k=0
k!
l’inégalité triangulaire et la sous-multiplicativité de la norme, on a :

∥Sn ∥ ≤ ∥1A ∥ Tn

où : n
X ∥a∥k
Tn =
k=0
k!
X ∥a∥k
est la n ème somme partielle de la série . Par passage à la limite, on
k!
a l’inégalité désirée.

Remarque Si la norme d’algèbre ∥.∥ vérifie la condition :

∥1A ∥ = 1

alors on a :
∀a ∈ A , ∥ea ∥ ≤ e∥a∥
7.4. SÉRIES DANS UNE ALGÈBRE NORMÉE DE DIMENSION FINIE 225

Proposition 240

Si (a, b) ∈ A 2 tel que a × b = b × a alors ea+b = ea × eb

Preuve:
+∞ n
X a
On sait que exp(a) = . Notons Sn (a) la somme partielle d’ordre n de
n=0
n!
cette série. Alors :
X ai b j
Sn (a)Sn (b) =
i!j!
(i,j)∈[[0,n]]2

et
n n X i
(a + b)i X ak b j
 
X X 1 i i−j j
Sn (a + b) = = a b =
i=0
i! i=0 j=0
i! j k!j!
(k,j)∈V


V = {(k, j) ∈ [[1, n]]2 /k + j ≤ n}
Soit
U = [[1, n]]2 \V
Alors :

X aj b k
∥Sn (a)Sn (b) − Sn (a + b)∥ =
j!k!
(j,k)∈U
X ∥a∥j ∥b∥k
≤ ∥1A ∥
j!k!
(j,k)∈U

= ∥1A ∥ (Sn (∥a∥)Sn (∥b∥) − Sn (∥a∥ + ∥b∥))

On conclut en remarquant que le dernier membre de cette inégalité tends vers


o quand n tends vers +∞ puisque on a dans R la relation

exp(∥a∥ + ∥b∥) = exp(∥a∥) exp(∥b∥).

Proposition 241

Soit a ∈ A , alors :
1. e0 = e
2. ea est inversible et (ea )−1 = e−a
−1
3. Si u est un inversible de A alors euau = uea u−1 .

7.4.1.3 Cas particulier des matrices carrées


Soit m ∈ N∗ et l’algèbre Mm (K) des matrices carrées de taille m.
226CHAPITRE 7. SÉRIES DANSUN espace vectoriel normé,FAMILLES SOMMABLESDE

Proposition 242

On a :
1. Si D = diag(λ1 , · · · , λm ) est une matrice diagonale alors eD = diag(eλ1 , · · · , eλm )
2. Si T est une matrice triangulaire supérieure de termes diagonaux λ1 , · · · , λm
alors eT est une matrice triangulaire supérieure de termes diagonaux eλ1 , · · · , eλm
3. Si A est une matrice diagonalisable alors eA est diagonalisable ; si A =
P DP −1 avec D matrice diagonale et P matrice inversible alors eA =
P eD P −1 .
4. Si A est une matrice trigonalisable alors eA est trigonalisable ; si A =
P T P −1 avec T matrice triangulaire supérieure et P matrice inversible
alors eA = P eT P −1 .
Chapitre 8

Suites et séries de fonctions (I) :


Modes de convergences.

8.1 Modes de convergence


Dans tout ce qui suit E est un espace vectoriel normé de dimension finie et X est
un ensemble non vide.

8.1.1 Suite de fonctions


Définition 111

Soit (fn : X → E) une suite de fonctions de X vers E, A une partie non vide
de X et f : A → E une application de A vers E.
1. On dit que la suite de fonctions (fn ) converge simplement vers f sur A si
pour tout x ∈ A la suite (fn (x)) converge vers f (x).
2. On dit que (fn ) converge uniformément vers f sur A s’il existe N ∈ N tel
que l’application fn − f est bornée sur A, pour tout n ∈ N tel que n ≥ N
et la suite numérique

(sup ∥fn (x) − f (x)∥)n≥N


x∈A

converge vers 0.

Remarques Nous faisons les remarques suivantes sur cette définition :


1. Si (fn ) converge simplement vers f sur A alors pour tout n ∈ N, la fonction
fn est bien définie sur A. En particulier il est possible d’avoir A = X.
2. Dans la pratique on cherche la partie maximale A de X sur laquelle il y’ a
convergence simple.
3. Si (fn ) converge uniformément vers f sur A elle converge simplement vers f
sur A.

227
228CHAPITRE 8. SUITES ET SÉRIES DE FONCTIONS (I) :MODES DE CONVERGENCES.

4. Soit B une partie non vide de A. Si (fn ) converge simplement (resp. unifor-
mément) vers f sur A alors (fn ) converge simplement(resp.uniformément) sur
B vers f restreinte à B.

Exemples Dans chaque exemple, on donne E, X, la suite de fonctions (fn ). On


donnera des exemples de parties de X sur lesquelles il y’a convergence simple et des
exemples de telles parties sur lesquelles il y’a convergence uniforme.

nx2 + n
1. X = R, E = R et pour tout n ∈ N ,fn (x) = . On voit tout de
n+x+1
suite que pour tout n ∈ N, l’ensemble de définition de la fonction fn est
Dn = R\{−n − 1} de sorte que pour que fn (x) existe pour tout n ∈ N, il faut
et suffit que
\
x∈D= Dn = R\Z∗− .
n∈N

• Convergence simple :
Soit donc x ∈ D.
n
- Si x = 0, on a fn (0) = donc lim fn (0) = 1.
n+1 n→+∞
- Si x ̸= 0 alors lim fn (x) = x2 + 1
n→+∞
Il en découle que fn converge simplement sur D vers f définie par f (x) = x2 +1.

• Convergence uniforme : Soit A = [0, 1/2].


(x2 + 1)(x + 1)
Pour tout x ∈ A, on a : |fn (x) − f (x)| = donc sup |fn (x) −
x+n+1 x∈A
4
f (x)| ≤ et par suite (fn ) converge uniformément vers f sur A.
n+1
• On peut démontrer qu’il y’ a convergence uniforme sur tout compact K de
R tel que K ⊂ D.
• Il n’y a pas convergence uniforme sur D car par exemple pour tout n ∈ N,
(n2 + 1)(n + 1) n2
on a |fn (n) − f (n)| = ∼ donc fn − f n’est pas bornée sur
2n + 1 2
D.

2. X = [0, 1] , E = R et pour tout n ∈ N et t ∈ [0, 1], fn (t) = tn . La suite


 fonctions (fn ) converge simplement sur [0, 1] vers f définie par f (x) =
de
0 si 0 ≤ x < 1
. Il n’y a pas convergence uniforme sur [0, 1] car sup |fn (t)−
1 si x = 1 t∈[0,1]
f (t)| = sup tn = 1 ne tends pas vers 0.
t∈[0,1[
Il y’a convergence sur A = [0, a] pour tout a ∈ [0, 1[ car sup tn = an et
t∈[0,a]
lim an = 0.
n→+∞
8.1. MODES DE CONVERGENCE 229

8.1.2 Série de fonctions


8.1.2.1 Convergence simple, convergence uniforme
Si (fn ) est une suite de fonctions de X vers E, on dispose de la suite (Sn ) définie par
X n
Sn = fk . On définit la convergence simple et uniforme de la série de fonctions
X k=0
fn comme suit :

Définition 112
X
On dit que la série de fonctions fn converge simplement vers f sur une partie
A de X si la suite de fonctions (SX
n ) converge simplement vers f sur A.
On dit que la série de fonctions fn converge uniformément vers f sur A si
la suite (Sn ) converge uniformément vers f sur A.

Proposition 243
X
Si fn converge simplement vers f alors la suite de fonctions (fn ) converge
simplement vers θ la fonction nulle.

Proposition 244
X
Si la série fn converge simplement sur A vers f alors en posant pour tout
+∞
X
n ∈ N : Rn (x) = fk (x), Rn est bien définie et la suite de fonctions (Rn )
k=n+1
converge simplement sur A vers la fonction nulle θ.

Proposition 245
X
Si fn converge uniformément sur A vers f alors la suite de fonctions (fn )
converge uniformément sur A vers θ la fonction nulle.

Preuve:
Pour tout n ∈ N, on a : fn = (Sn − f ) + (f − Sn−1 ) donc pour tout x ∈ A, on a
∥fn (x)∥ ≤ ∥Sn (x) − f (x)∥ + ∥Sn−1 (x) − f (x)∥ donc ∥fn ∥∞,A ≤ ∥Sn − f ∥∞,A +
∥Sn − f ∥∞,A et ce dernier tends vers 0 quand n tends vers +∞ par convergence
uniforme.
230CHAPITRE 8. SUITES ET SÉRIES DE FONCTIONS (I) :MODES DE CONVERGENCES.

Proposition 246
X
Si la série fn converge simplement sur A vers f alors la convergence est uni-
forme sur A si et seulement si la suite de fonctions (Rn ) converge uniformément
sur A vers la fonction nulle θ.

Preuve:
C’est exactement la définition de la convergence uniforme.

8.1.2.2 Convergence absolue

Définition 113
X
On dit que la série de fonctions fn converge absolument sur A si pour tout
X
x ∈ A la série numérique ∥fn (x)∥ converge.

Exemples Voici quelques exemples :


(−1)n X
1. fn (x) = , pour tout x ∈ R. La série fn converge absolument sur
nx
1 X 1
]1, +∞[. En effet, |fn (x)| = x et la série est convergente si et seulement
n nx
si x > 1 ( série de Riemann).X
Remarquons que la série fn converge simplement sur ]0, +∞[. En effet il
s’agit d’une série alternée qui satisfait les hypothèses du CSSA sur ]0, +∞[.
(−1)n
2. Si on reprends l’exemple ci-dessus avec la variable complexe : gn (z) = ,
zn
on a convergence absolue sur D = {z ∈ C/ℜe(z) > 1}.

Proposition 247
X
Si la série de fonctions fn converge absolument sur A alors elle converge
simplement sur A vers une application f : A → E.

8.1.2.3 convergence normale

Définition 114
X
On dit que la série de fonctions fn converge normalement sur A si fn est
X
bornée sur A pour tout n ∈ N et si en plus la série numérique ∥fn ∥∞,A est
convergente.
8.2. CONVERGENCE UNIFORME ET CONTINUITÉ 231

Proposition 248
X
Si la série de fonctions fn est normalement convergente sur A alors elle est
simplement convergente sur A vers une application f : A → E et la convergence
est uniforme sur A. X
Si la série de fonctions fn est normalement convergente elle est absolument
convergente.

Remarque Dans la X pratique, on utilise la méthode suivante pour démontrer que


la série de fonctions fn converge normalement sur A : On essaye de faire une
majoration uniforme de la forme :

∀x ∈ A, ∥fn ∥ ≤ αn

où (αXn ) est une suite à termes positifs, indépendante des éléments x de A tel que la
série αn est convergente.

Exemples Voici des exemples où l’on utilise la remarque ci-dessus :


X xn
1. La série converge normalement sur tout compact non vide contenue
n!
dans R. En effet , soit K un tel compact, il existe M > 0 tel que ∀x ∈ K, |x| ≤
M , donc pour tout x ∈ K, on a :

xn Mn
≤ ,
n! n!
X Mn
et comme la série converge (de somme eM ), on a la convergence nor-
n!
X xn
male sur K de la série
n!
X
2. La série de fonctions xn cos(nx) converge normalement sur tout segment
[−r, r] pour tout r ∈]0, 1[, en effet si r ∈]0, 1[ alors
Xpour tout x ∈ [−r, r], on a
n n
|x cos(nx)| ≤ r et comme 0 < r < 1, la série rn est convergente, ce qui
prouve la convergence normale désirée.

8.2 Convergence uniforme et continuité


8.2.1 Interversion des limites
8.2.1.1 Le théorème d’interversion des limites pour les suites de fonc-
tions
232CHAPITRE 8. SUITES ET SÉRIES DE FONCTIONS (I) :MODES DE CONVERGENCES.

Théorème 47

E et F sont des espaces vectoriels normés des dimensions finies. Soit X une
partie non vide de E et a un point adhérent à X. On considère une suite
d’application (fn ) de X vers F tel que :
• La suite (fn ) converge uniformément vers une application f : X → E.
• pour tout n ∈ N, ℓn = lim fn existe dans F .
x→a
Alors la suite (ℓn ) est convergente et lim ℓn = lim f (x). Autrement dit :
n→+∞ x→a

lim lim fn (x) = lim lim fn (x)


x→a n→+∞ n→+∞ x→a

Ce théorème s’appelle le théorème d’interversion des limites car on peut écrire : On


souligne l’importance du fait F est de dimension finie et la convergence uniforme
sur X.

Preuve:
On va démontrer que la suite (ℓn ) est une suite de Cauchy, ce qui permettra de
conclure qu’elle converge car F est de dimension finie, donc complet. Puisque
(fn ) converge uniformément vers f , alors en posant αn = sup ∥fn (x) − f (x)∥,
x∈X
pour tout n ∈ N, la suite réelle (αn ) converge vers 0 donc c’est une suite de
Cauchy dans R, donc :

(∀ε > 0)(∃N ∈ N)(∀x ∈ X) ∥fp (x) − fq (x)∥ < ε/2

Par passage à al limite quand x → a il vient :

(∀ε > 0)(∃N ∈ N) ∥ℓp − ℓq ∥ ≤ ε/2 < ε

Donc la suite (ℓn ) est de Cauchy dans F , donc elle converge vers ℓ ∈ F .
CVU
Démontrons maintenant que lim f (x) = ℓ. Pour cela soit ε > 0. Comme fn −→
x→a
f sur X, on a :

(1) (∃N1 ∈ N)(∀n ≥ N1 )(∀x ∈ X) ∥fn (x) − f (x)∥ < ε/3

et comme lim ℓn = ℓ, on a :
n→+∞

(2) (∃N2 ∈ N)(∀n ≥ N2 ) ∥ℓn − ℓ∥ < ε/3

Soit N = max(N1 , N2 ), alors, compte tenu de (1) et (2) ci-dessus, on a pour


tout x ∈ X :

∥f (x) − ℓ∥ ≤ ∥f (x) − fN (x)∥ + ∥fN (x) − ℓN ∥ + ∥ℓN − ℓ∥ < + ∥fN (x) − ℓN ∥
3
8.2. CONVERGENCE UNIFORME ET CONTINUITÉ 233

Comme lim fN (x) = ℓN , on a :


x→a

(∃η > 0)(∀x ∈ X) ∥x − a∥ < η ⇒ ∥fN (x) − ℓN ∥ < ε/3

Par suite :
2ε ε
(∃η > 0)(∀x ∈ X) ∥x − a∥ < η ⇒ ∥f (x) − ℓ∥ < + =ε
3 3
ce qui prouve que : lim f (x) = ℓ.
x→a

8.2.1.2 Exemple
 x nx
Considérons pour tout n ∈ N∗ , l’application : fn : R∗+ → R tel que fn (x) =
n
CVS
alors on a fn −→ θ sur R∗+ où θ est la restriction àR∗+ de l’application nulle de R vers
R, mais la convergence n’est pas uniforme.
 Eneffet, pour la convergence simple il suf-
x ln x
fit de voir que ln(fn (x)) = n ln n − x −→ −∞, ce qui donne fn (x) −→
ln n n→+∞ n→+∞
0. La convergence n’est pas uniforme car pour tout n ∈ N∗ , on a lim+ fn (x) = 1
x→0
puisque ln fn (x) = n(x ln x) − (n ln n)x −→+ 0 puisque lim
+
x ln x = lim 0+ x = 0. Si la
x→0 0
convergence était uniforme on aurait d’après le théorème d’interversion des limites :
lim θ(x) = 1 , ce qui n’est pas le cas.

8.2.1.3 Une extension du théorème


Si E = R et X une partie contenant un intervalle de la forme [a, +∞[ on a le
théorème suivant en supposant comme ci-dessus que F est un espace vectoriel normé
complet.

Théorème 48

CVU
Si (fn ) −→ f sur X et lim fn (x) = ℓn ∈ F alors la suite (ℓn ) converge vers
x→+∞
ℓ ∈ F et lim f (x) = ℓ.
x→+∞

Preuve:
se fait comme celle du premier théorème.

Remarque Dans cet exemple on a la convergence uniforme sur tout segment [a, b] ⊂
R∗+ , pourtant cela ne suffit pas pour intervertir les limites. En effet si x ∈ [a, b] tel
que 0 < a < b < +∞ alors pour tout n ≥ N = [b] + 1, il est aisé de vérifier que :
 x    
 b
fn (x) = exp nx ln ≤ exp na ln −→ 0
n n n→+∞
234CHAPITRE 8. SUITES ET SÉRIES DE FONCTIONS (I) :MODES DE CONVERGENCES.

8.2.1.4 Le théorème d’interversion des limites pour les séries de fonc-


tions
En appliquant le théorème ci-dessus aux sommes partielles , on obtient :

Théorème 49

E et F sont des espaces vectoriels normés des dimensions finies. Soit X une
partie non vide de E et a un point adhérent à X. On considère une série d’ap-
plication (f
X n ) de X vers F tel que :
• La série fn converge uniformément sur X vers une application f : X → F .
X
• pour tout n ∈ N, ℓn = lim fn existe dans F . Alors la série ( ℓn ) est conver-
x→a
+∞
X
gente dans F et : ℓn = lim f (x). Autrement dit :
x→a
n=0

+∞  +∞
!
X  X
lim fn = lim fn .
x→a x→a
n=0 n=0

8.2.2 Continuité
Une conséquence immédiate de l’interversion des limites est le cas particulier où
a ∈ X et on a la continuité des fn

8.2.2.1 Cas des suites de fonctions

Théorème 50

E et F étant des espaces vectoriels normés de dimensions finies , X une partie


non vide de E, a est un élément de X et (fn ) est une suite d’applications de X
vers F qui converge uniformément vers f : X → F .
- Si les fn sont continues au point a alors f est continue au point a.
- Si les fn sont continues sur X, alors f est continue sur X.

8.2.2.2 Cas des séries de fonctions

Théorème 51

E et F étant des espaces vectoriels normésX de dimensions finies , X une partie


non vide de E, a est un élément de X et fn est une série d’applications de
X vers F qui converge uniformément vers f : X → F .
- Si les fn sont continues au point a alors f est continue au point a.
- Si les fn sont continues sur X, alors f est continue sur X.
8.3. L’ESPACE VECTORIEL NORMÉ B(X, F ) 235

8.2.2.3 Remarques sur ces théorèmes


Remarques Les théorèmes ci-dessus ont des applications pratiques dont :
1. Ils fournissent un critère de convergence uniforme : Si (fn ) converge simplement
vers f et il existe un point a de X tel que les fn sont continues au point a
et f est discontinue en a alors la convergence n’est pas uniforme sur X. Par
exemple , soit fn : [0, 1] → R; t 7→ tn alors (fn ) converge simplement sur [0, 1]
vers f définie par f (x) = 0 si 0 ≤ x < 1 et f (1) = 1. Comme f est discontinue
au point 1 et que les fn sont continues sur [0, 1], la convergence n’est pas
uniforme sur [0, 1].
2. Ils permettent de prouver qu’une application f est continue quand on sait déjà
que f est limite uniformeXd’une suite de fonctions (fn ) ou somme (uniforme)
d’une série de fonctions fn .

8.3 L’espace vectoriel normé B(X, F )


Dans ce paragraphe, nous allons étudier l’espace vectoriel B([a, b], K) des applica-
tions de [a, b] vers K, bornées sur [a, b] ainsi que certains de ses sou-espaces vectoriels,
à savoir C 0 ([a, b], K) des applications continues de [a, b] vers K, l’espace CM([a, b], K)
des applications continues par morceaux de [a, b] vers K et l’espace E([a, b], K) des
fonctions en escaliers de [a, b] vers K et nous allons examiner les diverses inclusions
entre ces sous-espaces et les questions de densité.

8.3.1 L’espace (B(X, F ), ∥.∥∞ )


Soit F un espace vectoriel normé et X un ensemble non vide. On note B(X, F )
l’ensemble des applications de X vers F , bornées sur X et pour tout f ∈ B(X, F ),
on pose :
∥f ∥∞,X = sup ∥f (x)∥
x∈X

Proposition 249

∥.∥∞,X ainsi définie est une norme sur B(X, F ). De plus pour toute suite (fn ) ∈
(B(X, F ))N , et tout f ∈ B(X, F ), on a : La suite (fn ) converge uniformément
vers f sur X si et seulement si la suite (fn ) converge vers f dans l’espace vectoriel
normé (B(X, F ), ∥.∥∞,X ).

Proposition 250

Si X est une partie non vide d’un espace vectoriel normé E, alors Cb (X, F )
l’ensemble des applications de X vers F continues et bornées sur X est un
sous-espace vectoriel fermé de B(X, F ).
236CHAPITRE 8. SUITES ET SÉRIES DE FONCTIONS (I) :MODES DE CONVERGENCES.

Remarques On fait des les remarques suivantes concernant un cas particulier pour
X :
1. Si X est une partie compacte non vide de E alors Cb (X, F ) = C(X, F ).
2. Nous allons donner ci-dessous la théorème d’approximation de Weierstrass
dans le cas où E = R,F = K et X = [a, b] est un segment de R.

8.3.2 L’espace normé C 0 ([a, b], K)


8.3.2.1 Les trois normes classique de C 0 ([a, b], K)
Soit (a, b) ∈ R2 tel que a < b. On rappelle que C 0 ([a, b], K) est l’espace vectoriel des
applications continues de [a, b] vers K. On le munit des trois normes classiques :
1. La norme de la convergence uniforme ∥.∥∞ définie par :

∀f ∈ C 0 ([a, b], K) , ∥f ∥∞ = sup |f (t)|


t∈[a,b]

2. La norme de la convergence en moyenne quadratique ∥.∥2 définie par :


sZ
b 
0
∀f ∈ C ([a, b], K), ∥f ∥2 = |f (t)|2 dt
a

3. La norme de la convergence en moyenne ∥.∥1 définie par :


Z b
0
∀f ∈ C ([a, b], K), ∥f ∥1 = |f (t)|dt
a

Ces trois normes ne sont pas équivalentes mais il y’ a des relations entre elles précisées
par la proposition suivante :

Proposition 251

Pour tout f ∈ C 0 ([a, b], K), on a :


√ √
∥f ∥1 ≤ b − a∥f ∥2 et ∥f ∥2 ≤ b − a∥f ∥∞ et ∥f ∥1 ≤ (b − a)∥f ∥∞

Remarque On fait les remarques suivantes sur la proposition ci-dessus :


1. En d’autres termes la nome de convergence uniforme est plus fine que la norme
de convergence en moyenne quadratique, laquelle est plus fine que la norme
de convergence en moyenne.
2. On peut démontrer par des contre-exemples que ces comparaisons sont strictes.

8.3.2.2 Le théorème d’approximation de Weierstrass


Si une fonction f est continue sur un segment [a, b], on peut l’approcher par une
fonction polynomiale sur [a, b] au sens de la convergence uniforme comme le précise
le théorème suivant :
8.3. L’ESPACE VECTORIEL NORMÉ B(X, F ) 237

Théorème 52

Soit [a, b] un segment de R et K désigne R ou C. Soit P([a, b], K) l’ensemble


des fonctions polynomiales de [a, b] vers K. Alors P est dense dans C([a, b], K) ,
muni de la norme de convergence uniforme sur [a, b].

Preuve:
On peut démontrer ce théorème par plusieurs méthodes dont les plus célèbres
sont : celle qui utilise les polynômes dits de Bernestein, ou celle qui utilise une
méthode probabiliste. Pour plus de détails voir le devoir e libre 5 et l’épreuve
de math 1 du C.N.C. 2016 qui comporte dans le détail les deux méthodes.

8.3.3 Les espaces CM([a, b], K) et E ([a, b], K)


Deux autres sous-espaces vectoriels de B([a, b], K) sont l’espace CM([a, b], K) des
applications de [a, b] vers K continues par morceaux sur [a, b] et l’espace E ([a, b], K)
des fonctions en escaliers de [a, b] vers K qui est en même temps un sous-espace
vectoriel de CM([a, b], K).
On a un autre théorème d’approximation :

Théorème 53

Pour toute fonction f continue par morceaux de [a, b] vers K, il existe une suite
(φn ) de fonctions en escaliers de [a, b] vers K qui converge uniformément sur
[a, b] vers f .

Ce théorème traduit aussi le fait que dans l’espace normé (B([a, b], K), ∥.∥∞ ), l’espace
E([a, b], K) est dense dans CM([a, b], K).
238CHAPITRE 8. SUITES ET SÉRIES DE FONCTIONS (I) :MODES DE CONVERGENCES.
Chapitre 9

Suites et séries de fonctions (II) :


Dérivabilité et Intégration.

9.1 Convergence uniforme et intégration


9.1.1 Segment , convergence uniforme
Proposition 252

Soit (fn : [a, b] → F )n une suite de fonction continues par morceaux sur le
segment [a, b] tel que (fn ) converge uniformément sur [a, b] vers une fonction f
continue par morceaux sur [a, b]. Alors :
Z b Z b Z b 
lim fn (t)dt = f (t)dt = lim fn (t) dt
n→+∞ a a a n→+∞

Remarque Il faut faire attention à la vérification du fait que f est continue par
morceaux car la limite uniforme d’une suite de fonctions continues par morceaux
n’est pas forcément continue par morceaux.

Proposition 253

Soit (fn : [a, b] → F )n une suite


X de fonction continues par morceaux sur le
segment [a, b] tel que la série fn converge uniformément sur [a, b] vers une
fonction f continue par morceaux sur [a, b]. Alors :
Z b +∞
Z bX +∞ Z
X b 
f (t)dt = fn (t)dt = fn (t) dt
a a n=0 n=0 a

9.1.2 Intervalle quelconque


9.1.2.1 Théorème de convergence dominée

239
240CHAPITRE 9. SUITES ET SÉRIES DE FONCTIONS (II) :DÉRIVABILITÉ ET INTÉGRATION

Théorème 54

Soit I un intervalle non trivial de R et (fn : I → K)n une suite d’applications


continues par morceaux tel que :
1. La suite de fonctions (fn ) converge simplement vers une fonction f : I →
K continue par morceaux sur I.
2. Il existe une application φ : I → R continue par morceaux intégrable sur
I tel que :

∀n ∈ N, |fn | ≤ φ; (hypothèse de domination)

Alors :
1. les fn et f sont intégrables sur I.
Z Z Z
2. lim fn = f = lim fn .
n→+∞ I I I

9.1.2.2 Intégration terme à terme

Théorème 55

Soit (fn : I → K)n une suite de fonctions de l’intervalle I vers K tel que :
X
1. La série de fonctions fn converge simplement sur I vers une application
f : I → K continue par morceaux sur I.
2. Pour tout n ∈ N, l’application fn est continue par morceaux sur I et fn
est intégrable sur I.
XZ
3. La série numérique |fn | est convergente.
I
Alors :
1. La fonction f est intégrable sur I.
Z +∞ Z
X
2. On a : f (t)dt = fn (t)dt. Autrement dit :
I n=0 I

Z +∞
! +∞ Z 
X X
fn (t) dt = fn (t)dt
I n=0 n=0 I

9.2 Dérivation
9.2.1 Théorème pour les fonctions de classe C 1
9.2. DÉRIVATION 241

Proposition 254

Soit I un intervalle non trivial de R et (fn ) une suite d’applications de I vers


F tel que :
1. Pour tout n ∈ N, la fonction fn est de classe C 1 sur I ;
2. La suite (fn ) converge simplement sur I vers une application f : I → F .
3. La suite de fonctions (fn′ ) converge simplement vers une application g :
I → F et la convergence est uniforme sur tout segment contenu dans I
Alors :
1. La fonction f est de classe C 1 sur l’intervalle I.
 ′

2. f = g, c’est-à-dire : lim fn = lim fn′ .
n→+∞ n→+∞

Proposition 255

Soit I un intervalle non trivial de R et (fn ) une suite d’applications de I vers


F tel que :
1. Pour tout n ∈ N, la fonction fn est de classe C 1 sur I ;
X
2. La série de fonctions fn converge simplement sur I vers une application
f : I → F.
X
3. La suite de fonctions fn′ converge simplement vers une application
g : I → F et la convergence est uniforme sur tout segment contenu dans
I
Alors :
1. La fonction f est de classe C 1 sur l’intervalle I.
2. f ′ = g, c’est-à-dire : !′
+∞
X +∞
X
fn = fn′
n=0 n=0

9.2.2 Extension des théorèmes ci-dessus : classe C k , k ≥ 1.


Théorème 56

Soit k ∈ N, k ≥ 1 et (fn : I → F )n une suite d’applications de I → F tel que :


1. Pour tout n ∈ N, la fonction fn est de classe C k sur I.
2. Pour tout p ∈ [[0, k − 1]], la suite de fonctions ((fn )(p) )n converge simple-
ment vers une fonction fp : I → F .
3. La suite de fonctions ((fn )(k) )n converge simplement vers une fonction
242CHAPITRE 9. SUITES ET SÉRIES DE FONCTIONS (II) :DÉRIVABILITÉ ET INTÉGRATION

g : I → F et la convergence est uniforme sur tout segment contenu dans


I.
Alors :
1. f = f0 est de classe C k sur I.
2. f (k) = g. Autrement dit :
 (k)
lim fn = lim (fn )(k) .
n→+∞ n→+∞

Théorème 57

Soit k ∈ N, k ≥ 1 et (fn : I → F )n une suite d’applications de I → F tel que :


1. Pour tout n ∈ N, la fonction fn est de classe C k sur I.
X
2. Pour tout p ∈ [[0, k − 1]], la série de fonctions (fn )(p) converge simple-
ment vers une fonction fp : I → F .
X
3. La série de fonctions (fn )(k) converge simplement vers une fonction
g : I → F et la convergence est uniforme sur tout segment contenu dans
I.

Alors :
1. f = f0 est de classe C k sur I.
2. f (k) = g. Autrement dit :
+∞
!(k) +∞
X X
fn = (fn )(k) .
n=0 n=0

9.3 Intégrale avec paramètre


9.3.1 Continuité
9.3.1.1 Énoncés des théorèmes

Théorème 58

Soit A une partie de E, I un intervalle de R et f : A × I → K une application


tel que :
(1) Pour tout x ∈ A, l’application f (x, .) : I → K; t 7→ f (x, t) est continue
par morceaux sur I.
(2) Pour tout t ∈ I, l’application f (., t) : A → K; x 7→ f (x, t) est continue sur
A.
(3) Il existe une application φ : I → R continue par morceaux, integrable tel
9.3. INTÉGRALE AVEC PARAMÈTRE 243

que :

∀(x, t) ∈ A × I, |f (x, t)| ≤ φ(t) (hypothèse de domination)


Z
Alors : la fonction F : A → K; x 7→ F (x) = f (x, t)dt est bien définie et
I
continue sur A.

Remarques Les remarque suivantes sont les plus utilisées en pratique :


1. Si on remplace l’hypothèse de domination (3) par :
(3)’ : Pour toute partie compacte K de E tel que K ⊂ A, il existe une appli-
cation φK : I → R continue par morceaux et intégrable sur I tel que :

∀(x, t) ∈ K × I, |f (x, t)| ≤ φK (t)

La conclusion du théorème 58 reste valable.


2. Si I = [a, b] est un segment de R, la condition
(4) : L’application (x, t) 7→ f (x, t) est continue sur A × [a, b] implique les
conditions (1),(2) et (3)’ par suite la conclusion du théorème 58 reste valable
3. Une conséquence immédiate : Si f : [c, d] × [a, b] → K est une application
Z b
continue alors F : x 7→ f (x, t)dt est continue sur [c, d].
a

9.3.1.2 Exemples
Pour tout x ∈]0, +∞(, on pose :
Z +∞
sin(xt)
F (x) = dt
0 t2 + x

sin(xt)
Alors f (x, t) = vérifie
t2 + x
— ∀x > 0, t 7→ f (x, t) est continue sur ]0, +∞[.
— ∀t > 0, x 7→ f (x, t) est continue sur ]0, +∞[.
— Hypothèse de domination : Pour tout a > 0,on a :

1
∀(x, t) ∈ [a, +∞[×]0, +∞[ |f (x, t| ≤ = φa (t)
t2 +a

avec φa continue et intégrable sur ]0, +∞[.

9.3.2 Dérivabilité
9.3.2.1 Dérivées partielles
Si f : I × J → K est une application et A = (a, b) ∈ I × J.
244CHAPITRE 9. SUITES ET SÉRIES DE FONCTIONS (II) :DÉRIVABILITÉ ET INTÉGRATION

- L’application : φA : x 7→ f (x, b) de I vers K est une fonction d’une variable réelle


définie sur I.
Si φA est dérivable au point a, on note
∂f
φ′A (a) = (a, b)
∂x
le nombre dérivée de φA au point a.
Si φA est k fois dérivable au point a avec k ∈ N∗ , on note :

(k) ∂kf
φA (a) = (a, b)
∂xk
- L’application : ψA : y 7→ f (a, y) de J vers K est une fonction d’une variable réelle
définie sur J.

Si ψA est dérivable au point b, on note


∂f
ψA′ (b) = (a, b)
∂y
le nombre dérivée de ψA au point b.
Si ψA est k fois dérivable au point b avec k ∈ N∗ , on note :

(k) ∂kf
ψA (b) = (a, b)
∂y k

9.3.2.2 Les théorèmes

Théorème 59

Soit I et J des intervalles de R et f : J × I → K une application tel que :


(1) Pour tout x ∈ J, l’application f (x, .) : I → K; t 7→ f (x, t) est continue
par morceaux et intégrable sur I.
(2) Pour tout t ∈ I, l’application f (., t) : J → K; x 7→ f (x, t) est de classe C 1
∂f ∂f
sur J et pour tout x ∈ J, l’application (x, .); t 7→ (x, t) est continue
∂x ∂x
par morceaux sur I.
(3) Il existe une application ψ : I → R continue par morceaux, intégrable tel
que :

∂f
∀(x, t) ∈ A × I, (x, t) ≤ ψ(t) (hypothèse de domination)
∂x

Alors : Z
1. L’application F : x 7→ f (x, t)dt est de classe C 1 sur l’intervalle J.
I
9.3. INTÉGRALE AVEC PARAMÈTRE 245

2. Pour tout x ∈ J, on a (Formule de Leibniz) :


Z
′ ∂f
F (x) = (x, t)dt
I ∂x

Remarque Si (Jk )k∈K est une famille d’intervalles de R tel que ∪ Int(Jk ) = J (où
k∈K
Int(Jk ) désigne l’intérieur de Jk ), et si on remplace la condition (3) ci-dessus par la
condition (3)’ suivante : Pour tout k ∈ K, il existe une application ψk , CM sur et
intégrable sur I tel que :

∂f
∀(x, t) ∈ Jk × I, (x, t) ≤ ψk (t)
∂x

alors la conclusion reste la même.

Théorème 60

Soit k un entier naturel non nul, I et J des intervalles de R et f : J × I → K


une application à valeurs réelles ou complexes tel que :
1. Pour tout p ∈ [[0, k − 1]], et tout t ∈ I, l’application f (., t) : J → K; x 7→
∂ pf
f (x, t) est de classe C p et pour tout x ∈ J, l’application (x, .) : t 7→
p
∂xp
∂ f
(x, t) est continue par morceaux et intégrable sur I.
∂xp
2. Pour tout t ∈ I, l’application f (., t est de classe C k et pour tout x ∈ J,
∂kf
l’application (x, .) est continue par morceaux.
∂xk
3. Il existe ψ : I → R continue par morceaux et intégrable sur I tel que :

∂kf
∀(x, t) ∈ J × I, (x, t) ≤ ψ(t)
∂xk

Alors : Z
1. F : J → K; x 7→ f (x, t)dt est de classe C k sur J.
I
2. On a la formule de Leibniz :
∂kf
Z
(k)
∀x ∈ J, F (x) = (x, t)dt
I ∂xk
246CHAPITRE 9. SUITES ET SÉRIES DE FONCTIONS (II) :DÉRIVABILITÉ ET INTÉGRATION
Chapitre 10

Séries entières

Dans tout ce chapitre K désigne l’un de corps R, le corps des réels ou C, le corps
des nombres complexes.

10.1 Définitions : Séries entières, convergence


10.1.1 Définition, lemme d’Abel
Définition 115
X
On appelle série entière toute série fn de fonctions définies de K dans K par
n
fn (t) = an t où (an )n est une suite d’éléments de K.

X X
Remarque On convient de noter an z n (resp. an xn ) suivant les cas K = C
(resp. K = R ).

Lemme 4

(d’Abel ) Si ρ ∈]0, +∞[ tel que (an ρn )n≥0 est bornée alors la série entière entière
X
an tn converge absolument sur ∆ρ = {t ∈ K/|t| < ρ}.

Preuve:
Par hypothèse, il existe M réel tel que ∀n ∈ N, |an ρn | ≤ M . Soit t ∈ K tel que
n
t t
|t| < ρ ; alors |an tn | = |an ρn | ≤ M q n où q = , en particulier |q| < 1,
X ρ ρ
donc la série géométrique q n est convergente, ce qui assure la convergence
X
absolue de an tn .

247
248 CHAPITRE 10. SÉRIES ENTIÈRES

10.1.2 Rayon de convergence


Proposition-Définition 10
X
Soit a = an tn une série entière à coefficients dans K. L’ensemble

Xa = {r ∈ R+ /(an rn )n est bornée}

est une partie non vide de R+ . On note Ra la borne supérieure de Xa si Xa


est majorée et Ra = +∞ si X a n’est pas majorée. Ra s’appelle le rayon de
X
convergence de la série entière an t n .

Exemples Voici trois exemples correspondant aux cas où R est nul, strictement
positifs, puis infini :
X
1. Le rayon de convergence de la série entière nn z n est R = 0
n≥0
X
2. Le rayon de convergence de la série entière z n est R = 1.
n≥0
X zn
3. Le rayon de convergence de la série entière est R = +∞.
n≥0
n!

Proposition 256

Les assertions suivantes sont équivalentes :


X
(1) Le rayon de convergence de la série entière an tn est égal à R.
X
(2) Pour tout t ∈ K, La série an tn converge absolument si |t| < R et
diverge grossièrement si |t| > R

Preuve:
X
• Supposons que R est le rayon de convergence de la série entière an tn .
n
XR = 0 alors la suite (an t ) est non bornée pour tout t ̸= 0 donc la série
Si
an tn diverge grossièrement. Par ailleurs l’assertion |t| < 0 est fausse pour
X
tout t ∈ K, d’où la vérité de |t| < 0 ⇒ la série an tn converge absolument.
Si R = +∞X alors l’assertion |t| > R est fausse pour tout t ∈ K, donc |t| > R ⇒
la série an tn diverge grossièrement est vraie. Par ailleurs si |t| < R alors en
n
Xr = |t| + 1, on a la suite (an r ) est bornée et par le lemme d’Abel la
prenant
série an tn CVA.
R + |t|
Si R > 0 , soit t ∈ K. Posons : r = .
2
10.1. DÉFINITIONS : SÉRIES ENTIÈRES, CONVERGENCE 249

Si |t| < XR alors |t| < r < R la suite (an rn ) est bornée et par le lemme d’Abel,
la série an tn CVA.
Si |t| > R alors R < r < |t|, donc la suite (an rn ) est non Xbornée , et comme
n n n
|an r | ≤ |an t |, la suite (an t ) est non bornée et la série an tn diverge gros-
sièrement.
• Réciproquement , si on a (2) , notons Xa l’ensemble de r ≥ 0 tel que (an rn )
bornée et Ra le rayon de convergence de la série entière. Supposons que R > 0
et soit ∆R = {t ∈ K/|t| < R}, on a ∆R ⊂ Xa . Donc sup(Xa ) ≥ R. Donc
R + Ra X
Ra ≥ R. Par ailleurs si Ra > R alors pour t = , la série an tn
2
converge absolument, ce qui n’est pas le cas, donc R = Ra . Si R = +∞ alors
(an rn ) est bornée pour tout r ≥ 0 car elle converge vers 0, donc Ra = +∞.
n
Si R = 0 alors pourX tout r > 0 la suite (an r ) n’est pas rbornée car sinon, par
Abel on aurait an tn converge absolument pour t = , ce qui n’est pas le
2
cas.

10.1.3 Disque, Intervalle de convergence


Définition 116
X
Soit an tn une série entière de rayon de convergence R. En supposant R ̸= 0,

∆R = {t ∈ K/|t| < R}

est appelé disque ouvert


X de convergence (rep. intervalle ouvert de convergence)
de la série entière an tn si K = C ( si K = R) .

Remarques On retient les remarques suivantes :


X
1. Le disque (intervalle) ouvert de convergence de la série entière an tn est le
plus grand ouvert de K sur lequel elle converge absolument.
X
2. Si t ̸∈ ∆R (adhérence) alors la série an tn diverge grossièrement.
3. On ne peut rien dire à priori sur les points de la frontière du disque ouvert de
convergence : Il est possible que la SE converge en tout point de la frontière
X zn
comme en aucun point comme en certains points seulement. Exemples : ,
X zn X n2
, nz n sont toutes de rayon de convergence 1, mais le comportement
n
à la frontière n’est pas le même.

10.1.4 Quelques propriétés du rayon de convergence


10.1.4.1 Propriétés diverses
250 CHAPITRE 10. SÉRIES ENTIÈRES

Proposition 257
X X
Soit a = an tn et b = bn tn deux séries entières. Alors :
1. Si à partir d’un certain rang on a |an | ≤ |bn | alors Ra ≥ Rb .
2. Si an = O(bn ) alors Ra ≥ Rb .
3. Si an = o(an ) alors Ra ≥ Rb .
4. Si |an | ∼ |bn | alors Ra = Rb .
X X
5. Pour tout α ∈ R les séries entières an tn et nα an tn ont le même
rayon de convergence.

Preuve:
On note que le point 2 se déduit directement du point 1 et que 3 et 4 se
déduisent de 2.
1. Supposons qu’il existe p ∈ N tel que ∀n ≥ p, X |an | ≤ |bn |, alors pour tout
n n
t ∈ K, on a |an t | ≤ |bn t |, donc si la série |bn tn | converge alors la
X
série |an tn |, donc Rb ≤ Ra .
2. Si an = O(bn ) alors il existe M > 0 tel que pour tout n ∈ N, on a
|an | ≤ M |bn |. En appliquant la 1) ci-dessus, on a Rb ≤ Ra
3. Si an = o(bn ) alors an = O(bn ). On conclut en appliquant 2) ci-dessus.
4. Si |an | ∼ |bn | alors on a an = O(bn ) et bn = O(an ), en appliquant 2), on
a Ra ≤ Rb et Rb ≤ Ra , donc Ra = Rb .
5. On a an = O(n α
Xan ) donc X si on appelle R et R′ les rayons de convergence
respectifs de an tn et nλ an tn , on a R ≥ R′ . Réciproquement soit
X
t ∈ K∗ tel que la série an tn est absolument convergente. Pour tout n ∈
t X
N, on a |nα an tn | = nα q n |an tn | où q = . Comme la série an tn est
R
absolument convergente la suite (an tn ) est bornée, donc il existe M > 0 tel
que pourX tout n ∈ N, on a |nαn tn | ≤ M nα q n . Par la règle de D’Alembert,
la série nα q n est convergente puisque si on pose βn = nα q n , alors
 α
βn+1 n+1 X
= q −→ q et q < 1. Il en découle que la série nα an tn
βn n n→+∞
est convergente et on a en conséquence prouvé que R ≤ R′ , donc R = R′ .

10.1.4.2 Règle de D’Alembert


10.1. DÉFINITIONS : SÉRIES ENTIÈRES, CONVERGENCE 251

Proposition 258
X
Soit an tn série entière et soit R son rayon de convergence. On suppose que
les coefficients an sont non nuls à partir d’un certain rang. Si

an+1
lim = ℓ ∈ R+ ∪ {+∞}
n→∞ an

alors
1
R=

avec R = +∞ si ℓ = 0 et R = 0 si ℓ = +∞.

Preuve:
Nous allons étudier trois cas suivant la valeur de ℓ :
an+1
• Supposons que lim = ℓ et ℓ ∈ R∗+ . Soit t ∈ K∗ et on lui associe la
n→+∞ an
X
série numérique un , avec un = an tn , pour tout n ∈ N. Pour tout n ∈ N,
un+1 an+1
on a = |t| −→ ℓ|t|. Par la règle de D’Alembert pour les séries,
un X an
n→+∞

on a la série un est absolument convergente si ℓ|t| < 1 et grossièrement


X
divergente si ℓ|t| > 1, donc, pour tout t ∈ K, la série an tn est absolument
1 1
convergente si |t| < et grossièrement divergente si |t| > , donc le rayon de
ℓ X ℓ
n 1
convergence de la série an t est R = .

an+1
• Supposons que lim = +∞. Soit t ∈ K∗ et on lui associe la série
n→+∞ an
X
numérique un , avec un = an tn , pour tout n ∈ N. Pour tout n ∈ N, on a
un+1 an+1
= |t| −→ +∞. Par la règle de D’Alembert pour les séries, on
un X an
n→+∞

a la série un est grossièrement divergente pour tout t ∈ K∗ , donc le rayon


X
de convergence de la série an tn est R = 0.
an+1
• Supposons que lim = 0. Soit t ∈ K∗ et on lui associe la série numérique
n→+∞ an
X un+1
un , avec un = an tn , pour tout n ∈ N. Pour tout n ∈ N, on a =
un
an+1 X
|t| −→ 0. Par la règle de D’Alembert pour les séries, on a la série un
an n→+∞
est absolument
X convergente pour tout t ∈ K∗ , donc le rayon de convergence de
la série an tn est R = +∞.
252 CHAPITRE 10. SÉRIES ENTIÈRES

1
• Dans tous les cas on a bien la relation R = , ce qui termine la preuve de la

proposition.

10.1.5 Somme et produit de deux séries entières


X X
Si a = an tn et b = bn tn sont deux séries entières à coefficients dans K, on
définit la somme et le produit comme suit :
X X n
X
n n
a+b= (an + bn )t et ab = cn t , avec cn = ak bn−k
k=0

Proposition 259

Si Ra et Rb sont les rayons de convergence respectifs des séries entières a et b


alors Ra+b ≥ inf(Ra , Rb ) et Rab ≥ inf(Ra , Rb ). Pour tout t ∈ K, on a :
+∞
X +∞
X +∞
X
1. Si |t| < Ra+b alors (an + bn )tn = an t n + bn tn
n=0 n=0 n=0
+∞
X +∞
X +∞
X n
X
n n n
2. Si |t| < Rab alors cn t = an t bn t où cn = an−k bk , pour
n=0 n=0 n=0 k=0
tout n ∈ N.

Preuve:
On conserve toutes les notations adoptées ci-dessus.
• Si R = inf(RX a , Rb ) alors
X pour tout t ∈ K, si |t| < R alors |t| < Ra et |t| < Rb ,
n
donc les série an t et bn tn sont absolument convergentes , donc leur série
somme et leurs série produit de Cauchy sont absolument convergentes , d’où
X X Xn
les séries (an + bn )tn et cn tn où ∀n ∈ N, cn = ak bn−k sont absolument
k=0
convergentes. Ainsi la R ≤ Ra+b et R ≤ Rab .
• Les dernières relations sont des conséquences immédiates de la définition de
la somme de deux séries numériques convergentes et celle du produit de Cauchy
de deux séries numériques absolument convergentes.

Remarque Si Ra ̸= Rb alors Ra+b = inf(Ra , Rb ).


10.2. PROPRIÉTÉS DE LA FONCTION SOMME 253

Preuve:
Si par exemple RaX< Rb , soit r est un nombre réel tel que r > Ra .. Si
XRa < r <
n
Rb alors la série an r est grossièrement divergente et la série bn rn est
absolument convergente, donc la série somme est divergente. Ainsi Ra+b ≤ Ra
donc Ra+b = Ra

Remarque Il ne faut pas croire que la règle de D’Alembert est valable pour toutes
les séries entières. Voici deux exemples où la règle n’est pas valable ou nécessite une
démarche préliminaireX avant de l’appliquer :
• La séries entière cos(n)tn , dans laquelle le coefficient générale de la séries est
an+1 cos(n + 1)
an = cos(n) et par suite le rapport = n’a pas de limite quand n tend
an cos(n)
vers +∞. Pour déterminer le rayon de convergence dans ce cas, on peut procéder
comme suit :
• Tout d’abord pour ρ = 1, la suite (an ρn ) = (cos(n)) Xest bornée, donc le rayon
de convergence R réalise R ≥ 1. Par ailleurs la série cos(n) est grossièrement
divergente donc R X ≤ 1, d’où R = 1.
• La série entière 3n nx2n dont les coefficients sont an = n si 3n n est pair et an = 0
si n est impair. Il en découle que la condition an est non nul à partir d’un certain
rang n’est pas réalisée. On procède X comme suit :
• Soit on considère la série entière nxn dont le rayon de convergence est donné
1
par la réglé de D’Alembert qui est R = . Il en découle que pour tout x ∈ R, la
3
X 1
série 3 nx est absolument convergente si |x|2 < et grossièrement divergente
n 2n
3 √
1 √ 3
si |x|2 > , donc le rayon de convergence est r = R = .
3 3 X
• Soit on applique la règle de D’Alembert à la série numérique un avec un =
un+1 n+1 2
3n nt2n avec t un réel non nul fixé. On trouve que =3 |t| −→ 3|t|2 ,
un n n→+∞
2 2
donc il y’ a convergence absolue si 3|t| < √ 1 et divergence grossière si 3|t| > 1, ce
3
qui donne le rayon de convergence : r = .
3

10.2 Propriétés de la fonction somme


10.2.1 Continuité
Proposition 260
X
Si an tn est une série entière de rayon de convergence R > 0 alors la série
X
an tn converge normalement sur tout compact contenu dans le disque(intervalle)
254 CHAPITRE 10. SÉRIES ENTIÈRES

ouvert de convergence de la série entière.

Preuve:
Soit A une partie compacte tel que A ⊂ ∆R . L’application : A → R; t 7→ |t|
est continue sur le compact A donc elle est bornée et atteint ses borne, en
particulier sa borne supérieure, donc il X existe a ∈ A tel que |t| ≤ |a| = r.
Comme a ∈ A, on a r < R, donc la série an rn est ACV, par suite et compte
X
tenu de |an tn | ≤ |an rn |, ∀t ∈ A, on a la convergence normale de an tn sur A.

Attention : Il est possible de ne pas avoir la convergence normale sur le disque(intervalle)


ouvert de convergence lui même.

Proposition 261

X
La somme S : t 7→ f (t) = an tn est continue sur le disque ouvert de conver-
n=0
gence.

Preuve:
X
Soit t0 ∈ ∆R et r > 0 tel que |z0 | < r < R. Alors an tn converge norma-
n
lement sur ∆r donc, t 7→ an tn étant continue pour tout entier n sur ∆r , sa
somme l’est aussi d’où f est continue sur ∆r et donc en particulier en z0 .

10.2.2 Dérivabilité et intégration


Définition 117
X X
On appelle série dérivée d’une série entière an tn , la série entière (n +
1)an+1 tn .

Proposition 262
X
Une série an tn et sa série dérivée ont le même rayon de convergence.
10.3. DÉVELOPPEMENT EN SÉRIE ENTIÈRE 255

Proposition 263
X
Soit an tn une série entière à coefficients dans K de rayon de convergence
R > 0 et de somme f . Notons aussi f la restriction de f à l’intervalle ouvert
] − R, R[. Alors :
1. f est indéfiniment dérivable sur ] − R; R[ et :
+∞  
f (k) (t) X n
∀t ∈] − R; R[, = an tn−k
k! n=k
k

2. Si [a, b] ⊂] − R, R[ alors :
Z b +∞
X Z b
f (t)dt = an tn+1 dt
a n=0 a

X
Conséquence : Soit an tn une série entière réelle de rayon de convergence
n≥0
f n (0)
R > 0 et de somme f . Pour tout entier n, le coefficient an est égal à .
n!

Proposition 264
X X
Soient an z n et bn z n deux séries entières de rayons R > 0 et R′ > 0. On
n≥0 n≥0
suppose que les sommes de ces deux séries coïncident sur un voisinage de 0.
Alors ces deux séries sont identiques : ∀n ∈ N an = bn .
X
Conséquences : La somme f de la série entière an tn est une fonction paire
(resp. impaire) si et seulement si les an de rang impair (resp. pair) sont nuls.

Preuve:
X X X
Si an z n est paire, an z n = an (−z)n pour tout n donc ∀n ∈ N an =
n n n
(−1)n an et en particulier ∀k ∈ N a2k+1 = (−1)a2k+1 ce qui implique a2k+1 = 0.

10.3 Développement en série entière


10.3.1 Généralités
256 CHAPITRE 10. SÉRIES ENTIÈRES

Définition 118

Soit f une application définie sur un intervalle ouvert ] − a, a[, a > 0 de R et


à valeurs dans K. On dit que Xf est développable en série entière en un point 0
s’il existe une série entière an tn de rayon de convergence R > 0 et et un réel
ρ ∈]0, min(R, a)[ tels que :
+∞
X
∀t ∈] − ρ, ρ[, f (t) = an t n
n=0

Définition 119

Soit Ω un intervalle ouvert de R tel que 0 ∈ I et f infiniment dérivable sur Ω.


+∞ (n)
X f (0) n
La série entière t est appelée série de Taylor de f en 0.
n≥0
n!

Proposition 265

Si f est développable en série entière au voisinage de 0, alors f est de classe C ∞


à l’origine et la série entière égale à f au voisinage de 0 est nécessairement la
série de Taylor de f . Autrement dit,

X f (n) (0)
∃r > 0, ∀t ∈] − r; r[, f (t) = tn
n≥0
n!

Remarque Même si f est de classe C ∞ au voisinage de 0, et même si la série de


Taylor de f a un rayon de convergence strictement positif, on ne peut affirmer que
1
f est développable en série entière en 0. Considérer f : x 7→ exp(− 2 ).
x

Exercice : Soit Ω un ouvert de R contenant 0 et f une application de Ω dans R.


On suppose que f est de classe C ∞ au voisinage de 0 et que :

∃r > 0, ∀p ∈ N ∀x ∈] − r; r[ |f (p) (x)| ≤ M

Alors f est développable en série entière en 0 avec un rayon de convergence au moins


égal à r.
Solution : Soit ρ un réel tel que 0 < ρ < r. D’après la formule de Taylor-Lagrange
à l’ordre n puisque f est de classe C n+1 sur ] − ρ; ρ[ où on a :
n
X f (k) (0) |f (n+1) (c)|
∀t ∈] − ρ; ρ[ ∃c ∈] − ρ; ρ[ |f (t) − tk | ≤ (2ρ)n+1
k=0
k! (n + 1)!
10.3. DÉVELOPPEMENT EN SÉRIE ENTIÈRE 257

donc n
X f (k) (0) M
∀t ∈] − ρ; ρ[ |f (t) − tk | ≤ (2ρ)n+1
k=0
k! (n + 1)!
ce qui montre que lorsque n tend vers +∞ la série de Taylor de f converge vers f
pour tout t dans ] − ρ; ρ[ et par suite dans ] − r; r[.

10.3.2 Développements en série entière usuels


+∞ n
z
X z
e = , R = +∞
n=0
n!
+∞
X x2n
cos x = (−1)n ; R = +∞
n=0
(2n)!
+∞
X x2n+1
sin x = (−1)n ; R = +∞
n=0
(2n + 1)!
+∞
X x2n
cosh x = ; R = +∞
n=0
(2n)!
+∞
X x2n+1
sinh x = ; R = +∞
n=0
(2n + 1)!
+∞     ( 1 si n = 0
X α α
(1 + x)α = xn , R = 1 où = α(α − 1) · · · (α − n + 1)
n=0
n n si n ≥ 1
n!
+∞
1 X
= zn; R = 1
1−z n=0
+∞
1 X
= (−1)n z n ; R = 1
1+z n=0
+∞
X xn
ln(1 + x) = (−1)n−1 ; R = 1
n=1
n
+∞ n
X x
ln(1 − x) = − ;R = 1
n=1
n
+∞
1 X
= (−1)n x2n ; R = 1
1 + x2 n=0
+∞
X x2n+1
arctan(x) = (−1)n ;R = 1
n=0
2n + 1
258 CHAPITRE 10. SÉRIES ENTIÈRES
Chapitre 11

Probabilités

11.1 Rappels et compléments


11.1.1 Espace probabilisé
11.1.1.1 Tribu

Définition 120

Soit Ω un ensemble . On appelle tribu sur Ω, toute partie T de P(Ω) tel que :
(i) Ω ∈ T
(ii) ∀X ∈ T , X c ∈ T
(iii) Pour toute famille au plus dénombrable (Xi )i∈I d’éléments de T , on a
∪ Ai ∈ T .
i∈I
Le couple (Ω, T ) s’appelle espace probabilisable.

Remarques Si (Ω, T ) est un espace probabilisable, alors :


1. Si T est une tribu sur Ω, tout élément A de T s’appelle : événement de l’espace
probabilisable (Ω, T )
2. ∅ ∈ T
3. ∀A, B ∈ T , on a : A ∪ B, A ∩ B, A\B, A∆B sont dans T .
n n
4. Pout tout A1 , · · · , An ∈ T , on a : ∪ Ak et ∩ Ak sont dans T .
k=1 k=1
5. Pour toute famille (An )n≥0 d’éléments de T , ∩ Ak ∈ T .
n≥0

11.1.1.2 Tribu engendrée par une partie


Soient Ω et I des ensembles.
Proposition 266

Si (Ti )i∈I est une famille de tribus sur Ω alors T = ∩i∈I Ti est une tribu.

259
260 CHAPITRE 11. PROBABILITÉS

Preuve:
Élémentaire, en utilisant la définition d’une tribu.

Considérons une partie A de P(Ω) et soit TA l’ensemble des tribus T tel que
A ⊂ T . On note T (A ) l’intersection de toutes les tribus éléments de TA , c’est-à-
dire :
T (A ) = ∩ T .
T ∈TA

La proposition 266 ci-dessus montrer que T (A ) est une tribu. On a :

Proposition-Définition 11

T (A ) est la plus petite tribu sur Ω contenant A . T (A ) s’appelle la tribu


engendrée par A

Preuve:
Soit S une tribu tel que A ⊂ S, alors S ∈ TA , par suite ∩ T ⊂ S, donc
T ∈TA
T (A ) ⊂ S.

Remarques On donne les remarques suivantes :


1. Si A1 et A2 sont deux parties de ℘(Ω) alors :

A1 ⊂ A2 ⇒ T (A1 ) ⊂ T (A2 )

2. T ({∅}) = Tg = {∅, Ω}
3. Si A est une tribu de Ω alors T (A) = A.

Preuve:
1. La tribu T (A2 ) contient A2 , et comme A1 ⊂ A2 , elle contient A1 et
comme T (A1 ) est la plus petite tribu contenant A1 , on a T (A1 ) ⊂ T (A2 ).
2. La plus petite tribu contenant ∅ doit contenir Ω = ∅c , donc elle doit
contenir Tg = {∅, Ω}, or Tg est elle même une tribu, donc T ({∅}) = T .
3. Si A est une tribu, il est clair que A est la plus petite tribu contenant A.

11.1.1.3 Un exemple : la tribu borélienne de R


11.1. RAPPELS ET COMPLÉMENTS 261

Définition 121

Soit O l’ensemble des ouverts de l’ensemble R des nombres réels muni de la


valeur absolue. La tribu de R, engendrée par O s’appelle la tribu borélienne de
R, notée BR .

Ainsi la tribu borélienne BR de R est la tribu T (O) engendrée par les ouverts de R.
On donne le théorème suivants et des remarques qui lui sont attachées. Le théorème
sera d’une utilité importante par la suite. Avant de donner ce théorème, on donne
et on démontre un lemme :
Lemme 5

Tout ouvert non vide de R est un réunion au plus dénombrable d’intervalles


[ Autrement dit pour tout W ∈ O, il existe une partie I de N tel
ouverts bornés.
que W = ]an , bn [ avec pour tout n ∈ I, an , bn ∈ R et an < bn .
n∈I

Preuve:
Soit O un ouvert non vide de R. Pour tout x ∈ O, il existe u, v ∈ R tel que
x ∈]u, v[ et ]u, v[∈ O. Par densité de Q dans R, il existe r(x), r′ (x) rationnels tel
que u < r(x) < x < r′ (x) < v. Il en découle que O = ∪ ]r(x), r′ (x)[. Si on note
x∈O
I(x) =]r(x), r′ (x)[, alors l’ensemble J = {I(x)/x ∈ O} est au plus dénombrable
car l’application : ϕ : J → Q2 , I(x) 7→ (r(x), r′ (x)) est injective et Q2 est
dénombrable. ϕ est injective car si I(x) =]r(x), r′ (x)[ et I(y) =]r(y),
 r′ (y)[ sont
r(x) = r(y)
deux éléments de J avec x, y ∈ O, si ϕ(I(x)) = ϕ(I(y)) alors ,
r′ (x) = r′ (y)
ce qui veut dire I(x) = I(y).

Théorème 61

La tribu borélienne BR est égale à la tribu engendrée par l’ensemble des inter-
valles de la forme ] − ∞, a] avec a ∈ R.

Preuve:
Notons A = {] − ∞, a]/a ∈ R}. Nous allons démontrer que BR = T (A).
• Soit W ∈ O un ouvert non vide de R, alors en vertu de lemme 5, W est
une union au plus dénombrables d’intervalles de la forme ]a, b[ avec a < b.
Or un
[   s’écrit : ]a, b[=] − ∞, b[\] − ∞, a] et comme ] − ∞, b[=
tel intervalle
1
−∞, b − , on a ]a, b[∈ T (A), donc W ∈ T (A) et BR ⊂ T (A).
n∈N∗
n
262 CHAPITRE 11. PROBABILITÉS

• Réciproquement si a ∈ R alors on a :

] − ∞, a] =] − ∞, a[∪{a}

et :
\  1 1

{a} = a − ,a +
n∈N∗
n n

ce qui montre que ] − ∞, a] s’obtient à partir de parties ouvertes de R par


intersection au plus dénombrable, différence et union finie, donc ] − ∞, a[ est
bien un élément de la tribu engendrée par O donc A ⊂ BR , et par suite T (A) ⊂
T (BR ) = BR .

Outre le cas où A est l’ensemble des intervalles de la forme ] − ∞, a] avec a ∈ R, on


a aussi et on peut le démontrer : BR = T (A ) pour les cas suivants :
1. A l’ensemble des intervalle de R.
2. A l’ensemble des intervalles ouverts bornés ]a, b[ (resp. [a, b], [a, b[, ]a, b] avec
a, b réels a ≤ b.)
3. A l’ensemble des intervalles de la forme reps. ] − ∞, a[ avec a réel.
4. A l’ensemble des intervalles de la forme [a, +∞[ (reps. ]a, +∞[) avec a réel.
On s’intéressera plus au cas où A = {] − ∞, a]/a ∈ R}, qui sera à la base de la
définition de la fonction de répartition d’une variable aléatoire réelle.

Preuve:
Note sur la preuve(non nécessaire dans une première lecture) : Tenant
compte du fait que que tout ouvert de R est un réunion au plus dénombrable
d’intervalles ouverts bornés, on procède comme suit :
• Pour montrer que la tribu borélienne est engendrée  par
 les intervalles de la
1
forme ]a, b], on peut remarquer que ]a, b[= ∪ a, b − où I est l’ensemble
n∈I n
1
des entiers naturels non nuls tel que a < b − , ainsi la tribu engendrée par
n
les intervalles de la forme ]a, b] contient celle engendrée
 par les
 ouverts , or un
1
intervalle de la forme ]a, b] peut s’écrire ]a, b] = ∩ ∗ a, b + , d’où l’inclusion
n∈N n
réciproque.
• Finalement pour les intervalles de la forme ] − ∞, a] on peut remarque que si
(an ) est une strictement décroissante de nombre réels tel que lim an = −∞
n→+∞
et a0 = a alors ] − ∞, a] = ∪ ]an+1 , an ] et on vient de voir que les inter-
n∈N
valles de la forme ]x, y] avec x, y ∈ R et x < y sont des éléments de la
 bornéouvert ]a, b[ peut s’écrire
tribu borélienne. Réciproquement un intervalle
1
]a, b[=] − ∞, b]\] − ∞, a]\{b} et {b} = ∩ ∗ b − , b .
n∈N n
11.1. RAPPELS ET COMPLÉMENTS 263

11.1.1.4 Probabilités

Définition 122

Soit (Ω, T ) un espace probabilisable. on appelle probabilité sur cet espace toute
application P : T → R+ tel que :
(1) P(Ω) = 1
+∞
+∞ X
(2) P( ∪ An ) = P(An ) pour toute famille (An ) d’éléments deux à deux
n=0
n=0
disjoints de T .
le triplet (Ω, T , P) est appelé espace probabilisé.

Remarques On considère un espace probabilisé (Ω, T , P), alors :


1. Si (An ) est une famille d’événements deux à deux disjoints alors lim P(An ) =
n→+∞
0.
2. P(∅) = 0
3. ∀A, B ∈ T tel que A ∩ B = ∅, on a P(A ∪ B) = P(A) + P(B).
4. ∀A, B ∈ T , P(A ∪ B) = P(A) + P(B) − P(A ∩ B)
5. P(Ac ) = 1 − P(A) pour tout A ∈ T .
6. Pour tout A, B ∈ T , on a : A ⊂ B ⇒ P(A) ≤ P(B).
n
n X
7. Pour toute famille (Ak )0≤k≤n d’événements, on a P( ∪ Ak ) ≤ P(Ak )
k=0
k=0
  +∞
X
8. Pour toute famille (An )n∈N d’éléments de T , on a : P ∪ An ≤ P(An ),
n∈N
n=0
le second membre de cette inégalité appartient à R+ ∪ {+∞}.
9. Si Ω est au plus dénombrable, le choix T = P(Ω) est le plus usuel.
10. Si (Ω, T , P) est un espace probabilisé, un élément de la tribu T s’appelle un
événement.

Preuve:
X
1. Comme la série P(An ) est convergente, le résultat en découle immé-
diatement.
2. Posons An = ∅ pour tout n ∈ N, alors (An )n≥0 est une famille d’événe-
ments deux à deux disjoints, donc, compte tenu du 1) ci-dessus, la suite
constante P(∅) converge vers 0, d’où P(∅) = 0.
3. Posons A0 = A, A1 = B, An = ∅, ∀n ≥ 2, alors (An )n≥0 est une suite
d’événements deux à deux disjoints, et par l’axiome (2), on a P(A ∪ B) =
+∞
X
P( ∪ An ) = P(An ) = P(A) + P(B) puisque P(An ) = P(∅) = 0, ∀n ≥
n∈N
n=0
2.
264 CHAPITRE 11. PROBABILITÉS

4. On a A = (A\B)∪B et (A\B)∩B = ∅, donc P(A∪B) = P(A\B)+P(B).


On a P(A) = P(A\B) + P(A ∩ B) (mêmes arguments), il en découle
que P(A\B) = P(A) − P(A ∩ B). Compte tenu de (1) et (2), on a :
P(A ∪ B) = P(A) − P(A ∩ B) + P(B).
5. Il suffit d’appliquer l’une des propriétés précédentes à A et Ac .
6. Si A ⊂ B, alors B = A ∪ (B\A) et c’est une réunion disjointe, donc
P(A) = P(B) + P(A\B) donc P(B) ≤ P(A).
7. Par récurrence sur n : Pour n = 0 on a égalité, pour n = 1, on a

P(A0 ) + P(A1 ) = P(A0 ∪ A1 ) + P(A0 ∩ A1 ),

d’où le résultat. Si la propriété est vraie pour n ∈ N, on a


    
n+1 n
P ∪ Ak = P ∪ Ak ∪ An+1 .
k=0 k=0

Comme la propriété est vraie pour n = 1, on a


    
n n
P ∪ Ak ∪ An+1 ≤ P ∪ Ak + P (An+1 ) .
k=0 k=0

On conclut en appliquant l’hypothèse de récurrence.


X
8. Notons que la série P(An ) est une série à termes positifs donc deux
+∞
X
cas sont possibles : soit P(An ) = +∞ et l’inégalité à prouver est
n=0
vérifiée puisque le membre de gauche est un réel (par convention ∀x ∈
R, x ≤ +∞), soit la série est convergente de somme ℓ. Si on pose B0 = A0
et Bn = An \ ∪ Ak , alors les Bn sont des événements deux à deux
0≤k≤n−1
n n
disjoints et ∪ Bk = ∪ Ak , en effet pour tout n ∈ N, on a Bn ⊂ An ⊂
k=0 k=0
n
∪ Ak . Réciproquement,soit ω ∈ ∪ Ak , si ω ∈ A0 alors ω ∈ B0 , donc
k∈N k=1
n
ω ∈ ∪ Bk ,sinon soit ℓ le plus petit entier naturel de [[1, n]]tel que x ∈ Aℓ
k=0
alors 1 ≤ ℓ ≤ n et ω ̸∈ Aj , ∀j ∈ [[0, ℓ − 1]] et ω ∈ Aℓ , donc ω ∈ Bℓ et
11.1. RAPPELS ET COMPLÉMENTS 265

n +∞ +∞
finalement ω ∈ ∪ Bk . Il en résulte aussi que A = ∪ An = ∪ Bn , donc :
k=0 n=0 n=0

+∞
X
P(A) = P(Bn )
n=0
n
= lim P( ∪ Bk )
n→+∞ k=0
n
= lim P( ∪ Ak )
n→+∞ k=0
n
X
≤ lim P(Ak )
n→+∞
k=0
+∞
X
≤ lim P(Ak )
n→+∞
k=0

11.1.1.5 Construction de probabilité dans le cas Ω fini

Si n ∈ N∗ et Ω = {ω1 , . . . , ω2 } alors toute probabilité sur l’espace probabilsable


(Ω, P(Ω)) est parfaitement determinée par un élmént p = (p1 , . . . , pn ) ∈ Rn+ tel que
Xn
pk = 1. La donnée de p permet de construire P comme suit :
k=0
• Pour tout k ∈ [[1, n]], on pose P({ωk }) = pk . X
• Pour toute partie A de Ω, on pose P(A) = 0 si A = ∅ et P(A) = P({ω} si
ω∈A
A ̸= ∅.
• Réciproquement si P est une probabilité sur (Ω, P(Ω)) alors en notant pk =
n
X
n
P({ωk }), pour tout k ∈ [[1, n]], on a p = (p1 , . . . , pn ) ∈ R+ et pk = 1.
k=1

11.1.1.6 Construction de probabilité dans le cas Ω dénombrable

Si Ω = {ωn /n ∈ N} alors toute probabilité sur l’espace probabilsable (Ω, P(Ω)) est
parfaitement determinée par une famille p = (pn )n≥0 de nombres réels positifs tel
+∞
X
que pk = 1. La donnée de p permet de construire P comme suit :
k=0
• Pour tout n ∈ N, on pose P({ωn }) = pn . X
• Pour toute partie A de Ω, on pose P(A) = 0 si A = ∅ et P(A) = P({ω} si
ω∈A
A ̸= ∅.
• Réciproquement si P est une probabilité sur (Ω, P(Ω)) alors en notant pn =
P({ωn }), pour tout n ∈ N, on a p = (pn )n≥0 est une famille de réels positifs et
+∞
X
pn = 1.
n=1
266 CHAPITRE 11. PROBABILITÉS

11.1.1.7 Continuité monotone séquentielle

Proposition 267

Soit (Ω, T , P) un espace probabilisé. Alors :


• Pour toute suite croissante (An )n≥1 d’événements, on a :

lim P(An ) = sup P(An ) = P(∪ An )


n→+∞ n n

• Pour toute suite décroissante (An )n≥1 d’événements, on a :

lim P(An ) = inf P(An ) = P(∩ An )


n→+∞ n n

Preuve:
Soit (An )n∈N une suite croissante d’événements et A = ∪ An . Posons B0 = A0
n∈N
n−1
et pour tout Bn = An \ ∪ Ak . Alors :
k=0
• Les Bn sont deux à deux disjoints. En effet si n, m ∈ N tel que n < m Soit
ω ∈ Bm alors ω ∈ Am et ω ̸∈ Ak , ∀k ∈ [[0, m − 1]], en particulier ω ̸∈ An .
n
• On a : ∀n ∈ N, An = ∪ Bk . En effet, Bk ⊂ Ak ⊂ An pour tout k ∈ N donc
k=0
n
∪ Bk ⊂ An . Réciproquement, soit ω ∈ An . Si ω ∈ A0 alors ω ∈ B0 , sinon, on
k=0
a forcément n ≥ 1 et ω ̸∈ A0 et ∃j ∈ [[1, n]], x ∈ Aj . Choisissons j minimal,
n
donc x ∈ Aj et x ̸∈ Ak , ∀k ∈ [[0, j − 1]], c’est-à-dire : x ∈ Bj , donc x ∈ ∪ Bk .
k=1
Notons que d’après ce qui précède on a aussi A = ∪ An = ∪ Bn et les Bn
n∈N n∈N
deux à deux disjoints. n te l que ω ∈ N. prenons n minimal donc ω ∈ An et
ω ̸∈ Ak , ∀k ∈ [[0, n − 1]]. d’où ω ∈ Bn . La suite réelle P(An ) est majorée ( par
Xn
P(A) ), croissante, donc elle est convergente. Comme P(An ) = P(Bk ), on a
k=0

+∞
X
lim P(An ) = P(Bn ) = P(A).
n→+∞
n=0

Soit (An ) une famille décroissante d’événements, alors la famille (Acn ) des com-
plémentaires est croissante. D’après le premier point ci-dessus, on a :

P( ∪ Acn ) = lim P(Acn ) = sup P(Acn ).


n∈N n→+∞ n∈N

Comme  c
∪ Acn = ∩ An ,
n∈N n∈N
11.1. RAPPELS ET COMPLÉMENTS 267

on a :
1 − P( ∩ An ) = lim (1 − P(An )) = 1 − lim P(An ).
n∈N n→+∞ n→+∞

Cette dernière égalité est justifiée par la convergence de la suite P(An ) qui est
décroissante positive. Finalement, et compte tenu de la décroissance de la site
P(An ), on a :
P( ∩ An ) = lim P(An ) = inf P(An )
n∈N n→+∞ n∈N

11.1.1.8 Événement négligeable, événement quasi certain :

Définition 123

Soit (Ω, T , P) un espacé probabilisé. Un événement A ∈ T tel que P(A) = 0 est


dit négligeable.

Proposition-Définition 12

Soit (Ω, T , P) est un espace probabilisé et A ∈ T alors les assertions suivantes


sont équivalents :
1. p(A) = 1
2. ∀X ∈ T , P(A ∩ X) = P(X).
Si une d’elles est vraie, on dit que A est un événement quasi certain.

Preuve:
Supposons qu’on a (1). Soit X ∈ T , alors X = (X ∩ A) ∪ (X ∩ Ac ), l’union
étant disjointe, donc P(X) = P(A ∩ X) + P(X ∩ Ac ). On a X ∩ Ac ⊂ Ac et
P(Ac ) = 1 − P(A) = 0, donc P(X ∩ Ac ) = 0 et finalement P(A ∩ X) = P(X).
Réciproquement il suffit de prendre X = Ω.

11.1.2 Indépendance, Probabilité conditionnelle


11.1.2.1 Événements indépendants

Définition 124

Soit (Ω, T , P) un espace probabilisé. et (Aj )j∈J une famille quelconque d’événe-
ments. On dit que les événements Aj sontY indépendants si pour toute partie K
finie non vide de J on a P( ∩ Ak ) = P(Ak ).
k∈K
k∈K
268 CHAPITRE 11. PROBABILITÉS

On dit aussi que les événements (Aj )j∈J sont mutuellement indépendants.

Exemples On lance deux fois de suite un dé non truqué et on marque le couple de


nombres obtenus. On considère les événements suivants :
A : « Obtenir 1 au premier lancé ».
B : « Obtenir 2 au deuxième lancé ».
C : « Obtenir 1 ou 2 au premier lancer ».
Alors A et B sont indépendants tandis que A et C ne sont pas indépendants. En
effet, on a : card(A) = card(B) = 6 et card(A ∩ B) = 1 et card(C) = 12 et
card A ∩ C = card(A) = 6, alors :
1 1 1
P(A ∩ B) = = . = P(A)P(B)
36 6 6
Tandis que :
1
P(A ∩ C) = P(A) =
6
et
1 1 1
P(A)P(C) = . =
6 3 18

11.1.2.2 Probabilité conditionnelle

Proposition-Définition 13

(Ω, T , P) est un espace probabilisé et B ∈ T tel que P(B) ̸= 0. Pour tout X ∈ T ,


on pose :
P(X ∩ A)
PB (X) =
P(B)
Alors PB est une probabilité sur (Ω, T ) appelée probabilité conditionnelle(conditionnée
par l’événement B). Le réel PB (X) noté aussi P(X|B)

Preuve:
• Il est clair que PB (X) ∈ R+ , pour tout X ∈ T .
P(Ω ∩ B) P(B)
• On a PB (Ω) = = = 1.
P(B) P(B)
•[Si (An )n∈N est une famille d’événement deux à deux incompatibles et A =
An , alors :
n∈N
   
S S
P ( An ) ∩ B P (An ∩ B)
n∈N n∈N
PB (A) = =
P(B) P(B)
11.1. RAPPELS ET COMPLÉMENTS 269

Or (An ∩ B)n∈N est une famille d’événements deux à deux disjoints, donc :
!
[ X
P (An ∩ B) = P(An ∩ B)
n∈N n∈N

ce qui fournit :
!
[ X P(An ∩ B) X
PB An = = PB (An )
n∈N n∈N
P(B) n∈N

Donc PB est une probabilité sur (Ω, T ).

Remarques On peut faire les remarques suivantes :


1. Si B ∈ T alors TB = {X ∩ B/X ∈ T } est une tribu sur B. On dispose de
l’espace probabilisable (B, TB ). Si de plus P(B) ̸= 0 alors PB définie sur TB
P(X)
par : PB (X) = est une probabilité sur (B, TB ). On dispose ainsi de
P(B)
l’espace probabilisé : (B, TB , PB )
2. Si A et B sont deux événements tel que P(B) ̸= 0, alors PB (A) = P(A) si et
seulement si A et B sont indépendants.

11.1.2.3 Formule des probabilités totales :

Définition 125

Soit (Ω, T , P) un espace probabilisé. On appelle système complet d’événements


toute famille (Ai )i∈I d’événements tel que :
(i) I est non vide au plus dénombrable.
(ii) ∀i ∈ I, P(Ai ) ̸= 0 et
(iii) (Ai )i∈I est une partition de Ω.

Proposition 268

Soit (Ω, T , P) un espace probabilisé et (Ai )i∈I un système complet d’événements


de (Ω, T , P) avec I fini. Alors, pour tout X ∈ T , on a :
X
P(X) = P(Ai )PAi (X).
i∈I

Remarques On peut faire les remarques suivantes :


1. si on considère, en général, une famille au plus dénombrable (Ai )i∈I d’événe-
ments tel que ∀i ∈X I, P(Ai ) ̸= 0 et (Ai )i∈I est une partition de Ω alors on a :
∀X ∈ T , P(X) = P(Ai )PAi (X).
i∈I
270 CHAPITRE 11. PROBABILITÉS

2. Si A est un événement tel que P(A)(1 − P(A)) ̸= 0 alors :


∀X ∈ Ω, P(X) = P(A)PA (X) + P(Ac )PAc (X).

11.1.2.4 Formule des probabilités composées :

Proposition 269

Soit (Ω, T , P) un espace probabilisé et A et B deux événements tel que P(A) ̸= 0


et P(B) ̸= 0 alors : P(B)PB (A) = P(A)PA (B)

Preuve:
P(A ∩ B) P(B ∩ A)
On sait que PB (A) = et PA (B) = , donc P(A ∩ B) =
P(B) P( A)
P(B)PB (A) = P(A)PA (B).

Preuve:
C’est une conséquence immédiate de la définition des probabilités condition-
P(A ∩ B P(B ∩ A)
nelles : On a P(A|B) = et P(B|A) = , donc :
P(B) P(A)

P(A ∩ B) = P(B)P(A|B) = P(A)P(B|A)

Une classe est composée de 30 élèves répartis sur quatre rangés comme suit suivant
les rangée et le nombre des garçons et de filles :
1. : Rangée I : 4 garçons et 4 filles.
2. : Rangée II : 3 garçons et 4 filles.
3. : Rangée III : 4 garçons et 3 filles.
4. : Rangée IV : 5 garçons et 3 filles.
On fait un tirage au sort d’un élève de cette classe.
1. Quelle est la probabilité que ce soit un garçon sachant qu’il a été tiré dans la
rangée III ?
2. Sachant que l’élève tiré est une fille, quelle est la probabilité que ce soit dans
la rangée III ?
On introduit les événements suivants :
R3 : « L’élève tiré est dans la rangée 3 »
G : « L’élève tiré est un garçon » Puisqu’il y a quatre rangées et qu’elles ont la
1
même chance que l’élève tiré provienne de chacune d’elles, on a P(R4 ) = .
4
16
Le nombre totale des garçons dans cette classe à 30 élèves est 16, donc P(G) = =
30
8
.
15
11.1. RAPPELS ET COMPLÉMENTS 271

4
1. P(G|R3 ) = car la rangée R3 comprends 4 garçons et 3 filles.
7
2. D’après la formule des probabilités composées, on a :

P(R3 )
P(R3 |F ) = P(F |R3 )
P(F )
3 7
Or P(F |R3 ) = et P(F ) = , il vient :
7 15
3 1 15 45
P(R3 |F ) = =
74 7 196
Remarque On peut généraliser cette formule sous la forme suivante ! :
n−1
\
Soit n ∈ N, n ≥ 2 et A1 , . . . , An des événements tel que P Ak ̸= 0. Alors, on
k=1
a la formule : ! !
n
\ n
Y k−1
\
P Ak = P(A1 ) P Ak | Aj
k=1 k=2 j=1

Preuve:
Par récurrence sur n :
• Pour n = 2, la formule s’écrit : P(A1 ∩ A2 ) = P(A1 )P(A2 |A1 ) avec P(A1 ) ̸= 0.
C’est la définition de la probabilité conditionnelles.
• Soit n ∈ N, n ≥ 2 tel que la propriété ci-dessus est vrai pour n. Soit A1 , . . . , An , An+1
[n n+1
[
des événements tel que Bn = Ak réalise P(Bn ) ̸= 0 et notons A = Ak .
k=1 k=1
On a A = Bn ∩ Bn+1 , donc :

P(A) = P(Bn )P(An+1 |Bn )

Par hypothèse de récurrence et compte tenu que P(Bn−1 ) ̸= 0 puisque Bn ⊂


n−1
[
Bn−1 et P(Bn ) ̸= 0 (ici Bn−1 = Ak ), on a :
k=1

n n−1
!
Y \
P(Bn ) = P(A1 ) P Ak | Aj
k=2 j=1

Il en découle que :
" n n−1
!#
Y \
P(A) = P(A1 ) P Ak | Aj P(An+1 |Bn )
k=2 j=1
272 CHAPITRE 11. PROBABILITÉS

Donc : ! !
n+1
\ n+1
Y k−1
\
P Ak = P(A1 ) P Ak | Aj
k=1 k=2 j=1

ce qui achève la démonstration par récurrence.

11.2 Variables aléatoires


Dans toute la suite, (Ω, T , P) est un espace probabilisé.

11.2.1 Définitions, premières propriétés


11.2.1.1 Définitions

Définition 126

On appelle variable aléatoire réelle sur (Ω, T , P), toute application : X : Ω → R


tel que : ∀a ∈ R, X −1 (] − ∞, a]) ∈ T .

Remarques On peut faire les remarques suivantes :


1. Soit X une v.a.r sur (Ω, T , P). Si B est l’ensemble des parties de R, obtenues
à partir des intervalles de la forme Ia =] − ∞, a] et les opérations sur les
ensembles : union au plus dénombrable et complémentaire par rapport à Ω
(donc intersection au plus dénombrable), alors on a ∀A ∈ B, X −1 (A) ∈ T
2. On note (X ∈ A) l’événement X −1 (A), pour toute partie A ∈ B.
3. On a en particulier, par exemple :
• (X ≤ a = {ω ∈ Ω/X(ω ≤ a}
• (X = a) = {ω ∈ Ω/X(ω) = a}
• (a ≤ X ≤ b = {ω ∈ Ω/a ≤ X(ω) ≤ b}
• (X > a = {ω ∈ Ω/X(ω > a}

11.2.1.2 Quelques propriétés

Théorème 62

(admis) Si (Xk )1≤k≤m une suite de v.a.r sur (Ω, T , P) et f : Rm → R une


application continue alors l’application ω 7→ f (X1 (ω), · · · , Xm (ω)) de Ω vers R
est une v.a.r. notée f (X1 , · · · , Xm ).
11.2. VARIABLES ALÉATOIRES 273

Corollaire 21
m
X m
Y
Si (X1 , · · · , Xm ) est une famille de v.a.r sur (Ω, T , P) alors Xk , Xk , sup (Xk )
1≤k≤m
k=1 k=1
et inf (Xk ) sont des v.a.r sur (Ω, T , P).
1≤k≤m

Proposition 270

Si f : R → R est une application monotone alors pour toute v.a.r X sur


(Ω, T , P), on a f ◦ X est une v.a.r.

Preuve:
Supposons, par exemple, que f est croissante. On sait que pour tout intervalle
I de R, on a f −1 (I) est un intervalle de R, en effet si x, y ∈ f − (I) tel que x < y,
Soit z ∈ R tel que x < z < y alors par croissance de f , on a f (x) ≤ f (z) ≤ f (y)
et par suite f (z) ∈ I car f (x), f (y) ∈ I et I est un intervalle de R. Il en découle
que si I est un intervalle de R, on a (f ◦ X)−1 (I) = X −1 (f −1 (I)) ∈ T , compte
tenu de la remarque 2 ci-dessus juste après la définition d’une v.a.r.

Remarque La proposition ci-dessus est valable si on remplace monotone par mo-


notone par morceaux.

Proposition 271

Soit (Xn ) une suite de v.a.r. sur (Ω, T , P). Si Xn converge simplement vers X
application de Ω vers R alors X est une v.a.r.

Preuve:
Avant de donner la preuve on commence par donner deux remarques :
- Première : Si (un ) est une suite réelle convergente de limite ℓ alors ℓ =
inf sup uk .
n∈N k≥n
En effet, d’abord ℓ ≤ Un pour tout n ∈ N où Un = sup uk , car sinon, on aurait :
k≥n

∃N ∈ N, ∀k ≥ N, uk < ℓ

ce qui contredit la convergence de (un ) vers ℓ. Donc ℓ est un minorant de


{Un /n ∈ N}. Soit ε > 0. Par définition de la limite, il existe N ∈ N tel que :
∀n ≥ N, ℓ − ε < un < ℓ + ε. en particulier : UN = sup uk ≤ ℓ + ε. Ainsi
k≥N
ℓ = inf{Un /n ∈ N}.
- Deuxième : Soit A une partie non vide bornée de R, alors pour tout a ∈ R
274 CHAPITRE 11. PROBABILITÉS

on a :
sup(A) < a ⇔ ∃η > 0, ∀x ∈ A, x < a − η.
inf(A) < a ⇔ ∃x ∈ A, x < a
En effet supposons que η existe alors sup(A) ≤ a − η < a. Réciproquement si
1 1
sup(A) < a alors en prenant η = (a − sup(A)), on a a − η = (a + sup(A)) ,
2 2
donc x < a − η, pour tout x ∈ A.
Pour la seconde équivalence, supposons que ∃x ∈ A tel que x < a, alors
inf(A) ≤ x < a. Supposons que ∀x ∈ A, x ≥ a alors, on aurait inf(A) ≥ a,
d’où l’autre sens de l’équivalence par contraposée. Soit alors ω ∈ Ω, comme
Xn → X simplement sur Ω, on a en particulier X(ω) = lim Xn (ω).
n→+∞
Donc X(ω) = sup inf (Xk (ω)). Compte tenu des remarques ci-dessus, on a : si
n∈N k≥n
a ∈ R, alors :

X(ω) < a ⇔ ∃η > 0, ∀n ∈ N, ∃k ≥ n, uk < a − η

il en découle qu’il existe η > 0 tel que, si a′ = a − η, alors :

(X < a) = ∩ ∪ (Xk < a′ ).


n∈N k≥n

Par hypothèse les Xk sont des variables aléatoires, donc (X < a) ∈ T , pour
tout a ∈ R, ce qui prouve le fait que X est une v.a.r.

11.2.2 Loi d’une variable aléatoire


Soit I (R) l’ensemble des intervalles de R et (Ω, T , P) un espace probabilisé.

Définition 127

Si X est une v.a.r. sur (Ω, T , P), l’application φ : I (R) → R tel que φ(I) =
P(X ∈ I) pour tout I ∈ I (R) s’appelle la loi de la v.a.r. X.

Définition 128

Si X = (X1 , · · · , Xm ) est une famille de v.a.r. sur (Ω, T , P) alors l’application :


Φ : I (R)m → R tel que Φ(I1 , · · · , Im ) = P( ∩ (Xk ∈ Ik )), s’appelle la loi de
1≤k≤m
la famille de v.a.r. X.

Remarque On notera (X1 ∈ I1 , · · · , Xm ∈ Im ) l’événement : ∩ (Xk ∈ Ik ),


1≤k≤m
ainsi :
Φ(I1 , · · · , Im ) = P(X1 ∈ I1 , · · · , Xm ∈ Im )
11.2. VARIABLES ALÉATOIRES 275

11.2.3 Fonction de répartition


Définition 129

Soit X une variable aléatoire réelle sur un espace probabilisé (Ω, T , P). L’ap-
plication FX de R vers R définie par : FX (t) = P(X ≤ t) pour tout t ∈ R est
appelée la fonction de répartition de la v.a.r . X.

Exemple On lance une pièce de monnaie une seule fois et on associe à cette expé-
rience l’espace probabilisé (Ω, T , P) avec Ω = {P, F } et P(P ) = p et P(F ) = 1 − p
avec p un réel tel que p ∈ [0, 1]. On considère la variable aléatoire X tel que
X(P ) = 1 et X(F ) = 0. Alors, on a X(Ω) = {0, 1} et pour tout réel t, on a
FX (t) = P(X ≤ t) = 0 si t < 0 et FX (t) = 0 si 0 ≤ t < 1 et FX (t) = 1 si t ≥ 1.

Théorème 63

L’application FX possède les propriétés suivantes :


1. FX est croissante sur R
2. lim FX = 0 et lim FX = 1
−∞ +∞
3. FX est continue en tout point a ∈ R à droite.

Preuve:
1) Soit x, y ∈ R tel que x ≤ y, alors ] − ∞, a] ⊂] − ∞, y] donc P(X ≤ x) ≤
P(X ≤ y), d’où FX (x) ≤ FX (y).
2) Comme FX est croissante il suffit de prouver que lim FX (−n) = 0. Or c’est
n→+∞
le cas puisque la famille d’intervalles (In ) tel que In =]−∞, −n] est décroissante
et ∩ In = ∅, donc la famille (X ∈ In ) est une famille décroissante d’éléments
n∈N
de T et ∩ (X ∈ In ) = ∅. par le théorème de continuité séquentielle monotone,
n∈N
on a 0 = P(∅) = lim P(X ∈ In ) = lim FX (−n).
n→+∞ n→+∞
Pour lim FX = 1, même raisonnement en remarquant que R = ∪ ] − ∞, n].
+∞ n∈N
3) Soit a ∈ R. Compte tenu du fait que FX est croissante, pour démontrer que
1
FX est continue à droite en a, il suffit de prouver que lim FX (a + )=
n→+∞ n+1
1
FX (a), chose vraie car si In =] − ∞, a + ] alors ] − ∞, a] = ∩ In , donc
n+1 n∈N
par le théorème de continuité séquentielle monotone, on conclut.

Proposition 272

Soit t0 ∈ R, alors P(X < t0 ) = FX (t0 −).


276 CHAPITRE 11. PROBABILITÉS

Preuve:
Pour toute suite (xn ) strictement croissante qui converge vers t0 , on a

] − ∞, t0 [= ∪ ] − ∞, xn ]
n∈N

donc par la caractérisation séquentielle de la limite, et le théorème de continuité


séquentielle, on a :
P(X < t0 ) = FX (t0 −)

Corollaire 22

FX est continue au point t0 si et seulement si P(X = t0 ) = 0.

Conséquence : on peut à l’aide de FX exprimer P(X ∈ I) pour tout intervalle I


de R. par exemple, on a :
1. P(a < X ≤ b) = FX (b) − FX (a)
2. P(a ≤ X ≤ b) = FX (b) − FX (a−)
3. P(a < X < b) = FX (b−) − FX (a)
4. P(a ≤ X < b) = FX (b−) − FX (a−)

Preuve:
Par exemple pour la dernière : on a : R =] − ∞, a[∪[a, b[∪[b, +∞[, union
disjointe, doc : 1 = FX (a−) + P(a ≤ X < b) + 1 − FX (b−), ce qui donne
P(a ≤ X < b) = FX (b−) − FX (a−).

Définition 130

Soit X = (X1 , · · · , Xm ) une famille de variables aléatoires réelles sur (Ω, T , P).
L’application : FX : Rm → R tel que FX (t1 , · · · , tm ) = P(X1 ≤ t1 , · · · , Xm ≤
tm ) s’appelle la fonction, de répartition de la famille X des v.a.r.(Xj ), 1 ≤ j ≤ m.

11.2.4 Indépendance des v.a.r, conditionnement


11.2.4.1 Indépendance

Définition 131

Soit (Xj )j∈J une famille de variables aléatoires réelles d’un espace probabilisé
(Ω, T , P). On dit que les v.a.r. Xj sont indépendantes si pour toute famille
(Ij )j∈J d’intervalles de R, les événements (Xj ∈ Ij )j∈J sont indépendants.
11.2. VARIABLES ALÉATOIRES 277

Remarques 1. Ne pas confondre avec deux à deux indépendantes.


2. La notion d’indépendance dépends de la probabilité P choisie.

Proposition 273

Si X1 , · · · , Xn sont des variables aléatoires indépendantes et si 0 = n0 < · · · <


np = n et pour tout j ∈ {1, · · · , p} on pose Yj = fj (Xnj−1 +1 , · · · , Xnj ) et si
Y1 , · · · , Yp sont des variables aléatoires alors Y1 , · · · , Yp sont indépendantes.

11.2.4.2 Conditionnement

Définition 132

Si X et Y sont deux v.a.r. sur (Ω, T , P), on dispose des événements (X ∈ A) et


(y ∈ B où A, B ∈ BR . Si P(X ∈ B) ̸= 0, alors on sait que :

P(X ∈ A, Y ∈ B)
P (X ∈ A)/(Y ∈B) =
P(Y ∈ B)

On parle de variable conditionnée : Z dont la loi est donnée par :

P(Z ∈ A) = P (X ∈ A)/(Y ∈B)

pour tout A ∈ BR .

11.2.5 Variables aléatoires réelles discrètes


11.2.5.1 Définitions

Définition 133

Soit X une variable aléatoire réelle sur (Ω, T , P). on dit que X est discrète s’il
existe Ω′ ∈ T tel que P(Ω′ ) = 1 et X(Ω′ ) est au plus dénombrable.

Remarques On a les remarques suivantes :


1. Si X est une v.a.r.d., la partie D de R tel que :

D = {x ∈ X(Ω′ )/P(X = x) ̸= 0},

s’appelle l’ensemble des valeurs possibles de X. On a D ⊂ D′ = X(Ω′ ) et


l’inclusion peut être stricte.
2. La loi de X est parfaitement déterminée par la donnée de D (ensemble des
valeurs possibles) et P(X = t) pour tout t ∈ D.
278 CHAPITRE 11. PROBABILITÉS

3. Si A ∈ I (R) (ensemble des intervalles de R) alors


X
(⋆) P(X ∈ A) = P(X = t)
t∈A

Notons que la somme dans (⋆) a un sens car l’ensemble

A′ = A ∩ D = {t ∈ A/P(X = t) ̸= 0}

est au plus dénombrable, donc (⋆) s’écrit aussi :


X
(⋆⋆) P(X ∈ A) = P(X = t)
t∈A∩D

4. On parle de variable aléatoire discrète usuelle s’il existe une bijection croissante
φ : J → D d’un intervalle J de Z vers D.
Dans ce cas on peut noter D = {tk /k ∈ J} où tk = φ(k), ∀k ∈ J.

Exemple On considère Ω = R, on prends la tribu T = P(R) et soit P : T → [0, 1]


tel que pour tout A ∈ T , on a : P(A) = 0 si A ∩ Z = ∅ et si A′ = A ∩ Z ̸= ∅, alors
X 1
P(A) = |k|
. Il est aisé de prouver que (Ω, T , P) est un espace probabilisé.
k∈A ′
3.2
Remarquons que l’on a :
+∞
!
X 1 1 X 1
P(Z) = |k|
= 1+2 n
=1
k∈Z
3.2 3 n=1
2

Soit X : R → R tel que X(ω) = ω 2 . On remarque que X(Ω) = X(R) = R+ n’est


pas dénombrable.

Soit Ω′ = {± n/n ∈ N} : il est clair que Ω′ est dénombrable, et puisque Z ⊂ Ω′ et
P(Z) = 1, on a P(Ω′ ) = 1. Il en résulte que la v.a.r. X est discrète.
L’ensemble des valeurs possibles de X est D = {n2 /n ∈ N} = X(Z). On remarque
que D ⊊ D′ , où D′ = X(Ω′ ) = N.

11.2.5.2 Variables aléatoires discrètes usuelles :


1- Loi uniforme discrète

Définition 134

On dit que la v.a.r. X sur (Ω, T , P) suit une loi uniforme discrète et on note
1
X ,→ U[[1, n]] si X(Ω) = [[1, n]] et pour tout k ∈ X(ω) , P(X = k) = .
n

Généralement si X(Ω) = {x1 , · · · , xn } avec x1 , · · · , xn des réels distincts et P(X =


1
xk ) = , on dit aussi que X suit une loi uniforme discrète et on note X ,→
n
U({x1 , · · · , xn })
11.2. VARIABLES ALÉATOIRES 279

Exemple On lance un dé parfait à six faces numérotées de 1 à 6. Soit X la variable


aléatoire réelle qui désigne le numéro de la face obtenue. Alors Ω = {1, · · · , 6} et
1
X(Ω) = [[1, 6]] et pour tout k ∈ [[1, 6]], on a P(X = k) = . Donc X ,→ U[[1, 6]].
6
Exemple On prends Ω = R et T = BR la tribu borélienne. On admet qu’il existe
une probabilité P sur l’espace probabilisable (Ω, T ) tel que pour tout intervalle I
non trivial de R, on ait : Z
1 2
P(I) = √ e−t dt
π I
Soit X l’application de R vers R tel que :

1 si ω < 0
∀ω ∈ R X(ω) =
2 si ω ≥ 0

Alors X est une variable aléatoire puisque pour tout intervalle J de R, on a




 ] − ∞, 0[ si 1∈J et 2 ̸∈ J



X −1 (J) = [0, +∞[ si 1 ̸∈ J et 2 ∈ J




si 1∈J et 2 ∈ J

R

On a X(R) = {1, 2} et
 Z 0
1 2 1
P(X = 1) = √ e−t dt =


π −∞ 2



Z +∞
1 1

2

 P(X = 2) = √ e−t dt =


π 0 2

Il en découle que X ,→ U[[1, 2]].

2- Loi de Bernoulli

Définition 135

Soit p un nombre réel tel que p ∈ [0, 1] et X une v.a.r sur (Ω, T , P). On dit que
suit la loi de Bernoulli de paramètre p et on note X ,→ B(p), si X(Ω) = {0, 1}
et P(X = 1) = p et P(X = 0) = 1 − p

1
Exemple On lance une pièce de monnaie qui montre pile avec une probabilité et
3
2
face avec la probabilité . Soit X la variable aléatoire qui prend 1 si on obtient pile
3
1
et 0 si on obtient face. Alors X ,→ B( )
3
3-Loi binomiale
280 CHAPITRE 11. PROBABILITÉS

Définition 136

Soit p ∈ [0, 1] et n ∈ N et X une v.a.r sur (Ω, T , P). on dit que X suit la loi
binomiale de paramètres n et p et on note : X ,→ B(n, p),
 si X(ω) = [[0, n]] et
n k n
pour tout k ∈ [[0, n]], P(X = k) = p (1−p)n−k , où dénote le coefficient
  k k
n n!
binomial : =
k k!(n − k)!

Exemple Sur 10 foyers d’un village, un seul est prêt d’acheter des livres. Un vendeur
de livres fait le tour des 400 foyers de ce village de manière aléatoire. Quelles est
la probabilité que 40 personnes exactement achètent des livres quand il finit le tour
de tous les foyers du village ? Soit X la variable aléatoire qui prends le nombre de
foyers ayant acheté un livre à ce vendeur. On cherche P(X = 40). Il est facile de voir
1 1
que X ,→ B(400, ) Ω = [[1, 400]], X(Ω = [[0, 400]] et p = et par suite :
10 10
    360
400 1 9
P(X = 40) = 40
40 10 10

Grâce à maple, on trouve : P(X = 40) ≃ 0.066

4- Loi géométrique X ,→ G(p) si X(Ω) = N∗ et P(X = n) = p(1 − p)n−1 . On


adopte la notation q = 1 − p, donc ∀n ∈ N∗ P(X = n) = pq n−1 .

Remarque Il existe une autre définition qui adopte : X ,→ G(p) si X(Ω) = N et


pour tout n ∈ N, on a : P(X = n) = p(1 − p)n

λn
5- Loi de Poisson X ,→ P(λ) si X(Ω) = N et P(X = n) = e−λ .
n!

11.2.6 Variables aléatoires continues à densité


11.2.6.1 Définitions, propriétés

Définition 137

Soit X une variable aléatoire réelle sur un espace probabilisé (Ω, T , P). On dit
que X est continue à densité si sa fonction de répartition FX vérifie ce qui suit :
(i) FX est continue sur R.
(ii) Il existe une partie finie A de R tel que FX est de classe C 1 sur R\A.

0 si t ∈ A
La fonction fX définie par fX (t) = est appelé densité
FX′ (t) si t ∈ R\A
de la variable aléatoire réelle X.
11.2. VARIABLES ALÉATOIRES 281

Proposition 274

Si X est une variable aléatoire réelle continue à densité sur (Ω, T , P) alors :
(i) f ≥ 0 sur R.
(ii) fX est continue sur R\A.
Z +∞
(iii) fX (t)dt = 1.
−∞

Remarque Si une application f : R → R ne vérifie pas l’une des propriétés ci-


dessus elle ne peut être la densité de probabilité pour une variable aléatoire continue
à densité.

Proposition 275

Soit X une variable aléatoire réelle continue à densité. Si FX et fX sont respec-


tivement la fonction de répartition et la densité de X alors on a :
Z x
∀x ∈ R, FX (x) = fX (t)dt
−∞

Preuve:
Comme X est continue à densité, il existe une partie finie A de R tel que FX
est de classe C 1 sur tout intervalle contenu dans R\A. Soit x ∈ R. Trois cas
sont possibles :
• Si A∩] − ∞, x[= ∅ alors FX′ (t) = fXZ(t) pour tout t ∈ R, en particulier, pour
Z x x
tout x ∈ R, on a : fX (t)dt = FX′ (t)dt = [FX (t)]x−∞ = FX (x) car
−∞ −∞
lim FX (t) = 0.
t→−∞
• Si A∩] − ∞, x[= {a} avec a ∈ R, la formule ci-dessus reste valable si x < a.
Si x ≥ a alors :
Z x Z a Z x
fx (t)dt = fX (t)dt + fX (t)dt = FX (a) + FX (x) − FX (a) = FX (x)
−∞ −∞ a

car fx est de classe C 1 sur chacun des intervalles ] − ∞, a[ et ]a, x] et sa dérivée


FX est continue sur chacun des intervalles ] − −∞, a] et [a, x].
• Si A∩] − ∞, x[= {a1 , . . . , am } avec m ∈ N, m ≥ 2 et a1 < · · · < am alors :
Z x Z a1 m−1
X Z ak+1 Z x
fX (t)dt = fX (t)dt + fX (t)dt + fX (t)dt
−∞ −∞ k=1 ak am

Puisque fX est de classe C1 sur chacun des intervalles :] − ∞, a1 [, ]ak , ak+1 [(1 ≤
282 CHAPITRE 11. PROBABILITÉS

k ≤ m − 1), ]am , x[ et que sa dérivée FX est continue sur R, on a alors :


Z x m−1
X
fX (t)dt = FX (a1 ) + (FX (ak+1 ) − FX (ak )) + FX (x) − FX (am ) = FX (x)
−∞ k=1

Proposition 276

Soit X une variable aléatoire réelle continue à densité, alors pour tout intervalle
I de R de bornes a et b, on a :
Z b
P(X ∈ I) = fX (t)dt = FX (b) − FX (a).
a

En particulier, pour tout t ∈ R, on a P(X = t) = 0.

Preuve:
On a :
P(X ≤ b) = P(X ≤ a) + P(a < X ≤ b)P(a < X ≤ b)
Donc :
p(X ∈ I) = P(a < X ≤ b) = F (b) − F (a)
D’après la proposition 275, on a alors :
Z b Z a
P(X ∈ I) = fX (t)dt − fX (t)dt
−∞ −∞

donc Z b
P(X ∈ I) = fX (t)dt
a

11.2.6.2 Variables continues à densité usuelles


1) Loi uniforme continue

Définition 138

Soit X une variable continue à densité sur (Ω, T , P) et a, b ∈ R tel que a < b.
On dit que f suit la loi uniforme continue sur [a, b] si la densité fX de X est
définie par : ( 1
si a ≤ x ≤ b
fX (x) = b−a
0 sinon
Notation : X ,→ U[a, b].
11.2. VARIABLES ALÉATOIRES 283

Proposition 277

Soit X une variable aléatoire sur (Ω, T , P). Si X ,→ U[a, b] alors la fonction de
répartition FX de X est définie par :

 0x −sia x < a

FX (x) = si a ≤ x ≤ b
 b−a

1 si b ≤ t

Preuve:
Z x
Soit x ∈ R alors FX (x) = fX (t)dt.
−∞
• Si x < a, comme fX est nulle sur ] − ∞, x], on a FX (x) = 0.
• Si a ≤ x ≤ b alors :
Z a Z x
1 x−a
FX (x) = 0dt + dt =
−∞ a b−a b−a

• Si x > b alors :
Z b Z +∞
FX (x) = fX (t)dt + 0dt = FX (b) = 1
−∞ b

2) Loi exponentielle de paramètre λ

Définition 139

Soit X une variable aléatoire réelle continue à densité sur (Ω, T , P) et Soit
λ ∈ R∗+ . On dit que X suit la loi exponentielle de paramètre λ si la fonction de
densité de X est définie par :
 −λx
λe si x > 0
fX (x) =
0 si x ≤ 0

Notation : X ,→ E(λ).

Proposition 278

Soit X une variable aléatoire réelle continue à densité sur (Ω, T , P) et λ ∈ R∗+ .
Si X ,→ E(λ) alors la fonction de répartition FX de X est définie par :

1 − e−λx si x > 0

FX (x) =
0 si x ≤ 0
284 CHAPITRE 11. PROBABILITÉS

Preuve:
Soit x ∈ R.
• Si x < 0, comme fX est nulle sur ] − ∞, x], on a FX (x) = 0.
• Si x > 0, alors :
Z x
x
λe−λt dt = −e−λt 0 = 1 − λe−λx

FX (x) =
0

3) Loi normale de Gauss

Définition 140

Soit X une variable aléatoire réelle continue à densité sur (Ω, T , P) et soit
(µ, σ) ∈ R × R∗+ . On dit que X suit la loi normale de Gauss de paramètres
µ et σ 2 si la densité de X est définie par :

(x − µ)2
 
1
∀x ∈ R, fX (x) = √ exp −
σ 2π 2σ 2

Notation : X ,→ N (µ, σ 2 ).

4) Loi gamma

Définition 141

Soit X une variable aléatoire réelle continue à densité sur (Ω, T , P) et soit
(a, λ) ∈ R2+ . On dit que X suit la loi Gamma de paramètres a et λ si la densité
fX de X est définie par :

λa a−1 −λt

t e si t ≥ 0


Γ(a)

fX (t) =


 0 si x < 0

Notation : X ,→ Γ(a, λ).

Remarque Pour tout réel strictement positif λ, on a Γ(1, λ) = E (λ).

11.2.7 Somme de deux variables aléatoires indépendantes


(Ω, T , P) est un espace probabilisé et toutes les v.a.r. sont considérées sur cet espace.

11.2.7.1 Deux variables discrètes


11.2. VARIABLES ALÉATOIRES 285

Proposition 279

Si X et Y sont deux v.a.r. indépendantes discrètes tel que X(Ω) = D1 et


Y (Ω) = D2 alors X + Y est une v.a.r. discrète et (X + Y )(Ω) = D ⊂ D1 + D2
et pour tout s ∈ D, on a :
X X
P(X = s) = P(X = u)P(Y = s − u) = P(X = s − v)P(Y = v)
u∈D1 v∈D2

Preuve:
On peut toujours se ramener aux cas où X(Ω) et Y (Ω) sont au plus dénom-
brables. Pour tout ω ∈ Ω, on a (X + Y )(ω) = X(ω) + Y (ω) ∈ X(Ω) + Y (Ω),
donc si D = (X + Y )(Ω) alors D ⊂ D1 + D2 où D1 = X(Ω) et D2 = Y (Ω).
On peut sans nuire à toute généralité a , supposer que X(ω) ̸= 0 pour tout
ω ∈ Ω, de manière à avoir (X = k)k∈D1 est un système complet d’événement
et appliquer la formule des probabilités totales : pour s ∈ X + Y (Ω), on a :
X
P(X + Y = s) = P(X = k)P(X + Y = s|X = k)
k∈D1

Or :
P(X + Y = s, X = k) P(X = k, Y = s − k)
P(X + Y = s|X = k) = =
P(X = k) P(X = k)

Par indépendance, il vient :

P(X = k)P(Y = s − k)
P(X + Y = s|X = k) = = P(Y = s − k)
P(X = k)

d’où : X
P(X + Y = s) = P(X = k)P(Y = s − k)
k∈D1

pour tout s ∈ X + Y (Ω).


a. Pour ce faire on prends Ω1 = X −1 (D1′ ) où

D1′ = {x ∈ X(Ω)/P(X = x) ̸= 0}

c’est -à-dire l’ensemble des valeurs possibles de X et remplacer Ω par Ω1 . On peut prouver
que P(Ω1 ) = 1, donc rien ne change au niveau du raisonnement.

11.2.7.2 Une variable continue et une autre discrète


286 CHAPITRE 11. PROBABILITÉS

Proposition 280

Soient X et Y deux variables aléatoires réelles indépendantes sur (Ω, T , P) tel


que X est discrète d’ensemble de valeurs possibles et Y continue de densité fY ,
alors X + Y est une v.a.r. continue et sa densité fX+Y est définie par :
X
∀s ∈ R, fX+Y (s) = P (X = u)fY (s − u)
u∈D

sous réservé que fX+Y est bien définie sur R et est continue sur R\A où A est
une partie finie de R.

11.2.7.3 Deux variables continues

Proposition 281

Soient X et Y deux variables aléatoires réelles indépendantes sur (Ω, T , P) tel


que X et Y sont continues de densités respectives fX et fY , alors X + Y est une
v.a.r. continue et sa densité fX+Y est définie par :
Z +∞ Z +∞
∀s ∈ R, fX+Y (s) = fX (u)fY (s − u)du = fX (s − v)fY (v)dv
−∞ −∞

sous réservé que fX+Y ci-dessus est continue sur R\A où A est une partie finie
de R.

Remarque On appelle produit de convolution de deux fonctions continues par


morceaux f et g de R vers R , la fonction notée f ∗ g définie par :
Z Z
f ∗ g(x) = f (t)g(x − t)dt = f (x − t)g(t)dt
R R

On remarque donc que fX+Y = fX ∗ fY .

11.2.8 Moments, espérance, variance, écart type d’une v.a.r.


11.2.8.1 Espérance mathématique : Définition

Définition 142

Soit X une v.a.r sur (Ω, T , P).


Si X est discrète d’ensemble de valeurs possibles D et si la famille (xP(X =
x))x∈D est sommable, sa somme :
X
E(X) = xP(X = x)
x∈D

est appelée l’ espérance mathématique de X.


11.2. VARIABLES ALÉATOIRES 287

Si X est continue de densité fX et si l’application x 7→ xfX (x) est integrable,


son intégrale : Z +∞
E(X) = xfX (x)dx
−∞

est appelée l’espérance mathématique de X.


Remarques On peut faire les remarques suivantes :
1. la sommabilité dans le cas discret permet d’avoir la somme indépendammentde
la permutation de ses termes. en particulier si φ : N∗ → D est une bijection et
si on pose xn = φ(n) et pn = P(X = xn ) alors
+∞
X
E(X) = xn p n .
n=1

2. On parle souvent de variable aléatoire X discrète représentée par la famille


(xi , pi ), ce qui signifie que D = {xi }i∈I est l’ensemble des valeurs possibles
et que pour tout i ∈ I, pi = P(X = xi ). Dans ce cas, et sous réserve de
sommabilité, l’espérance mathématique de X est :
X
E(X) = pi x i
i∈I

3. L’espérance mathématique de la v.a.r. X peut se comprendre


P comme une
p i xi
i∈I
moyenne de points pondérés : (xi , pi ), puisque E(X) = P . N’oublions
pi
X i∈I
pas que pi = 1
i∈I

11.2.8.2 Espérance des variables usuelles


Voir le tableau récapitulatif des variables aléatoires réelles usuelles discrètes et conti-
nues à densité. Toutes les 9 v.a.r. admettent une espérance.

11.2.8.3 Propriété de transfert


Note : On admet que si X est une variable aléatoire sur (Ω, T , P) est g : R → R
une application continue par morceaux, alors g ◦ X est une variable aléatoire sur
(Ω, T , P).
Théorème 64

Soit X un v.a.r. sur (Ω, T , P) , g : R → R une application et Y = g ◦ X.


• Si X est discrete, représentée par la famille (xk , pk )k∈I avec I un ensemble
au plus dénombrable, et Y est une v.a.r. alors Y admet une espérance si et
seulement si la famille (pk g(xk ))k∈I est sommable, auquel cas, on a : E(Y ) =
X
pk g(xk ).
k∈I
• Si X est continue de densité fX et g est continue par morceaux, alors, Y admet
288 CHAPITRE 11. PROBABILITÉS

une espérance si et seulementZ si l’application t 7→ g(t)fX (t) est intégrable sur


+∞
R, auquel cas, on a ; E(Y ) = g(t)fX (t)dt.
−∞

11.2.8.4 Transfert pour deux variables


On considère deux variables aléatoires réelles discrètes X, Y sur (Ω, T , P) de loi
conjointe la famille ((xi , yj ), pij )(i,j) ∈ I. Soit g : R2 → R une application tel que
Z = g ◦ (X, Y ) est une v.a.r. sur (Ω, T , P). Alors Z admet une espérance si et
seulement si la famille (pij g(xi , yj ))(i,j)∈I est sommable, auquel cas, on a
X
E(Z) = pij g(xi , yj )
(i,j)∈I

11.2.8.5 Linéarité de l’espérance mathématique


Soient X et Y sont deux variables aléatoires tel que chacune d’elle est soit discrète
soit continue à densité et λ ∈ R et supposons que X + λY est discrète ou continue
à densité, alors si X et Y admettent des espérances mathématiques E(X) et E(Y ),
alors X + λY en admet une et on a E(X + λY ) = E(X) + λE(Y ). Ce résultat sera
admis et peut être utilisé mais on va énoncé et démontrer ce résultat dans le cas
particulier où X et Y sont toutes les deux discrètes :

Proposition 282

Soient λ ∈ R et X et Y deux variables aléatoires discrètes sur (Ω, T , P). Si X et


Y admettent des espérances mathématiques E(X) et E(Y ) alors X + λY admet
une espérance mathématique et on a

E(X + λY ) = E(X) + λE(Y )

Preuve:
Soient X et Y deux variables aléatoires discrètes sur (Ω, T , P) et notons I =
X(Ω) et J = Y (Ω). Sans nuire à la généralité on peut supposer que X et Y
vérifient la condition :

∀(x, y) ∈ I × J, P(X = x) ̸= 0 et P(Y = y) ̸= 0.

On suppose que X et Y admettent des espérances mathématiques E(X) et


E(Y ).
(⋆) Soit λ ∈ R. En appliquant le théorème de transfert, avec l’application :

g : R → R; t 7→ λt,

et compte tenu du fait que la famille (λxP(X = x))x∈Ω(X) est sommable, on a


E(λX) existe et E(λX) = λE(X).
11.2. VARIABLES ALÉATOIRES 289

(⋆) On a K = (X + Y )(Ω) = I + J. Démontrons que la famille (|k|P(X + Y =


k)k∈K est sommable :
• La famille (P(X = i, Y = j))j∈J est sommable de somme :

S1,i = |i|P(X = i).

• Comme P(X = i, Y = i) ≤ P(Y = j) et la famille (|j|P(Y = j))j∈J est


sommable de somme E(|Y |), la famille (|j|(P(X = i, Y = j))j∈J est sommable
de somme : X
S2,i = |j|P(x = i, Y = j)
j∈Y (Ω)

• Il en découle que, pour tout i ∈ I, la famille ((|i| + |j|)P(X = i, Y = j))j∈J


est sommable de somme
X
Si = S1,i + S2,i = |i|P(X = i) + |j|P(X = i, Y = j)
j∈J

• La famille (Si )i∈I est sommable car :


• D’une part la famille (|i|P(X = i))i∈I est sommable de somme E(|X|) qui
existe par hypothèse puisque E(X)
X existe.
• D’autre part, on a E(|Y |) = |j|P(Y = j), donc par la formule des proba-
j∈J
bilités totales, compte tenu du fait que (X = i)i∈I est un système fondamental
d’événements de (Ω, T , P), on a
X X
E(|Y |) = |j| P(X = i)P(Y = j/X = i),
j∈J i∈I

donc X
E(|Y |) = |j|P(X = i, Y = j).
(i,j)∈I×J

Il en découle que la famille (|j|P(X = i, Y = j))(i,j)∈I×J est sommable et


par suite la famille (S2,i )i∈I est sommable. Donc (Si )i∈I est sommable et cela
termine la preuve du fait que la famille ((|i| + |j|)P(X = i, Y = j))(i,j)∈I×J est
sommable.
• Il découle de ce qui précède que E(X + Y ) existe et de plus, en notant K =
290 CHAPITRE 11. PROBABILITÉS

I + J = (X + Y )(Ω) = X(Ω) + Y (Ω), on a :


X X X
E(X + Y ) = sP((X + Y = s)) = s P(X = i)P(X + Y = s/X = i)
s∈K s∈K i∈I
XX
= sP(X = i, Y = s − i)
s∈K i∈I
XX
= (i + j)P(X = i, Y = j) (j = s − i).
j∈J i∈I
XX XX
= iP(X = i, Y = j) + jP(X = i, Y = j)
i∈I j∈J j∈J i∈I
X X X X
= i P(X = i, Y = j) + j P(X = i, Y = j)
i∈I j∈J j∈J i∈I
X X
= iP(X = i) + jP(Y = j) = E(X) + E(Y ).
i∈I j∈J

11.2.8.6 Autres propriétés de l’espérance mathématique

Proposition 283

Soient Y, Y deux v.a.r. sur (Ω, T , P) tel que |X| ≤ Y . Si Y admet une espérance
il en est de même pour X.

Preuve:
Résultat admis.

Proposition 284

Soient X, Y deux v.a.r. sur (Ω, T , P) et λ ∈ R. Alors :


(1) Si X admet une espérance mathématique et X ≥ 0 alors E(X) ≥ 0.
(2) Si X et Y admettent des espérances mathématiques E(X) et E(Y ) et si
X ≥ Y alors E(X) ≥ E(Y ).
(3) X admet une espérance mathématique si et seulement si |X| admet une
espérance mathématique et on a alors : |E(X)| ≤ E(|X|)

11.2.8.7 Moments

Définition 143

Soit X une variable aléatoire réelle et m un entier naturel non nul. Si l’espérance
de la variable aléatoire X m existe, le nombre réel E(X m ) s’appelle le moment
11.2. VARIABLES ALÉATOIRES 291

d’ordre m de X.

Proposition 285

Soit X une v.a.r. sur (Ω, T , P) et m, n ∈ N∗ tel que m ≤ n. Si X admet un


moment d’ordre n alors X admet un moment d’ordre m.

Preuve:
On part de l’inégalité : tm ≤ tn + 1 valable pour tout réel t ≥ 0. Dans le cas
discret et X représentée par (xk , pk ) on applique l’inégalité à tk = |xk | et on
obtient :
pk |xk |m ≤ pk |xk |n + pk
et comme E(X n ) existe par hypothèse et que la famille (pk ) est sommable, on
déduit que la famille (xm k pk ) est sommable .
Dans la cas continue à densité on applique l’inégalité à |fX (t)| pour tout t ∈ R
et du fait que t 7→ tn fX (t) et de t 7→ fX (t) sont intégrables, on conclut.

Définition 144

Soit X un variable aléatoire réelle sur (Ω, T , P) admettant un moment d’ordre


2, et soit µ = E(X) alors la v.a.r. (X − µ)2 admet une espérance positive ou
nulle, le nombre réel positif :

V(X) = E((X − µ)2 )


2 2
p On a V(X) = E(X ) − (E(X)) .
s’appelle la variance de X.
Le nombre réel σ(X) = V(X) s’appelle l’écart type de X.

Proposition 286

Soit X une variable aléatoire sur (Ω, T , P) admettant un moment d’ordre 2 alors
V(X) ≥ 0. De plus, on a :
(1) Si X est continue à densité alors V(X) > 0.
(2) Si X est discrète alors, V(X) = 0 si et seulement si ∃Ω1 ∈ T tel que
p(Ω1 ) = 1 et X est constante sur Ω1 .

Preuve:
On a V(X) = E((X − E(X))2 ) ≥ 0.
Z +∞
1. Si X est continue de densité f alors V(X) = (t − m)2 f (t)dt. or on
−∞
sait qu’il existe une partie A finie de R tel que f est continue sur R\A.
292 CHAPITRE 11. PROBABILITÉS
Z +∞ Z
p
2
On a (t − m) f (t)dt = (t − m)2 f (t)dt et R\A = ∪ Ij où les Ij
−∞ R\A j=1
sont des intervalles deux à deux disjoints et f est continue sur chaque Ij .
Alors si V(X) = 0 on aurait f nulle sur chaque Ij , donc sur R\A donc
Z +∞
sur R, ce qui contredit f (t)dt = 1
−∞
2. Soit X une variable aléatoire discrète sur (Ω, T , P) .
•X
Si X admet une variance et on note µ = E(X) et si V(X) = 0 alors
(x − µ)2 = 0. Comme il s’agit d’une somme à termes positifs, on a
x∈X(Ω)
(x − µ)2 P(X = x) = 0, pour tout x ∈ X(Ω). Il en découle que :

∀x ∈ X(Ω)\{µ}, P(X = x) = 0

Posons
Ω1 = (X = µ) = X −1 ({µ})
On a P(Ω1 ) = 1 car

1 = P(Ω) = P(X ∈ X(Ω))


X
= P(X = x)
x∈X(Ω)

= P(X = µ)
= P(Ω1 )

Par ailleurs et par définition de Ω1 , on a X(Ω1 ) = {µ}, donc X est


constante sur Ω1 .
• Réciproquement, supposons qu’il existe Ω1 ∈ T tel que P(Ω1 ) = 1 et
X est constante sur Ω1 . Posons alors X(ω) = m, pour tout ω ∈ Ω1 . Soit
x ∈ R tel que x ̸= m. Montrons que P(X = x) = 0. On a (X = x) ∩ (X =
m) = ∅ car {m} ∩ {x} = ∅, donc X −1 ({x}) ∩ X −1 ({m}) = ∅ comme
Ω1 ⊂ (X = m), on a Ω1 ∩ (X = x) = ∅ et comme P(Ω1 ) = 1, on a :
P(X = x) = 0.
On a :
X X
E(X) = xP(X = x) = mP(X = m) + xP(X = x) = m
x∈X(Ω) x∈X(Ω)
x̸=m

puisque P(X = m) = P(Ω1 ) = 1.


Il en découle que la variance de X est :
X
V(X) = (x − m)2 P(X = x) = (m − m)2 P(X = m) = 0
x∈X(Ω)
11.2. VARIABLES ALÉATOIRES 293

Proposition 287

Soit X une v.a.r. admettant un moment d’ordre 2. Alors, on a :


(1) Pour tout λ ∈ R, la v.a.r λX admet une variance et V(λX) = λ2 V(X),
en particulier σ(λX) = |λ|σ(X).
(2) Pour tout λ ∈ R , la v.a.r. (X+λ) admet une variance et V(X+λ) = V(X).

11.2.8.8 Covariance

Proposition 288

Soit X et Y deux v.a.r sur (Ω, T , P) admettant chacune un moment d’ordre 2..
Alors XY admet une variance et on a l’inégalité dite de Cauchy-Schwarz :

(E(XY ))2 ≤ E(X 2 )E(Y 2 )

Preuve:
1
Notons que XY ≤ (X 2 + Y 2 ) permet de dire que E(XY ) existe. Par ailleurs
2
pour tout t ∈ R on a E((tX + Y )2 ) ≥ 0, donc l’application polynômiale t 7→
(E(X 2 )t2 + 2tE(X)E(Y ) + E(Y 2 ) est positive, donc son discriminent réduit
∆′ = (E(X)E(Y ))2 − E(X 2 )E(Y 2 ) vérifie ∆′ ≤ 0, ce qui donne l’inégalité de
Cauchy-Schwarz.

Remarque L’inégalité de Cauchy-Schwarz s’écrit aussi :


p p
|E(XY )| ≤ E(X 2 ) E(Y 2 )

Proposition 289

Si X et Y sont deux v.a.r. indépendante sur (Ω, T , P) admettant des moments


d’ordre 2, alors XY admet une espérance et E(XY ) = E(X)E(Y ).

Preuve:
Soient X et Y deux variables aléatoires qui admettent chacune un moment
d’ordre 2 et notons I = X(Ω), J = Y (Ω) et K = (XY )(Ω). D’après la propo-
sition 288, la variable aléatoire XY admet une espérance mathématique et on
a X
E(XY ) = kP(XY = k).
k∈K

Pour tout k ∈ K, on pose Uk = {(i, j) ∈ I × J/ij = k}, alors (Uk )k∈K est une
294 CHAPITRE 11. PROBABILITÉS

partition de I × J et on a :
[
∀k ∈ K, (XY = k) = (X = i, Y = j)
(i,j)∈Uk

et il s’agit d’une réunion disjointe, donc


X X X X
E(XY ) = kP(X = i, Y = j) = ijP(X = i, Y = j),
k∈K (i,j)∈Uk k∈K (i,j)∈Uk

et par indépendance, il vient :


X X
E(XY ) = ijP(X = i)P(Y = j),
k∈K (i,j)∈Uk

et comme (Uk )k∈K est une partition de I × J, le théorème de sommation par


paquets permet d’écrire
X
E(XY ) = ijP(X = i)P(Y = j)
(i,j)∈I×J

et en utilisant les produits des séries absolument convergentes et qu’une famille


sommable peut se traduire en série absolument convergente il vient :
! !
X X
E(X) = iP(X = i) × iP(Y = j) = E(X)E(Y )
i∈I j∈J

Proposition 290

Si X et Y sont deux v.a.r indépendantes sur (Ω, T , P) admettant des moments


respectifs d’ordre 2 alors X + Y admet une variance et :

V(X + Y ) = V(X) + V(Y )

Définition 145

Soient X et Y deux variables alétoires réelles sur (Ω, T , P), toutes les deux
discrètes ou toutes les deux continues à densité admettant chacune un moment
d’odre deux. Le nombre réel :

C(X, Y ) = E((X − E(X))(Y − E(Y )))

s’appelle la covariance des v.a.r X et Y .


11.2. VARIABLES ALÉATOIRES 295

Proposition 291

Soient X et Y deux variables alétoires réelles sur (Ω, T , P), toutes les deux
discrètes ou toutes les deux continues à densité admettant chacune un moment
d’odre deux. Alors X + Y admet une variance et on a :

V(X + Y ) = V(X) + V(Y ) + 2C(X, Y )

Proposition 292

Soient X et Y deux variables alétoires réelles sur (Ω, T , P), toutes les deux
discrètes ou toutes les deux continues à densité admettant chacune un moment
d’odre deux. Si X et Y sont indépendantes alors

C(X, Y ) = 0

en particulier :
V (X + Y ) = V (X) + V (Y ).

Remarque Attention ! la réciproque n’est pas vraie.

Définition 146

Soient X et Y deux variables alétoires réelles sur (Ω, T , P), toutes les deux
discrètes ou toutes les deux continues à densité admettant chacune un moment
d’odre deux et tel que : V(X)V(Y ) ̸= 0. Si V(X)V(Y ) ̸= 0, le nombre réel :

C(X, Y )
ρ(X, Y ) =
σ(X)σ(Y )

est appelé le coefficient de corrélation de X et Y .

Proposition 293

Soient X et Y deux variables alétoires réelles sur (Ω, T , P), toutes les deux
discrètes ou toutes les deux continues à densité admettant chacune un moment
d’odre deux et tel que : V(X)V(Y ) ̸= 0. Alors :
1. ρ(X, Y ) ∈ [−1, 1].

2 α>0
2. ρ(X, Y ) = 1 ⇔ ∃(α, β) ∈ R , .
Y = αX + β

2 α>0
3. ρ(X, Y ) = −1 ⇔ ∃(α, β) ∈ R , .
Y = −αX + β
296 CHAPITRE 11. PROBABILITÉS

Remarques Soient X et Y deux variables alétoires réelles toutes les deux discrètes
ou toutes les deux continues à densité admettant chacune un moment d’odre deux
et tel que V(X)V(Y ) ̸= 0. Alors :
1. Si ρ(X, Y ) = 0 on dit que X et Y sont non corrélées.
2. Si X et Y sont indépendantes, alors elles sont non corrélées, la réciproque
étant fausse.

11.2.8.9 Variable aléatoire centrée, réduite

Définition 147

Soit X une v.a.r. sur (Ω, T , P).


1. Si X admet un moment d’ordre 1, alors la variable aléatoire X̃ = X −E(X)
s’appelle la variable aléatoire centrée associée à X.
1
2. Si X admet un moment d’ordre 2 et si V(X) ̸= 0, la v.a.r : X ∗ = (X−
σ(X)
E(X)) s’appelle variable aléatoire centrée réduite associée à X.

Remarque On a E(X ∗ ) = 0 et σ(X ∗ ) = 1

Exemple Soit (Ω, T , P) un espace probabilisé et X une v.a.r. continue à densité tel
3 1 1
que X ,→ U[1, 2]. On sait que E(X) = et V(X) = , donc σ(X) = √ , alors
2 12 2 3
√ 3
X ∗ = 2 3(X − ).
2

11.3 Fonction génératrice


Dans tout ce paragraphe, (Ω, T , P) est un espace probabilisé et on ne considère que
des variables aléatoires discrètes à valeurs dans N.

11.3.1 Définition, propriétés


Proposition 294
X
Soit X un v.a.r. représentée par (n, pn ). La série entière pn tn a un rayon de
convergence R tel que R ≥ 1 et la fonction GX définie par
+∞
X
GX (t) = pn tn
n=0

est continue sur [−1, 1] et elle est de classe C ∞ sur ] − R, R[. On a GX (1) = 1
11.3. FONCTION GÉNÉRATRICE 297

Définition 148

La fonction GX s’appelle fonction génératrice de la v.a.r. discrete X.

+∞
X
X
Remarque Si t > 0 alors GX (t) = E(t ) = tn P(X = n).
n=0

Exemple Ω = R, T = P(R) et P : T → R tel que, pour A ∈ T :


1 X 1

 si A ∩ Z ̸= ∅
2|k|

 3
P(A) = k∈Z∩A


0 si A ∩ Z = ∅

Soit X : R → R tel que X(x) = | Ent x| (partie entière de x.)


Il est clair que X(R) = N et pour tout n ∈ N, si n > 0 alors (X = n) = {x ∈
1
R/| Ent x| = n} = [−n, −n + 1[∪[n, n + 1[, donc P(X = n) = et P (X = 0) =
3.2n−1
1
, donc la fonction génératrice de X est :
3
+∞
1 2 X tn
GX (t) = +
3 3 n=1 2n

1 2t 2 2+t
Donc pur tout t ∈] − 2, 2[, on a GX (t) = + = .
3 6 2−t 3(2 − t)

Convention : Soit X une v.a.r. discrète à valeur dans N et GX sa fonction généra-


trice de rayon de convergence R ≥ 1. On conviendra que si R = 1, la dérivabilité k
fois au point 1 signifie la dérivabilité k à gauche au point 1.

Théorème 65

Soit X un v.a.r. discrète à valeurs dans N, et GX sa fonction génératrice, alors :


1. X admet un espérance si et seulement si GX est dérivable au point 1,
auquel cas on a : E(X) = G′X (1).
2. X admet un moment d’ordre 2 (donc une variance) si et seulement si GX
est deux fois dérivable au point 1, auquel cas, on a : E(X 2 ) − E(X) =
G′′X (1).

Preuve:
X
Soit R le rayon de convergence de GX (t) = pn t n .
• Premiers cas : R > 1
Puisque 1 est un point du disque de convergence de la série entière GX (t), alors
298 CHAPITRE 11. PROBABILITÉS

il est clair que GX est infiniment dérivable au point 1 et :


+∞
X +∞
X
G′X (1) = npn = npn = E(X)
n=1 n=0

et
+∞
X +∞
X +∞
X
G′′X (1) = n(n − 1)pn = 2
n pn − npn = E(X 2 ) − E(X)
n=2 n=0 n=0

• Deuxième cas : R = 1
1) Dérivée première :
• Supposons que E(X) existe. Si on pose fn (t) = pn tn , pour tout n ∈ N et tout
t ∈ [−1, 1] alors les fn sont de classe C 1 sur [−1, 1] et :

∀n ∈ N∗ , ∀t ∈ [−1, 1], fn′ (t) = nptn−1

(Bien entendu f0′ (t) = 0 pour X


tout t ∈ [−1, 1]). Il en découle que |fn′ (t)| ≤ npn
pour tout n ∈ N donc la série fn′ converge normalement donc uniformément
X
sur [−1, 1] donc on peut dériver terme à terme la série de fonctions fn sur
[−1, 1], donc :
+∞
X
∀t ∈ [−1, 1], G′X (t) = npn tn−1
n=1

en particulier :
+∞
X X
G′X (1) = npn = npn = E(X).
n=1 n=0

• Réciproquement, supposons que GX est dérivable au point 1. alors : G′x (1) =


GX (t) − GX (1)
lim ∆X (t) où ∆X (t) = , pour tout t ∈ [0, 1[. Remarquons que
x→1 t−1
l’on a :
+∞
X +∞
X
GX (t) − GX (1) = pn tn − pn
n=0 n=0
+∞
X
= pn (tn − 1)
n=1
+∞
X X
= (t − 1)pn ( n − 1tk )
n=1 k=0
+∞
X n−1
X
= (t − 1) pn tk
n=1 k=0
11.3. FONCTION GÉNÉRATRICE 299

Donc :
+∞
X n−1
X
∆X (t) = pn Pn (t), avec , Pn (t) = tk
n=1 k=0
X
On veut démontrer que E(X) existe, donc que la série à termes positifs npn , n ≥
1 est convergente, pour cela il suffit de prouver que sa somme partielle d’ordre
Xn
n, Sn = kpk est majorée. Commençons par remarquer que si on pose
k=1

n
X
Fn (t) = pk Pk (t)
k=1

alors n
X
lim Fn (t) = kpk = Sn
t→1
k=1

Or :
∀t ∈ [0, [, Fn (t) ≤ ∆n (t)
car les pk sont positifs, donc par passage à la limite :

Sn (t) ≤ G′X (1)

ce qui prouve l’existence de E(X). D’après la première partie de cette démons-


tration, on a alors E(X) = G′X (1).

Dérivée seconde :
• Supposons que X admet un moment d’ordre 2. Comme dans le cas de la
dérivée première, il est aisé de voir que la série des dérivées secondes des ap-
plications fn : [−1, 1] → R; t 7→ fn (t) = pn tn est normalement donc uniformé-
ment convergente sur [−1, 1], ce qui permet en particulier de dire GX est deux
+∞
X
′ ′′
fois dérivable au point 1 et que Gx (1) = E(X) et GX (1) = n(n − 1)pn =
n=0
E(X 2 ) − E(X).
• Réciproquement, si GX est deux fois dérivable au point 1, alors elle est déjà
dérivable une fois et d’après la première partie du théorème E(X) existe et
G′X (1) = E(X). Par ailleurs on a :
+∞
X +∞
X
∀t ∈ [0, 1[, G′X (t) = npn tn et G′X (1) = npn
n=1 n=1

ce qui permet de dire que : G′′X (1) = lim ∆′X (t) avec
t→1

+∞
G′X (t) − G′X (1) X
∆′X (t) = = n(n − 1)pn Qn (t)
t−1 n=2
300 CHAPITRE 11. PROBABILITÉS

n−2
X
avec Qn (t) = tk . Comme dans la première partie, on va montrer que Tn =
k=0
n
X
k(k − 1)pk est majoré, on commence par remarque que si on pose Hn (t) =
k=0
n
X
k(k − 1)pk Qk (t) alors lim Hn (t) = Tn . Or Hn (t) ≤ ∆′X (t) et par passage à
t→1
k=2 X
la limite, on obtient Tn ≤ G′′X (t) et par suite la série n(n − 1)pn converge
X X
et comme E(X) existe la série npn converge dons la série n2 pn converge
d’où l’existence du moment d’ordre 2 et d’après la preuve du premier sens on
a G′′X (2) = E(X 2 ) − E(X).
Ceci termine la preuve du théorème.

Remarque Lorsque le rayon de convergence R de GX réalise R > 1, il est clair que


GX est infiniment dérivable au point 1, en particulier X admet une espérance et une
variance et on a les relations ci-dessus données par le théorème.

11.3.2 Fonction génératrice d’une somme de v.a.r. indépen-


dantes
Théorème 66

Si Xk , 1 ≤ k ≤ m sont des variables aléatoires réelles discrètes à valeurs dans N


et si ces v.a.r sont indépendantes alors :
m
Y
GP
m = GXk
Xk
k=1 k=1

Preuve:
il suffit de le prouver pour deux variables, le reste s’en déduit par simple récur-
rence. Soit donc X et Y deux v.a.r. indépendantes tel que X(Ω) = Y (Ω) = N.
Alors :
+∞
X
GX+Y (t) = P(X + Y = n)tn
n=0
+∞ X
X n
= P(X = k)P(Y = n − k)tn
n=0 k=0
+∞ X
X n
= P(X = k)tk P(Y = n − k)tn−k
n=0 k=0
11.4. INÉGALITÉS, CONVERGENCE 301
X X
On remarque qu’il s’agit du produit de Cauchy des séries pn tn et qn tn
où p = P(X = n) et qn = P(Y = n), qui sont absolument convergente pour
tout t tel que |t| < 1, donc :

GX+Y (t) = GX (t)GY (t)


X X
où GX (t) = pn tn et GY (t) = qn tn sont les fonctions génératrices respec-
tives de X et Y .

11.4 Inégalités, Convergence


11.4.1 Inégalité
11.4.1.1 Inégalité de Markov

Théorème 67

Soit X une v.a.r positive sur (Ω, T , P) tel que X admet une espérance, alors :
pour tout réel α > 0, on a :

E(X)
P(X ≥ α) ≤
α
(inégalité de Markov)

Preuve:
Dans le cas d’une variable continue à densité comme X ≥ 0, la fonction densité
fX est nulle sur ] − ∞, 0[, puisque la fonction FX de répartition est nulle sur
cet intervalle (Si t < 0 alors (X ≤ t) = ∅), donc :
Z +∞ Z α Z +∞
E(X) = tfX (t)dt = tfX (t)dt + tfX (t)dt
0 0 α

Il en découle :
Z +∞ Z +∞ Z +∞
E(X) ≥ tfX (t)dt ≥ αfX (t)dt = α fX (t)dt = αP(X ≥ α)
α α α

Ce qui donne l’inégalité de Markov.


Si X est discrete d’ensemble de valeurs possibles D alors :
X X X
E(X) = xP(X = x) = xP(X = x) + xP(X = x)
x∈D x∈D x∈D
x≥α x<α
302 CHAPITRE 11. PROBABILITÉS

Donc, compte tenu de X ≥ 0 on a :


X X
E(X) ≥ xP(X = x) ≥ α P(X = x) = αP(X ≥ α)
x∈D x∈D
x≥α x≥α

ce qu’il fallait démontrer.

11.4.1.2 Inégalité de Bienaymé-Chebychev

Théorème 68

Soit X une v.a.r sur (Ω, T , P). Si X admet une variance alors on a :

V(X)
∀β > 0, P(|X − E(X)| ≥ β) ≤
β2

(inégalité de Bienaymé-Chebychev)

Preuve:
On va appliquer Markov à Y = (X − E(X))2 . On a E(Y ) = V(X) et d’après
Markov :
E(Y )
P(Y ≥ β 2 ) ≤
β2
Or Y ≥ β 2 ⇔ |X − E(X)| ≥ β et E(Y ) = V(X), d’où l’inégalité de Bienaymé-
Chebychev.

11.4.1.3 inégalité de Jensen


Avant de donner l’énoncé de ce théorème on rappelle que toute application f : R → R
convexe sur R est continue sur R.
on admet que si X est une variable aléatoire sur (Ω, T , P) est f : R → R continue
(par morceaux) alors f (X) est une variable aléatoire.

Théorème 69

Soit X une variable aléatoire réelle ayant une espérance et f : R → R convexe.


Si f (X) admet une espérance alors :

f (E(X)) ≤ E(f (X))


11.4. INÉGALITÉS, CONVERGENCE 303

Preuve:
Dans la cas d’une variable aléatoire discrete. On suppose X représentée par
n
X

(xk , pk )k∈N∗ . Pour tout n ∈ N , posons : En = pk xx alors E(X) = lim (En ).
n→+∞
k=1
n
X
Si πn = pk alors par convexité de f , on a :
k=1

  n n
En X pk 1 X
f ≤ f (xk ) = pk f (xk )
πn k=1
π n π n
k=1

Par passage à la limite quand n tends vers +∞ et comme f (X) admet une
espérance et par continuité de f et le fait que lim πn = 1, on obtient :
n→+∞

f (E(X)) ≤ E(f (X))

11.4.2 Convergence
11.4.2.1 Convergence en loi

Définition 149

Soit (Xn ) une suite de v.a.r et X une v.a.r. On dit que (Xn ) converge en loi
vers X si la suite (Fn ) des fonctions de répartitions des Xn converge simplement
vers F la fonction de répartition de X sur R\D où D est l’ensemble des ponts
de discontinuité de F .

Proposition 295

Si X ainsi que les Xn sont discrètes à valeurs dans N alors Xn → X en loi si et


seulement si
∀k ∈ N, lim P(Xn = k) = P(X = k)
n→+∞

Exemples 1. Soit (Xn ) sur (Ω, T , P) tel que Xn ,→ B(p), alors Xn → X1 en loi.
2. Soit (Xn ) une suite de v.a.r sur (Ω, T , P) tel qu’il existe une suite (pn ) ∈ [0, 1]N
et λ > 0 tel que lim npn = λ. Si Xn ,→ B(n, pn ) pour tout n alors Xn → X en
loi où X ,→ P(λ) (voir TD).
 1
 X 1
si A ∩ Z ̸= ∅
3. On considère ici Ω = R, T = P(R) et P(A) = 3 k∈A∩Z 2|k|
0 si A ∩ Z = ∅

et pour tout n ∈ N∗ .
Soit x0 ∈ R. On dit qu’une v.a.r. Y sur (Ω, T , P) suit la loi de dirac de
304 CHAPITRE 11. PROBABILITÉS

paramètre x0 , et on note Y ,→ D(x0 ) si P(Y = x0 ) = 1. Il en résulte que


l’ensemble de valeurs possibles de Y est D = {x0 }. Un exemple simple de telle
variables est l’application constante ω 7→ x0 de R vers R.
1
l Soit Xn une variable aléatoire réelle tel que Xn ,→ B( ). Alors Xn → X en
n
loi où X ,→ D(0).
En effet, nous avons, pour tout n ∈ N∗ :

 0 si t < 0

1
Fn (t) = 1− si 0 ≤ t < 1
 n
1 si 1 ≤ t

et par suite, (Fn ) converge simplement sur R vers F définie par



0 si x < 0
F (t) =
1 si 0 ≤ x
On voit que F est la fonction de répartition d’une variable aléatoire X suivant
D(0).

11.4.2.2 Convergence en probabilité

Définition 150

On dit qu’une suite (Xn ) de v.a.r sur (Ω, T , P) converge en probabilité vers une
v.a.r X sur (Ω, T , P) si :

∀ε > 0, lim (P(|Xn − X| ≥ ε)) = 0


n→+∞

Proposition 296

Soit (fn )n∈N une suite d’applications de R vers R qui converge simplement sur
R vers une application f : R → R. Si X est une v.a.r. sur ((Ω, T , P) tel que
Yn = fn (X), n ∈ N et Y = f (X) alors (Yn ) tends vers Y en probabilité.

Preuve:
Soit
Ω1 = {ω ∈ Ω/ lim (Yn (ω)) = Y (ω)}
n→+∞

On a Ω1 = Ω car Ω1 ⊂ Ω par définition de Ω1 ; réciproquement, si ω ∈ Ω alors


X(ω) ∈ R et comme (fn ) → f simplement, on a fn (X(ω)) → f (X(ω)), d’où
Yn (ω) → Y (ω).
Notons que pour tout ω ∈ Ω, on a :

ω ∈ Ω1 ⇔ ∀α >, ∃N ∈ N, ∀n ≥ N, |Yn (ω) − Y (ω)| < α


11.4. INÉGALITÉS, CONVERGENCE 305

Par suite, on peut dire que


\ [ \
Ω = Ω1 = An,α
α>0 N ∈N n≥N


An,α = (|Yn − Y | < α)

Soit ε > 0 , alors : [ \


Ω⊂ An,ε ⊂ Ω
N ∈N n≥N

par suite : [ \
Ω= An,ε
N ∈N n≥N

Pour tout N ∈ N, notons : BN = ∩ An,ε . Il est aisé de voir que BN ∈ T . Il


n≥N
découle de ce qui précède que :

Ω = ∪ BN
N ∈N

La famille (BN )N ≥0 est une famille croissante d’éléments de T puisque, BN =


AN,ε ∩ BN +1 ⊂ BN +1 .
Par le théorème de la continuité séquentielle monotone, on a : 1 = P(Ω) =
sup P(BN ).
N ∈N
Soit δ ∈ R∗+ , par définition de la borne supérieure, il existe N ∈ N tel que
1 − δ < P(BN ). Remarquons que ∀n ≥ N, BN ⊂ An,ε , donc P(An,ε ) ≥ P(BN ),
et par suite :
∀n ≥ N, P(An,ε ) > 1 − δ
Or : An,ε = (|Yn − Y | > ε, donc P(An,ε ) = 1 − P(|Yn − Y | ≥ ε), ce qui donne :

∀n ≥ N, 1 − P(|Yn − Y | ≥ ε) > 1 − δ

donc :
∀ε > 0, ∀δ > 0, ∃N ∈ N, ∀n ≥ N, p(|Yn − Y | ≥ ε) < δ
Ceci démontrer que :

∀ε > 0, lim P(|Yn − Y | ≥ ε) = 0


n→+∞

ce qui signifie que Yn converge en probabilité vers Y .

Théorème 70

Soit (Xn ) une suite de v.a.r. et X une v.a.r. sur (Ω, T , P). Si (Xn ) converge en
probabilité vers X alors (Xn ) converge en loi vers X.
306 CHAPITRE 11. PROBABILITÉS

Preuve:
Ce théorème est admis.

11.4.3 Lois faible des grands nombres et théorème limite cen-


tral
11.4.3.1 Loi faible des grands nombres

Théorème 71

Soit (Xn )n∈N∗ une suite de v.a.r indépendantes et identiquement distribuées


admettant un moment d’ordre 2. Soit µ l’espérance mathématique!commune de
n
1X
ces variables aléatoires Xn , n ≥ 1. Alors la suite Mn = Xk converge
n k=1
n≥1
en probabilité vers la variable aléatoire constante µ.

Preuve:
n
1X
Soit Mn = Xn . Par linéarité de l’espérance, on a E(Mn ) = µ et par
n k=1
1 σ2
indépendance on a V (Mn ) = 2 (nσ 2 ) = où σ est l’écart-type commun des
n n
v.a.r. Xn . Par l’inégalité de Bienaymé-Chebychev, on a :

σ2
∀ε > 0, P(|Mn − µ| ≥ ε) ≤
nε2
Pa conséquent :
∀ε > 0, lim P(|Mn − µ| ≥ ε) = 0
n→+∞

11.4.3.2 Théorème limite central

Théorème 72

Soit (Xn )n≥1 une suite de v.a.r. indépendantes, identiquement distribuées ad-
mettant un moment d’ordre 2 et soit µ et σ l’espérance mathématique et l’écart
type communs de ces variables aléatoires. Soit (Mn ) la suite des v.a.r.. tel que
n
1X
Mn = Xk . Alors la suite (Mn∗ ) des variables aléatoires réduites centrées
n k=1
des Mn converge en loi vers une v.a.r. qui suit la loi de Gauss standard : N (0, 1)
11.4. INÉGALITÉS, CONVERGENCE 307

Remarque Dans la pratique, quand n est suffisamment grand, on assimile la moyenne


σ
Mn avec une variable aléatoire Y tel que Y ,→ N (µ, √ )
n
En effet, la variable aléatoire centrée Mn∗ est liée à Mn par
1
Mn∗ = (Mn − E(Mn )).
σ(Mn )
n
1 X 1
Or Mn = Sn , où Sn = Xk . Donc E(Mn ) = (nµ) = µ et par indépendance,
n k=1
n
2
1 σ
V (Mn ) = 2 nσ 2 = , donc
n n
σ
σ(Mn ) = √ ,
n
donc √
n
Mn∗ = (Mn − µ),
σ
ce qui donne aussi
σ
Mn = √ Mn∗ + µ.
n
On peut démontrer facilement que si X est une variable aléatoire et X ∗ la variable
aléatoire centrée réduite associée alors X ,→ N (µ, σ) ⇔ X ∗ ,→ N (0, 1).
Ainsi le fait d’identifier Mn∗ à une variable aléatoire qui suit la loi N (0, 1) est équi-
σ
valent à identifier Mn à X tel que X ,→ N (µ, √ )
n

Exemple 200 personnes contribuent à un jeu qui consiste à faire tourner une roue
au hasard une seule fois pour chaque personne. On note Xk la variable aléatoire
associée à l’angle modulo 2π duquel la roue tourne après la contribution de la k
ème personne. On suppose que toutes les précautions sont prises pour que les Xk
sont mutuellement indépendantes. Calculer la probabilité que la moyenne des angles
associés aux 200 personnes ne dépasse pas un demi tour.
Réponse : Il s’agit d’une famille de variables aléatoires (Xk ), 1 ≤ k ≤ 200, qui
suivent la loi uniforme U[0, 2π]. Les v.a.r Xk sont identiquement distribuées d’espé-
π
rance µ = π et d’écart-type σ = √ . Si on applique le théorème central limite, on
3
π
identifie la moyenne M200 à une v.a.r X tel que X ,→ N (π, √ ). On veut :
10 6
P (Mn ≤ π) = P(X ≤ π)
√ Z
10 6 π − 1 ( 10√6(t−π) )2
= √ e 2 π dt
π 2π −∞
≃ 0.5
308 CHAPITRE 11. PROBABILITÉS

11.5 Annexe
11.5.1 Tableau récapitulatif des variables aléatoires réelles
discrètes usuelles
Nom Notation X(Ω) Loi de X E(X) V(X) GX (t)
Uniforme
discrète k ∈ {1 · · · n} n+1  t 1 − tn

X ,→ U (A) A n2 − 1
1 si t ̸=
P(X = k) = 2 12 n 1−t
A = {1, ..., n} n  1 si t =

Bernoulli de
paramètre 
X ,→ Ber(p) {0, 1} P(X = 0) = 1 − p p p(1 − p) 1 − p + pt
p ∈ [0, 1]
P(X = 1) = p

Binomiale
de para-
mètres n et X ,→ B(n, p) [[0, n]] P(X = k) = Cnk pk q n−k np np(1 − p) (1 − p + pt)n
p
avec q = 1 − p
Poisson de
paramètre n eλ(t−1)
X ,→ P(λ) −λ λ λ λ
λ, avec N P(X = n) = e
∗ n!
λ ∈ R+

Loi géomé-
trique de 1 1−p pt
paramètre X ,→ G (p) N∗ P(X = n) = p(1 − p)n−1
p p2 1 − (1 − p)t
p avec
p ∈]0, 1[
11.5. ANNEXE 309

11.5.2 Tableau récapitulatif des variables aléatoires réelles


continues à densité usuelles :
Nom Notation Loi de X E(X) V(X)
Uniforme X a pour fonction de répartition :
continue sur
X ,→ U ([a, b])
 a+b (b − a)2
le segment  0t − a
 si t<0
[a, b] 2 12
FX (t) = si a≤t≤b
 b−a

1 si t>b

Loi exponen- X a pour fonction de répartition :


tielle de para-
X ,→ E (λ)

1 − e−λt si t ≥ 0 1 1
mètre λ avec FX (t) =
0 si t < 0 λ λ2
λ ∈ R∗+

Loi normale X a pour densité fX tel que :


de Gauss de
X ,→ N (µ, σ 2 ) 1 (t−µ)2
µ σ2
paramètres fX (t) = √ e− 2σ2
µ et σ avec σ 2π
µ, σ ∈ R et
σ>0
Loi Gamma X a pour densité fX tel que :
de para-  a a a
mètres a X ,→ Γ(a, λ)  λ −λt a−1
e t si t > 0 λ λ2
et λ avec fX (t) = Γ(a)
a, λ ∈ R∗+
 0 si t ≤ 0
310 CHAPITRE 11. PROBABILITÉS

11.5.3 Stabilité de certaines lois


11.5.3.1 Loi de Bernoulli, loi binomiale

Proposition 297

X et Y sont deux v.a.r indépendantes sur (Ω, T , P). Si X ,→ Ber(p) et Y ,→


Ber(q) et X et Y alors XY ,→ Ber(pq)

Remarque Généralement si X1 , · · · , Xm sont des v.a.r indépendantes tel que

∀k ∈ [[1, m]], Xk ,→ Ber(pk )

alors m m
Y Y
X= Xk ,→ Ber(p) où p = pk
k=1 k=1

Proposition 298

Si X, Y sont deux v.a.r indépendantes sur (Ω, T , P) et si X ,→ B(n, p) et Y ,→


B(m, p) alors X + Y ,→ B(n + m, p)

Remarques 1. Plus généralement si X1 , · · · , Xn indépendantes et Xk ,→ B(nk , p)


alors n n
X X
X= Xk ,→ B( nk , p)
k=1 k=1

2. Si (Xk )1≤k≤n indépendantes tel que ∀k ∈ [[1, n]], Xk ,→ Ber(p) alors


n
X
Xk ,→ B(n, p)
k=1

11.5.3.2 Lois de Poisson

Proposition 299

Soit m ∈ N∗ et (Xk )1≤k≤m une famille de v.a.r indépendantes. On note X =


Xm m
X
Xk et λ = λk . Si pour tout k ∈ [[1, m]], Xk ,→ P(λk ) alors X ,→ P(λ)
k=1 k=1
11.5. ANNEXE 311

Preuve:
Par récurrence : Si n = 2, alors X1 + X2 (Ω) = N et pour tout n ∈ N, on a
n
X
P(X1 + X2 = n) = P(X1 = j)P(X2 = n − j)
j=0
n
X λj1 −λ2 λn−j
= e−λ1
e 2

j=0
j! (n − j)!
n  
−(λ1 +λ2 ) 1 n j n−j
X
= e λλ
n! j=0 j 1 2
λn
= e−λ
n!
où λ = λ1 + λ2 .
Supposons la propriété vraie pour m ∈ N∗ et soit Xk , k ∈ [[1, m + 1]] des v.a.r
indépendantes tel que Xk ,→ P(λk ) pour tout k ∈ [[1, m + 1]]. Par hypothèse
X m Xm
de récurrence, Xk ,→ P( λk ) et d’après la propriété vraie pour m = 2
k=1 k=1
m+1
X m+1
X
on en déduit que Xk ,→ P( λk )
k=1 k=1

11.5.3.3 Loi Γ

Proposition 300

Si X et Y sont deux v.a.r indépendantes sur (Ω, T , P) tel que X ,→ Γ(λ, a) et


Y ,→ Γ(λ, b) alors X + Y ,→ Γ(λ, a + b)

On donne les remarques suivantes :


1. Généralement si X1 , · · · , Xm sont des v.a.r indépendantes sur (Ω, T , P) et si
m
X Xm
Xk ,→ Γ(λ, ak ) alors Xk ,→ Γ(λ, ak )
k=1 k=1
2. Remarquons que Γ(λ, 1) = E (λ) donc si X1 , · · · , Xm indépendantes suivent
E (λ) leur somme suit Γ(λ, m).

11.5.3.4 Loi normale

Proposition 301

Si X et Y sont deux v.a.r indépendantes sur (Ω, T , P) tel que X ,→ N (µ1 , σ1 )


312 CHAPITRE 11. PROBABILITÉS
q
et Y ,→ N (µ2 , σ2 ) alors X + Y ,→ N (µ1 + µ2 , σ12 + σ22 )

Généralement si X1 , · · · , Xm indépendantes tel que Xk ,→ N (µk , σk ) alors


m
X
X= Xk ,→ N (µ, σ)
k=1

où v
m
X
u m
uX
µ= µk et σ = t σk2
k=1 k=1
Chapitre 12

Calcul différentiel.

12.1 application différentiable


Dans tout ce qui suit les espaces vectoriels introduits sont des R−espaces vectoriels
normés de dimensions finies. Quand on cite : f : U ⊂ E → F application , on entends
par U un ouvert non vide de l’evn E et F un evn bien sûr tous de dimensions finies.

12.1.1 Dérivée suivant un vecteur


12.1.1.1 Définition, exemples

Proposition-Définition 14

Soit f : U ⊂ E → F une application, a ∈ U , e un vecteur de E et φa,e


l’application définie par φa,e (t) = f (a + te). L’application φa,e est bien définie
sur un intervalle de la forme ] − α, α[ avec α > 0. Si φa,e est dérivable au point
0 le vecteur φ′a,e (0) s’appelle dérivée de f au point a suivant le vecteur e. On le
note De f (a).

f (a + te) − f (a)
Ainsi, s’il existe, De f (a) = lim .
t→0 t

Preuve:
Démontrons l’existence de α > 0 tel que ∀t ∈] − α, α[, a + te ∈ U . Supposons
e ̸= 0 (si e = 0 alors a+te = a ∈ U , pour tout t ∈ R)Comme U est un ouvert et
R
a ∈ U , il existe R > 0 tel que B(a, R) ⊂ U . Soit α = , alors pour tout réel t
∥e∥
tel que |t| < α, on a ∥(a + te) − a∥ = |t|∥e∥ < α∥e∥ = R, donc a + te ∈ B(a, R),
et comme B(a, R) ⊂ U , on a a + te ∈ U .

Exemples :

313
314 CHAPITRE 12. CALCUL DIFFÉRENTIEL.

1. f : R2 → R; (x, y) 7→ f (x, y) = x2 y + 3x3 + xy ; a = (1, 2) et e = (1, 1). Alors


φa,e (t) = f (a + te)
= f ((1, 2) + (t, t))
= f (1 + t, 2 + t)
= (1 + t)2 (2 + t) + 3(1 + t)3 + (1 + t)(2 + t)
Donc pour tout t ∈ R, on a :
φ′a,e (t) = 2(1 + t)(2 + t) + ((1 + t)2 + 9(1 + t)2 + 2t + 3
de sorte que :
φ′a,e (0) = 4 + 1 + 9 + 3 = 17
donc f est dérivable au point a suivant e et on a :
De f (a) = 17.
2. Soit f : R2 → R3 ; (x, y) 7→ (x, x + y, xy). Pour a = (1, 1) et e = (2, 3), on
a φa,e (t) = f (1 + 2t, 1 + 3t) = (1 + 2t, 2 + 5t, 6t2 + 5t + 1), donc φ′a,e (t) =
(2, 5, 12t + 5) et De f (a) = (2, 5, 5).
3. f : Mn (R) → R; M 7→ tr(A) ; A = E = In ; la dérivée de f en A suivant
E est φ′A,E (0) avec : φA,E (t) = f (A + tE) = tr((1 + t)In ) = n(t + 1), donc :
φ′A,E (t) = n et DE f (A) = n.

12.1.1.2 Dérivées partielles


Soit E un K−espace vectoriel normé de dimension p, (p ∈ N∗ ) et B = (e1 , · · · , ep )
une base de E si x ∈ E, on note x1 , · · · , xp les coordonnées de x relativement à B.
Soit f : U ⊂ E → F une application et a ∈ U . Si pour i ∈ [[1, p]], la dérivée Dei f (a)
∂f
de f au point a suivant ei existe on la note (a) et on l’appelle i ème dérivée
∂xi
partielle de f au point a.
Remarque Si E = Rp muni de sa base canonique et f : U ⊂ Rp → F une appli-
∂f
cation. La dérivée partielle (x) s’obtient en dérivant l’expression f (x1 , · · · , xp )
∂xi
par rapport à xi . Par exemple f (x, y) = (x2 − y 2 ) + 2xyi considérée comme appli-
cation de R2 vers C admet toutes les dérivées partielles en tout point. On a pour
X = (x, y) ∈ R2 :
∂f ∂f
(X) = 2(x + yi) et (X) = 2i(x + yi)
∂x ∂y

12.1.1.3 Dérivée suivant un vecteur et composantes


On suppose que dim(F ) = n et que C = (v1 , · · · , vn ) est une base de F . Soit
f : U ⊂ E → F une applications de composantes dans C , les applications f1 , · · · , fn ,
n
X
donc f = fi vi . En partant d’une proposition sur les fonctions vectorielles on a
i=1
la :
12.1. APPLICATION DIFFÉRENTIABLE 315

Proposition 302

Soit e ∈ E alors les assertions suivantes sont équivalentes :


(1) f admet une dérivée au point a suivant e.
(2) Pour tout i ∈ [[1, n]], l’application fi admet une dérivée au point a suivant
e.
Si c’est le cas, on a :
n
X
De f (a) = De fi (a)vi
i=1

Remarque En particulier si dim(E) = p et B = (e1 , · · · , ep ) une base de E et


on note x1 , · · · , xp les coordonnées de x ∈ E, avec les notations ci-dessus à savoir
C = (v1 , . . . , vn ) est une base de F et f1 , . . . , fn les composantes de f alors les
assertions suivantes sont équivalentes :
∂f
(1) Les dérives partielles (a) pour j ∈ [[1, p]] existent.
∂xj
∂fi
(2) Pour tout i ∈ [[1, n]], Les dérives partielles (a) pour j ∈ [[1, p]] existent.
∂xj
auquel cas on a
n
∂f X ∂fi
(a) = (a)vi
∂xj i=1
∂xj

12.1.2 Application différentiable


Pour le moment les études concernant la dérivabilité d’une application en un point
sont faites sur des applications f : I → E où I est un intervalle de R et E un espace
vectoriel normé de dimension finie. Nous allons généraliser cette notion et on parlera
d’application différentiable ; les applications concernées étant définies d’une partie
ouverte U d’un espace vectoriel normé E vers un autre espace vectoriel normé F .

12.1.2.1 Différentiabilité en un point


Si f : I → R est une application d’un intervalle I de R vers R et a un point de I,
on sait que si f est dérivable au point a alors pour h réel voisin de 0, on a :

f (a + h) = f (a) + L(h) + hε(h)

où ε est une application de V {0} vers R où V est un voisinage de 0 tel que

lim ε(h) = 0
h→0
h̸=0

On s’inspire de cette idée pour donner la définition générale suivante :


316 CHAPITRE 12. CALCUL DIFFÉRENTIEL.

Définition 151

Soit f : U ⊂ E → F une application et a ∈ U . On dit que f est différentiable


au point a s’il existe une application linéaire L ∈ L(E, F ), un voisinage V de 0
dans E et une application ε : V → F tel que :


 ∀h ∈ V, a + h ∈ U et f (a + h) = f (a) + L(h) + ∥h∥ε(h)

 lim ε(h) = 0.
 h→0

h̸=0

Remarque Si U est un ouvert alors pour tout a ∈ V l’ensemble

Va = {h ∈ E/a + h ∈ U }

est un voisinage de a. On peut dire que f est différentiable au point a si et seulement


si il existe L ∈ L(E, F ) tel que l’application définie sur Va \{h} :

1
∀h ∈ Va , ε(h) = (f (a + h) − f (a) − L(h))
∥h∥

réalise :
lim ε(h) = 0
h→0

Proposition 303

Si f est différentiable au point a, l’application L ci-dessus est unique.

Preuve:
Si L, L′ répondent à la définition ci-dessus, soit x un vecteur non nul de E alors
il existe un voisinage Iα =] − α, α[ de 0 dans R tel que te ∈ V pour tout t ∈ Iα .
On a alors f (a + te) = f (a) + tL(e) + |t|∥e∥ε(te) = f (a) + tL′ (e) + |t|∥e∥ε′ (te)
de sorte que |t|(L(e) − L′ (e)) = |t|φ(t) avec lim φ(t) = 0, donc L(e) = L′ (e).
t→0
Par ailleurs L(0) = L′ (0) donc L = L′ .

Définition 152

Si f est différentiable au point a, l’application linéaire L est notée df (a) et


appelée différentielle de f au point a.

Remarques On fait les remarques suivantes :


12.1. APPLICATION DIFFÉRENTIABLE 317

1. Si f est différentiable au point a, alors pour h voisin de 0, on a :

f (a + h) = f (a) + df (a)(h) + o(∥h∥).

2. f est différentiable au point a si et seulement si : il existe L ∈ L(E, F ) tel


que :
f (a + h) − f (a) − L(h)
lim =0
h→0 ∥h∥
h̸=0

auquel cas, L = df (a).

Définition 153

Soit f : U ⊂ E → F une application. On dit que f est différentiable sur U si f


est différentiable en tout point de U .

Proposition 304

Si f est différentiable au point a alors f est continue au point a

Preuve:
Comme f est différentiable au point a, on a pour h voisin de 0 :

f (a + h) − f (a) = df (a)(h) + ∥h∥ε(h)

avec lim ε(h) = 0, donc : lim f (a + h) = f (a) puisque lim df (a)(h) = 0 par
h→0 h→0 h→0
h̸=0
continuité de l’application linéaire df (a)(dimension finie).

12.1.2.2 Exemples d’applications différentiables

Proposition 305

E et F sont des espaces vectoriels normés de dimensions finies et f ∈ L(E, F )


une application linéaire de E vers F . Pour tout ouvert U non vide de E, la res-
triction de f à U est différentiable sur U et on a (en notant f cette restriction) :

∀a ∈ U, df (a) = f
318 CHAPITRE 12. CALCUL DIFFÉRENTIEL.

Preuve:
Soit a ∈ U et h voisin de 0. Par linéarité, on a

f (a + h) = f (a) + f (h) + ∥h∥ε(h)

avec ε(h) = 0 pour tout h ∈ E, donc en appliquant la définition, f est diffé-


rentiable au point a et df (a) = f .

Proposition 306

E, F, G sont des espaces vectoriels normés de dimensions finies et f : E×F → G


une application bilinéaire. Pour tout ouvert non vide U de E × F , la restriction
de f à U est différentiable et pour tout (a, b) ∈ U et tout (h, k) ∈ E × F , on a :

df(a,b) (h, k) = f (h, b) + f (a, k)

Preuve:
Soit (a, b) ∈ U et (h, k) ∈ E × F , alors : en posant A = (a, b) et H = (h, k), on
a:

f (A + H) = f ((a, b) + (h, k))


= f (a + h, b + k)
= f (a, b) + f (a, k) + f (h, b) + f (h, k)

On adopte par exemple la norme ∥H∥ = sup(∥h∥, ∥k∥), alors par continuité de
l’application bilinéaire f il existe une constante positive M tel que pour tout (h, k) ∈
E × F , on a : ∥f (h, k)∥ ≤ M ∥h∥∥k∥ ≤ M ∥(h, k)∥2 , de sorte que si on pose L(H) =
L(h, k) = f (a, k) + f (h, b) pour tout H ∈ E × F , on a :
f (A + H) = f (A) + L(H) + ∥H∥ε(H)
1 1
avec ε(H) = f (H) = f (h, k) si H ̸= 0 et ε(0) = 0 de sorte que d’après l’in-
∥H∥ ∥H∥
égalité ∥f (h, k)∥ ≤ M ∥(h, k)∥2 , on a lim ε(H) = 0 , ce qui justifie la différentiabilité
H→0
de f au point (a, b) et que df (a, b)(h, k) = L(H) = f (a, k) + f (h, b).

Remarque On a une généralisation : Si F, E1 , · · · , Em sont des espaces vectoriels normés


Ym
de dimensions finies et f : E = Ek → F une application m−linéaire alors
k=1
la restriction de f à tout ouvert U de E est différentiable sur U et pour tout
A = (a1 , · · · , am ) ∈ U et tout H = (h1 , · · · , hm ) ∈ E, on a :
dfA (H) = f (h1 , a2 , · · · , am ) + · · · + f (a1 , · · · , am−1 , hm ).
12.1. APPLICATION DIFFÉRENTIABLE 319

Proposition 307

Toute application constante f : U ⊂ E → F est différentiable sur U et df (a) = θ


pour tout a ∈ U où θ est l’application nulle de E vers F .

Preuve:
Pour tout (a, h) ∈ U × E, on a f (a + h) = f (a) + θ(h) + ∥h∥θ(h), ce qui prouve
le résultat.

12.1.2.3 Dérivabilité et différentiabilité

Proposition 308

Soit I un intervalle ouvert non vide de R et a ∈ I. Soit f : I → F une


application. Les assertions suivantes sont équivalentes :
(1) f est dérivable au point a.
(1) f est différentiable au point a.
Si c’est le cas , on a :

∀h ∈ R, df (a)(h) = hf ′ (a) et f ′ (a) = df (a)(1) = D1 f (a)

Preuve:
Supposons que f est dérivable au point a, alors pour h réel voisin de 0, on a :
f (a + h) = f (a) + hf ′ (a) + o(h), ce qui exprime que f est différentiable au
point a et que pour tout h réel df (a)(h) = hf ′ (a). Réciproquement, si f est
différentiable au point a alors df (a) est une application linéaire de R vers F et
précisément, on a pour tout h réel : df (a)(h) = hdf (a)(1). On a alors pour h
voisin de 0 : f (a + h) = f (a) + hdf (a)(1) + o(h), ce qui donne : f est dérivable
au point a et f ′ (a) = df (a)(1). Par définition de la dérivée suivant le vecteur
1, on a aussi f ′ (a) = D1 f (a)

12.1.3 Différentiabilité et dérivées partielles


Soit E un K−espace vectoriel normé de dimension p avec p ∈ N∗ et B = (e1 , · · · , ep )
une base de E. Soit F un K−espace vectoriel normé de dimension finie , U un ouvert
non vide de E et f : U → F une application.
On va voir que si f est différentiable en un point a de U alors les dérivées partielles
∂f ∂f
(a) existent et que (a) = Dei f (a) = df (a)(ei ) pour tout i ∈ [[1, p]]. On verra
∂xi ∂xi
ensuite que la réciproque n’est pas vraie, mais on a un résultat si on ajoute es
hypothèses supplémentaires.
320 CHAPITRE 12. CALCUL DIFFÉRENTIEL.

Proposition 309

Si f est différentiable au point a alors pour tout vecteur e de E, la dérivée de f


au point a suivant e existe et on a :

De f (a) = df (a)(e)

Preuve:
En effet, supposons que f est différentiable au point a, alors f (a + h) = f (a) +
df (a)(h) + hε(h) avec ε(h) → 0 quand h tends vers 0. En particulier, pour t
voisin de 0 dans R, on a f (a + te) = f (a) + tdf (a)(e) + |t|∥e∥ε(te) donc :
1
(f (a + te) − f (a)) = df (a)(e) + ∥e∥α(t)ε(te)
t
avec α(t) = ±1, tends vers df (a)(e) quand t tends vers 0. Il en découle que
De f (a) = dfa (e)

Proposition 310

Soit B = (e1 , · · · , ep ) une base de E, f : U ⊂ E → F une application et


∂f
a ∈ E. Si f est différentiable au point a alors les dérivées partielles (a) pour
∂xj
p
X
j ∈ [[1, p]] existent et, pour tout h = hj ej ∈ E, on a :
j=1

p
X ∂f
df (a)(h) = hj (a)
j=1
∂xj

Preuve:
Conséquence immédiate de la proposition 309 appliquée aux vecteurs ej de
p p
X X
la base B. Précisément, si h = hj ej , alors : df (a)(h) = hj df (a)(ej ) =
j=1 j=1
p p
X X ∂f
hj Dej f (a) = hj (a)
j=1 j=1
∂xj

La réciproque de ce résultat n’est pas vraie.On peut même prouver qu’une applica-
tion f peut admettre des dérivées suivant tout vecteur e au point a sans que f soit
différentiable au point a. Cependant, on a le résultat suivant :
12.1. APPLICATION DIFFÉRENTIABLE 321

Théorème 73

∂f
Si les dérivées partielle de f au point a à savoir (a); 1 ≤ i ≤ p existent et si
∂xi
p
X
de plus, pour tout h = hi ei voisin de 0, on a :
i=1

p
X ∂f
f (a + h) − f (a) − hi (a) = o(∥h∥)
i=1
∂xi

alors f est différentiable au point a et :


p
X ∂f
∀h ∈ E, df (a)(h) = hi (a)
i=1
∂xi

Preuve:
Conséquence immédiate de la définition d’une application différentiable en un
point a et vu que l’application :
p p
X X ∂f
E → F;h = hi ei 7→ hi (a)
i=1 i=1
∂xi

est une application linéaire de E vers F .


x3 y
si (x, y) ̸= (0, 0)


x2 + y 2

2
Exemple Soit f : R → R; (x, y) 7→ . Montrons que


0 si (x, y) = (0, 0)

f est différentiable au point (0, 0) et que df (0, 0) = θ (θ est l’application nulle de R2
vers R.).
On a :
f (x, 0) − f (0, 0)
lim =0
x→0
n̸=0
x
, donc :
∂f
(0, 0) = 0
∂x
de même
∂f
(0, 0) = 0.
∂y
On a f est différentiable au point (0, 0) si et seulement si, pour (x, y) voisin de (0, 0),
on a :
∂f ∂f p
f (x, y) − f (0, 0) − x (0, 0) − y (0, 0) = o( x2 + y 2 ),
∂x ∂y
322 CHAPITRE 12. CALCUL DIFFÉRENTIEL.

c’est-à-dire : p
f (x, y) = o( x2 + y 2 ).

p
2 2 |x| ≤ ∥X∥
En notant X = (x, y) et ∥X∥ = x + y , et compte tenu du fait que : ,
|y| ≤ ∥X∥
on a :

f (x, y) |x3 y|
p = 3
x2 + y 2 (x2 + y 2 ) 2
|x|3 |y|
=
∥X∥3
∥X∥4

∥X∥3
= ∥X∥ −→ 0
X→(0,0)

Il en découle que f (X) = o(∥X)∥) quand X → (0, 0), donc f est différentiable au
point (0, 0) et df (0, 0) = θ.

Règle générale : Soit f : U ⊂ Rp → F une application et a ∈ U . On note


B = (e1 , · · · , ep ) la base canonique de Rp .
- Si l’une des dérivées partielles de f au point a n’existe pas alors f n’est pas
différentiable au point a.
∂f
- Si toutes les dérivées partielles (a); 1 ≤ i ≤ p existent , cela ne suffit pas encore
∂xi
pour dire que f est différentiable au point a, mais si on prouve que :
p
X ∂f
f (a + h) − f (a) − hi (a) = o(∥h∥)
i=1
∂xi

pour h voisin de 0 alors f est différentiable au point a et sa différentielle est définie


par :
p p
X X ∂f
∀h ∈ E, h = hi ei ⇒ dfa (h) = hi (a)
i=1 i=1
∂xi

12.1.4 Matrice jacobienne, jacobien


E et F sont deux espaces vectoriels normés de dimensions respectives p et n et
B = (e1 , · · · , ep ) et C = (v1 , · · · , vn ) des bases respectives de E et F . Soit U un
ouvert de E, f : U → F une application et f1 , · · · , fn les applications coordonnées
de f relativement à C , donc
n
X
∀x ∈ E, f (x) = fi (x)vi
i=1

qu’on abrège par :


n
X
f= fi vi
i=1
12.1. APPLICATION DIFFÉRENTIABLE 323

Si x ∈ E on note x1 , · · · , xp les coordonnées de x par rapport à B donc


p
X
x= xj ej
j=1

∂f
On suppose que les dérivées partielles (a), 1 ≤ j ≤ p existent (ce qui revient
∂xj
à dire que les dérivées partielles des composantes de f existent). On dispose de la
matrice :  
∂fi
Jf (a) = (a)
∂xj 1≤i≤n
1≤j≤p

Définition 154

Avec les notations et les conditions ci-dessus la matrice :


1. Jf (a) s’appelle la matrice jacobienne de f au point a relativement aux
bases B et C .
2. Si E = F et B = C le déterminant : det (Jf (a)) est appelé le jacobien au
point a de f relativement à la base B.

Exemple Soit U = R × R∗ (c’est un ouvert de R2 et


 
3 x 2
f : U → R ; (x, y) 7→ xy, , x + y
y

Alors pour tout (x, y) ∈ U , on a :


 
y x
1 x
 y − y2 
Jf ((x, y)) =  
1 2y

Lorsque la fonction f : U 7→ E → F est différentiable en un point a, la matrice


jacobienne Jf (a) existe et elle représente la différentielle df (a) dans le couple de
bases (B, C ) comme le précise le théorème suivant :

Théorème 74

Avec les notations ci-dessus, si a ∈ U et f est différentiable au point a alors


Jf (a) est la matrice de l’application linéaire df (a) relativement aux bases B et
C . C’est-à-dire :
Jf (a) = mat(df (a))
B,C
324 CHAPITRE 12. CALCUL DIFFÉRENTIEL.

Preuve:
Pour tout j ∈ [[1, p]], on a :
n
∂f X ∂fi
df (a)(ej ) = Dej f (a) = (a) = (a)vi
∂xj i=1
∂x j

ce qui prouve le théorème.

Exemple Revenons à l’exemple ci-dessus de l’application f : U ⊂ R2 → R3 définie


par  
x 2
f (x, y) = xy, , x + y
y
On verra plus tard que cette application est différentiable sur U . Si par exemple
a = (1, 1), on a la matrice jacobienne en a :
 
1 1
Jf (a) = 1 −1
1 2

donc si h = (h1 , h2 ) ∈ R2 alors :

df (a)(h) = h′ = (h′1 , h′2 , h′3 )

tel que :  ′    
h1 1 1   h1 + h2
h′2  = 1 −1 h1 =  h1 − h2  .
h2
h′3 1 2 h1 + 2h2
Donc, pour tout h = (h1 , h2 ) ∈ R2 , on a :

df ((1, 1))(h1 , h2 ) = (h1 + h2 , h1 − h2 , h1 + 2h2 )

12.1.5 Opérations sur les applications différentiables


Les opérations sur les fonctions différentiables vont faciliter l’identification de celles-
ci et le calcul de leur différentielles. Elles concerne, la combinaison linéaire, la com-
position et le produit via une application bilinéaire.

12.1.5.1 Combinaison linéaire

Proposition 311

Si f, g : U → F sont différentiables au point a alors f + λg est différentiable au


point a et d(f + λg)(a) = df (a) + λdg(a).
Si f et g sont différentiable sur U alors f + λg est différentiable sur U et pour
tout x ∈ U , on a : d(f + λg)(x) = df (x) + λdg(x)
12.1. APPLICATION DIFFÉRENTIABLE 325

Remarques La proposition ci-dessus nous laisse faire les remarques suivantes :


1. Si on note Da (U, F ) l’ensemble des applications de U vers F différentiables
au point a alors Da (U, F ) est un sous-espace vectoriel de l’espace vectoriel
F (U, F ) des applications de U vers F .
2. D(U, F ) l’ensemble des applications de U vers F différentiables sur U est un
sous-espace vectoriel de F (U, F ). Remarquons que l’on a :
\
D(U, F ) = Da (U, F )
a∈U

12.1.5.2 Composition

Théorème 75

E, F, G sont des espaces vectoriels normés, U, V des ouverts non vides respectifs
de E et F et f : U → F et g : V → G des applications tel que f (U ) ⊂ V . Soit
a ∈ U . Si f est différentiable au point a et g est différentiable au point f (a)
alors g ◦ f est différentiable au point a et :

d(g ◦ f )(a) = dg(f (a)) ◦ df (a)

Preuve:
f est différentiable au point a, donc il existe un voisinage V1 de 0E dans E, et
une application ε1 : V1 → F tel que lim ε1 (h) = 0 et pour tout h ∈ V1 :
h→0

(1) f (a + h) = f (a) + df (a)(h) + ∥h∥ε1 (h)


| {z }
φ(h)

De même, g est différentiable au point f (a), donc il existe un voisinage V2 de


0F dans F , et une application ε2 : V2 → F tel que lim ε2 (k) = 0 et pour tout
k→0
k ∈ V2 :
(2) g(f (a) + k) = g(f (a)) + dg(f (a))(k) + ∥k∥ε2 (k)
Posons φ(h) = df (a)(h) + ∥h∥ε1 (h), pour tout h ∈ V1 . Comme lim φ(h) = 0, il
h→0
existe un voisinage V de 0E dans E tel que φ(V ) ⊂ V1 , donc d’après (2), on a
pour tout h ∈ V :

(g ◦ f )(a + h) = g(f (a) + φ(h))


= g(f (a)) + dg(f (a))(φ(h))
+∥φ(h)∥ε2 (φ(h))
326 CHAPITRE 12. CALCUL DIFFÉRENTIEL.

Par linéarité de dg(f (a)), on a :

dg(f (a))(φ(h)) = dg(f (a))(df (a)(h)) +


∥h∥dg(f (a))(ε1 (h))

Il en découle que :

(g ◦ f )(a + h) = (g ◦ f )(a) + [dg(f (a)) ◦ df (a)](h) + ψ(h)

avec
ψ(h) = ∥h∥dg(f (a))(ε1 (h)) + ∥φ(h)∥ε2 (φ(h))
| {z } | {z }
α1 (h) α2 (h)

Pour terminer la preuve du théorème, il suffit de démontrer que ψ(h) = o(∥h∥)


et comme ψ(h) = α1 (h) + α2 (h) avec

 α1 (h) = ∥h∥dg(f (a))(ε1 (h)) = o(∥h∥)
,
α2 (h) = ∥φ(h)∥ε2 (φ(h))

il suffit en fait de prouver que α2 (h) = o(∥h∥). Pour ce faire remarquons que la
continuité de l’application linéaire df (a) implique l’existence d’une constante
c > 0 tel que ∥df (a)(h)(x)∥ ≤ c∥x∥ , pour tout x ∈ E. Cela dit, on a alors :

∥α2 (h)∥ = ∥φ(h)∥∥ε2 (φ(h))∥


= ∥df (a)(h) + ∥h∥ε1 (h)∥∥ε2 (φ(h))∥
≤ (c + ∥ε1 (h)∥)∥ε2 (φ(h))∥∥h∥

ce qui fournit aisément le résultat désiré, à savoir : α2 (h) = o(∥h∥) quand h


tends vers 0 et achève en conséquence la preuve du théorème ci-dessus.

On dispose du cas particulier important suivant de le théorème 75 :

Proposition 312

Soit I un intervalle ouvert non vide de R et U un ouvert non vide de E. Soit


φ : I → E et f : U → F des applications. Soit t0 ∈ I. Si φ est dérivable au
point t0 et f est différentiable au point f (t0 ) alors g = f ◦ φ est dérivable au
point t0 et on a :

g ′ (t0 ) = (f ◦ φ)′ (t0 ) = df (φ(t0 ))(φ′ (t0 )).

Remarques Voici quelques remarques importantes sur la proposition ci-dessus :


1. Si E = Rp , donc γ : I → Rp avec γ(t) = (γ1 (t), · · · , γp (t)) alors la formule
ci-dessus s’écrit :
p

X ∂f
g (t0 ) = γj′ (t0 ) (γ(t0 ))
j=1
∂x j
12.1. APPLICATION DIFFÉRENTIABLE 327

2. Une des conséquences de ce qui précède es la dérivation en chaîne :


Soit f : U ⊂ E → F ; g : V ⊂ F → G tel que f (U ) ⊂ V . Soit a ∈ U tel que f
est différentiable au point a et g est différentiable au point f (a). On considère
B = (e1 , · · · , ep ) , C = (u1 , · · · , ur ) et D = (v1 , · · · , vn ) bases respectives de
E, F et G et on note x1 , · · · , xp (resp y1 , · · · , yr (resp (z1 , · · · , zn ))) les coor-
données dans E(resp( F (resp G))) , alors, si on note f1 , . . . , fr les composantes
de f relativement à la base C , on a :
r
∂(g ◦ f ) X ∂fk ∂g
(a) = (a) (f (a))
∂xj k=1
∂xj ∂yk

Preuve:
On a :
∂(g ◦ f )
(a) = Dej (g ◦ f )(a)
∂xj
= d(g ◦ f )(a)(ej )
= (dg(f (a)) ◦ df (a))(ej )
= dg(f (a))(df (a)(ej ))
= dg(f (a))(Dej f (a))
 
∂f
= dg(f (a)) (a)
∂xj

Rappelons que pour tout h ∈ F tel que :


r
X
h= hk uk ,
k=1

on a : r
X ∂g
dg(f (a))(h) = hk (f (a)).
k=1
∂yk
En appliquant pour
r
∂f X ∂fk
h= (a) = (a)uk
∂xj k=1
∂x j

il vient : r
∂(g ◦ f ) X ∂fk ∂g
(a) = (a) (f (a))
∂xj k=1
∂x j ∂y k

La proposition suivante donne la matrice jacobienne d’un composé :


E, F et G sont deux espaces vectoriels normés de dimensions respectives p, r et n et
E = (e1 , . . . , ep ), F = (b1 , . . . , br ) et G = (v1 , . . . , vn ) sont des bases respectives de
E, F et G.
328 CHAPITRE 12. CALCUL DIFFÉRENTIEL.

Proposition 313

Les notations ci-dessus étant prises en compte, soient U un ouvert de E, V un


ouvert de F , f : U → F et g : V → G des applications tel que f (U ) ⊂ V . Soit
a ∈ U tel que f est différentiable au point a et g est différentiable au point f (a).
Alors la matrice jacobienne de g ◦ f est :

Jg◦f (a) = Jg (f (a)) × Jf (a)

Les matrices jacobiennes en question étant calculées par rapport aux bases cor-
respondantes parmi celles fixées ci-dessus.

Preuve:
C’est une conséquence immédiate du fait que :

d(g ◦ f )(a) = dg(f (a)) ◦ df (a)

et la propriété concernant la matrice du composé de ceux applications linéaires.

12.1.5.3 Produit via une application bilinéaire de deux fonctions diffé-


rentiables
Soient E, F1 , F2 et G des espaces vectoriels normés dimensions finies , U un ouverts
non vide E. On considère une application bilinéaire

Φ : F1 × F2 → G; (x, y) 7→ Φ(x, y)

de F1 × F2 vers G. Si f : U → F1 et g : U → F2 sont des applications, on note


Φ(f, g) l’application de U vers G définie par :

∀x ∈ U, Φ(f, g)(x) = Φ(f (x), g(x)).

Avec les notations ci-dessus, on a la :

Proposition 314

Si f et g sont différentiables au point a alors Φ(f, g) est différentiable au point


a et :
d(Φ(f, g))(a) = Φ(fa , dg(a)) + Φ(df (a), ga ).
avec fa et ga les applications constantes de U vers F de valeurs respectives f (a)
et g(a).

Exemples Voici des exemples importants de l’application des propositions ci-dessus :


12.1. APPLICATION DIFFÉRENTIABLE 329

1. Si F est une algèbre normée de dimension finie et f, g : U ⊂ E → F alors si


f et g sont différentiables en un point a de U , la produit f g est différentiable
au point a et
d(f g)(a) = f (a)dg(a) + df (a)g(a).
2. Si f : U → R est une application et a ∈ U tel que f (a) ̸= 0 et f différentiable
au point a alors il existe un ouvert V contenu dans U tel que f (x) ̸= 0 pour
1 1
tout x ∈ V , donc est bien définie sur V . L’application est différentiable
f f
au point a et on a  
1 1
d (a) = − df (a).
f (f (a))2
3. On en déduit que si f, g : U ⊂ E → R différentiables au point a et g(a) ̸= 0
f
alors est bien définie sur un ouvert V tel que a ∈ V et elle est différentiable
g
au point a et
 
f 1
d (a) = (df (a)g(a) − f (a)dg(a)).
g (g(a))2

12.1.5.4 Composé avec une application linéaire

Proposition 315

E, F, G sont trois espaces vectoriels normés, soit f : U ⊂ E → F une application


et Φ : F → G une application linéaire et a ∈ U . Si f est différentiable au point
a alors Φ ◦ f est différentiable au point a et :

d(Φ ◦ f )(a) = Φ ◦ df (a)

Preuve:
Si f est différentiable au point a, comme Φ est linéaire elle est différentiable
sur F donc au point a, donc, d’après le théorème 75, Φ ◦ f est différentiable
au point a et d(Φ ◦ f )(a) = dΦ(f (a)) ◦ df (a) et comme dϕ(f (a)) = Φ, on a
d(Φ ◦ f )(a) = Φ ◦ df (a).

Exemple Soit n ∈ N∗ et

f : Mn (R) → Mn (R); X 7→ X 2

et
g : Mn (R) → R; X 7→ tr(X 2 )
1. Montrer que f est différentiable sur Mn (R) et préciser sa différentielle en tout
point A de Mn (R).
330 CHAPITRE 12. CALCUL DIFFÉRENTIEL.

2. En déduire que g est différentiable sur Mn (R) et préciser sa différentielle en


tout point.
∂g
3. Calculer (A), pour toute matrice A ∈ Mn (R).
∂xi,j
Réponse :
1. Soit A, H ∈ Mn (R) ; alors :
f (A + H) = (A + H)2 = A2 + AH + HA + H 2 = f (A) + L(H) + φ(H)
avec L(H) = AH +HA, donc L est linéaire et φ(H) = H 2 , donc, en choisissant
une norme matricielle, on a ∥φ(H)∥ ≤ ∥H∥2 , par suite φ(H) = o(∥H∥) quad
H tends vers 0. Il en résulte que f est différentiable en tout point A, on a :
∀H ∈ Mn (R), df (A)(H) = AH + HA
2. On remarque que g = tr ◦f et comme tr est linéaire, l’application du théo-
rème ci-dessus donne g est différentiable en tout point A de Mn (R) et ∀H ∈
Mn (R), dg(A)(H) = tr(df (A)(H). Ainsi :
∀(A, H) ∈ Mn (R)2 , dg(A)(H) = 2 tr(AH)
3. On a
∂g
(A) = DEi,j g(A) = dg(A)(Ei,j ) = 2 tr(AEi,j ) = 2aji
∂xi,j

12.1.5.5 Différentiabilité et composantes

Proposition 316

Soit f : U ⊂ E → F une application et a ∈ E. On suppose que dim(F ) = n


n
X
et que V = (V1 , . . . , Vn ) est une base de F et qye f = fk Vk , c’est-à-dire
k=1
que f1 , . . . , fn sont les composantes de f relativement à la base V . Alors f est
différentiable au point a si et seulement si les applications fk pour k ∈ [[1, n]]
sont différentiables au point a, auquel cas on a :
n
X
df (a)(h) = dfi (a)(h)Vi
i=1

Preuve:
Si f est différentiable au point a, remarquons que pour tout i ∈ [[1, n]], on a :

fi = π i ◦ f
n
X
où πi : F → R, x 7→ πi (x) = xi où x = xk Vk , donc π étant linéaire, elle
k=1
est différentiable et dπi = πi de sorte que fi est différentiable au point a et
12.2. FONCTION DE CLASSE C k , k ∈ N∗ ∪ {∞} 331

dfi (a) = π ◦ df (a).


Réciproquement, si pour tout k ∈ [[1, n]], l’application fk est différentiable au
point a, il existe des applications εk , k ∈ [[1, n]] définies sur W \{0} où W est
un voisinage de 0 tel que :

∀i ∈ [[1, n]], ∀h ∈ W, fi (a + h) = fi (a) + dfi (a)(h) + ∥h∥εi (h)

avec lim εi (h) = 0, pour tout i ∈ [[1, n]]. En sommant, on a :


h→0

n
X n
X n
X n
X
fi (a + h)Vi = fi (a)Vi + dfi (a)(h)Vi + ∥h∥ εi (h)
i=1 i=1 i=1 i=1

ce qui donne :
f (a + h = f (a) + L(h) + ∥h∥ε(h)
avec n
X
∀h ∈ E, L(h) = dfi (a)(h)Vi
i=1

donc L est linéaire de E vers F , et :


n
X
∀h ∈ V, ε(h) = εi (h)
i=1

de sorte que lim ε(h) = 0 et par unicité de la différentielle, f est différentiable


h→0
h̸=0
au point a et df (a) = L.

12.2 Fonction de classe C k , k ∈ N∗ ∪ {∞}


12.2.1 Fonction de classe C 1
12.2.1.1 Définitions, caractérisation
Soient E et F deux espaces vectoriels normés de dimensions finies , U un ouvert
de E et f : U → F une application. On dit que f est différentiable sur U si f est
différentiable en tout point de U . Dans ce cas, on dispose d’une application notée
df de U vers L(E, F ) qui associe à tout x ∈ U l’application linéaire df (x).

Définition 155

Soit f : U ⊂ E → F une application. f est de classe C 1 sur U si f est


différentiable sur U et l’application df est continue sur U .

Exemples Voici des exemples importants :


1. Si f ∈ L(E, F ) alors la restriction de f à tout ouvert U de E est de classe C 1
sur U
332 CHAPITRE 12. CALCUL DIFFÉRENTIEL.

2. Toutes application constante sur U est de classe C 1 sur U .

Proposition 317

1. Si f, g : U → F sont deux applications de classe C 1 sur U et λ ∈ R, alors


f + λg est de classe C 1 sur U .
2. Si E, F, G sont des espaces vectoriels normés de dimensions finies, U, V
des ouverts respectifs de E et F et si f : U → F et g : V → G sont des
applications de classe C 1 respectivement sur U et V et f (U ) ⊂ V alors
g ◦ f est de classe C 1 sur U .

Preuve:
1. Si f et g sont de classe C 1 elles sont différentiables, donc f + λg est
différentiable et

∀x ∈ U, d(f + λg)(x) = df (x) + λdg(x)

et comme df et dg sont continues sur U , l’application d(f +λg) = df +λdg


est continue sur U . Donc f + λg est de classe C 1 sur U .
2. Comme f et g sont différentiables sur U et V respectivement et f (U ) ⊂ V ,
on a g ◦ f est différentiable sur U et :

∀x ∈ U, d(g ◦ f )(x) = dg(f (x)) ◦ df (x) = Φ(dg(f (x)), df (x)

avec
Φ : L(F, G) × L(E, F ); (u, v) 7→ u ◦ v
qui est une application bilinéaire, donc par un théorème qui concerne la
continuité du produit de deux applications continues via une application
bilinéaire, l’application

d(g ◦ f ) = Φ(dg ◦ f, df )

est continue sur U . Rappelons que si ψ1 : U → F1 , ψ2 : U → F2 sont


deux applications et Ψ : F1 × F2 → G une application bilinéaire alors
Ψ(ψ1 , ψ2 ) est l’application qui associé à tout vecteur x de U le vecteur
de G, y = Ψ(ψ1 (x), ψ2 (x)).

Théorème 76

E et F sont deux espaces vectoriels normées de dimensions respectives p et n


avec p, n ∈ N∗ et V = (V1 , . . . , Vn ) est une base de F . Soit U un ouvert de E et
f : U → F une application de composantes f1 , . . . , fn relativement à la base V
de F . Alors f est de calasse C 1 sur U si et seulement si fi est de classe C 1 sur
12.2. FONCTION DE CLASSE C k , k ∈ N∗ ∪ {∞} 333

U , pour tout i ∈ [[1, n]].

Preuve:
• Si f est de classe C 1 sur U alors en particulier f est différentiable sur U et
on a déjà vu que :
n
X
∀x ∈ U, df (x) = df (x)Vi
i=1

Pour tout j ∈ [[1, n]], on note Lj lapplication :


n
X
Lj : L(E, F ) → L(E, R); g = gi Vi 7→ Lj (g) = gj
i=1

Alors g est linéaire donc continue(dimension finie). Par ailleurs, il est clair que :

∀i ∈ [[1, N ]], ∀x ∈ U, dfi (x) = (Li ◦ df )(x)

Par continuité de df et Li , on a donc dfi est continue sur U donc fi est de classe
C 1 sur U pour tout i ∈ [[1, n]].
• Réciproquement supposons que pour tout i ∈ [[1, n]], fi est de classe C 1 . On
a f est différentiable sur U et :
n
X
∀x ∈ U, df (x) = df (x)Vi
i=1

donc
∀x ∈ U, df (x) = L(df1 (x), . . . , dfn (x))
où L est l’application :
n
X
n
L : (L(E, R)) → L(E, F ); (g1 , . . . , gn ) 7→ gi Vi
i=1

qui est manifestement continue car linéaire. Par suite df est continue sur U
donc f est de classe C 1 sur U .

Proposition 318

Soit E une espace vectoriel normé de dimension p et B = (e1 , · · · , ep ) une base


de E. Une application f : U → F est de classe C 1 si et seulement si les dérivées
∂f
partielles ; j ∈ [[1, p]] par rapport à la base B existent et sont continues sur
∂xj
U.
334 CHAPITRE 12. CALCUL DIFFÉRENTIEL.

Preuve:
Au cours de toute la démonstration E est rapporté à une base E = (e1 , . . . , ep )
et on adoptera la norme définie sur E par :
p
X
∀x = xj e j , ∥x∥ = sup |xj |
1≤j≤p
j=1

• Supposons que f est de classe C 1 sur U , donc f est différentiable et par suite
∂f
ses dérivées partielles existent. Pour tout j ∈ [[1, p]], on a :
∂xj

∂f
∀x ∈ U, (x) = df (x)(ej ) = (Lj ◦ df )(x)
∂xj


Lj : L(E, F ) → F ; u 7→ Lj (u) = u(ej )
de sorte que Lj est continue car linéaire en dimension finie. Comme

∂f
= Lj ◦ df
∂xj

∂f
on a en vertu de la continuité de df supposée là haut que est continue sur
∂xj
U.
∂f
• Réciproquement, supposons que les dérivées partielles existent et sont
∂xj
continues, pour tout j ∈ [[1, p]]. Soit a ∈ U . Soit ε > 0. Par continuité des
dérivées partielles au point a, il existe η > 0 tel que :


 a+h∈U
et

(⋆) ∀h ∈ E, ∥h∥ < η ⇒ +
∂f ∂f ε
(a + h) − (a) <


∂xj ∂xj p

Soit alors h ∈ E tel que ∥h∥ < η, alors on peut écrire :

f (a + h) − f (a) = f (a1 + h1 , . . . , ap + hp ) − f (a1 , . . . , ap )


= f (a1 + h1 , a2 + h2 , . . . , ap + hp ) − f (a1 , a2 + h2 , . . . , ap + hp )
+f (a1 , a2 + h2 , . . . , ap + hp ) − f (a1 , a2 , . . . , ap + hp )
+...
+f (a1 , a2 , . . . , ap−1 , ap + hp ) − f (a1 , a2 , . . . , ap )

Sans nuire à la généralité et compte tenu du théorème 76, on peut supposer


que f est à valeurs dans R. On peut donc appliquer l’égalité des accroissements
finis aux fonctions partielles, donc il existe :
12.2. FONCTION DE CLASSE C k , k ∈ N∗ ∪ {∞} 335

1. c1 entre a1 et a1 + h1 .
2. c2 entre a2 + h2 et a2
3. . . . . . . . . .
4. cp entre entre ap et ap + hp
tel que :
∂f
f (a + h) − f (a) = h1 (c1 , a2 + h2 , . . . , ap + hp )
∂x1
∂f
+h2 (a1 , c2 , . . . , ap + hp )
∂x2
+......
∂f
+hp (a1 , a2 , . . . , ap−1 , cp )
∂x2
Si on note : p
X ∂f
∆(h) = f (a + h) − f (a) − hj (a)
j=1
∂xj

ce qui précède permet de dire que pour tout h ∈ E tel que ∥h∥ < η, on a :
p
X
∆(h) = hj Φj (h)
j=1

Avec :
∂f ∂f
Φj (h) = (a + Hj ) − (a)
∂x1 ∂xj
avec :
Hj = (0, . . . , 0, cj − aj , hj+1 , . . . , hp )
de sorte que, pour tout j ∈ [[1, p]], on a ∥Hj ∥ < η car la seule composante de
Hj à examiner est cj − aj , et comme cj est entre aj et aj + hj , on a |cj − aj | ≤
|hj | ≤ ∥h∥ < η. Il découle de (⋆) que :
p
X
|∆(h)| < ε |hj | = ε∥h∥
j=1

donc, quand h tends vers 0, on a

∆(h) = o(∥h∥)

Il en découle que f est différentiable au point a.


• Il reste à démontrer que df est continue sur U .
• Pour tout x ∈ U on a :
n
X ∂f
df (x)(h) = πi (h) (x)
i=1
∂xi
336 CHAPITRE 12. CALCUL DIFFÉRENTIEL.

n
X
où πi désigne l’application linéaire : πi : E → R; x 7→ xi , avec x = xk Vk .
k=1
On a alors : n
X
df = Φ(φi , gi )
i=1

où :
• Pour tout i ∈ [[1, p]], φi : U → L(E, R); x 7→ φi (x) = πi , avec πi (h) = hi ,
p
X
pour tout h = hj ej . Il en découle que φi est continue car constante.
j=1
∂f
• Pour tout i ∈ [[1, p]], gi : U → F ; x 7→ (x), qui est continue par hypothèse.
∂xi
• Φ : L(E, R) × F → L(E, F ); (φ, x) 7→ Φ(φ, x) avec Φ(φ, x)(h) = φ(h)x pour
tout h ∈ E. On a Φ est bilinéaire.
• En appliquant la proposition concernant le continuité du produit d’applica-
tions continues via une application bilinéaire, on obtient que df est continue,
ce qui achève la preuve du théorème ci-dessus.

12.2.1.2 Quelques propriétés

Proposition 319

Si f : U ⊂ E → F est une application de classe C 1 de U dans F et γ : I → E


une application de classe C 1 d’un intervalle non trivial I de R vers E tel que
γ(I) ⊂ U alors pour tout α, β ∈ I, en posant a = γ(α) et b = γ(β), on a :
Z β
f (b) − f (a) = df (γ(t)).γ ′ (t)dt.
α

Preuve:
On sait que (f ◦ γ) est de classe C 1 et pour tout t ∈ I, on a : (f ◦ γ)′ (t) =
Z β Z β
′ ′
df (γ(t)).γ (t), donc df (γ(t)).γ (t)dt = (f ◦γ)′ (t)dt = f (γ(β))−f (γ(α)) =
α α
f (b) − f (a).

Proposition 320

Soit U un ouvert non vide connexe par arcs de E et f : U → F une application


de classe C 1 , alors f est constante sur U si et seulement si df (a) = θ pour tout
a ∈ U . (θ désigne l’application nulle de E vers F .
12.2. FONCTION DE CLASSE C k , k ∈ N∗ ∪ {∞} 337

Le sens direct est évident ; l’autres sens ne l’est pas. On donne la preuve de cette
proposition uniquement dans le cas où U est un ouvert non vide convexe de E.

Preuve:
Supposons U convexe et soit (a, b) ∈ U . Pour tout t ∈ [0, 1], posons γ(t) =
(1 − t)a + tb = t(b − a) + a, donc γ est de classe C 1 sur [0, 1] et pour tout
t ∈ [0, 1], on a γ ′ (t) = b − a. Remarquons que γ(0) = aZ et γ(1) = b donc en
1
appliquant la proposition 320 , il vient : f (b) − f (a) = df (γ(t)).(b − a)dt,
0
or γ(t) ∈ U par convexité et par suite df (γ(t)) = θ, donc f (b) − f (a) = 0 et
f (a) = f (b) pour tout a, b ∈ U , donc f est constante sur U .

12.2.2 Fonctions de classe C k , k ∈ N ∪ {∞}


12.2.2.1 Dérivées partielles successives
On considère un espace vectoriel normé E de dimension p muni d’une base B =
(e1 , · · · , ep ), les coordonnées d’un vecteur x étant notées x1 , · · · , xp . Pour k ∈ N∗ ,
∂kf
on définit la fonction , comme suit :
∂xik · · · ∂xi1
∂ 1f ∂f
- Pour k = 1, on définit = si celles-ci existent.
∂xi1 ∂xi1
∂kf
- Pour k ∈ N∗ tel que existe et admet la dérivée partielle par rapport
∂xik · · · ∂xi1
à xk+1 , on pose :
∂ k+1 f ∂kf
 

=
∂xik+1 · · · ∂xi1 ∂xik+1 ∂xik · · · ∂xi1

Définition 156

∂kf
Si celles-ci existent les sont appelées les dérivées partielles de f
∂xik · · · ∂xi1
d’ordre k

Définition 157

On dit que f est de classe C k sur U si f admet toutes les dérivées partielles
d’ordre k sur U et celles-ci sont continues sur U .
On dit que f est de classe C ∞ sur U si f est de classe C k sur U pour tout
k ∈ N∗ .
338 CHAPITRE 12. CALCUL DIFFÉRENTIEL.

12.2.2.2 Théorème de Schwarz

Théorème 77

E est un espace vectoriel normé de dimension p et f : U → F une application


de classe C k sur U . Alors pour toute permutation σ ∈ S ([[1, k]], on a :

∂kf ∂kf
=
∂xiσ (1) · · · ∂xiσ (p) ∂xi1 · · · ∂xip

Dans le cas particulier de k = 2, on la théorème suivant :

Théorème 78

E est un espace vectoriel normé de dimension p et f : U → F une application


de classe C 2 sur U . Pour tout i, j ∈ [[1, p]], on a :

∂ 2f ∂ 2f
=
∂xi ∂xj ∂xj ∂xi

Remarques Les remarques suivantes peuvent être utiles :


p
X
p
1) Pour tout j ∈ [[0, k]], et tout α = (α1 , . . . , αp ) ∈ [[0, k]] tel que αi = j, on note
i=1
∂α l’application :
∂j f
∂α : C k (U, F ) → C k−j (U, F ); f 7→ ∂α (f ) = α
∂xα1 1 . . . ∂xp p
et une application linéaire.
2) Dans le cas particulier où p = ∞, on peut, pour tout α = (α1 , . . . , αp ) ∈ Np ,
considérer l’endomorphsme ∂α de C ∞ (U, F ) défini par :

∂j f
∀f ∈ C ∞ (U, F ), ∂α f = ∂α (f ) = α
∂xα1 1 . . . ∂xp p
Le théorème de Sshwarz permet de dire que si α, β ∈ Np tel que α = (α1 , . . . , αp ) et
β = (β1 , . . . , βp ) et γ = α + β = (α1 + β1 , . . . , αp + βp ) alors

∂α ◦ ∂β = ∂β ◦ ∂α = ∂γ .

12.2.2.3 Opérations sur les fonctions de classe C k

Proposition 321

Soit f, g : U ⊂ E → F des applications de classe C k sur U et α ∈ R. Alors


f + αg est de classe C k sur U .
12.2. FONCTION DE CLASSE C k , k ∈ N∗ ∪ {∞} 339

Proposition 322

E, , F1 , F2 et G sont des espaces vectoriels normés et U un ouvert de E. Soit


f : U → F1 et g : U → F2 des applications de classe C k sur U et soit B :
F1 × F2 → G une application bilinéaire ; Alors B(f, g) est de classe C k sur U .

On rappel que B(f, g)(x) = B(f (x), g(x)), pour tout x ∈ U .

Proposition 323

Soient E et F deux espaces vectoriels normés de dimensions finies, n = dim(F )


, C = (v1 , · · · , vn ) une base de F et U un ouvert non vide de E. Soit f : U → F
de composantes f1 , · · · , fn . Pour tout k ∈ N∗ ∪ {∞}, f est de classe C k si et
seulement si les fi , i ∈ [[1, n]] sont de classe C k

Proposition 324

Soit k ∈ N∗ ∪ {∞}. Si f : U ⊂ E → F et g : V ⊂ F → G sont deux applications


de classe C k sur U et V respectivement tel que f (U ) ⊂ V alors g ◦ U est de
classe C k sur U .

Définition 158

Soit U un ouvert de Rp . On appelle fonction polynomiale de U vers R, toute


application f : U → R définie par
X
f (x) = am x m mp
1 · · · xp
1

m∈I

où x = (x1 , · · · , xp ) ∈ U , I une partie finie non vide de Np , m ∈ I tel que


m = (m1 , · · · , mp ) et am ∈ R pour tout m ∈ I.

Proposition 325

Toute fonction polynomiale de U vers R est de classe C ∞ sur U .


Si f et g sont deux fonctions polynomiales sur U tel que ∀x ∈ U, g(x) ̸= 0 alors
f
est de classe C ∞ sur U .
g

12.2.3 Formule de Taylor d’ordre 2


340 CHAPITRE 12. CALCUL DIFFÉRENTIEL.

Proposition 326

Soit f : U ⊂ Rp → Rn une application de classe C 2 et a ∈ U . Alors pour h


voisin de 0 dans Rp , on a :
p p p
X ∂f 1 XX ∂ 2f
f (a + h) = f (a) + hj (a) + hi hj (a) + o(∥h∥2 )
j=1
∂x j 2 i=1 j=1
∂x i ∂x j

12.3 Fonction à valeur réelle


Grâce aux propositions sur les composantes d’une application, l’étude d’une appli-
cation f : U → F se ramène à celle d’une fonction g : U → R. C’est pour cela que
nous réservons ce paragraphe à de telles fonctions. On se contentera du cas E = Rp
puisque tout espace vectoriel normé réel de dimension p est isomorphe à Rp .
Dans la suite Rp est muni de la norme de sa structure euclidienne canonique, c’est-
à-dire celle qui provient du produit scalaire canonique : Pour x = (x1 , · · · , xp ) et
y = (y1 , · · · , yp ), on a :
p
X
⟨x, y⟩ = x k yk
k=1

12.3.1 Gradient
Remarquons que si f : U ⊂ Rp → R est une application différentiable en un point
a de U , sa différentielle df (a) est une forme linéaire sur Rp . Par le théorème de
représentation il existe un unique vecteur qu’on note ∇f (a) de Rp tel que

∀h ∈ Rp , df (a).h = ⟨∇f (a), h⟩

12.3.1.1 Définition, exemple

Définition 159

Soit f : U ⊂ Rp → R une application et a ∈ U . Si f est différentiable au point


a, l’unique vecteur ∇f (a) tel que :

∀h ∈ Rp , df (a).h = ⟨∇f (a), h⟩

est appelé gradient de f au point a.

Proposition 327

Si f est différentiable au point a et B = (e1 , · · · , ep ) est la base canonique de


12.3. FONCTION À VALEUR RÉELLE 341

Rp alors : p
X ∂f
∇f (a) = (a)ek
k=1
∂xk

Exemples Quand l’espace d’arrivée n’est pas de la forme Rp , on s’y ramène en


considérant l’isomorphisme canonique.
1. f : R2 → R; (x, y) 7→ xy + x + y et a = (3, 4) alors f est différentiable au
∂f
point a car f est polynomiale des variables x et y. On a (x, y) = y + 1 et
∂x
∂f
(x, y) = x + 1 , donc ∇f (a) = (5, 4)
∂y
2. Soit f : Mn (K) → K, A 7→ f (A = tr(A). Alors pour tout X ∈ Mn (K) et tout
∂f
(i, j) ∈ [[1, n]]2 , on a (X) = δij le symbole de Kronnecker. Il en découle
∂xij
que ∇f (X) = In pour tout X ∈ Mn (K).
3. Soit g : Mn (K) → K; X 7→ det(X). Alors en développant suivant la colonne
j, on a :
Xn
g(X) = (−1)i+j ∆ij
i=1
où ∆ij est le mineur pour la ligne i et la colonne j. Comme ∆ij ne dépends
pas de Xij , on a :
∂g
(X) = (−1)i+j ∆ij
∂xij
par suite :
∇g(X) = Com(X)

12.3.2 Extrêmums
12.3.2.1 Point critique, maximum, minimum, extremum

Définition 160

Soit f : U ⊂ Rp → R une application différentiable sur U . Soit a ∈ U . On dit


que a est un point critique de f si df (a) = 0, ce qui revient à ∇f (a) = 0.

Remarque Cela revient à dire que les dérivées partielles de f au point a sont nulles,
donc :
∂f
∀j ∈ [[1, p]] (a) = 0
∂xj

Définition 161

Soit f : U → R une application et a ∈ U . On dit que f admet un maximum


(resp. minimum) local au point a s’il existe r > 0 tel que :

(1) ∀x ∈ B(a, r), f (x) ≤ f (a)(resp. f (a) ≤ f (x)).


342 CHAPITRE 12. CALCUL DIFFÉRENTIEL.

On dit que f admet un extremum local au point a si f admet un minimum ou


un maximum local au point a.
Si l’inégalité (1) ci-dessus est vérifiée pour tout x ∈ U , on parle de maximum
(resp. minimum) global donc d’extremum global.
Si l’inégalité (1) ci-dessus est stricte sauf pour x = a, on parle de maximum
(resp. minimum) local strict, donc d’extremum local strict.

12.3.2.2 Condition nécessaire d’extremum

Théorème 79

Soit f : U → R une application différentiable sur U et a ∈ U . Si f admet un


extremum au point a alors a est un point critique de f

Preuve:
Supposons que f admet un extremum au point a. Soit e un vecteur quelconque
de Rp et considérons la fonction réelle de variable réelle g définie par g(t) =
f (a + te). Alors g admet un extremum au point 0. Comme f est différentiable
sur U , le fonction g est dérivable sur un intervalle ouvert contenant 0, donc
g ′ (0) = 0 donc ⟨∇f (a), e⟩ = 0. Ainsi on a :

∀e ∈ Rp , ⟨∇f (a), e⟩ = 0

donc ∇f (a) = 0, donc a est un point critique de f au point a.

Remarques 1. Cela se traduit dans la pratique par : Avant de chercher les


extremums d’une applications f : U → R, il faut commencer par chercher
les points critiques puis chercher parmi ceux-ci les extremums.
2. On donnera des conditions du second ordre dans le sous paragraphe ci-dessous.

12.3.2.3 Conditions du second ordre d’extremum


On commence par donner des rappels et compléments d’algèbre linéaire :

Théorème 80

Toute matrice réelle symétrique est diagonalisable dans une base orthonormée.
Autrement dit si A est une matrice réelle symétrique d’ordre p, alors il existe
des nombres
 , · · · , λp et une matrice orthogonale Ω tel A = t ΩDΩ où
réels λ1
λ1
D=
 ..  est la matrice diagonales de termes diagonaux λ1 , · · · , λp .

.
λp
12.3. FONCTION À VALEUR RÉELLE 343

Dans tout ce qui suit U est un ouvert non vide de Rp et f : U → R est une
application de classe C 2 sur U . On rappelle la formule de Taylor-Young au voisinage
de a à l’ordre 2 :
p p
1 XX ∂ 2f
f (a + h) = f (a) + ⟨∇f (a), h⟩ + hi hj (a) + ∥h∥2 ε(h)
2 i=1 j=1 ∂xi ∂xj

On dispose de la matrice carrée :


∂ 2f
 
Hf (a) = (a)
∂xi ∂xj 1≤i,j≤p

appelée la hessienne de f au point a. Par le théorème de Shwarz, la hessienne au


point a est une matrice réelle symétrique, donc par le théorème spectral elle est
diagonalisable. Si on note X la colonne des coordonnées de h, la formule de Taylor-
Young ci-dessus s’écrit :
1
f (a + h) = f (a) + ⟨∇f (a), h⟩ + ⟨Hf (a)X, X⟩ + ∥X∥2 ε(X)
2

Théorème 81

Soit f : U → R une application de classe C 2 et a ∈ U un point critique de f


(c’est-à-dire ∇f (a) = 0). On note λ1 , · · · , λp les valeurs propres de
 2 
∂ f
Hf (a) = (a)
∂xi ∂xj 1≤i,j≤p

la hessienne de f au point a. Alors :


1. Si les λj , j ∈ [[1, p]] sont strictement positives alors f (a) est un minimum
local strict de f .
2. Si les λj , j ∈ [[1, p]] sont strictement négatives alors f (a) est un maximum
local strict de f .

Preuve:
La formule de Taylor-Young s’écrit :
1
f (a + h) − f (a) = ⟨Hf (a)X, X⟩ + ∥X∥2 ε(X)
2
• Supposons que les valeurs propres λ1 , · · · , λp de Hf (a) sont strictement posi-
tives.
L’application g : X 7→ ⟨Hf (a)X, X⟩ est continue sur Rp car polynomiale en les
coordonnées de X dans n’importe quelle base orthonormée de Rp . De plus, on
a:
(⋆) ∀X ∈ Rp , X ̸= 0 ⇒ g(X) > 0.
344 CHAPITRE 12. CALCUL DIFFÉRENTIEL.

p
X
En effet si on écrit X = xk Vk où (Vk )1≤k≤p est une base orthonormée de
k=1
vecteurs propres de Hf (a) le vecteur Vk étant associé à la valeur propre λk , on a
p p
X X
Hf (a)X = xk λk Vk , donc g(X) = λk x2k donc g(X) ≥ 0, or g(X) = 0 ⇒
k=1 k=1
∀k ∈ [[1, p]], xk = 0, or X ̸= 0, donc g(X) > 0. Comme S = {X ∈ Rp / ∥X∥ = 1}
est une partie compacte de Rp , et g continue donc g est bornée sur S et atteint
ses bornes, en particulier, il existe X0 ∈ S tel que g(X0 ) = min g(X). On a
X∈S
X0 ∈ S, donc ∥X0 ∥ = 1 et par suite X0 ̸= 0, donc, en vertu du (⋆)ci-dessus,
 on
X
a α = g(X0 ) > 0. En particulier, pour tout X ∈ Rn \{0}, on a : g ≥ α.
∥X∥
donc g(X) ≥ α∥X∥2 . Comme lim ε(X) = 0, il existe r > 0 tel que :
X→0

α
∥X∥ < r ⇒ |ε(X)| <
4
En particulier :
α
∥X∥ < r ⇒ ε(X) > −
4
1 α α
⇒ f (a + X) − f (a) = g(X) + ∥X∥ ε(X) ≥ − ∥X∥2
2 2 4
α 2
⇒ f (a + X) − f (a) ≥ ∥X∥
4
Il en découle que pour tout X ∈ B(0, r) on a f (a + X) − f (a) ≥ 0 avec égalité
si et seulement si X = 0, ce qui veut dire que f (a) est un minimum local strict.

• Supposons maintenant qu’il existe m, q ∈ N∗ tel que m + q = p et les va-


leurs propres de Hf (a) sont λ1 , . . . , λm , −λm+1 , . . . , −λp+q = −λn avec ∀k ∈
p
X
[[1, p]], λk > 0. Si X = xk Vk alors :
k=1

m q
X X
2
Hf (a)X = λ k xk − λm+k x2m+k
k=1 k=1

de sorte que :
Xm
- si V = Vk , alors :
k=1

  m
∗ 1 1 X
∀n ∈ N , Hf (a) V = 2 λ, avec λ = λk > 0
n n k=1
12.3. FONCTION À VALEUR RÉELLE 345

q
X

- si V = Vm+k , alors :
k=1

  q
∗ 1 ′ 1 X
∀n ∈ N , Hf (a) V = − 2 λ′ , ′
avec λ = λm+k > 0
n n k=1

Il en découle et compte tenu de la formule de Taylor ci-dessus que pour n ∈ N∗


suffisamment grand ( n → +∞), on a :
    
1 λ 1
f a+ V = 2 +o


n n n2


λ′
   

 1 ′ 1
 f a+ V =− 2 +o


n n n2

ce qui prouve que f (a + h) − f (a) ne garde pas un signe constant pour h sur
un voisinage de 0 et explique pourquoi on a un point selle.

12.3.2.4 Cas particulier de n = 2

Proposition 328

Soit f : U ⊂ R2 → R une application de classe C 2 sur U et a ∈ U un point


critique de f . On note :

∂ 2f ∂ 2f ∂ 2f
r= (a), s = (a), t = (a)
∂x2 ∂x∂y ∂y 2
appelées notations de Monge. Alors, on a :
1. Si rt − s2 > 0 alors :
• Si r > 0 alors f admet un minimum local strict en a.
• Si r < 0 alors f admet un maximum local strict en a.
2. Si rt − s2 < 0 alors f admet un point scelle au point a.

Preuve:
Remarquons que rt − s2 = det(Hf (a)) et r + t = tr(Hf (a). Si on noté λ1 , λ2 les
valeurs propres de Hf (a) alors on a :

λ1 > 0 et λ2 > 0 ⇔ λ1 λ2 > 0 et λ1 + λ2 > 0


⇔ det(Hf (a)) > 0 et tr(Hf (a)) > 0
⇔ rt − s2 > 0 et r + t > 0
⇔ rt − s2 > 0 et r > 0
346 CHAPITRE 12. CALCUL DIFFÉRENTIEL.

La dernière équivalence étant justifiée comme suit : Si rt − s2 > 0 et r + t > 0


alors si r ≤ 0, forcément t > 0 donc rt serait ≤ 0 et alors rt − s2 ≤ 0 , ce
qui n’est pas vrai, donc r > 0. réciproquement si rt − s2 > 0 et r > 0 alors
r + t ≤ 0 ⇒ t ≤ 0 donc rt − s2 serait ≤ 0, chose fausse, donc r + t > 0.

Exemple Soit f : R2 → R, (x, y) 7→ f (x, y) = x4 + y 4 − (x − y)2 . La fonction f est


de classe C 2 car elle est polynomiale en les variables x et y. On a :
∂f ∂f
(x, y) = 4x3 − 2(x − y), (x, y) = 4y 3 + 2(x − y).
∂x ∂y
Donc :
4x3 = 2(x − y)

(x, y) est un point critique ⇔
4y 3 = −2(x − y)
x3 = −y 3


x − y = 2x3

y = −x

2x = 2x3

x=1
⇔ x = y = 0 ou
y = −1

x = −1
ou
y=1
Il y’ a donc trois points critiques : (0, 0), (1, −1) et (−1, 1). En remarquant que
f (X) = f (−X) pour tout X ∈ R2 , on fera l’étude uniquement en (0, 0) et (1, −1).
Les dérivée partielles d’ordre 2 de f sont :
∂ 2f 2 ∂ 2f ∂ 2f
(x, y) = 12x − 2, (x, y) = 2, (x, y) = 12y 2 − 2,
∂x2 ∂x∂y ∂y 2
Il en découle que :
• Au point (1, −1), on a : r = 10, s = 2, t = 10, donc rt − s2 = 96 > 0 et comme
r > 0, f (1, −1) = −2 est un minimum local strict de f .
• Comme f (1, −1) = f (−1, 1) = −2 on a la même conclusion pour (−1, 1).
• En (0, 0) : r = −2, s = 2, t = −2, donc rt − s2 = 0. On ne peut pas conclure par le
théorème ci-dessus,
 on
 fera une étude par une autre méthode : On remarque que si
1 1 2
on pose un = , , pour tout n ∈ N∗ alors lim un = (0, 0) et f (un ) = 4 > 0
n n n→+∞
  n
1
pour tout n ∈ N∗ . Par ailleurs si on pose vn = , 0 pour tout n ∈ N∗ , on a
n
1 − n2
lim vn = (0, 0) et f (vn ) = < 0, pour tout n ∈ N∗ tel que n ≥ 2. Il en
n→+∞ n4
résulte que f n’admet ni minimum ni maximum local en (0, 0).

12.3.3 Application à la géométrie différentielle


Dans tout ce sous-paragraphe p est un entier naturel non nul et E = Rp est muni
de sa structure canonique d’espace euclidien.
12.3. FONCTION À VALEUR RÉELLE 347

12.3.3.1 Vecteur tangent, variété tangente


Soit Γ une partie non vide de Rp . Un vecteur v de Rp est dit tangent à Γ en un
point a de Γ s’l existe un arc paramètré (] − ε, ε[, γ) de classe C 1 tel que γ(Iε ) ⊂ Γ
et γ(0) = a et γ ′ (0) = v. (ici Iε =] − ε, ε[.) On note Ta Γ, l’ensemble des vecteurs de
E tangents à Γ au point a. L’ensemble :

Va = a + Ta Γ = ta (Ta Γ)

image de Ta Γ par la translation ta de Rp de vecteur , a s’appelle la variété tangente


à Γ au point a. Si Ta Γ est un sous-espace vectoriel de Rp alors Va s’appelle variété
affine tangente à Γ au point a.

Remarque Il existe une définition plus générale de vecteur tangent à une partie à
savoir : Soit E un espace vectoriel normé réel et Γ une partie non vide de E et soit
a ∈ Γ. Un vecteur v de E est dit vecteur tangent au point a à Γ s’il existe une suite
(xn ) ∈ (Γ\{a})N et une suite (αn ) ∈ R+ N tel que :

 (i)
 lim xn = a
n→+∞

 (ii) lim (αn (xn − a)) = v



n→+∞

12.3.3.2 Lignes de niveau, surfaces de niveau


Si f : U ⊂ Rp → R est une application différentiable alors pour tout nombre réel c,
le sous ensemble Γc de U tel que :

Γc = {X ∈ U/f (X) = c}

s’appelle ligne de niveau si p = 2 et surface de niveau si p = 3. Généralement on


l’appelle une équipotentielle.

12.3.3.3 Plan tangent à une surface de niveau f (x, y, z) = 0


Soit f : U ⊂ R3 → R et c une constante réelle et Γc = {X ∈ U/f (X) = 0}. Soit
a ∈ Γc tel que f différentiable au point a et ∇f (a) ̸= 0. Le plan passant par a et
normal à ∇f (a) est tangent à Γc au point a. En effet si (J, γ) est une arc de classe
C 1 tracé sur γc alors ∀t ∈ J, f (γ(t)) = c, donc f ◦ γ est constante sur J, donc sa
dérivée est nulle sur J, ce qui veut dire : ∀t ∈ J, ⟨∇f (a), γ ′ (t)⟩ = 0 et traduit que
γ ′ (t)⊥∇f (a) pour tout t ∈ J. Notons que le plan tangent à Γc au point a, cité
ci-dessus est le plan affine a + Ta Γc d’équation :

⟨X − a, ∇f (a)⟩ = 0

c’est-à-dire :
∂f ∂f ∂f
(x1 − a1 ). (a) + (x2 − a2 ). (a) + (x3 − a3 ). (a) = 0
∂x1 ∂x2 ∂x3
348 CHAPITRE 12. CALCUL DIFFÉRENTIEL.

12.3.3.4 Gradient et dérivée directionnelle


On aura besoin de la proposition suivante qui est une conséquence immédiate de
l’inégalité de Cauchy-Schwarz et son cas d’égalité :

Proposition 329

Pour tout x, y ∈ Rp , on a :
⟨x, y⟩ ≤ ∥x∥∥y∥,
avec égalité si et seulement si x et y sont directement colinéaires.

Preuve:
Rappelons que l’inégalité de Cauchy-Schwarz dans l’espace euclidien Rp dit que
pour tout x, y ∈ Rp on a
|⟨x, y⟩| ≤ ∥x∥∥y∥
avec égalité si et seulement si x et y sont colinéaires.
Il en découle en particulier que : ⟨x, y⟩ ≤ ∥x∥∥y∥. Supposons que cette dernière
inégalité est une égalité, alors on a le cas d’égalité de Cauchy-Schwarz à savoir
x = 0 ou x ̸= 0 et y = αx avec α ∈ R et de plus ⟨x, y⟩ ≥ 0, ce qui donne
λ ≥ 0 donc x et y sont directement colinéaires. Réciproquement cette dernière
condition donne l’égalité : ⟨x, y⟩ = ∥x∥∥y∥.

Proposition 330

Soit f : U ⊂ Rp → R différentiable sur U , et a ∈ U tel que ∇f (a) ̸= 0. Alors la


valeur maximale de De f (a) où e est un vecteur unitaire correspond au cas où
e et ∇f (a) sont directement colinéaires , c’est-à- dire où il existe α > 0 tel que
∇f (a) = αe

Preuve:
g(t) = f (a + te). On sait qu’il existe un voisinage V de 0 tel que g est dérivable
sur V et pour tout t ∈ V , on a :

g ′ (t) = ⟨∇f (a + te), e⟩

en particulier :
De f (a) = g ′ (0) = ⟨∇f (a), e⟩
donc par la conséquence ci-dessus de l’inégalité de Cauchy-Schwarz, on a :

De f (a) ≤ ∥∇f (a)∥∥e∥


12.3. FONCTION À VALEUR RÉELLE 349

avec égalité si ∇f (a) et e sont directement colinéaires. Or le cas d’égalité cor-


respond au fait que De f (a) est maximale, ce qui prouve la proposition.
350 CHAPITRE 12. CALCUL DIFFÉRENTIEL.
Chapitre 13

Équations différentielles

Dans tout ce qui suit, E désigne un espace vectoriel normé de dimension finie.

13.1 Généralités
13.1.1 Terminologie
Ω désigne un ouvert de R × E ou un ensemble de la forme I × E où I est intervalle
de R. La donnée d’une application f : Ω → E permet de parler de l’équation
différentielle (E) y ′ = f (t, y).

Définition 162

On appelle solution de (E) tout couple (J, φ) où J est un intervalle de R et φ


une application de J vers E dérivable sur J tel que : ∀t ∈ J, (t, φ(t)) ∈ Ω et
φ′ (t) = f (t, φ(t)).

Définition 163

Si (J1 , φ1 ) et (J2 , φ2 ) sont deux solutions de (E) tel que J2 ⊂ J1 et φ1 /J2 = φ2 ,


on dit que (J1 , φ1 ) est un prolongement de (J2 , φ2 ) ou que cette dernière est une
restriction de (J1 , φ1 ).

Définition 164

On appelle solution maximale de (E) toute solution (J, φ) tel que si (J1 , φ1 ) est
une solution de (E) tel que (J, φ) est une restriction de (J1 , φ1 ) alors J = J1 et
φ = φ1 .

Remarque Si on note S( E ) l’ensemble des solutions de l’équation différentielle :

(E ) y ′ = f (t, y)

351
352 CHAPITRE 13. ÉQUATIONS DIFFÉRENTIELLES

et ⪯ la relation définie sur S(E ) par : pour tout γ1 = (I1 , φ1 ) et γ2 = (I2 , φ2 ) éléments
de S(E ) : 
I1 ⊂ I2
γ1 ⪯ γ2 ⇔
φ1 = φ2 /I2
alors ⪯ est une relation d’ordre sur S(E ) et une solution maximale de (E ) n’est autre
qu’un élément maximal de l’ensemble ordonné (S(E ) , ⪯).

Définition 165

On appelle courbe intégrale ou trajectoire associée à une solution γ = (J, φ) la


partie Cγ de Ω définie par :

Cγ = {(t, φ(t))/t ∈ J}

13.1.2 Problème de Cauchy


y ′ = f (t, y)

Si (t0 , y0 ) ∈ Ω, le problème est appelé problème de Cauchy ou équa-
y(t0 ) = y0
tion différentielle avec condition initiale. Une solution du problème de Cauchy ci-
dessus est un couple (J, φ) tel que (J, φ) est une solution de l’équation différentielle
y ′ = f (t, y) et t0 ∈ J et φ(t0 ) = y0

13.1.3 Équation intégrale associée à une équation différen-


tielle
On considère l’équation différentielle :
(E) y ′ = f (t, y)
où f : Ω → E; (t, y) 7→ f (t, y) est une application continue sur Ω.
Si (I, φ) est une solution de (E) alors pour t0 ∈ I fixé, on a pour tout t ∈ I :
Z t
φ(t) = φ(t0 ) + f (u, φ(u))du
t0

On dit que (I, φ) est solution de l’équation intégrale associée à (E) et (t0 , y0 ) ∈ Ω :
Z t
(E I ) y(t) = y0 + f (u, y(u))du
t0

13.2 Équation différentielle non linéaire


13.2.1 Généralités, théorème de Cauchy-Lipschitz
On se place dans le cas où Ω est un ouvert de R × E et on considère une application
f : Ω → E et l’équation différentielle associée : (E) y ′ = f (t, y)
On admet le théorème suivant (théorème de Cauchy-Lipschitz) :
13.2. ÉQUATION DIFFÉRENTIELLE NON LINÉAIRE 353

Théorème 82

Si f est de classe C 1 sur Ω alors pour tout (t0 , y0 ) ∈ Ω et le problème de Cauchy :


 ′
y = f (t, y)
(PC)
y(t0 ) = y0

Alors :
1. (PC) admet au moins une solution de la forme (]t0 − α, t0 + α[), ψ) où α
est un nombre réel strictement positif.
2. (PC) admet une et une seule solution maximale (J, φ).
3. Toute solution (J1 , φ1 ) du problème de Cauchy ci-dessus est une restriction
de (J, φ).

Remarques On a les propriétés suivantes :

1. Si (J, φ) est une solution maximale de (E) alors J est un intervalle ouvert.
2. Les courbes intégrales des solutions maximales de (E) forment une partition
de Ω.

13.2.2 Équation différentielle à variables séparables


13.2.2.1 Définitions

Une équation différentielle du type y ′ α(y) = β(t) est dite à variable séparables.
Généralement une équation de la forme y ′ a(t)b(y) = c(t)d(y) peut se ramener
b(y)
(moyennant des conditions) à la première. C’est : y ′ α(y) = β(t) avec α(y) = et
d(y)
1
β(t) = , les conditions étant celle qui valident les divisons par d(y) d’une part
a(t)
et par a(t) d’autre part.
On peut (moyennant des conditions) les ramener à la forme générale d’une équation
différentielle.
On peut parler d’une équation différentielle y ′ = f (t, y) où f (t, y) = u(t)v(y).
On ne cherche pas à donner un exposé rigoureux là dessus, mais on traitera des
exemples.
Ainsi pour l’équation différentielle à variables séparables : (E) y ′ α(y) = β(t) si A
et B sont des primitives respectives de α et β sur des intervalles adéquats alors si
(J, φ) est une solution de (E) alors : ∀t ∈ J, φ′ (t)α(φ(t)) = β(t), ce qui s’écrit
(A◦φ)′ = B ′ et par suite il existe une constante c tel que ∀t ∈ J, A(φ(t)) = B(t)+c.
Moyennant des conditions qui fonts de A une application injective d’un intervalle
adéquat K vers R de sorte que A induit une bijection de K vers A(K), moyennant
tout ça on obtient : φ(t) = A−1 (B(t) + c) sur un certain sous-intervalle de J.
354 CHAPITRE 13. ÉQUATIONS DIFFÉRENTIELLES

13.2.2.2 Exemples
Exemple 1 : Une équation différentielle linéaire homogène : y ′ = a(t)y (avec a :
y′
I → R continue sur I.) est une équation différentielle à variable séparable : =
y
a(t). Si (J, φ) est une solution tel que φ ne s’annule jamais sur J alors il vient
φ′ (t)
∀t ∈ J, = a(t), donc ln |φ(t)| = A(t) + c où A est une primitive quelconque
φ(t)
de a sur I et c une constante réelle quelconque. d’où : φ(t) = λ exp(A(t)) avec λ
constante réelle arbitraire. On retrouve l’expression de la solution générale d’une
équation différentielle linéaire du premier ordre sans second membre.
1 1 3
Exemple 2 : L’équation différentielle y ′ y 2 = est à variable séparables : y =
1
t2 + 1 3
arctan(t) + c′ , donc y(t) = (c + 3 arctan(t)) 3

13.3 Équation différentielle linéaire


13.3.1 Définitions
13.3.1.1 Version avec les endomorphismes
Soit I un intervalle non trivial de R , a : I → L(E) et b : I → E des applications.
L’équation différentielle :
(E) y ′ = a(t)(y) + b(t)
représente un cadre général d’équation différentielle linéaire avec second membre.
L’équation différentielle :
(EH) y ′ = a(t)(y)
est appelée équation différentielle homogène associée à (E). On se contente de parler
de (E) car (EH) en est une quand b est nulle.
Notons que si t ∈ I alors a(t) ∈ L(E), donc a(t) est un endomorphisme de E. Ainsi
a(t)(y) est en fait la composée de a(t) et l’application y.
Si T est un endomorphisme de E, on convient parfois de noter T.x au lieu de T (x)
pour tout vecteur x de E, l’image de x par T . Ainsi on convient d’écrire l’équation
différentielle comme suit :
(E) y ′ = a(t).y + b(t).
Une solution de (E) est un couple (J, φ) avec J un intervalle de R contenu dans I et
φ : J → E une application dérivable sur J tel que : ∀t ∈ J, φ′ (t) = a(t)(φ(t))+b(t).

13.3.1.2 Version matricielle


On considère A : I → Mn (K) et B : I → Mn,1 (K) et l’équation différentielle :
(E) Y ′ = A(t)Y + B(t)
c’est la version matricielle de l’équation différentielle linéaire ci-dessus, appelé aussi
système différentiel linéaire.
13.3. ÉQUATION DIFFÉRENTIELLE LINÉAIRE 355

13.3.2 Principe de superposition


On considère un intervalle non trivial I de R. On se propose de trouver les solutions
d’une équation différentielle linéaire

(E) y ′ = a(t)(y) + b(t)

dans le cas où b(t) = b1 (t) + b2 (t), ce qui permet par exemple de déterminer des
solutions quand c’est plus facile d’en trouver pour chacune des équations différen-
tielles :
(Ek ) y ′ = a(t)(y) + bk (t)

pour k ∈ {1, 2}. On donne la proposition suivante appelée principe de superposi-


tion.

Proposition 331

On considère les équations différentielles :

(E1 ) y ′ = a(t)(y) + b1 (t)

(E2 ) y ′ = a(t)(y) + b2 (t)


(E) y ′ = a(t)(y) + b(t)
avec a : I → L(E) une application de I vers L(E) et b1 , b2 , b : I → E des
applications de I vers E . Si b = b1 +b2 et si Y1 et Y2 sont des solution respectives
de (E1 ) et (E2 ) sur I alors y = y1 + y2 est une solution de (E) sur I.

Preuve:
En effet si y1 et y2 sont des solutions respectives  de (E1 ) et (E2 ) sur I alors elles

y1 (t) = a(t)(y(t)) + b1 (t)
sont dérivables sur I et pour tout t ∈ I, on a . Par
y2′ (t) = a(t)(y(t)) + b2 (t)
sommation, et par linéarité de a(t), il vient y ′ (t) = (y1 +y2 )′ (t) = y1′ (t)+y2′ (t) =
a(t)(y1 (t) + y2 (t)) + b1 (t) + b2 (t), donc y ′ (t) = a(t)(y(t)) + b(t), donc y est bien
une solution de (E) sur I.

13.3.3 Théorème de Cauchy-Lipschitz linéaire


Dans tout ce qui suit I est un intervalle non trivial de R, a : I → L(E), b : I → E
des applications et on considère l’équation différentielle : (E) y ′ = a(t).y + b(t).
356 CHAPITRE 13. ÉQUATIONS DIFFÉRENTIELLES

Théorème 83

Si a et b sont continues sur l’intervalle I alors pour tout (t0 , y0 ) ∈ I × E, le


problème de Cauchy  ′
y = a(t).y + b(t)
(PC)
y(t0 ) = y0
admet une unique solution maximale. De plus cette solution est globale, c’est-
13.3. ÉQUATION DIFFÉRENTIELLE LINÉAIRE 357

à-dire que son intervalle est I tout entier.

Remarques 1. On note les différences suivantes avec le théorème de Cauchy-


Lipschitz non linéaire(C.L.N.L.) :
- Dans le cas non linéaire, Ω est un ouvert de R × E alors que pour le cas
linéaire Ω = I × E, en particulier Ω n’est pas forcément un ouvert puisque
l’intervalle I est quelconque de R.
- Au niveau des hypothèses, C.L.L. exige seulement la continuité de a et b,
alors que C.L.N.L. exige que f soit de classe C 1 .
- L’intervalle de la solution maximale varie dans le cas de C.L.N.L. alors que
pour C.L.L. c’est toujours I (intervalle où a et b sont définies et continues)
2. L’équation différentielle y ′ = a(t).y + b(t) s’écrit : y ′ = f (t, y) avec f (t, y) =
a(t)(y) + b(t) donc on ne sort pas du cadre général sauf que Ω = I × U n’est
pas forcément un ouvert de R × E.

13.3.4 Conséquence : Structure des espaces de solutions


13.3.4.1 Structure
On note n = dim(E) et on note S(EH) et S(E) l’ensemble des solutions maximales de
(EH) et de (E) respectivement. Le théorème de Cauchy-Lipschitz linéaire montrer
que toutes les solutions maximales de (EH) et (E) sont définies sur I tout entier,
c’est pour cela qu’on se contentera de noter φ au lieu de (I, φ) une solution ;

Théorème 84

S(EH) est un K−espace vectoriel de dimension n et si φ0 est uns solution parti-


culière de (E) alors S(E) = φ0 + S(EH) est un espace affine de dimension n de
direction S(EH)

Preuve:
S(EH) est un sous-espace vectoriel de C 1 (I, E), ensemble des applications de
classe C 1 de I vers E, car :
- l’application nulle θ : I → E; t 7→ θ(t) = 0 est une solution de (EH).
- Si φ1 , φ2 sont deux solutions de (EH) et α ∈ K alors φ = φ1 + αφ2 e par
simple vérification une solution de (EH).
L’application Ψ : S(EH) → E; φ 7→ φ(t0 ) est un isomorphisme de l’espace
vectoriel S(EH) vers E. En effet, Ψ est une application car si φ ∈ S(EH) alors
φ est bien définie sur I, en particulier au point t0 . L’application Ψ est linéaire
car si φ1 , φ2 ∈ S(EH) et α ∈ K, alors Ψ(φ1 + αφ2 ) = (φ1 + αφ2 )(t0 ) = φ1 (t0 ) +
αφ2 (t0 ) = Ψ(φ1 ) + αΨ(φ2 ).
Ψ est bijective car si y ∈ E, on sait d’après le théorème de Cauchy-Lipschitz
linéaire qu’il existe une et une unique solution φ de (EH) sur I tel que φ(t0 ) =
y.
Ainsi S(EH) est un espace vectoriel de dimension n.
358 CHAPITRE 13. ÉQUATIONS DIFFÉRENTIELLES

Soit ϕ0 une solution particulière


 ′ de (E). Si ϕ est une solution de (E) alors
ϕ (t) = a(t).ϕ(t) + b(t)
pour tout t ∈ I, on a : , de sorte que la différence
ϕ′0 (t) = a(t).ϕ0 (t) + b(t)
φ = ϕ − ϕ0 est une solution de (EH). On a bien ϕ = φ + ϕ0 . Réciproquement si
φ est une solution de (EH) et si on pose ϕ = φ + ϕ0 alors il est aisé de vérifier
que ϕ est une solution de (E), donc S(E) = ϕ0 + S(EH)

13.3.4.2 Système fondamental de solutions de l’équation homogène

Définition 166

Soit Φ = (φ1 , · · · , φn ) une famille de solutions de (EH). Si la famille Φ est libre,


elle est appelée système fondamental de solutions de (EH)

Un système fondamental de solutions (S.F.S.) de (EH)(est donc une base de S(EH) . Si)
n
X
Φ = (φ1 , · · · , φn ) est un S.F.S. de (EH) alors S(EH) = αk φk /(α1 , · · · , αn ) ∈ Kn
k=1

Proposition 332

Soit Φ = (φ1 , · · · , φn ) une famille de solutions de (EH). Les assertions suivantes


sont équivalentes :
(1) Φ est un S.F.S. de (EH).
(2) Pour tout t ∈ I, la famille Φ(t) = (φ1 (t), · · · , φn (t)) est une famille libre
de E.
(3) Il existe t0 ∈ I tel que la famille Φ(t0 ) = (φ1 (t0 ), · · · , φn (t0 )) est une
famille libre de E.

Preuve:
(1)⇒ (2) : Supposons Φ est un S.F.S de (EH) et soit t ∈ I et α1 , · · · , αn ∈ K
Xn Xn
tel que αk φk (t) = 0. Il en découle que φ = αk φk est une solution
k=1 k=1
de (EH) avec la condition initiale φ(t) = 0. Or la fonction nulle θ est une
solution vérifiant la même condition initiale. Par unicité, en vertu du théorème
de Cauchy-Lipschitz linéaire, on a φ = θ et par liberté de Φ, on a α1 = · · · =
αn = 0.
(2) ⇒ (3) : C’est clair.
(3) ⇒ (1) : Supposons qu’il existe t0 ∈ I tel que Φ(t0 ) est une famille libre de
n
X
E. Alors Φ est libre car si α1 , · · · , αn sont des scalaires tel que αk φk = θ,
k=1
13.3. ÉQUATION DIFFÉRENTIELLE LINÉAIRE 359

en appliquant à t0 on a α1 = · · · = αn = 0, ce qui prouve que l’on a (1).

La proposition 332 est très utile pour savoir si une famille de solutions est une base
en étudiant uniquement la liberté d’une famillede vecteurs.  Considérons par exemple
0 1
le système différentiel : Y ′ = AY avec A = . Ce qui précède nous dit
−6 5
que l’ensemble S des solutions de ce système est un espace vectoriel de dimension
2. Remarquons que ϕ1 (t) = (e2t , 2e2t ) et ϕ2 (t) = (e3t , 3e3t ) sont deux solutions du
système. Par ailleurs, on a ϕ1 (0) = (1, 2) et ϕ2 (0) = (1, 3) et det((1, 2), (1, 3)) =
1 ̸= 0, donc la famille (ϕ1 (0), ϕ2 (0)) est libre et (ϕ1 , ϕ2 ) est un S.F.S. du système
ci-dessus, donc sa solution générale et φ(t) = λϕ1 (t) + µϕ2 (t); λ, µ ∈ R, soit :
φ(t) = (λe2t + µe3t , 2λe2t + 3µe3t ), λ, µ ∈ R.

13.3.4.3 Équation avec second membre : Méthode de la variation des


constantes

Théorème 85

Si Φ = (ϕ1 , · · · , ϕn ) est un système fondamental de solutions de (EH) alors


1. Pour tout application f ∈ C 0 (I, E) il existe une et une seule famille α =
n
X
0
(α1 , · · · , αn ) d’application de C (I, K) tel que f = αk ϕk .
k=1

2. Si de plus f est de classe C alors les αk sont de classe C 1 .


1

Une conséquence de cette proposition est de dire que si f est une solution particulière
de (E) alors comme f est de classe C 1 elle s’écrit de façon unique :
n
X
f= αk ϕ k
k=1

Alors f est solution de (E), si et seulement si :


∀t ∈ I, f ′ (t) = a(t)f (t) + b(t)
Comme b est continue , elle s’écrit de manière unique :
X
b= bk ϕk avec ∀k ∈ [[1, n]], bk ∈ C 0 (I, K).

Il en découle que f est solution de (E) si et seulement si :


n
X n
X
αk′ ϕk = bk ϕk
k=1 k=1

Par unicité donnée par le théorème ci-dessus, f est solution de (E) si et seulement
si :  n
 f = Xα Φ

k k
k=1
 ∀k ∈ [[1, n]], α′ = b

k k
360 CHAPITRE 13. ÉQUATIONS DIFFÉRENTIELLES

Ceci permet de dire que la solution générale de (E) est


Xn  Z t 
y(t) = βk + bk (u)du ϕk (t)
k=1 t0

avec t0 ∈ I et ∀k ∈ [[1, n]], βk ∈ K.

13.3.5 Système différentiel linéaire à coefficients constants


Il s’agit des systèmes de la forme :

(E) Y ′ = AY + B(t)

avec A ∈ Mn (K) et B ∈ C 0 (I, K).

13.3.5.1 Système homogène

Théorème 86

La solution générale de (EH) est :

Y (t) = etA .Λ

avec Λ ∈ Kn .

Preuve:
Supposons que Y est une solution de (EH) et soit Z définie par Z(t) =
e−tA .Y (t), alors Z ′ (t) = −Ae−tA Y (t) + e−tA .Y ′ (t) = 0, donc Z est constante
sur I, donc il existe Λ ∈ Kn tel que Z(t) = Λ pour tout t ∈ I, ce qui fournit :

∀t ∈ I, Y (t) = etA .Λ

13.3.5.2 Système avec second membre

Théorème 87

Soit A ∈ Mn (K) et I un intervalle.


1. Pour tout application continue Y ∈ C 0 (I, E) il existe une et une seule
application continue Θ : I → E tel que ∀t ∈ I, Y (t) = etA .Θ(t).
2. Si de plus Y est de classe C 1 alors les Θ est de classe C 1 .

Si Y ∈ C 0 (I, E) alors Y s’écrit de façon unique Y (t) = etA .Θ(t). Y est solution de
(E) si et seulement si Θ de classe C 1 et :

Θ′ (t) = b(t)
13.3. ÉQUATION DIFFÉRENTIELLE LINÉAIRE 361
Z t
−tA
où b(t) = e B(t) pour tout t ∈ I, si et seulement si Θ(t) = Λ + e−uA B(u)du
t0
avec Λ ∈ E, ce qui fournit la solution générale :
 Z t  
tA −uA t0 ∈ I
Y (t) = e Λ+ e B(u)du avec
t0 Λ∈E

13.3.5.3 Cas particulier important : A est diagonalisable.


Dan tout ce qui suit on suppose que A est diagonalisable et que Γ = (Γ1 , · · · , Γn )
est une base de vecteurs propres associée aux valeurs propres λ1 , · · · , λn .

Théorème 88

La solution générale de (EH) est :


n
X
Y (t) = αk eλk t Γk
k=1

Pour chercher la solution générale on écrit


n
X
Y (t) = αk (t)eλk t Γk
k=1

avec les αk : I → K continues : l’existence est garantie par le fait que si (yk ) sont
les composantes de Y dans la base Γ, on pose αk (t) = yk (t)e−λk t pour tout t ∈ I.
On a alors Y est solution de (E) si et seulement si

∀k ∈ [[1, n]], αk′ (t) = Bk (t)e−λk t

où les Bk sont les composantes de B dans la base Γ. Ceci fournit la solution générale
de (E) :
n  Z t  
X
−λk u λk t t0 ∈ I
Y (t) = µk + Bk (u)e du e Γk avec
t0 µk ∈ K, ∀k ∈ [[1, n]]
k=1

Exemple Résolvons le système linéaire :


 ′
 x = x − y + z + et
y ′ = −x + y + z
 ′
z = −x − y + 3z + e3t
Le système se traduit en l’équation différentielle linéaire :

(E) Y ′ = AY + B(t)

où  
1 −1 1
A =  −1 1 1 
−1 −1 3
362 CHAPITRE 13. ÉQUATIONS DIFFÉRENTIELLES

avec
et


∀t ∈ R, B(t) =  0  .
e3t
Commençons par résoudre l’équation différentielle linéaire homogène associée :

(EH) Y ′ = AY.

Le polynôme caractéristique de A est

X −1 1 −1
χA (X) = 1 X −1 −1
1 1 X −3

En effectuant les opérations Lk ← Lk − L3 pour k ∈ {1, 2}, il vient :

1 0 −1 0 0 −1
χA (X) = (X − 2)2 0 1 −1 = (X − 2)2 −1 1 −1
1 1 X −3 X −2 1 X −3

Finalement, il vient :
χA = (X − 1)(X − 2)2 ,
donc les valeurs propres
  de A sontλ1 =  1, λ2 = λ3 =2 dont des vecteurs propres
1 1 0
associés sont Γ1 =  1 , Γ2 =
  0 , Γ3 =
  1  donc la forme générale de
1 1 1
la solution de l’équation homogène est Y (t) = α1 et Γ1 + α2 e2t Γ2 + α3 e2t Γ3 . Soit Y
une solution de l’équation (E) et λ(t) = e−tA Y (t) alors Λ est de classe C 1 sur R,
et comme Y est solution de (E), on a Λ′ (t) = e−tA B(t). En projetant la relation
ci-dessus Λ′ (t) = e−tA .B(t) dans la base Γ = (Γ1 , Γ2 , Γ3 ), il vient, en notant bk (t) les
composantes de B(t) relativement à Γ :
3
X 3
X
Λ′ (t) = e−tA bk (t)Γk = bk (t)e−tA Γk
k=1 k=1

et comme :
e−tA .Γk = λk e−λk t
on a :
3
X

Λ (t) = bk (t)e−tλk Γk
k=1

Les composantes bk (t) sont donnée par la relation :


   t 
b1 (t) e
 b2 (t)  = P −1  0 
b3 (t) e3t
13.3. ÉQUATION DIFFÉRENTIELLE LINÉAIRE 363

où P est la matrice de passage de la base canonique à la base B de sorte que :


   
1 1 0 1 1 −1
P =  1 0 1  et P −1 =  0 −1 1 
1 1 1 −1 0 1

et par suite on obtient :

Λ′ (t) = (et − e3t )e−t Γ1 + e3t e−2t Γ2 + (e3t − et )e−2t Γ3


= (1 − e2t )Γ1 + et Γ2 + (et − e−t )Γ3

En intégrant, il vient :

e2t
 
Γ1 + α2 + et Γ2 + (α3 + et + e−t )Γ3

Λ(t) = α1 + t −
2

avec (α1 , α2 , α3 ) ∈ R3 .
Il en découle que la solution générale de (E) est :

e3t
 
t t
Γ1 + α2 e2t + e3t Γ2 + (α3 e2t + e3t + et )Γ3

Y (t) = α1 e + te −
2

avec (α1 , α2 , α3 ) ∈ R3 .ce qui donne en définitif :


1

 x(t) = α1 et + α2 e2t + tet + e3t


 2
1

y(t) = α1 e + α3 e + te + et + e3t
t 2t t
 2
 z(t) = α1 et + (α2 + α3 )e2t + tet + et + 3 e3t



2
avec (α1 , α2 , α3 ) ∈ R3 .

13.3.6 Équation différentielle scalaire linéaire d’ordre n


13.3.6.1 Cas général
Les équations différentielles de la forme :

(E) an (t)y (n) + · · · + a1 (t)y ′ (t) + a0 (t)y(t) = b(t)

où a0 , · · · , an et b sont des applications d’un intervalle I vers K, continues sur I. On


s’intéresse uniquement au cas où :

∀t ∈ I, an (t) ̸= 0

L’équation s’écrit donc :


n−1
X
y (n) = aek (t)y (k) + eb(t),
k=0
364 CHAPITRE 13. ÉQUATIONS DIFFÉRENTIELLES

avec
ak b
∀k ∈ {0, . . . , n − 1}, aek = −et eb =
an an
Désormais on considère donc l’équation différentielle de la forme :
n−1
X
(E) y (n) = ak (t)y (k) + b(t).
k=0

dont l’équation différentielle homogène associée est :


n−1
X
(n)
(EH) y = ak (t)y (k) .
k=0

On rappelle que a0 , · · · , an−1 et b sont des applications continues de I vers K.


On associe à cette équation différentielle, le système différentiel :

(E)
d Y ′ = A(t).Y + B(t)

\:
(EH) Y ′ = A(t).Y
avec pour tout t ∈ I :

0 ···
 
0 1 0  
 .. ... ... ... .. 0
 . .

  .. 
B(t) =  .  .
 . . .
A(t) =  .. .. .. et
  
 0 
  0 
 0 ··· ··· 0 1 
b(t)
a0 (t) · · · · · · · · · an−1 (t)

Si f : I → K est une application de classe C n , on note :


 
f
 f′ 
fb =  .
 
..
 . 
f (n−1)

On dispose de la proposition suivante :

Proposition 333

Avec les notations ci-dessus, on a :


1. Pour tout f ∈ C n (I, K), fb ∈ C 1 (I, Kn )
2. Pour tout f ∈ C n (I, K) :

 f ∈ S(E) ⇔ fb ∈ S(E)

et
 f ∈ S(EH) ⇔ fb ∈ S \

(EH)
13.3. ÉQUATION DIFFÉRENTIELLE LINÉAIRE 365

3. L’application :
Φ : S(EH) → S(EH)
\ ; y 7→ y
b
est un isomorphisme d’espaces vectoriels.

Grâce à cette proposition on peut ramener l’étude d’une équation différentielle li-
néaire d’ordre n à celle d’un système différentielle linéaire d’ordre n. On obtient en
particulier la version du théorème de Cauchy-Lipschitz associée à ce cas.

Théorème 89

Pour tout t0 ∈ I et pour tout y0 , · · · , yn−1 ∈ K , il existe une et une seule


solution φ de (E) définie sur I tel que :


 φ(t0 ) = y0
 φ′ (t0 ) = y1

..

 .
 φ(n−1) (t ) = y

n 0 n−1

On en déduit en particulier la :

Proposition 334

On considère l’équation différentielle :


n−1
X
(n)
(E) y = ak (t)y (k) + b(t)
k=0

et l’équation différentielle homogène associés :


n−1
X
(EH) y (n) = ak (t)y (k)
k=0

où les ak et b sont des applications continues d’un intervalle I vers K. On note


S(E) .
Une solution de (E) est une application φ : I → K, n fois dérivable tel que :
n−1
!
X
∀t ∈ I, φ(n) (t) = ak (t)φ(k) (t) + b(t).
k=0

On note (S(EH) les ensembles de solutions respectifs de (E) et (EH). Alors :


1. SEH) est un K−espace vectoriel de dimension n.
2. Si ϕ1 est une solution particulière de (E) alors S(E) = ϕ1 + S(EH) . En
particulierS(EH) est un espace affine de direction S(EH) .
366 CHAPITRE 13. ÉQUATIONS DIFFÉRENTIELLES

Remarque Si Φ = (ϕ1 , · · · , ϕn ) est une famille de solutions de (EH). Pour tout


t ∈ I, on pose :
ϕ1 (t) ··· ϕn (t)
ϕ′1 (t) ··· ϕ′n (t)
WΦ (t) = .. ..
. ··· .
(n−1) (n−1)
ϕ1 (t) · · · ϕn (t)
WΦ (t) s’appelle le wronskien.
Alors, Φ est un système fondamental de solutions de (EH) si et seulement si l’une
des conditions suivantes est vérifiée :
(1) ∀t ∈ I, WΦ (t) ̸= 0
(1) ∃t ∈ I, WΦ (t) ̸= 0

La méthode de variation des constantes conduit au résultat suivant :

Théorème 90

On considère l’équation différentielle :


n−1
X
(n)
(E) y = ak (t)y (k) + b(t)
k=0

et l’équation différentielle homogène associés :


n−1
X
(n)
(EH) y = ak (t)y (k)
k=0

où les ak et b sont des applications continues d’un intervalle I vers K.


Soit Φ = (ϕ1 , · · · , ϕn ) un système fondamental de solutions de (EH) et φ une
application de classe C n de I vers K.
Pour que φ soit solution de (E), il faut et il suffit qu’il existe des applications
αk : I → K de classe C 1 sur I tel que :
 ′
 α1 ϕ1 + · · · + αn′ ϕn = 0
′ ′ ′ ′

 α1 ϕ1 + · · · + αn ϕn = 0


n 
X ..
ϕ= αk ϕk et (1) : .
(n−2)
α1′ ϕ1 + · · · + αn′ ϕ(n−2)

k=1 

 n =0
 ′ (n−t)

′ (n−1)
α1 ϕ1 + · · · + αn ϕn =b

Preuve:
Il suffit d’appliquer la variation des constantes à (E). On note B l’application
13.3. ÉQUATION DIFFÉRENTIELLE LINÉAIRE 367

de I vers Kn tel que :


 
0
 .. 
∀t ∈ I, B(t) =  . 
 
 0 
b(t)

On sait que B s’écrit de façon unique :


n
X
(2) B = βk ϕ
ck
k=1

c’est-à-dire : 
 β1 ϕ1 + · · · + βn ϕn = 0
′ ′

 β1 ϕ1 + · · · + βn ϕn = 0



..
(2)′ .
(n−2)
+ · · · + βn ϕ(n−2)



 β1 ϕ1 n =0
(n−t)

(n−1)
β1 ϕ1 + · · · + βn ϕn =b

avec les βk des applications continues de I vers K et que la solution générale


de (E)
d est de la forme :
Xn
ϕ=
b αk ϕ
ck
k=1

où les αk : I → K de classe C 1 tel que :

(3) ∀k ∈ [[1, n]], αk′ = βk

Tenant compte de (2)′ et (3) ci-dessus, on obtient le système (1) ci-dessus du


théorème.

13.3.6.2 Cas n = 2
On considère l’équation différentielle :

(E) y ′′ = a(t)y ′ + b(t)y + c(t)

C’est un cas particulier du cas général ci-dessus. On note en particulier :


1. L’ensemble des solution S(EH) de (EH) est un K−espace vectoriel de dimen-
sion 2, c’est-à-dire un plan vectoriel sur K.
2. l’ensemble des solutions de (E) est un plan affine de direction S(EH) et si φ1
est une solution particulière de (E) alors S(E) = φ + S(EH)
3. Si Φ = (ϕ1 , ϕ2 ) est une famille de solutions de (EH) et si pour tout t ∈ I, on
pose :
ϕ1 (t) ϕ2 (t)
WΦ (t) = = ϕ1 (t)ϕ′2 (t) − ϕ′1 (t)ϕ2 (t)
ϕ′1 (t) ϕ′2 (t)
368 CHAPITRE 13. ÉQUATIONS DIFFÉRENTIELLES

WΦ (t) s’appelle le wronskien de Φ au point t.


Alors Φ est un système fondamental de solutions de (EH) si et seulement si
l’une des conditions suivantes est vraie :
(a) ∀t ∈ I, WΦ (t) ̸= 0
(b) ∃t ∈ I, Wϕ (t) ̸= 0
4. La solution générale de (E) est donnée par :
φ(t) = α1 (t)ϕ1 (t) + α2 (t)ϕ2 (t)
avec : λ1 , α2 : I → K des applications de classe C 1 tel que :
 ′
1 α1 (t)ϕ1 (t) + α2′ (t)ϕ2 (t) = 0
α1 , α2 ∈ C (I, K) et
α1′ (t)ϕ′1 (t) + α2′ (t)ϕ′2 (t) = c(t)
Autrement dit :
−c(t)ϕ2 (t) c(t)ϕ1 (t)
α1′ (t) = et α1′ (t) =
ϕ1 (t)ϕ′2 (t) − ϕ′1 (t)ϕ2 (t) ϕ1 (t)ϕ′2 (t)− ϕ′1 (t)ϕ2 (t)
et par suite la solution générale de (E) est :
 Z t   Z t 
c(u)ϕ2 (u) c(u)ϕ1 (u)
y(t) = λ1 − du ϕ1 (t) + λ2 + du ϕ2 (t)
t0 W (u) t0 W (u)
avec :
 ∀u ∈ I, W (u) = ϕ1 (u)ϕ′2 (u) − ϕ′1 y(u)ϕ2 (u)

t0 ∈ I
λ1 , λ2 ∈ K

Méthode pour la recherche d’une deuxième solution de l’équa-


tion homogène (appelée : méthode de descente de degré).
On considère l’équation différentielle homogène :
(EH) : y ′′ = a(t)y ′ + b(t)y
où a, b : I → K continues, et on suppose qu’elle admet une solution ϕ1 tel que :
∀t ∈ I, ϕ1 (t) ̸= 0
Posons y = zϕ1 alors :
y ′ = z ′ ϕ1 + zϕ′1 .
y ′′ = z ′′ ϕ1 + 2z ′ ϕ′1 + zϕ′′1
De y ′′ = ay ′ + by on déduit :
z ′′ ϕ1 + 2z ′ ϕ′1 + zϕ′′1 = az ′ ϕ1 + azϕ′1 + bzϕ1
Or ϕ′′1 =, donc :
z ′′ ϕ1 + 2z ′ ϕ′1 + zaϕ′1 + zbϕ1 = az ′ ϕ1 + azϕ′1 + bzϕ1
Finalament :z ′′ ϕ1 + 2z ′ ϕ′1 = az ′ ϕ1 donc en posant w = z ′ , il vient :
′ aϕ1 − 2ϕ′1
w = w
ϕ1
C’est une équation différentielle de premier ordre qu’on peut résoudre facilement,ce
qui permet de déterminer z donc y donc une seconde solution ϕ2 = y de l’équation
différentielle (EH)
13.3. ÉQUATION DIFFÉRENTIELLE LINÉAIRE 369

13.3.6.3 Équation différentielle linéaire d’ordre n à coefficients constants


Dans tout ce qui suit n est un entier naturel tel que n ≥ 2 , I est un intervalle
de R et b = I → K est une application continue sur I. On considère l’équation
différentielle :
n−1
X
(n)
(E) : y = ak y (k) + b(t)
k=0

où a0 , · · · , an−1 ∈ K donnés. On considère l’équation différentielle homogène asso-


ciée :
n−1
X
(n)
(EH) : y = ak y (k)
k=0

et on se propose de résoudre (Eh) en déterminant un système fondamental de solu-


tions de (EH).

Théorème 91

Toute solution de (EH) est une application de classe C ∞ de I vers K, autrement


dit :
S(EH) ⊂ C ∞ (I, K)

Preuve:
Si y est une solution de (EH) alors y est de classe C n par définition. Une
récurrence immédiate permet de prouver que y est de classe C k pour tout
k ≥ n.

Soit D l’application de C ∞ (I, K) vers C ∞ (I, K) défini par D(f ) = f ′ pour tout
f ∈ C ∞ (I, K). Il est clair que l’application D est un endomorphisme de C ∞ (I, K),
n−1
X
par suite si on pose P (X) = X n − ak X k , on a P ∈ K[X] et P (D) est aussi un
k=0
endomorphisme de C ∞ (I, K).

Théorème 92

On a S(EH) = ker(P (D))


370 CHAPITRE 13. ÉQUATIONS DIFFÉRENTIELLES

Preuve:
Soit y ∈ C∞ (I, K), alors : puisque pour tout k ∈ N on ay (k) = Dk (y), on a :
n−1
X
y ∈ S(EH) ⇔ y (n) = ak y (k)
k=0
n−1
X
⇔ Dn (y) = ak Dk (y)
k=0
n−1
X
⇔ (Dn − ak Dk )(y) = 0
k=0
⇔ P (D)(y) = 0
⇔ y ∈ ker(D)

Supposons que le polynôme P est scindé et que :


s
Y
P = (X − λk )mk
k=1

avecλ1 , · · · , λs les racines deux à deux distinctes de P et mk leur ordres de multi-


plicité respectifs.
Le lemme des noyaux permet d’écrire :
s
M
S(EH) = ker(D − λk Id)mk
k=1

où Id est l’application identique de C ∞ (I, K).


Soit λ ∈ K et m ∈ N∗ , on se propose de déterminer ker(D −λ Id)m . Soit f ∈ C∞ (I, )˛
et g l’application définie par g(t) = f (t)e−λt , alors on a :

∀k ∈ N, g (k) (t) = (D − λ Id)k (f )(t)e−λt

Par récurrence :
Pour k = 0 ça donne g(t) = f (t)e−λt , c’est la définition de g.
Soit k ∈ N tel que la propriété est vraie.
Dk+1 (g)(t) = [D ◦ (D − λ Id)k − λ(D − λ Id)k ](f )(t)e−λt = (D − λ Id)k+1 (f )(t)e−λt
Il en découle que f ∈ ker(D − λ Id)m ⇔ Dm (g) = 0 ⇔ g ∈ C ∞ (I, K) ∩ Km−1 [t].
Ceci permet de dire que :

ker(D − λ Id)m = {Q(t)eλt /Q ∈ Km−1 [X]}

ce qui permet d’énoncer le :


13.3. ÉQUATION DIFFÉRENTIELLE LINÉAIRE 371

Théorème 93

Un système fondamental de solutions de (EH) est :

(t 7→ tj eλk t ) 1≤k≤s
0≤j≤mk −1

Autrement dit, la solution générale de (EH) est :


s m
X Xk −1

φ(t) = akj tj eλk t


k=1 j=0

où akj ∈ K pour tout (k, j) ∈ [[1, s]] × [[0, mk − 1]]

Remarque Si K = C, le polynôme P est toujours scindé, donc le théorème93 ci-


dessus s’applique. Si K = R et P non scindé , on cherche les solutions complexes
et on considère les parties réelles et imaginaires de tj eλt pour toute racine complexe
non réelle λ de P . Notons que si λ est une telle racine alors λ aussi, il ne faut prendre
qu’une seule car λ et λ fournissent les mêmes parties réelles et imaginaire à un signe
près.
Plus précisément, si :
r
Y s
Y
mj
(X − µj ) (X − λk )mk (X − λk )mk
j=1 k=1

avec µj ∈ R et λk ∈ C\R tel que I m(λk ) > 0 et les (µj )j∈[[1,r]] et les (λk =
αk + iβk )k∈[[1,s]] deux à deux distinctes alors un système fondamentale de solutions
de (EH) est :

t 7→ tℓ eµj t ; t 7→ tν eαk t cos(bk t), t 7→ tν eαk t sin(bk t) 1≤j≤r



0≤ℓ<mj
1≤k≤s
0≤ν<mk
372 CHAPITRE 13. ÉQUATIONS DIFFÉRENTIELLES
Chapitre 14

Fonctions holomorphes

14.1 Généralité
Si E est un C−espace vectoriel on peut le considérer aussi comme un R− espace
vectoriel pour la même loi interne et la restriction de la loi externe. Si de plus E
est de dimension finie n comme C−espace vectoriel, il est de dimension 2n comme
R−espace vectoriel. On notera dimC (E) et dimR (E) les deux dimensions respectives.
On notera aussi LC (E) et LR (E) les espaces respectifs des endomorphismes de E
dans chacun des cas respectifs.
On remarque que LC (E) ⊂ LR (E) mais l’inclusion réciproque n’a pas lieu. On peut
cependant caractériser plus simplement une application C− linéaire si on sait déjà
qu’elle est linéaire.

Proposition 335

Soit E un C− espace vectoriel et f une application R−linéaire de E vers E,


alors f est C−linéaire si et seulement si :

∀x ∈ E, f (ix) = if (x)

Preuve:
En effet si f est R linéaire et réalise la condition ci-dessus, le problème est de
prouver que f (zu) = zf (u), ∀(z, u) ∈ C×E. Écrivons, z = x+yi, x, y ∈ R alors
f (zu) = f (xu+iyu) = xf (u)+yf (iu) par R−linéarité, et comme f (iu) = if (u),
on a f (zu) = xf (u) + iyf (u) = zf (u).

Proposition 336

Si E est un C− espace vectoriel de dimension finie non nulle n et si B =


(e1 , · · · , en ) est une base de E, une application R−linéaire de E vers E, alors f

373
374 CHAPITRE 14. FONCTIONS HOLOMORPHES

est C−linéaire si et seulement si :

(2) ∀k ∈ [[1, n]], f (iek ) = if (ek )

Preuve:
Si on suppose que f est R−linéaire et (2) ci dessus alors on a :

∀k ∈ [[1, n]], ∀z ∈ C, f (zek ) = zf (ek )

En effet : posons z = x + yi, (x, y) ∈ R2 , on a :

f (zek ) = f (xek ) + f (iyek ) = xf (ek ) + yf (iek ) = xf (ek ) + yif (ek ) = zf (ek )


n
X
Si u ∈ E tel que : u = zk ek avec zk ∈ C alors :
k=1

n
X n
X n
X
f (iu) = f (izk ek ) = izk f (ek ) = i f (zk ek ) = if (u)
k=1 k=1 k=1

Corollaire 23

Une application R− linéaire f de C, vers C est C− linéaire si et seulement si


f (i) = if (1)

Preuve:
Il suffit de remarquer que (1) est une base de C.

14.2 Fonctions holomorphes


Dans tout ce qui suit U désigne un ouvert non vide de C , a ∈ U. et f une application
de U vers C.

14.2.1 Convention
On rappelle que φ : R2 → C, (x, y) 7→ x+yi est un isomorphisme de R−espace vectoriel,
et que si on note Ũ = φ−1 (U ) et f˜ : Ũ → C l’application f˜ = f ◦ φ−1 , définie par
f˜(x, y) = f (x + yi) pour tout (x, y) ∈ Ũ , alors on pourra identifier quand elles
existent les dérivées partielles de f et f˜ de sorte que, si ã = φ−1 (a) :
∂ f˜ ∂f ∂ f˜ ∂f
(ã) = (a) = D1 f (a) et (ã) = (a) = Di f (a)
∂x ∂x ∂y ∂y
c’est à dire les dérivée suivant les vecteurs de la base canonique (1, i) considéré
comme R−espace vectoriel.
14.2. FONCTIONS HOLOMORPHES 375

14.2.2 Fonction C− dérivable


Définition 167

f (z) − f (a)
On dit que f est C− dérivable au point a si z 7→ admet une limite
z−a
quand z tends vers a. Cette limite si elle existe est notée f ′ (a).

On rappelle que si f est différentiable au point a, sa différentielle df (a) est une


application R− linéaire de C vers C. Ainsi on a :

Proposition 337

Si f est différentiable au point a alors df (a) est C−linéaire si et seulement si :

∂f ∂f
(a) = i (a).
∂y ∂x

Preuve:
En effet d’après la proposition 2 et compte tenu du fait que (i) est une base
de C, on a df (a) est C−linéaire si et seulement si df (a)(i) = idf (a)(1). Or
∂f ∂f
df (a)(1) = (a) et df (a)(i) = (a), ce qui prouve le résultat.
∂x ∂y

La proposition suivante donne une condition nécessaire et suffisante pour que f


différentiable au point a soit C− dérivable.

Proposition 338

Les assertions suivantes sont équivalentes :


(1) f est C−dérivable au point a.
(2) f est différentiable au point a et df (a) est C−linéaire
∂f ∂f
(3) f est différentiable au point a et (a) = i (a)
∂y ∂x
Si l’une des assertions (1), (2), (3) est vraie alors on a :

∂f ∂f
 f ′ (a) = (a) = −i (a)


∂x ∂y

 ∀h ∈ C, df (a)(h) = f ′ (a)h

376 CHAPITRE 14. FONCTIONS HOLOMORPHES

Preuve:
En effet : Si f est C−dérivable au point a alors pour h voisin de 0, on a :

f (a + h) = f (a) + hf ′ (a) + o(|h|)

Comme l’application L : h 7→ hf ′ (a) est R−linéaire, on a f est différentiable au


point a et df (a) = L. Il est clair par ailleurs que L est C−linéaire. Remarquons
∂f
enfin que (a) = df (a)(1) = L(1) = f ′ (a)
∂x
Réciproquement, si f est différentiable au point a, la condition ci-dessus veut
dire df (a)(i) = idf (a)(1), donc df (a) est C−linéaire, en particulier df (a)(h) =
hdf (a)(1), ∀h ∈ C et la différentiabilité de f s’écrit :

∂f
f (a + h) = f (a) + h (a) + o(|h|)
∂x
donc :
f (a + h) − f (a) ∂f
lim = (a)
h→0 h ∂x
et par suite f est C−dérivable au point a et :
∂f
f ′ (a) = (a)
∂x
Comme f (a + h) = f (a) + f ′ (a)h + o(|h|), on a ∀h ∈ C, df (a)(h) = f ′ (a)h

Définition 168

On dit que f vérifie les conditions de Cauchy-Riemann au point a Si les dérivées


∂f ∂f ∂f ∂f
partielles (a) et (a) existent et (a) = i (a)
∂x ∂y ∂y ∂x

Ainsi :

Proposition 339

f est C−dérivable au point a si et seulement si f est différentiable au point a


et f vérifie les conditions de Cauchy-Riemann au point a.

Preuve:
Ce n’est qu’une autre façon d’exprimer la proposition 338.
14.2. FONCTIONS HOLOMORPHES 377

14.2.3 Fonction holomorphe


On dit que f est C−dérivable sur U si f est C−dérivable en tout point a de U. Si
c’est le cas, on dispose de l’application f ′ : U → C qui associe à a ∈ U le nombre
complexe f ′ (a).

Définition 169

On dit que f est holomorphe sur U si f est C− dérivable sur U et f ′ est


continue sur U.

∂f ∂f
Rappelons que f est de classe C 1 sur U si les dérivées partielles et existent
∂x ∂y
et sont continues sur U , ce qui donne :

Proposition 340

f est holomorphe sur U si et seulement si f est de classe C 1 sur U et vérifie les


conditions de Cauchy-Riemann sur U

Preuve:
∂f
En effet, si f est holomorphe sur U alors elle est différentiable sur U et = f′
∂x
∂f
et = if ′ montre que les dérivées pareilles sont continues sur U . réciproque-
∂y
ment si f est de classe C 1 et vérifie les conditions de Cauchy-Riemann alors f
est différentiable et vérifie les conditions de Cauchy-Riemann donc elle est C−
∂f
dérivable. Or f ′ = , donc f ′ est continue sur U.
∂x

14.2.4 Sous-algèbre H (U ) des fonctions holomorphes sur U


Proposition 341

f, g : U → C et λ ∈ C. Si f et g sont C− dérivables en un point a ∈ U alors


f + g, λf et f g sont C−dérivable au point a et :

 (f + g)′ (a) = f ′ (a) + g ′ (a)


(λf )′ (a) = λf ′ (a)


(f g)′ (a) = f ′ (a)g(a) + f (a)g ′ (a)

378 CHAPITRE 14. FONCTIONS HOLOMORPHES

1 f
Si de plus g(a) ̸= 0 alors et sont C-dérivables au point a et :
g g
 ′
g ′ (a)

1
(a) = −


 g ′ (g(a))2

 f f (a)g(a) − f (a)g ′ (a)


 (a) =
g (g(a))2

Notons D(U ) des applications C−dérivables et H (U ) celui des application holo-


morphes sur U ; alors :

Proposition 342

D(U ) et une sous-algèbre de l’algèbre des applications de U vers C et H (U )


est une sous-algèbre de D(U )

Preuve:
Conséquence immédiate de la proposition 341.

Proposition 343

Soient f : U → C et g : V → C deux applications tel que f (U ) ⊂ V et soit


a ∈ U . Si f est C−dérivable au point a et g est C−dérivable au point f (a),
alors g est C−dérivable au point a et (g ◦ f )′ (a) = g ′ (f (a))f ′ (a)

Preuve:
Supposons que f C− dérivable au point a et que g est C−dérivable au point
f (a), alors g ◦ f est différentiable au point a et d(g ◦ f )(a) = dg(f (a)) ◦ df (a).
Il en découle que :

∂(g ◦ f )
(a) = Di (g ◦ f )(a)
∂y
= d(g ◦ f )(a)(i)
= dg(f (a))(df (a)(i))
 
∂f
= dg(f (a)) (a)
∂y

∂f ∂f
Comme f vérifie les conditions de Cauchy-Riemann, on a : (a) = i (a) et
∂y ∂x
14.3. FONCTIONS ANALYTIQUES 379

par suite :
 
∂(g ◦ f ) ∂f
(a) = dg(f (a)) i (a)
∂y ∂x
 
∂f
= idg(f (a)) (a)
∂x
= idg(f (a))(df (a)(1))
= id(g ◦ f )(a)(1)
∂(g ◦ f )
= i (a)
∂x
Ainsi on a démontré que g ◦ f est différentiable au point a et elle vérifie les
CCR au pont a , donc g ◦ f est C−dérivable au point a.
Finalement, on a :
 
′ ∂(g ◦ f ) ∂f
(g◦f ) (a) = (a) = dg(f (a)) (a) = dg(f (a))(f ′ (a)) = g ′ (f (a))f ′ (a)
∂x ∂x

Rappelons que d’après la proposition 338 on a : ∀h ∈ C, dg(f (a))(h) = g ′ (f (a)h

Corollaire 24

Si f et g sont C−dérivables (resp. holomorphes) sur U et V respectivement alors


g ◦ f est C-dérivable(resp.holomorphe) sur U .

Preuve:
C’est une conséquence immédiate de la proposition 343

14.3 Fonctions analytiques


Dans toute ce qui suit U est un ouvert non vide de C, f : U → C une application.
Pour tout (z, ρ) ∈ C × R∗+ , on note ∆z,ρ le disque ouvert de centre z et de rayon ρ.

14.3.1 Définitions, exemples


Définition 170

On dit que f est analytique sur U si pour tout a ∈ U il existe ra > 0 et une
380 CHAPITRE 14. FONCTIONS HOLOMORPHES

suite (αn ) ∈ CN tel que ∆a,ra ⊂ U et :


+∞
X
∀z ∈ ∆a,ra , f (z) = αn (z − a)n
n=0

Cela revient à dire que h 7→ f (a + h) qui est bien définie sur un voisinage de 0 est
développable en série entière à l’origine ou tout simplement que f est développable
en série entière au voisinage de tout point de U .

Exemples On donne les exemples suivants :


1. f (z) = ez est analytique sur C ; en effet, pour tout a ∈ C et tout h ∈ C, on a :
+∞ a
a+h a h a+h
X e n
e = e e , donc : e = h
n=0
n!
X
2. Si an z n est une série entière de rayon de convergence R ∈ R∗+ alors la fonc-
+∞
X
tion f définie par f (z) = an z n est analytique sur le disque de convergence
n=0
∆R . En effet Soit z0 ∈ ∆R et soit r = R − |z0 | et h ∈ ∆r , alors z0 + h ∈ ∆R
et :
+∞ +∞ X n   +∞ +∞
X
n
X n n−k k X X
f (z0 + h) = an (z0 + h) = an z0 h = unk
n=0 n=0 k=0
k n=0 k=0
   
n n−k k n
où unk = an z0 h avec la convention = 0 si k > n.
k k
+∞
X Xn
Pour tout n ∈ N, on a : |unk | = |an ||z0 |n−k |h|k = |an |(|z0 | + |h|)n = vn
k=0 k=0 X
, et comme |h| < R − |z0 | on a |z0 | + |h| < R, par suite la série vn est
convergente. Ainsi la famille (unk ) est sommable et on peut permuter les deux
symboles de sommation, ce qui donne :
+∞
X
f (z0 + h) = bk hk
k=0

où l’on a pour tout k ∈ N :


+∞  
X n n−k
bk = an z0
n=k
k

valable pour tout h ∈ C tel que |h| < R − |z0 |. Notons que si R = +∞ ce
résultat est valable pour tout h ∈ C.

L’étude de l’exemple ci-dessus permet d’énoncer la :


14.3. FONCTIONS ANALYTIQUES 381

Proposition 344
X
Si an z n une série entière de rayon de convergence R ∈ R∗+ ∪ {+∞} alors la
fonction série entière associée est analytique sur son disque de convergence ∆R .
précisément pour tout z0 ∈ ∆R , l’application
 h 7→ f (z0 + h) est developable en
r = R − |z0 | si R < +∞
série entière sur le disque ∆r où
r = +∞ si R = +∞

Preuve:
Déjà donnée ci-dessus.

14.3.2 Lien entre analytique et holomorphe


14.3.2.1 Dérivée d’ordre supérieur

Soit f : U → C une application. Si f est holomorphe on définit f (1) = f ′ . Soit


k ∈ N∗ tel que f (k) est une application de U → C. Si f (k) est holomorphe, on pose

f (k+1) = f (k)

Définition 171

On dit que f est infiniment C−dérivable sur U si f est holomorphe si pour tout
n ∈ N∗ , si l’application f (n) existe alors f (n) est holomorphe sur U .

Remarque On verra par la suite que si f est holomorphe alors f est infiniment
dérivable, donc la définition 171 n’est que provisoire.

14.3.2.2 Dérivabilité d’une série entière et expressions des coefficients

Proposition 345
X
Soit an z n une série entière de rayon de convergence R > 0, alors la fonction
série entière f est holomorphe sur le disque de convergence ∆R et on a :
+∞
X

∀z ∈ ∆R , f (z) = nan z n−1
n=1
382 CHAPITRE 14. FONCTIONS HOLOMORPHES

Preuve:
1
Soit z0 ∈ ∆R et r = (R − |z0 |) . Pour tout z ∈ ∆z0 ,r on a |z − z0 | < r, donc
2
1
|z| ≤ |z0 | + |z − z0 | < (R + |z0 |) = ρ. On a aussi |z0 | ≤ ρ et ρ < R.
2
Pour tout z ∈ ∆z0 ,r , on a :
+∞
X +∞
X
n
f (z) − f (z0 ) = an (z − z0n ) = (z − z0 ) un (z)
n=0 n=1


n−1
X

∀n ∈ N , ∀z ∈ ∆z0 ,r , un (z) = ak z k z0n−1−k
k=0
X
de sorte que |un (z)| ≤ n|an |ρn−1 , et comme la série n|an |ρn−1 est conver-
X X
gente(Rappelons que les séries entières an zn et nan z n−1 ont le même
X
rayon de convergence), la série un converge normalement donc uniformé-
ment sur ∆z0 ,r , et par suite
+∞
f (z) − f (z0 ) X
lim = an nz0n−1
z→z0 z − z0 n=1

donc f est C−dérivable au point z0 et


+∞
X

f (z) = nan z0n−1
n=1

On sait par ailleurs que f est continue sur son disque de convergence, donc f
est holomorphe sur ∆R .

Corollaire 25
X
Soit an z n une série entière de rayon de convergence R > 0. La fonction série
entière f définie par :
+∞
X
f (z) = an z n
n=0

pour tout nombre complexe z tel que z ∈ ∆R , est infiniment C−dérivable et on


a:
+∞
∗ (p)
X (n + p)!
∀p ∈ N , ∀z ∈ ∆R , f (z) = an+p z n
n=0
n!

Cette relation est valable si p = 0 avec la convention f (0) = f .


14.3. FONCTIONS ANALYTIQUES 383

Preuve:
C’est une conséquence immédiate de la proposition 345 et un raisonnement par
récurrence en tenant en compte qu’une série entière et sa série dérivée ont le
même rayon de convergence.

Proposition 346
X
Soit an z n une série entière de rayon de convergence R > 0, alors pour tout
p ∈ N, et tout nombre réel r tel que 0 < r < R, on a :
Z 2π
f (p) (0) 1
ap = = e−ipt f (reit ) dt
n! 2πrp 0

Preuve:
Le corollaire 25 nous donne f (p) (0) = p!ap , d’où la première égalité.
Pour la seconde on a :
+∞
X
it
f (re ) = an rn eint ,
n=0

donc :
+∞
X +∞
X
−ipt it n i(n−p)t
e f (re ) = an r e = fn (t)
n=0 n=0


fn (t) = an rn ei(n−p)t ,
en particulier fn est continue et intégrable sur [0, 2π] et
Z 2π
|fn | = 2π|an |rn
0

est le terme général d’une série convergente, ce qui valide l’intégration terme à
terme. Compte tenu de :
Z 2π 
0 si n ̸= p
fn (t) dt =
0 2πap rp si n = p
on a : Z 2π
e−ipt f (reit ) dt = 2πap rp ,
0
d’où la valeur ci-dessus de ap .
384 CHAPITRE 14. FONCTIONS HOLOMORPHES

14.3.2.3 Conséquence : cas d’une fonction analytique

Théorème 94

Soit f : U → C une fonction analytique sur U , alors f est infiniment C−dérivable


sur U . Si z0 ∈ U et R ∈ R∗+ et (an ) une suite de complexes tel que :
+∞
X
∀z ∈ ∆z0 ,R , f (z) = an (z − z0 )n
n=0

on a :

f (p) (z0 )
Z
1
∀r ∈]0, R[, ∀p ∈ N, ap = = e−ipt f (z0 + reit ) dt
n! 2πrp 0

Preuve:
Soit f : U → C analytique sur U et soit z0 ∈ U . Par définition, il existe R > 0
et une suite de nombres complexes (an ) tel que :
+∞
X
∀z ∈ ∆z0 ,R , f (z) = an (z − z0 )n
n=0

Ceci permet de définir la fonction g par :


+∞
X
∀h ∈ ∆R , g(h) = an hn .
n=0

D’après le corollaire 25, g est holomorphe sur ∆R . L’application u : z 7→ z − z0


est holomorphe sur C et u′ (z) = 1 pour tout z ∈ C. On a f (z) = g(z − z0 )
pour tout z ∈ ∆z0 ,R , donc, f est holomorphe sur ∆z0 ,R et

(∀z ∈ ∆z0 ,R ) f ′ (z) = g ′ (z − z0 ).1 = g ′ (z − z0 )

On a ainsi prouvé que f est holomorphe sur U avec la formule ci dessus.


Soit p ∈ N∗ tel que f (p) existe sur U et :

(∀z ∈ ∆z0 ,R ) f (p) (z) = g (p) (z − z0 )

D’après le corollaire 25, g est infiniment dérivable sur ∆R . Donc par composi-
tion, on a f (p) est holomorphe sur ∆R et :

(∀z ∈ ∆z0 ,R ) f (p+1) (z) = g (p+1) (z − z0 )


14.3. FONCTIONS ANALYTIQUES 385

On a donc prouvé par récurrence que f est infiniment C−dérivable sur U et


+∞
X (n + p)!
(∀p ∈ N∗ )(∀z ∈ ∆z0 ,R ) f (p) (z) = g (p) (z − z0 ) = an+p (z − z0 )n
n=0
n!

Formule valable aussi pour p = 0.


D’après la proposition 346 appliquée à g on obtient le reste des résultats en
remarquant que

(∀p ∈ N)(∀h ∈ ∆R ) g (p) (h) = f (p) (z0 + h)

14.3.2.4 La réciproque

Théorème 95

Soit f : U → C une application, alors f est analytique sur U si et seulement si


f est holomorphe sur U .

Preuve:
Théorème admis

Remarque On peut donner une démonstration de ce théorème en utilisant des


notions liées au séries de Fourier, qui maintenant sont hors programme.

14.3.2.5 Conséquence importante

Théorème 96

Toute fonction holomorphe sur un ouvert U est infiniment C−dérivable sur U .

Preuve:
Si f est holomorphe elle est analytique, donc infiniment C− dérivable.

14.3.3 Principes des zéros isolés et du prolongement analy-


tique
386 CHAPITRE 14. FONCTIONS HOLOMORPHES

Lemme 6

Si W1 et W2 sont deux ouverts disjoints de [0, 1] tel que W1 ∪ W2 = [0, 1] et


W1 ̸= ∅ et W2 ̸= ∅ alors W1 = [0, 1] ou W2 = [0, 1].

Preuve:
Supposons que [0, 1] = W1 ∪ W2 et W1 et W2 deux ouverts de [0, 1] tel que
{W1 , W2 } est une partition de [0, 1]. Comme 1 ∈ [0, 1], on a 1 ∈ W1 ou 1 ∈ W2 .
Supposons par exemple que 1 ∈ W2 alors 1 ̸∈ W1 . Comme W1 est une partie
non vide majorée de R, elle admet une borne supérieure α dans R. Si α = 0
on aurait W1 = {0}, or {0} n’est pas un overt de [0, 1] car cela signifie qu’il
existe η > 0 tel que ] − η, η[∩[0, 1] = {0}, ce qui n’est pas vrai car on aurait
[0, η ′ [⊂ {0} avec η ′ = min(η, 1). Donc α > 0. Si α ̸∈ W2 , par ouverture, il existe
ε > 0 tel que α − ε, α[⊂ W2 , donc on aurait W1 ⊂ [0, α − ε], ce qui contredit la
définition de α comme borne supérieur de W1 , et comme 1 ∈ W2 , on a α < 1,
donc il existe r > 0 tel que [α, α + r[⊂ W1 , e qui contredit la définition de α
comme borne supérieur de W1 .

Lemme 7

Soit Ω un ouvert connexe par arcs de C, alors les eules parties de Ω à la fois
ouvertes et fermées dans Ω sont Ω et ∅.

Preuve:
Si Ω = ∅, le résultat est évident, sinon, soit A une partie de Ω à la fois ouverte
et fermée dans Ω. Supposons que :

A ̸= ∅ et A ̸= Ω,

alors il existe (u, v) ∈ Ω2 tel que u ∈ A et v ̸∈ A. Comme Ω est connexe par


arcs, il existe un chemin γ : [0, 1] → Ω tel que γ([0, 1]) ⊂ Ω et γ(0) = u et
γ(1) = v.
Posons :
W1 = γ −1 (A) et W2 = γ −1 (Ω\A)
γ est continue et A ouverte donc W1 est un ouvert de [0, 1] ; par ailleurs A est
un fermé de Ω donc Ω\A est un ouvert de Ω et par suite W2 est un ouvert de
[0, 1]. On a W1 ̸= ∅ et W2 ̸= ∅ car comme γ(0) = u ∈ A et γ(1) = v ∈ Ω\A, on
a 0 ∈ W1 et 1 ∈ W2 . Finalement W1 ∩ W2 = ∅, ceci contredit le lemme 6. D’où
le lemme 7 est démontré.
14.3. FONCTIONS ANALYTIQUES 387

Lemme 8

Soit Ω un ouvert connexe par arcs de C et f : Ω → C une fonction holomorphe


sur Ω tel qu’il existe z0 ∈ Ω tel que :

∀n ∈ N, f (n) (z0 ) = 0

Alors f est nulle sur Ω.

Preuve:
Soit W = {z ∈ Ω/∀n ∈ N, f (n) (z) =\0}. On a W ̸= ∅ car z0 ∈ W .
• W est une fermé de Ω car W = Wn , avec Wn = {z ∈ Ω/f (n) (z) = 0} et,
n∈N
pour tout n ∈ N, Wn est un fermé de Wn , par continuité de f (n) et le fait que
{0} est un fermé de C.
• W est un ouvert de Ω car si a ∈ W , on a a ∈ Ω, comme f est holomorphe,
elle est analytique au point a donc il existe ρ > 0 tel que B(a, ρ) ⊂ Ω et
+∞ (n)
X f (a)
∀z ∈ B(a, ρ), f (z) = (z − a)n = 0
n=0
n!

Donc : ∀n ∈ N, f (n) (a) = 0 et a ∈ W , donc Donc B(a, ρ) ⊂ W et W est


voisinage de chacun de ses points donc ouvert. Par le lemme 7 , on a W = Ω,
par suite f est nulle sur Ω.

Théorème 97

(Principe des zéros isolés :) Soit Ω un ouvert non vide connexe par arcs
de C. Si f : Ω → C est une fonction holomorphe non nulle sur Ω alors pour tout
z0 ∈ Ω tel que f (z0 ) = 0, il existe r > 0 tel que B(z0 , r) ⊂ Ω et z0 est l’unique
zéro de f sur B(z0 , r).

Preuve:
Comme f est non nulle, par le lemme 8, il existe un entier naturel n tel que
f (n) (z0 ) ̸= 0. Soit p = min{n ∈ N/f (n) (z0 ) ̸= 0}. Comme f est analytique, et
compte tenu de la définition de p, il existe r′ > 0 tel que :
+∞ (n)
X f (z0 )
∀z ∈ B(z0 , r′ ), f (z) = (z − z0 )n = (z − z0 )p g(z)
n=p
n!
388 CHAPITRE 14. FONCTIONS HOLOMORPHES

avec
+∞ (n)

X f (z0 )
∀z ∈ B(z0 , r ), g(z) = (z − z0 )n−p
n=p
n!

On a g est continue au point z0 et g(z0 ) ̸= 0, donc il existe r > 0 tel que


g(z) ̸= 0 sur la boule ouverte B(z0 , r). Donc z0 est ’unique zéro de f sur la
boule ouverte B(z0 , r).

Théorème 98

(Principe du prolongement analytique :) Soit U un ouvert de C et


f : U → C une fonction holomorphe sur U . Si Ω est un ouvert connexe par arcs
de C tel qu’il existe une fonction F : Ω → C holomorphe sur Ω tel que U ⊂ Ω
et F prolonge f sur Ω, alors F est unique.

Preuve:
Cela revient à prouver que si f est nulle sur U et F holomorphe sur Ω et
prolonge f sur Ω, alors F est nulle. Si F n’est pas nulle, soit z0 ∈ U ; par le
théorème 97 (principe des zéros isolés), ci-dessus, il existe r > 0 tel que z0 soit
l’unique zéro de F sur B(z0 , r), donc sur U ∩ B(z0 , r), ce qui est absurde car
B(z0 , r) ∩ U étant un ouvert non vide de C, il est infini et F y serait nulle car
nulle sur U .

Vous aimerez peut-être aussi