Vous êtes sur la page 1sur 244

Table des matières

1 Structures algébriques usuelles 11


1.1 Loi de composition interne (rappels de Sup) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.1.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.1.2 Associativité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.1.3 Commutativité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.1.4 Élément neutre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.1.5 Élément régulier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.1.6 Élément symétrisable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.1.7 Distributivité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.1.8 Notations additive et multiplicative . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.2 Structure de groupe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.2.1 Structure de groupe (rappels de Sup) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.2.2 Sous-groupe (rappels de Sup) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.2.3 Intersection de groupes, groupe engendré par une partie . . . . . . . . . . . . . . . . . . . . . . 16
1.2.4 Les sous-groupes du groupe (Z, +) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.3 Morphisme de groupes (rappels de Sup) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.3.1 Définition et premières propriétés (rappels de Sup) . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.3.2 Noyau et image d’un morphisme (rappels de Sup) . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.3.3 Isomorphisme de groupes (rappels de Sup) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.3.4 Exemple fondamental : le groupe symétrique (rappels de Sup) . . . . . . . . . . . . . . . . . . . 18
1.4 Groupe monogène, groupe cyclique, le groupe Z/nZ . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.4.1 Relation d’équivalence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.4.2 Congruence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.4.3 Le groupe quotient Z/nZ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.4.4 Éléments générateurs du groupe (Z/nZ, +) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.4.5 Produit des groupes (Z/nZ, +) et (Z/pZ, +) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.4.6 Ordre d’un élément dans un groupe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

2 Anneaux, corps, algèbres 25


2.1 Structures d’anneau, de corps . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.1.1 Définition d’un anneau et exemples fondamentaux (rappel de Sup) . . . . . . . . . . . . . . . . 25
2.1.2 Règles de calcul dans un anneau, groupe des éléments inversibles (rappel de Sup) . . . . . . . . 25
2.1.3 Sous-anneau (rappel de Sup) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.1.4 Produit d’anneaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.1.5 Morphisme d’anneaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.1.6 Intégrité, corps (rappel de Sup) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.2 Idéal d’un anneau commutatif . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.2.1 Définition et premières propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.2.2 Idéaux de Z . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.3 L’anneau Z/nZ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31

1
TABLE DES MATIÈRES MP 2022-23

2.3.1 Multiplication dans Z/nZ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31


2.3.2 Éléments inversibles de l’anneau Z/nZ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.3.3 Calcul de l’indicatrice d’Euler d’un entier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.4 Anneau des polynômes à une indéterminée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.4.1 Idéaux de K[X] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.4.2 PGCD et PPCM de polynômes, polynômes premiers entre eux . . . . . . . . . . . . . . . . . . 33
2.4.3 Irréductibles de K[X] (rappel de Sup) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.5 Structure d’algèbre (rappel de Sup) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35

3 Espaces vectoriels normés 37


3.1 Normes et distances . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
3.1.1 Définition d’une norme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
3.1.2 Distance associée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.1.3 Norme euclidienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.1.4 Partie bornée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3.1.5 Applications lipschitziennes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.1.6 Produit d’une famille finie d’EVN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.2 Suites d’éléments d’un EVN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.2.1 Convergence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.2.2 Normes équivalentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.2.3 Suites extraites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3.3 Comparaison des suites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3.3.1 Domination . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3.3.2 Négligeabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3.3.3 Équivalence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44

4 Topologie 45
4.1 Notions topologiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.1.1 Voisinages . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.1.2 Ouverts et fermés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.1.3 Adhérence d’une partie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
4.1.4 Caractérisation séquentielle de l’adhérence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
4.1.5 Intérieur d’une partie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
4.1.6 Liens entre adhérence et intérieur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
4.1.7 Frontière d’une partie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
4.1.8 Topologie induite sur une partie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
4.2 Étude locale d’une application . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
4.2.1 Limite en un point . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
4.2.2 Opérations sur les limites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
4.2.3 Caractérisation séquentielle de l’existence d’une limite d’une fonction . . . . . . . . . . . . . . . 51
4.2.4 Relations de comparaison . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
4.2.5 Applications continues . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
4.2.6 Image réciproque d’un ouvert ou d’un fermé par une application continue . . . . . . . . . . . . 52
4.2.7 Homéomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.2.8 Continuité uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.3 Applications linéaires continues, bilinéaires continues . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.3.1 Caractérisation des applications linéaires continues . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.3.2 Caractérisation de la continuité d’une application bilinéaire . . . . . . . . . . . . . . . . . . . . 54
4.3.3 Norme d’une application linéaire continue . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
4.3.4 Algèbre normée unitaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56

Fénelon Sainte-Marie – La Plaine-Monceau 2/244 31 août 2022


TABLE DES MATIÈRES MP 2022-23

5 Éléments propres 57
5.1 Somme, somme directe d’une famille finie de sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . 57
5.1.1 Somme de p sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
5.1.2 Somme directe de p sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
5.1.3 Projecteurs associés à une somme directe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
5.1.4 Cas de la dimension finie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
5.1.5 Décomposition d’une application linéaire sur une somme directe . . . . . . . . . . . . . . . . . 59
5.2 Calcul matriciel par blocs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
5.2.1 Matrice définie par blocs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
5.2.2 Opérations par blocs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
5.2.3 Déterminant d’une matrice triangulaire par blocs . . . . . . . . . . . . . . . . . . . . . . . . . . 60
5.3 Sous-espaces stables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
5.3.1 Sous-espace vectoriel stable par un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . 61
5.3.2 Caractérisation matricielle de la stabilité d’un SEV . . . . . . . . . . . . . . . . . . . . . . . . . 61
5.3.3 Droite stable par un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
5.4 Polynômes d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
5.4.1 Morphisme P 7→ P (u) ; noyau et image de ce morphisme . . . . . . . . . . . . . . . . . . . . . . 62
5.4.2 Polynôme caractéristique d’un endomorphisme d’un EV de dimension finie . . . . . . . . . . . 64
5.4.3 Théorème de décomposition des noyaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
5.5 Éléments propres d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
5.5.1 Valeurs propres et vecteurs propres d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . 65
5.5.2 Sous-espaces propres associés à des valeurs propres distinctes . . . . . . . . . . . . . . . . . . . 66
5.5.3 Valeurs propres et polynômes annulateurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
5.5.4 Polynôme caractéristique et sous-espaces stables . . . . . . . . . . . . . . . . . . . . . . . . . . 67
5.5.5 Théorème de Cayley-Hamilton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67

6 Séries de nombres réels ou de vecteurs 71


6.1 Séries réelles ou vectorielles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
6.1.1 Définition d’une série — rappels de Sup . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
6.1.2 Une condition nécessaire de convergence d’une série — rappels de Sup . . . . . . . . . . . . . . 72
6.1.3 Séries absolument convergentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
6.1.4 Espaces `1 (E), `2 (C) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
6.1.5 Application des séries absolument convergentes : la série géométrique . . . . . . . . . . . . . . . 74
6.1.6 Application des séries absolument convergentes : la série exponentielle . . . . . . . . . . . . . . 75
6.1.7 Cas des séries réelles alternées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
6.2 Encore une application des séries AC : produit de Cauchy de suites . . . . . . . . . . . . . . . . . . . . 76
6.2.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
6.2.2 Convergence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
6.3 Compléments sur les séries réelles à termes positifs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
6.3.1 Majoration des sommes partielles d’une série à termes réels positifs — rappel de Sup . . . . . . 77
6.3.2 Comparaison d’une série à termes positifs à une intégrale — rappel de Sup . . . . . . . . . . . 78
6.3.3 Règle de d’Alembert pour les séries réelles à termes positifs . . . . . . . . . . . . . . . . . . . . 79
6.3.4 Sommation des relations de comparaison, pour les séries réelles à termes positifs . . . . . . . . 79
6.3.5 Application de la sommation des relations de comparaison : formule de Stirling . . . . . . . . . 80
6.3.6 Application de la sommation des relations de comparaison : théorème de Cesàro . . . . . . . . 80

7 Réduction des endomorphismes en dimension finie 81


7.1 Diagonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
7.1.1 Définition d’un endomorphisme diagonalisable . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
7.1.2 Caractérisation de la diagonalisabilité par la dimension des sous-espaces propres . . . . . . . . 82
7.1.3 Caractérisation par le polynôme minimal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82

Fénelon Sainte-Marie – La Plaine-Monceau 3/244 31 août 2022


TABLE DES MATIÈRES MP 2022-23

7.1.4 Matrice carrée diagonalisable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82


7.2 Trigonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
7.2.1 Définition d’un endomorphisme trigonalisable . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
7.2.2 Caractérisation de la trigonalisabilité par le polynôme minimal ou le polynôme caractéristique . 83
7.2.3 Matrice carrée trigonalisable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
7.3 Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
7.3.1 Commutant d’un endomorphisme ou d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . 84
7.3.2 Puissances d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
7.3.3 Suites récurrentes linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
7.3.4 Équations algébriques d’inconnues matricielles . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
7.3.5 Déterminant et trace des puissances d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . 85
7.4 Trigonalisation à l’aide des sous-espaces caractéristiques . . . . . . . . . . . . . . . . . . . . . . . . . . 86
7.4.1 Endomorphismes nilpotents, matrices nilpotentes . . . . . . . . . . . . . . . . . . . . . . . . . 86
7.4.2 Espaces caractéristiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87

8 Familles sommables de nombres réels ou complexes 89


8.1 Dénombrabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
8.1.1 Ensembles dénombrables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
8.1.2 Produit cartésien d’ensembles dénombrables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
8.1.3 Réunion d’ensembles dénombrables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
8.1.4 Cas de l’ensemble R . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
8.2 Familles sommables de nombres réels ou complexes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
8.2.1 Familles sommables de nombres réels positifs . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
8.2.2 Familles sommables de nombres réels ou complexes . . . . . . . . . . . . . . . . . . . . . . . . . 92
8.2.3 Permutation des termes d’une série absolument convergente . . . . . . . . . . . . . . . . . . . . 92
8.2.4 Sommation par paquets de nombres réels ou complexes . . . . . . . . . . . . . . . . . . . . . . 93
8.3 Séries doubles (I = N × N) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
8.3.1 Interversion des sommations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
8.3.2 Sommation triangulaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
8.3.3 Retour sur le produit de Cauchy de deux séries absolument convergentes . . . . . . . . . . . . . 95

9 Suites et séries de fonctions 97


9.1 Convergence d’une suite de fonctions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
9.1.1 Convergence simple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
9.1.2 Convergence uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
9.1.3 Convergence uniforme sur tout compact . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
9.1.4 Limite uniforme d’une suite de fonctions bornées . . . . . . . . . . . . . . . . . . . . . . . . . . 99
9.1.5 Limite uniforme d’une suite de fonctions continues . . . . . . . . . . . . . . . . . . . . . . . . . 99
9.2 Convergence d’une série de fonctions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
9.2.1 Convergence uniforme d’une série de fonctions . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
9.2.2 Convergence normale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
9.2.3 Lien entre convergence normale et convergence uniforme . . . . . . . . . . . . . . . . . . . . . . 101
9.3 Extension aux fonctions vectorielles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
9.3.1 Suites et séries de fonctions à valeurs dans un espace vectoriel normé de dimension finie . . . . 102
9.3.2 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
9.4 Approximation des fonctions d’une variable réelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
9.4.1 Fonctions en escalier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
9.4.2 Fonctions continues par morceaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
9.4.3 Approximation uniforme des fonctions continues par morceaux par des fonctions en escalier . . 104
9.4.4 Approximation uniforme des fonctions continues par des fonctions affines par morceaux . . . . 104
9.4.5 Approximation uniforme des fonctions continues par des fonctions polynomiales . . . . . . . . . 104

Fénelon Sainte-Marie – La Plaine-Monceau 4/244 31 août 2022


TABLE DES MATIÈRES MP 2022-23

10 Fonctions vectorielles d’une variable réelle 105


10.1 Dérivation des fonctions vectorielles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
10.1.1 Dérivée en un point . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
10.1.2 Dérivée globale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
10.1.3 Applications de classe C 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
10.1.4 Opérations sur les fonctions dérivables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
10.1.5 Théorèmes généraux pour les fonctions à valeurs réelles — rappels de Sup . . . . . . . . . . . . 107
10.1.6 Dérivées d’ordres supérieurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
10.2 Intégration sur un segment . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
10.2.1 Intégrale d’une fonction continue par morceaux sur un segment . . . . . . . . . . . . . . . . . . 109
10.2.2 Premières propriétés de l’intégrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
10.2.3 Primitives d’une fonction continue . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
10.2.4 Intégration et développements limités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
10.2.5 Intégration par parties et applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
10.2.6 Norme de la convergence en moyenne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
10.2.7 Échange limite-intégrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
10.2.8 Norme de la convergence en moyenne quadratique . . . . . . . . . . . . . . . . . . . . . . . . . 116
10.3 Primitives et dérivées des suites et séries de fonctions . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
10.3.1 Primitivation de la limite d’une suite de fonctions qui converge uniformément . . . . . . . . . . 117
10.3.2 Primitivation d’une série de fonctions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
10.3.3 Dérivation de la limite d’une suite de fonctions . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
10.3.4 Dérivation terme à terme d’une série de fonctions . . . . . . . . . . . . . . . . . . . . . . . . . . 118
10.3.5 Extension aux suites et séries de fonctions de classe C k . . . . . . . . . . . . . . . . . . . . . . . 119
10.4 Arcs paramétrés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
10.4.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
10.4.2 Point régulier, tangente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
10.4.3 Exemple d’étude complète . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121

11 Séries entières 125


11.1 Définition et convergence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
11.1.1 Série entière . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
11.1.2 Lemme d’Abel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
11.1.3 Rayon de convergence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
11.1.4 Rayon de convergence et relations de comparaison . . . . . . . . . . . . . . . . . . . . . . . . . 127
11.1.5 Règle de d’Alembert pour les séries entières . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
11.2 Opérations sur les séries entières . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
11.2.1 Somme de deux séries entières . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
11.2.2 Produit de Cauchy de deux séries entières . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
11.2.3 Exemple de la fonction exponentielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
11.3 Étude sur le disque ouvert de convergence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
11.3.1 Convergence normale sur tout disque fermé du disque de convergence . . . . . . . . . . . . . . 130
11.3.2 Continuité de la somme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
11.4 Série entière d’une variable réelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
11.4.1 Théorème d’Abel radial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
11.4.2 Dérivation terme à terme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
11.4.3 Intégration terme à terme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
11.5 Développement en série entière . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
11.5.1 Fonction développable en série entière . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
11.5.2 Développements en série entière usuels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132

Fénelon Sainte-Marie – La Plaine-Monceau 5/244 31 août 2022


TABLE DES MATIÈRES MP 2022-23

12 Intégration sur un intervalle quelconque 135


12.1 Intégrales impropres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
12.1.1 Intégrales impropres sur un intervalle semi-ouvert . . . . . . . . . . . . . . . . . . . . . . . . . . 135
12.1.2 Intégrales impropres sur un intervalle ouvert . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
12.2 Intégration sur un intervalle de la forme [a, +∞[ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
12.2.1 Fonction intégrable sur [a, +∞[ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
1
12.2.2 Intégrabilité de x 7→ α sur [1, +∞[ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138
x
12.2.3 Intégrabilité de x 7→ e−αx sur [0, +∞[ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139
12.2.4 Intégrabilité et relations de comparaison . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139
12.3 Intégration sur un intervalle quelconque . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
12.3.1 Intégration sur un intervalle semi-ouvert . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
1
12.3.2 Intégrabilité en a de x 7→ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
|x − a|α
12.3.3 Intégration sur un intervalle de la forme ]a, b[ . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
12.3.4 Propriétés de l’intégrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
12.3.5 Changement de variable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
12.3.6 Intégration par parties . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
12.4 Convergence en moyenne, en moyenne quadratique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
12.4.1 Norme de la convergence en moyenne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
12.4.2 Norme de la convergence en moyenne quadratique . . . . . . . . . . . . . . . . . . . . . . . . . 143
12.5 Suites et séries de fonctions intégrables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
12.5.1 Théorème de convergence dominée (intégration terme à terme d’une suite de fonctions) . . . . 145
12.5.2 Intégration terme à terme d’une série de fonctions . . . . . . . . . . . . . . . . . . . . . . . . . 146
12.6 Intégrales dépendant d’un paramètre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
12.6.1 Continuité sous le signe somme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
12.6.2 Dérivation sous le signe somme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148
12.6.3 Application : la fonction Γ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149

13 Espaces préhilbertiens réels 151


13.1 Formes bilinéaires — rappels de Sup . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151
13.1.1 Formes bilinéaires symétriques — rappels de Sup . . . . . . . . . . . . . . . . . . . . . . . . . . 151
13.1.2 Expression matricielle en dimension finie — rappels de Sup . . . . . . . . . . . . . . . . . . . . 151
13.1.3 Formes bilinéaires symétriques positives, définies positives — rappels de Sup . . . . . . . . . . 152
13.2 Espace préhilbertien réel — rappels de Sup . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152
13.2.1 Produit scalaire — définition et exemples — rappels de Sup . . . . . . . . . . . . . . . . . . . . 152
13.2.2 Deux théorèmes — rappels de Sup . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153
13.2.3 Propriétés des normes et produits scalaires — rappels de Sup . . . . . . . . . . . . . . . . . . . 153
13.3 Orthogonalité — rappels de Sup . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155
13.3.1 Vecteurs orthogonaux — rappels de Sup . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155
13.3.2 Sous-espaces orthogonaux — rappels de Sup . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155
13.3.3 Supplémentaire orthogonal — rappels de Sup . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
13.3.4 Familles orthogonales, orthonormales — rappels de Sup . . . . . . . . . . . . . . . . . . . . . . 157
13.4 Projection orthogonale, distance à un SEV de dimension finie — rappels de Sup . . . . . . . . . . . . 157
13.4.1 Définition et exemple — rappels de Sup . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158
13.4.2 Expression d’une projection (sur un SEV de dim. finie) dans une BON — rappels de Sup . . . 158
13.4.3 Distance d’un point à un sous-espace de dimension finie — rappels de Sup . . . . . . . . . . . . 159
13.5 Espaces euclidiens — rappels de Sup . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160
13.5.1 Bases orthonormales — rappels de Sup . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160
13.5.2 Orthonormalisation de Gram-Schmidt – rappels de Sup . . . . . . . . . . . . . . . . . . . . . . 160
13.6 Suites totales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161

Fénelon Sainte-Marie – La Plaine-Monceau 6/244 31 août 2022


TABLE DES MATIÈRES MP 2022-23

14 Isométries vectorielles, endomorphismes auto-adjoints 163


14.1 Adjoint d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163
14.1.1 Représentation d’une forme linéaire sur un espace euclidien . . . . . . . . . . . . . . . . . . . . 163
14.1.2 Adjoint d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164
14.2 Isométries vectorielles et matrices orthogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164
14.2.1 Isométries vectorielles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164
14.2.2 Matrices orthogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165
14.2.3 Changement de base orthonormale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167
14.2.4 Automorphismes orthogonaux, déterminant (et spectre) . . . . . . . . . . . . . . . . . . . . . . 167
14.2.5 Générateurs du groupe orthogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168
14.2.6 Réduction des éléments de O(E) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168
14.3 Automorphismes orthogonaux du plan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168
14.3.1 Étude de O2 (R) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168
14.3.2 Étude de SO2 (R) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168
14.3.3 Étude de SO(E) pour E e.v.e. de dimension 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . 168
14.3.4 Réflexions vectorielles du plan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169
14.4 Automorphismes orthogonaux de l’espace . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169
14.4.1 Étude de SO(E), E e.v.e. de dimension 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169
14.4.2 Angle d’une rotation de l’espace autour d’un axe orienté . . . . . . . . . . . . . . . . . . . . . . 170
14.4.3 Méthode pratique d’étude d’un isomorphisme vectoriel en dimension 3 . . . . . . . . . . . . . . 170
14.5 Endomorphismes auto-adjoints (ou symétriques) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171
14.5.1 Définition, premières propriétés et exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171
14.5.2 Réduction des endomorphismes auto-adjoints dans une base orthonormale . . . . . . . . . . . . 172
14.5.3 Endomorphismes auto-adjoints positifs, définis positifs . . . . . . . . . . . . . . . . . . . . . . . 172

15 Probabilités sur un univers au plus dénombrable 173


15.1 Espace probabilisé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173
15.1.1 Définitions et premières propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173
15.1.2 Lexique des probabilités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175
15.1.3 Probabilités sur un univers au plus dénombrable . . . . . . . . . . . . . . . . . . . . . . . . . . 175
15.1.4 Probabilités discrètes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 176
15.1.5 Propriétés des probabilités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177
15.1.6 Événements négligeables, événements presque sûrs . . . . . . . . . . . . . . . . . . . . . . . . . 178
15.2 Conditionnement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179
15.2.1 Probabilité conditionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179
15.2.2 Formule des probabilités totales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 180
15.2.3 Formule de Bayes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181
15.3 Indépendance d’événements . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181
15.3.1 Indépendance de deux événements . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181
15.3.2 Indépendance d’une suite d’événements . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182

16 Variables aléatoires 185


16.1 Variables aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185
16.1.1 Définitions et premières propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185
16.1.2 Loi de probabilité d’une variable aléatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187
16.1.3 Fonction de répartition d’une variable aléatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . 188
16.2 Couples de variables aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189
16.2.1 Lois conjointes et marginales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189
16.2.2 Variables aléatoires indépendantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 190
16.2.3 Famille quelconque de variables aléatoires indépendantes . . . . . . . . . . . . . . . . . . . . . . 192
16.2.4 Expériences aléatoires indépendantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 192

Fénelon Sainte-Marie – La Plaine-Monceau 7/244 31 août 2022


TABLE DES MATIÈRES MP 2022-23

16.3 Espérance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195


16.3.1 Définitions et premières propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195
16.3.2 Encore des propriétés de l’espérance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 196
16.3.3 Moments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199
16.4 Loi faible des grands nombres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 202
16.5 Fonctions génératrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 202
16.6 Lois usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203
16.6.1 Loi de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203
16.6.2 Loi binomiale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 204
16.6.3 Loi géométrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 204
16.6.4 Loi de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205

17 Convexité 207
17.1 Sous-espaces affines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 207
17.1.1 Définitions et propriétés élémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 207
17.1.2 Translations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208
17.1.3 Intersection et paralléllisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 209
17.2 Ensembles convexes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 209
17.3 Fonctions convexes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 210
17.3.1 Définition et interprétation géométrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 210
17.3.2 Caractérisation géométrique de la convexité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 210
17.3.3 Caractérisation des fonctions convexes dérivables . . . . . . . . . . . . . . . . . . . . . . . . . . 211
17.3.4 Position de la courbe par rapport à la tangente . . . . . . . . . . . . . . . . . . . . . . . . . . . 211
17.4 Applications : inégalités de convexité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211
17.4.1 L’inégalité de Jensen ou de convexité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211
17.4.2 Comparaison des moyennes arithmétique, géométrique et quadratique . . . . . . . . . . . . . . 212
17.4.3 Inégalité de Hölder . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212
17.4.4 Inégalité de Minkowski . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213

18 Équations différentielles linéaires 215


18.1 Équations différentielles linéaires d’ordre 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215
18.1.1 Notations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215
18.1.2 Structure de l’ensemble des solutions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 216
18.1.3 Problème de Cauchy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 216
18.2 Résolution de l’équation homogène x0 (t) = a(t)(x(t)) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 217
18.2.1 Système fondamental de solutions ; wronskien . . . . . . . . . . . . . . . . . . . . . . . . . . . . 217
18.2.2 Recherche d’une solution sous forme de série entière . . . . . . . . . . . . . . . . . . . . . . . . 218
18.2.3 Cas où la matrice A(t) est diagonalisable dans une base fixe . . . . . . . . . . . . . . . . . . . . 219
18.3 Résolution de l’éq. complète : méthode de variation des constantes . . . . . . . . . . . . . . . . . . . . 219
18.4 Équations linéaires à coefficients constants . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 220
18.4.1 Étude de l’équation x0 = ax où a ∈ L(E) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 220
18.4.2 Équation x0 (t) = ax(t) + b(t) où a ∈ L(E) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 220
18.4.3 Cas d’un endomorphisme diagonalisable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221
18.5 Équations linéaires scalaires d’ordre 1 ou 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221
18.5.1 Équation scalaire du premier ordre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221
18.5.2 Équation scalaire du second ordre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 222
18.5.3 Cas où l’on connaît une solution de l’équation homogène (méthode d’abaissement de l’ordre) . 223

Fénelon Sainte-Marie – La Plaine-Monceau 8/244 31 août 2022


TABLE DES MATIÈRES MP 2022-23

19 Calcul différentiel 225


19.1 Applications différentiables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 225
19.1.1 Différentielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 225
19.1.2 Dérivée selon un vecteur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 226
19.1.3 Dérivées partielles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 226
19.1.4 Matrice jacobienne, jacobien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227
19.2 Opérations sur les applications différentiables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227
19.2.1 Outils : continuité d’applications linéaires ou bilinéaires . . . . . . . . . . . . . . . . . . . . . . 227
19.2.2 Combinaison linéaire, composition avec application bilinéaire . . . . . . . . . . . . . . . . . . . 228
19.2.3 Composition d’applications différentiables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 228
19.3 Fonctions de classe C 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 229
19.3.1 Définition et premières propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 229
19.3.2 Opérations sur les fonctions de classe C 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 230
19.3.3 Circulation d’une forme différentielle sur un arc paramétré . . . . . . . . . . . . . . . . . . . . . 230
19.4 Cas des fonctions numériques (à valeurs réelles, i.e. F = R) . . . . . . . . . . . . . . . . . . . . . . . . 231
19.4.1 Algèbre C 1 (U ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231
19.4.2 Gradient d’une fonction de classe C 1 de U dans R . . . . . . . . . . . . . . . . . . . . . . . . . 232
19.5 Vecteurs tangents à une partie de E . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 232
19.5.1 Vecteurs tangents . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 232
19.5.2 Hyperplan tangent à un ensemble . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 233
19.6 Optimisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 234
19.6.1 Extrema d’une fonction de classe C 1 de U dans R . . . . . . . . . . . . . . . . . . . . . . . . . . 234
19.6.2 Extremum sous contrainte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235
19.7 Dérivées partielles d’ordre supérieur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 236
19.7.1 Théorème de Schwarz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 236
19.7.2 Algèbre C k (U ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 236
19.7.3 Exemples d’équations aux dérivées partielles . . . . . . . . . . . . . . . . . . . . . . . . . . . . 237
19.8 Optimisation : étude au second ordre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 237
19.8.1 Matrice hessienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 237
19.8.2 Formule de Taylor-Young à l’ordre 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 238
19.8.3 Application à la recherche d’extrema locaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 238
19.8.4 Cas n = 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 238

20 Compacité et connexité par arcs 241


20.1 Compacité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 241
20.1.1 Théorème de Bolzano-Weierstrass . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 241
20.1.2 Parties compactes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 241
20.1.3 Parties compactes d’un espace vectoriel normé de dimension finie . . . . . . . . . . . . . . . . . 241
20.1.4 Image d’une partie compacte par une application continue . . . . . . . . . . . . . . . . . . . . . 242
20.1.5 Théorème de Heine . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 242
20.2 Notions de connexité par arcs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 243
20.2.1 Parties convexes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 243
20.2.2 Partie étoilée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 243
20.2.3 Parties connexes par arcs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 243
20.2.4 Image continue d’une partie connexe par arcs . . . . . . . . . . . . . . . . . . . . . . . . . . . . 244

Fénelon Sainte-Marie – La Plaine-Monceau 9/244 31 août 2022


TABLE DES MATIÈRES MP 2022-23

Fénelon Sainte-Marie – La Plaine-Monceau 10/244 31 août 2022


Chapitre 1

Structures algébriques usuelles

Dans tout le chapitre, E désigne un ensemble non vide.

1.1 Loi de composition interne (rappels de Sup)


1.1.1 Définitions
Définition 1.1 : loi de composition interne
On appelle loi de composition interne (LCI) dans E toute application de E × E dans E. On la note en général
∗ : E × E → E, (x, y) 7→ x ∗ y.
Exemple 1.2 :
1. L’addition (x, y) 7→ x + y est une LCI dans N.
2. La soustraction (x, y) 7→ x − y n’est pas une LCI dans N, par contre c’en est une dans Z.

Définition 1.3 : partie stable pour une LCI


Une partie A de l’ensemble E est dite stable par la LCI ∗ si : ∀(x, y) ∈ A2 , x ∗ y ∈ A.
Lorsque A est stable par ∗, on appelle LCI induite sur A la restriction de l’application ∗ : E × E → E en ∗ :
A × A → A.
Désormais, on suppose que E est muni d’une LCI ∗.

1.1.2 Associativité
Définition 1.4 : LCI associative
La LCI ∗ est associative lorsque : ∀(x, y, z) ∈ E 3 , (x ∗ y) ∗ z = x ∗ (y ∗ z).
Conséquence :
Lorsque ∗ est associative, l’écriture x ∗ y ∗ z a un sens, elle n’est plus ambigüe. De même pour x1 ∗ · · · ∗ xn = ∗ni=1xi.
Exemple 1.5 :
1. L’application ∪ : P(E)2 → P(E), (X, Y ) 7→ X ∪ Y , est une LCI associative.
En effet ∀(X, Y, Z) ∈ P(E)3 , (X ∪ Y ) ∪ Z = X ∪ (Y ∪ Z).
x+y
2. L’application ∗ : Q2 → Q, (x, y) 7→ , est une LCI non associative car, pour (x, y, z) ∈ Q3 :
2
x+y
(x ∗ y) + z 2 +z x + y + 2z x + (y ∗ z) x + y+z
2 2x + y + z
(x ∗ y) ∗ z = = = , x ∗ (y ∗ z) = = = .
2 2 4 2 2 4

11
1.1. LOI DE COMPOSITION INTERNE (RAPPELS DE SUP) MP 2022-23

1.1.3 Commutativité
Définition 1.6 : LCI commutative
La LCI ∗ est commutative lorsque : ∀(x, y) ∈ E 2 , x ∗ y = y ∗ x.
Exemple 1.7 :
1. L’application ∩ : P(E)2 → P(E), (X, Y ) 7→ X ∩ Y , est une LCI commutative.
2. La soustraction dans Z est une LCI non commutative.

1.1.4 Élément neutre


Définition 1.8 : élément neutre pour une LCI
On dit que la LCI ∗ admet :
1. un élément neutre à gauche lorsque : ∃e ∈ E, ∀x ∈ E, e ∗ x = x ;
2. un élément neutre à droite lorsque : ∃e ∈ E, ∀x ∈ E, x ∗ e = x ;
3. un élément neutre lorsque : ∃e ∈ E, ∀x ∈ E, e ∗ x = x ∗ e = x.

Exemple 1.9 :
1. 0 est élément neutre pour la LCI + dans Z.
2. Pour la LCI ∗ : N2 → N, (x, y) 7→ y :
• tout élément x de N est neutre à gauche car ∀y ∈ N, x ∗ y = y ;
• aucun élément y de N n’est neutre à droite, car x ∗ y = x n’est vrai que pour x = y mais pas pour tout x.
3. Pour la LCI ÷ : (R∗ )2 → R∗ , (x, y) 7→ x/y, il n’y a pas de neutre à gauche et 1 est l’unique neutre à droite.

Théorème 1.10 : unicité du neutre pour une LCI


Soit E un ensemble muni d’une LCI.
1. Si e est neutre à gauche et e0 est neutre à droite, alors e = e0 .
2. En particulier si une LCI admet un élément neutre e, alors celui-ci est unique.

1.1.5 Élément régulier


Définition 1.11 : éléments réguliers pour une LCI
Soit a ∈ E.
1. On dit que a est régulier (ou simplifiable) à droite lorsque : ∀(x, y) ∈ E 2 , (x ∗ a = y ∗ a) ⇒ x = y.
2. On dit que a est régulier (ou simplifiable) à gauche lorsque : ∀(x, y) ∈ E 2 , (a ∗ x = a ∗ y) ⇒ x = y.
3. On dit que a est régulier (ou simplifiable) lorsque a est régulier à droite et à gauche.

Exemple 1.12 :
1. Reprenons la LCI ∗ sur N définie par x ∗ y = y. Soit a ∈ N.
• Éléments réguliers à gauche.
Soit (x, y) ∈ N2 tel que a ∗ x = a ∗ y ; alors par définition de ∗ on a x = y. Ainsi tout élément a de N est
régulier à gauche pour ∗.
• Éléments réguliers à droite.
Soit (x, y) ∈ N2 tel que x ∗ a = y ∗ a ; alors par définition de ∗ on a x ∗ a = y ∗ a = a mais ceci n’implique
pas que x = y (par exemple si on fixe a priori x 6= x0 ). Donc aucun élément a de N n’est régulier à droite
pour ∗.

Fénelon Sainte-Marie – La Plaine-Monceau 12/244 31 août 2022


CHAPITRE 1. STRUCTURES ALGÉBRIQUES USUELLES MP 2022-23

2. La multiplication R2 → R, (x, y) 7→ xy, est une LCI commutative et associative. Elle admet pour éléments
réguliers tous les réels non nuls car :

∀a ∈ R∗ , ∀(x, y) ∈ R2 , (ax = ay ⇒ x = y) ∧ (xa = ya ⇒ x = y).

1.1.6 Élément symétrisable


Dans cette sous-section on suppose que E est muni d’une LCI ∗ admettant un élément neutre e.
Définition 1.13 : éléments symétrisables pour une LCI
Un élément x de E est symétrisable ou inversible pour la LCI ∗ lorsqu’il existe au moins un élément x0 de E tel
que x ∗ x0 = e et x0 ∗ x = e.
Un tel x0 , lorsqu’il existe, est appelé un symétrique ou inverse de x.
Théorème 1.14 : unicité du symétrique
Soit E un ensemble muni d’une LCI associative et admettant un élément neutre.
Alors le symétrique d’un élément symétrisable est unique.
Ainsi le symétrique d’un élément x peut être noté x−1 sans ambigüité.

1
Attention : L’écriture x−1 ne signifie pas inverse au sens des nombres réels ; ainsi n’a en général aucun sens !
x
Remarque 1.15 :
On peut aussi définir les éléments symétrisables à gauche (x ∗ x0 = e) ou à droite (x0 ∗ x = e).
Exemple 1.16 :

1. Pour la LCI définie par x ∗ y = x + y dans Z, l’élément neutre est 0 et tout élément est symétrisable d’inverse
son opposé : ∀x ∈ Z, x + (−x) = (−x) + x = 0.
2. Sur R+ considérons la LCI ∗ définie par x ∗ y = x2 + y 2 .
p

(a) La loi ∗ est commutative.


(b) La loi ∗ est associative car pour tout (x, y, z) ∈ R3+ :
p p
(x ∗ y) ∗ z = (x ∗ y)2 + z 2 = x2 + y 2 + z 2 ,
p p
x ∗ (y ∗ z) = x2 + (y ∗ z)2 = x2 + y 2 + z 2 .

(c) La loi ∗ admet 0 pour élément neutre. Soit en effet a dans R+ ; alors :
p
∀x ∈ R+ , x ∗ a = x ⇐⇒ ∀x ∈ R+ , x2 + a2 = x ⇐⇒ ∀x ∈ R+ , x2 + a2 = x2 ⇐⇒ a = 0.

(d) Tout élément est régulier pour ∗. Soit en effet a ∈ R+ et (x, x0 ) ∈ R2+ . Alors :
p p
a ∗ x = a ∗ x0 ⇒ a2 + x2 = a2 + x02 ⇒ a2 + x2 = a2 + x02 ⇒ x2 = x02 ⇒ x = x0 .

(e) Le
√ seul élément symétrisable est 0 et son inverse est 0. Soit en effet (x, x0 ) ∈ R2+ tel que x ∗ x0 = 0 ; alors
x + x = 0 donc x = x = 0.
2 02 0

Proposition 1.17 : symétrique d’un produit


Soit E un ensemble muni d’une LCI associative avec élément neutre.
Si x et y sont symétrisables d’inverses x0 et y 0 respectivement, alors x ∗ y est symétrisable et son symétrique (x ∗ y)0
vérifie (x ∗ y)0 = y 0 ∗ x0 .

Fénelon Sainte-Marie – La Plaine-Monceau 13/244 31 août 2022


1.2. STRUCTURE DE GROUPE MP 2022-23

1.1.7 Distributivité
On considère deux LCI ∗ et > (« truc ») sur E.
Définition 1.18 : LCI distributive
1. On dit que > est distributive à gauche (resp. à droite) sur ∗ (ou par rapport à ∗) lorsque :

∀(x, y, z) ∈ E 3 , x>(y ∗ z) = (x>y) ∗ (x>z) (resp. (x ∗ y)>z = (x>z) ∗ (y>z)).

2. On dit que > est distributive sur ∗ lorsque > est distributive à gauche et à droite sur ∗.

Exemple 1.19 :
1. La multiplication est distributive par rapport à l’addition dans C.
2. La loi ∪ est distributive par rapport à ∩ dans P(E) et la loi ∩ est distributive par rapport à ∪ dans P(E). En
effet pour tout (A, B, C) ∈ P(E)3 on a A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C) et A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C).

1.1.8 Notations additive et multiplicative


Il est fréquent d’utiliser la notation multiplicative pour une LCI associative et la notation additive pour une LCI
associative et commutative.

Notation générale Notation multiplicative Notation additive


Associativité a ∗ (b ∗ c) = (a ∗ b) ∗ c a(bc) = (ab)c a ∗ (b ∗ c) = (a ∗ b) ∗ c
Commutativité a∗b=b∗a ab = ba a+b=b+a
Neutre a∗e=e∗a=a a×1=1×a=a a+0=0+a=a
1 1
Symétrique a ∗ a0 = a0 ∗ a = e a× = ×a=1 a + (−a) = (−a) + a = 0
a a
Itéré a ∗ ··· ∗ a = a n
a × · · · × a = an a + · · · + a = na
Yn X n
Groupement a1 ∗ · · · ∗ an = Fni=1 ai ai ai
i=1 i=1

Attention : on a bien an am = an+m pour tout (m, n) ∈ Z2 , mais par contre l’égalité am bm = (ab)m n’est vraie
que lorsque a et b commutent !

1.2 Structure de groupe


1.2.1 Structure de groupe (rappels de Sup)
Définition 1.20 : structure de groupe
On appelle groupe un ensemble G muni d’une LCI ∗ associative, avec élément neutre et telle que tout élément est
symétrisable pour ∗ (moyen mnémotechnique : ANIS). On le note (G, ∗). Le neutre est souvent noté eG ou 1G ou 0G ,
voire e ou 1 ou 0 s’il n’y a pas ambigüité.
Si de plus la loi est commutative le groupe est dit abélien ou commutatif.
Exemple 1.21 :
1. Les couples (Z, +) et (C, +) sont des groupes abéliens, mais pas (N, +).
2. Le couple (C∗ , ×) est un groupe abélien.
3. L’ensemble des bijections de E dans E est un groupe non abélien pour la loi de composition usuelle.

Remarque 1.22 :
premières propriétés

Fénelon Sainte-Marie – La Plaine-Monceau 14/244 31 août 2022


CHAPITRE 1. STRUCTURES ALGÉBRIQUES USUELLES MP 2022-23

1. Un groupe est nécessairement non-vide : il contient au moins son élément neutre !


2. On a bien sûr unicité de l’élément neutre et du symétrique.
3. Tout élément d’un groupe est régulier. En effet :
∀(a, x, y) ∈ G3 , a ∗ x = a ∗ y ⇒ a−1 ∗ (a ∗ x) = a−1 ∗ (a ∗ y) ⇒ (a−1 ∗ a) ∗ x = (a−1 ∗ a) ∗ y ⇒ x = y.

4. Si deux éléments x et y vérifient x ∗ y = e alors x et y sont inverses l’un de l’autre.


Première démonstration : si x ∗ y = e et x ∗ x−1 = e alors par régularité de x on obtient y = x−1 .
Seconde démonstration : x ∗ y = e ⇒ (x ∗ y) ∗ x = e ∗ x ⇒ (x ∗ y) ∗ x = x ∗ e ⇒ x ∗ (y ∗ x) = x ∗ e ⇒ y ∗ x = e.
5. En particulier (x−1 )−1 = x.

Théorème 1.23 : le groupe produit


Soit (G, >) et (H, ⊥) deux groupes. Soit ∗ la LCI définie sur G × H par : ∀(g1 , g2 , h1 , h2 ) ∈ G2 × H 2 , (g1 , h1 ) ∗
(g2 , h2 ) = (g1 >g2 , h1 ⊥h2 ).
Alors (G × H, ∗) est un groupe appelé groupe produit.

Remarque 1.24 :
On définit sans détour le produit d’un nombre fini de groupes.

1.2.2 Sous-groupe (rappels de Sup)


Définition 1.25 : sous-groupe
Soit (G, ∗) un groupe. Une partie H de G est un sous-groupe de (G, ∗) lorsque :
1. H 6= ∅.
2. La partie H est stable pour la loi ∗ : ∀(h1 , h2 ) ∈ H 2 , h1 ∗ h2 ∈ H.
3. La partie H est stable par prise d’inverse : ∀h ∈ H, h−1 ∈ H.

Théorème 1.26 : caractérisation d’un sous-groupe


Soit (G, ∗) un groupe. Une partie H de G est un sous-groupe de G si et seulement si :
(i) eG ∈ H.
(ii) ∀(x, y) ∈ H 2 , x ∗ y −1 ∈ H.

Définition 1.27 : loi induite d’un sous-groupe


Si la partie H est un sous-groupe de (G, ∗) alors, puisque cette partie est stable pour ∗ on peut définir la restriction
∗|H×H : H × H → H de cette loi à H et on l’appelle loi induite par ∗ sur H.
Muni de cette loi induite (H, ∗|H×H ) = (H, ∗) est un groupe.
Remarque 1.28 :
En général pour démontrer qu’un ensemble a une structure de groupe on essaie de prouver que c’est un sous-groupe
d’un groupe connu. Il n’y a ainsi que deux ou trois conditions à vérifier ((i) et (ii) ou 1., 2. et 3.) au lieu de quatre
(ANIS) !
Exemple 1.29 :
1. L’ensemble U des nombres complexes de module 1 est un groupe, car c’est un sous-groupe de (C∗ , ·). En effet :
(i) 1 ∈ U.
0
z |z 0 |
(ii) ∀(z, z 0 ) ∈ U2 , |z 0 z −1 | = = = 1 donc z 0 z −1 ∈ U.
z |z|
2. L’ensemble des isométries du plan (applications conservant les distances) est un sous-groupe de l’ensemble des
bijections du plan, pour la loi de composition usuelle.
3. Le groupe orthogonal d’un espace vectoriel euclidien E, défini par O(E) = {f ∈ L(E) ; ∀x ∈ E, kf (x)k = kxk},
est un groupe pour la loi de composition usuelle.

Fénelon Sainte-Marie – La Plaine-Monceau 15/244 31 août 2022


1.3. MORPHISME DE GROUPES (RAPPELS DE SUP) MP 2022-23

1.2.3 Intersection de groupes, groupe engendré par une partie


Théorème 1.30 : intersection de sous-groupes
L’intersection de sous-groupes est un sous-groupe.

Remarque 1.31 :
Attention, la réunion de sous-groupes (même de seulement deux) n’est pas en général un sous-groupe. Voir exercices.

Définition 1.32 : sous-groupe engendré par une partie


Soit (G, ∗) un groupe et A une partie de G. L’intersection de tous les sous-groupes de G contenant A est un
sous-groupe de G, appelé sous-groupe engendré par A et noté hAi.
Proposition 1.33 : caractérisation du sous-groupe engendré par A
Soit (G, ∗) un groupe et A une partie de G. Alors hAi est, au sens de l’inclusion, le plus petit sous-groupe de G
contenant A.

Proposition 1.34 : description du sous-groupe engendré par une partie


Soit (G, ∗) un groupe et A une partie de G.
1. h∅i = {eG }.
2. Si A est non-vide alors

x ∈ G ; ∃n ∈ N∗ , ∃(α1 , . . . , αn ) ∈ (A ∪ A−1 )n , x = α1 ∗ · · · ∗ αn .

hAi =

En d’autres termes hAi est l’ensemble des éléments de G qui sont des produits finis d’éléments de A ou d’inverses
d’éléments de A.

Définition 1.35 : groupe monogène


1. Un groupe (G, ∗) est monogène lorsqu’il est engendré par un seul de ses éléments. En d’autres termes, il existe
g ∈ G tel que G = h{g}i. On note souvent G = hgi.
Dans ce cas tout élément g ∈ G tel que G = hgi est appelé générateur de G.
2. Un groupe est dit cyclique lorsqu’il est monogène et fini.

Exemple 1.36 :
1. (Z, +) est monogène, engendré par 1 ou −1.
2. ({±1}, ×) est cyclique, engendré par −1.
3. L’ensemble (Z/nZ, +) des classes modulo n est un groupe cyclique, engendré par la classe de n’importe quel
entier premier à n. Nous reviendrons à cet exemple au paragraphe 1.4.

1.2.4 Les sous-groupes du groupe (Z, +)


Théorème 1.37 : les sous-groupes de (Z, +)
Pour n ∈ Z, l’ensemble nZ des multiples de n est un sous-groupe de (Z, +). De plus, tout sous-groupe de (Z, +)
est de cette forme.

1.3 Morphisme de groupes (rappels de Sup)


1.3.1 Définition et premières propriétés (rappels de Sup)
Définition 1.38 : morphisme
Soit E et F deux ensembles munis de structures (lois).

Fénelon Sainte-Marie – La Plaine-Monceau 16/244 31 août 2022


CHAPITRE 1. STRUCTURES ALGÉBRIQUES USUELLES MP 2022-23

1. Un morphisme entre E et F est une application f : E → F respectant les structures, c’est-à-dire compatible
avec les lois de E et F .
2. Un endomorphisme de E est un morphisme de E vers E.

Remarque 1.39 :
Cette notion de morphisme sera étendue aux morphismes de groupes, d’anneaux, de corps, d’espaces vectoriels,
d’espaces topologiques. . . C’est une notion incontournable en mathématiques !
Définition 1.40 : morphisme de groupes
1. Un morphisme de groupes est un morphisme entre deux groupes. Plus précisément un morphisme entre les
groupes (G, ∗) et (H, >) est une application f : G → H telle que : ∀(x, y) ∈ G2 , f (x ∗ y) = f (x)>f (y).
On note en général f : (G, ∗) → (H, >) un morphisme entre (G, ∗) et (H, >).
2. De même notion d’endomorphisme de groupe.

Exemple 1.41 :
1. f : (R, +) → (R∗+ , ×), x 7→ ex , est un morphisme de groupes (abéliens).
2. g : (C, +) → (C, +), z 7→ z̄, est un morphisme de groupes (abéliens).
3. Le déterminant det : (GLn (R), ×) → (R∗ , ×) est un morphisme de groupes. (Attention Mn (R) n’est pas un
groupe pour × !)

Proposition 1.42 : image du neutre, de l’inverse, par un morphisme de groupes


Soit (G, ∗) et (H, >) deux groupes de neutres respectifs eG et eH . Soit f : G → H un morphisme de groupes.
Alors :
1. f (eG ) = eH .
2. ∀x ∈ G, f (x)−1 = f (x−1 ).

Proposition 1.43 : composition de morphismes de groupes


La composition de morphismes de groupes est un morphisme de groupes.

1.3.2 Noyau et image d’un morphisme (rappels de Sup)


Proposition 1.44 : image directe et image réciproque de sous-groupes par un morphisme
L’image directe et l’image réciproque de sous-groupes par un morphisme de groupes sont des sous-groupes.
Plus précisément soit f : (G, ∗) → (H, >) un morphisme de groupes, et G0 et H 0 des sous-groupes de G et H
respectivement. Alors f (G0 ) est un sous-groupe de H et f −1 (H 0 ) est un sous-groupe de G.

Définition 1.45 : noyau et image d’un morphisme


Soit f : (G, ∗) → (H, >) un morphisme de groupes.
1. On appelle noyau de f , noté Ker (f ), l’ensemble des antécédents par f de eH dans G :

Ker (f ) = f −1 ({eH }) = {x ∈ G ; f (x) = eH }.

C’est d’après la proposition précédente un sous-groupe de G.


2. On appelle image de f , noté Im (f ), l’ensemble des images par f des éléments de G :

Im (f ) = f (G) = {y ∈ H ; ∃x ∈ G, y = f (x)}.

C’est d’après la proposition précédente un sous-groupe de H.

Exemple 1.46 :

Fénelon Sainte-Marie – La Plaine-Monceau 17/244 31 août 2022


1.3. MORPHISME DE GROUPES (RAPPELS DE SUP) MP 2022-23

1. Considérons l’application trace tr : (Mn (R), +) → (R, +), réalisant un morphisme de groupes additifs.
Son noyau Ker ( tr ) = sln (R) est constitué des matrices de trace nulle.
2. Considérons l’application déterminant det : (GLn (R), ×) → (R∗ , ×), réalisant un morphisme de groupes multi-
plicatifs.
Son noyau Ker (det) = SLn (R) est constitué des matrices de déterminant 1, il est appelé groupe spécial linéaire.
3. Considérons la restriction det|O(E) du déterminant au groupe orthogonal O(E) d’un espace vectoriel eucli-
dien E (défini dans l’exemple 1.29). On définit SO(E) = Ker (det|O(E) ) = {f ∈ O(E) ; det(f ) = 1}, appelé
groupe spécial orthogonal de E ; c’est alors un sous-groupe de O(E).
4. La signature ε est un morphisme du groupe Sn des permutations sur l’ensemble {1, . . . , n} muni de la composition
à valeurs dans ({±1}, ×). Son noyau {σ ∈ Sn ; ε(σ) = 1} est de fait un sous-groupe de Sn , appelé groupe alterné.

Attention : un noyau n’est jamais vide ! En effet il contient toujours au moins eG .


Théorème 1.47 : caractérisation des morphismes injectifs/surjectifs
Soit f : (G, ∗) → (H, >) un morphisme de groupes.
1. f est injective si et seulement si Ker (f ) = {eG }.
2. f est surjective si et seulement si Im (f ) = H.

1.3.3 Isomorphisme de groupes (rappels de Sup)


Définition 1.48 : isomorphisme, automorphismes de groupes
Soit (G, ∗) et (H, >) deux groupes.
1. Un isomorphisme de groupes entre G et H est un morphisme de groupes bijectif entre G et H.
2. Un automorphisme de groupe de G est un endomorphisme de G bijectif.

Exemple 1.49 :
Les groupes (R∗+ , ×) et (R, +) sont isomorphes via ln.
Théorème 1.50 : réciproque d’un isomorphisme de groupes
La bijection réciproque d’un isomorphisme de groupes est elle-même un isomorphisme de groupes.

1.3.4 Exemple fondamental : le groupe symétrique (rappels de Sup)


Soit E un ensemble de cardinal n ∈ N∗ . Rappelons qu’une permutation de E est une bijection de E dans E.
L’ensemble des permutations de E est noté SE ou Bij(E). L’ensemble E étant de cardinal n, li est en bijection avec
[[1, n]] donc il est équivalent d’étudier l’ensemble Sn des permutations de [[1, n]].
On représente usuellement une permutation par la liste des éléments de [[1, n]] en-dessous de laquelle on indique
l’image de chaque élément.
Exemple 1.51 : !
1 2 3 4 5 6
La notation σ = désigne l’application σ telle que σ(1) = 3, σ(2) = 2, σ(3) = 1, σ(4) = 6,
3 2 1 6 4 5
σ(5) = 4 et σ(6) = 5.
Proposition 1.52 : le groupe des permutations
L’ensemble Sn est un groupe pour la composition, non abélien dès que n ≥ 3.

L’ordre de la permutation σ est le plus petit entier naturel k non nul tel que σ k = Id.
Supposons n ≥ 2. On appelle transposition une permutation qui échange deux éléments distincts et qui laisse les
autres invariants. On la note usuellement (i j). Une transposition est d’ordre 2, elle est son propre inverse : c’est une
involution.

Fénelon Sainte-Marie – La Plaine-Monceau 18/244 31 août 2022


CHAPITRE 1. STRUCTURES ALGÉBRIQUES USUELLES MP 2022-23

Théorème 1.53 : les transpositions engendrent le groupe symétrique


Pour n ≥ 2, toute permutation de [[1, n]] est un produit de transpositions.
Remarque 1.54 :
Il n’y a pas unicité de la décomposition en produit de transpositions. Pire, le nombre de transpositions nécessaires
n’est pas constant ! Par contre nous verrons que la parité de ce nombre de transpositions est caractéristique de la
permutation.
σ(i) − σ(j)
Une inversion de la signature σ est une paire {i, j} d’éléments de [[1, n]] telle que < 0, c’est-à-dire telle
i−j
que σ(i) et σ(j) sont rangés dans l’ordre inverse de celui de i et j.
Exemple 1.55 : !
1 2 3 4
Les inversions de la permutation sont {1, 4}, {2, 3}, {2, 4}, {3, 4}.
2 4 3 1
On dit qu’une permutation est paire ou impaire selon que son nombre d’inversions est pair ou impair. Pour
représenter la parité d’une permutation σ, on définit sa signature : ε(σ) = (−1)i(σ) , où i(σ) est le nombre d’inversions
de σ. La signature d’une permutation paire est +1, celle d’une permutation impaire est −1. On définit ainsi une
application ε : Sn → {−1, 1}n , σ 7→ ε(σ). On démontre alors le résultat suivant :
Théorème 1.56 : la signature est un morphisme de groupes
La signature est un morphisme de groupes ε : (Sn , ◦) → ({±1}, ×). En d’autres termes la signature d’un produit
de permutations est égale au produit de leurs signatures.
Ce résultat a de multiples applications :
Proposition 1.57 : propriétés des permutations

• La composée de deux permutations de même parité est paire. La composition de deux permutations de parités
différentes est impaire.
• Une permutation et son inverse ont même signature.
• L’ensemble des permutations paires est le noyau du morphisme ε.
C’est un sous-groupe de Sn , appelé groupe alterné, noté An .
• Une transposition est une permutation impaire, de signature −1.
• Le produit de k transpositions est de signature (−1)k .
• La décomposition en produit de transpositions peut être utilisée pour déterminer la signature d’une permutation.

Un cycle est une permutation c de [[1, n]] telle qu’il existe (a1 , . . . , ak ) ∈ [[1, n]]k telle que :
• Pour tout i ∈ [[1, k − 1]], c(ai ) = ai+1 .
• c(ak ) = a1 .
• La permutation c laisse invariants les entiers autres que les ai : pour tout j ∈ [[1, n]] \ {a1 , . . . , ak }, c(j) = j.
Ce cycle sera noté c = (a1 a2 · · · ak ). L’entier k est la longueur du cycle c. L’ensemble {a1 , . . . , ak } est le support du
cycle. On démontre enfin que :
Proposition 1.58 : signature d’un cycle
La signature d’un cycle de longueur k est (−1)k−1 . En d’autres termes un cycle de longueur paire est une permu-
tation impaire et un cycle de longueur impaire est une permutation paire.

1.4 Groupe monogène, groupe cyclique, le groupe Z/nZ


Nous développons l’exemple 1.36.

Fénelon Sainte-Marie – La Plaine-Monceau 19/244 31 août 2022


1.4. GROUPE MONOGÈNE, GROUPE CYCLIQUE, LE GROUPE Z/N Z MP 2022-23

1.4.1 Relation d’équivalence


Définition 1.59 : relation d’équivalence
1. On appelle relation d’équivalence dans un ensemble E une relation binaire R dans E qui est :
• réflexive : ∀x ∈ E, xRx ;
• symétrique : ∀(x, y) ∈ E 2 , xRy ⇒ yRx ;
• transitive : ∀(x, y, z) ∈ E , (xRy ∧ yRz)
3
⇒ xRz.
2. On appelle classe d’équivalence d’un élément l’ensemble des éléments qui sont en relation avec lui :

cl x = cl(x) = x = {y ∈ E ; xRy}.

On appelle représentant de la classe cl(x) tout élément y tel que y ∈ cl(x).

Exemple 1.60 :
Le parallélisme de droites, l’égalité d’objets, sont deux relations d’équivalence.
Proposition 1.61 : classes d’équivalences et partition d’un ensemble
1. Les classes d’équivalence forment une partition de l’ensemble :
• Aucune classe n’est vide : cl(x) 6= ∅ puisque x ∈ cl(x).
• Deux classes distinctes sont disjointes : si cl(x) 6= cl(y) alors cl(x) ∩ cl(y) = ∅ (démonstration par contrapo-
sée).
De façon équivalente : deux classes sont soit disjointes, soit confondues.
[
• La réunion de toutes les classes est égales à E : pour tout x ∈ E, on a x ∈ cl(x) donc x ∈ cl(y).
y∈E

2. Réciproquement, toute partition définit une relation d’équivalence : « appartenir à la même partie de la parti-
tion » .

Application :
Théorème 1.62 : Lagrange
Dans un groupe fini, le cardinal d’un sous-groupe divise le cardinal du groupe.

1.4.2 Congruence
Soit n ∈ N.
Définition 1.63 : entiers congrus
Deux entiers relatifs a et b sont dits congrus modulo n lorsque a − b ∈ nZ. On écrit a ≡ b [n] ou a = b mod n.
Proposition 1.64 : la relation de congruence modulo n
La relation de congruence modulo n est une relation d’équivalence.

Remarquons que si n > 0, alors a et b sont congrus modulo n si et seulement si ils ont le même reste dans la
division euclidienne par n. Il y a donc exactement n classes d’équivalence.
Définition 1.65 : l’ensemble Z/nZ
L’ensemble des classes d’équivalence modulo n est par définition :

Z/nZ = {cl(0), cl(1), . . . , cl(n − 1)}.

Fénelon Sainte-Marie – La Plaine-Monceau 20/244 31 août 2022


CHAPITRE 1. STRUCTURES ALGÉBRIQUES USUELLES MP 2022-23

1.4.3 Le groupe quotient Z/nZ


La relation de congruence modulo n est clairement compatible avec l’addition, c’est-à-dire que a ≡ b [n] et a0 ≡ b0 [n]
implique a + a0 ≡ b + b0 [n].
Définissons une addition dans Z/nZ de la façon suivante. Soit A et B deux éléments de Z/nZ. Choisissons a et b deux
représentants de ces classes, c’est-à-dire (a, b) ∈ Z2 tel que A = cl(a) et B = cl(b). On définit alors A + B = cl(a + b).
Proposition 1.66 : l’addition sur Z/nZ
Cette définition ne dépend pas des représentants choisis dans les deux classes.

Ceci nous permet d’affirmer que nous avons bien défini une loi de composition interne sur Z/nZ.
Théorème 1.67 : le groupe quotient (Z/nZ, +)
L’ensemble Z/nZ est un groupe abélien pour la loi + définie par cl(a) + cl(b) = cl(a + b).

Exemple 1.68 :
La table de Z/4Z est la suivante :
+ 0 1 2 3
0 0 1 2 3
1 1 2 3 0
2 2 3 0 1
3 3 0 1 2

Proposition 1.69 : la surjection canonique Z → Z/nZ


L’application cl : a 7→ cl(a) est un morphisme surjectif de (Z, +) dans (Z/nZ, +), appelé surjection canonique.
Le noyau de la surjection canonique est cl(0), c’est-à-dire nZ.

1.4.4 Éléments générateurs du groupe (Z/nZ, +)


Théorème 1.70 : les générateurs du groupe (Z/nZ, +)
Les générateurs du groupe (Z/nZ, +) sont les classes cl(k) où k est un entier premier avec n.

Application : racines n-ièmes primitives de l’unité.

1.4.5 Produit des groupes (Z/nZ, +) et (Z/pZ, +)


Théorème 1.71 : produit des groupes Z/nZ et Z/pZ
Soit (n, p) ∈ N2 . Si n et p sont premiers entre eux, alors les groupes Z/nZ × Z/pZ et Z/npZ sont isomorphes.

Corollaire 1.72 : théorème chinois


Si n et p sont premiers entre eux, alors le système de congruences :
(
x ≡ a [n]
x ≡ b [p]

admet au moins une solution c dans Z. L’ensemble des solutions est la classe de c modulo np.

Corollaire 1.73 : théorème chinois généralisé


Le théorème chinois se généralise à un système de r équations. Considérons des nombres ni et ai , pour 1 ≤ i ≤ r.
Supposons que d’une part les ni sont premiers entre eux, et d’autre part que pgcd(ai , ni ) = 1 pour tout i.
Alors le système de congruences ai x ≡ bi [ni ] admet au moins une solution c dans Z. L’ensemble des solutions est
Yr
la classe de c modulo ni .
i=1

Fénelon Sainte-Marie – La Plaine-Monceau 21/244 31 août 2022


1.4. GROUPE MONOGÈNE, GROUPE CYCLIQUE, LE GROUPE Z/N Z MP 2022-23

Méthode :
1. On commence à se ramener à x ≡ ci [ni ] (possible car ai est inversible modulo ni ). Ceci se fait à la main ou avec
l’algorithme d’Euclide.
Y
2. On pose Mi = nj puis on résout Mi yi = 1 [ni ] (à la main ou algo d’Euclide).
j6=i
r
X
3. On pose enfin x = ci Mi yi .
i=1
Exemple 1.74
( :
2x = 1 [3]
Résoudre . On obtient x = 11.
5x = 3 [4]

1.4.6 Ordre d’un élément dans un groupe


L’objectif de cette sous-section est de déterminer tous les groupes monogènes, finis ou infinis, puis de définir l’ordre
d’un élément.
Soit G un groupe et a un élément de G. L’application

Z −→ G, k 7−→ ak

(en notation multiplicative) ou k 7→ ka (en notation additive) est un morphisme de groupes.


On a déjà vu que son image est le sous-groupe engendré par a, noté hai ; c’est l’ensemble des éléments de G de la
forme ak (ou ka en notation additive). Considérons désormais le morphisme restreint à l’arrivée

Z −→ hai, k 7−→ ak ,

il est donc surjectif. Le noyau de ce morphisme est un sous-groupe de Z, donc de la forme nZ d’après le théorème 1.37.
Deux cas peuvent se produire :
• Si n = 0, alors le morphisme est aussi injectif. Le groupe hai est ainsi isomorphe à Z.
• Si n > 0, alors ak = e équivaut à k ∈ nZ : ainsi n est le plus petit entier strictement positif tel que an = e. Le
sous-groupe engendré par a est par conséquent : hai = {e, a, a2 , · · · , an−1 }, ou hai = {0, a, 2a, · · · , (n − 1)a} en
notation additive. Il est de fait isomorphe à Z/nZ.
L’entier n est appelé ordre de l’élément a.
Définition 1.75 : ordre d’un élément d’une groupe
Le plus petit entier naturel non nul n tel que an = e (s’il existe) est appelé ordre de a, noté o(a). C’est l’ordre du
groupe engendré par a.
On dit aussi que a est fini d’ordre n.
Nous venons de démontrer la :
Proposition 1.76 : description des groupes monogènes
1. Tout groupe monogène infini est isomorphe à Z.
2. Tout groupe monogène fini (on dit cyclique) d’ordre n est isomorphe à Z/nZ.

Exemple 1.77 :
Le groupe Un = {z ∈ C ; z n = 1} est engendré par e2iπ/n ; il est d’ordre n, donc isomorphe à Z/nZ.
Remarque 1.78 :
On vient de prouver au passage que si un élément a est fini d’ordre n, alors pour tout entier k : ak = 1G si et
seulement si n divise k.
On déduit de cette remarque et du théorème 1.62 le :
Théorème 1.79 : ordre d’un élément et cardinal du groupe

Fénelon Sainte-Marie – La Plaine-Monceau 22/244 31 août 2022


CHAPITRE 1. STRUCTURES ALGÉBRIQUES USUELLES MP 2022-23

L’ordre d’un élément d’un groupe fini divise le cardinal du groupe.

EPCC : aucun !

The end – chapitre 1

Fénelon Sainte-Marie – La Plaine-Monceau 23/244 31 août 2022


1.4. GROUPE MONOGÈNE, GROUPE CYCLIQUE, LE GROUPE Z/N Z MP 2022-23

Fénelon Sainte-Marie – La Plaine-Monceau 24/244 31 août 2022


Chapitre 2

Anneaux, corps, algèbres

2.1 Structures d’anneau, de corps


2.1.1 Définition d’un anneau et exemples fondamentaux (rappel de Sup)
Définition 2.1 : structure d’anneau
Soit A un ensemble muni de deux LCI notées + et ×. On dit que (A, +, ×) est un anneau (unitaire) lorsque :
1. (A, +) est un groupe abélien ; son neutre est noté 0A .
2. La loi × est associative.
3. La loi × est distributive par rapport à la loi +.
4. La loi × admet un élément neutre, noté 1A et appelé élément unité de A.
Si de plus la loi × est commutative on dit que (A, +, ×) est un anneau commutatif.
Moyen mnémotechnique : CANIS + DANI.
Remarque 2.2 :
Dans un anneau (A, +, ×) on note −x le symétrique de x pour +.
Attention : a priori un élément n’a pas de symétrique pour ×, donc la notation x−1 n’a pas de sens en général.
Exemple 2.3 :
1. (Z, +, ×) est un anneau commutatif unitaire.
2. (RR , +, ×) est un anneau commutatif unitaire, d’unité la fonction constante de valeur 1.
3. Mn (R) est un anneau unitaire, non commutatif si n > 1.
4. (2Z, +, ×) est un anneau commutatif non unitaire.
( ! )
a b
5. ; (a, b) ∈ Z2 est un anneau non unitaire et non commutatif.
0 0

2.1.2 Règles de calcul dans un anneau, groupe des éléments inversibles (rappel de Sup)
Proposition 2.4 : règles de calcul dans un anneau (rappel de Sup)
Soit (A, +, ×) un anneau.
1. 0A est un élément absorbant : ∀a ∈ A, a × 0A = 0A × a = 0A .
2. ∀a ∈ A, (−1A ) × a = a × (−1A ) = −a.
3. ∀(a, b) ∈ A2 , (−a) × b = a × (−b) = −ab.
4. ∀(a, b, c) ∈ A3 , (a − b) × c = ac − bc ∧ c(a − b) = ca − cb.

25
2.1. STRUCTURES D’ANNEAU, DE CORPS MP 2022-23

Notations : dans un anneau (A, +, ×) on note pour a ∈ A et n ∈ N :



 |a + a +
 · · · + a si n 6= 0
1. na = .
{z }
n fois
0A si n = 0

2. (−n)a = n(−a) = (−a) + · · · + (−a) si n 6= 0.


| {z }
n fois

 |a × a ×
 · · · × a si n 6= 0
3. an = .
{z }
n fois
1A si n = 0

Attention ! a−n n’a pas de sens si a n’est pas inversible pour ×.


Théorème 2.5 : binôme de Newton (rappel de Sup)
Dans un anneau (A, +, ×), lorsque deux éléments a et b commutent on a la formule suivante :
n  
X n
∀n ∈ N, (a + b)n = ak bn−k .
k
k=0

Théorème 2.6 : formules de factorisation (rappel de Sup)


Soit (A, +, ×) un anneau.
1. ∀a ∈ A, ∀n ∈ N, ! !
n−1
X n−1
X
n k k
1−a = (1 − a) a = a (1 − a).
k=0 k=0

2. ∀a ∈ A, ∀p ∈ N,
2p 2p
! !
X X
1 + a2p+1 = (1 + a) (−a)k = (−a)k (1 + a).
k=0 k=0

3. ∀a ∈ A, ∀n ∈ N∗ , ∀(b1 , . . . , bn ) ∈ An ,
n n
! n n
!
X X X X
abi = a bi ∧ bi a = bi a.
i=1 i=1 i=1 i=1

2
4. ∀(n, p) ∈ (N∗ ) , ∀(a1 , . . . , an ) ∈ An , ∀(b1 , . . . , bp ) ∈ Ap ,
  ! 
p p
n n
! n n
X X X X X X
 ai bj  = ai bj = ai  bj  .
i=1 j=1 j=1 i=1 i=1 j=1

5. Formule de Bernoulli. Si ab = ba alors :


n−1
!
X
∗ n n n−1 n−2 n−2 n−1 k n−k−1

∀n ∈ N , a −b = (a − b) a +a b + · · · + ab +b = (a − b) a b .
k=0

Proposition 2.7 : groupe des éléments inversibles d’un anneau (rappel de Sup)
L’ensemble des éléments inversibles d’un anneau est un groupe pour le produit.
En d’autres termes : si A est un anneau alors, en notant U(A) l’ensemble de ses éléments inversibles, le couple
(U(A), ×) est un groupe.

Définition 2.8 : éléments associés


Deux éléments d’un anneau sont associés lorsqu’ils sont égaux à multiplication près par un inversible.

Fénelon Sainte-Marie – La Plaine-Monceau 26/244 31 août 2022


CHAPITRE 2. ANNEAUX, CORPS, ALGÈBRES MP 2022-23

Exemple 2.9 :
• Les inversibles de Z étant 1 et −1, on en déduit que tout entier est associé à un entier naturel et un seul.
• Les inversibles de Z[i] étant 1, −1, i et −i, on en déduit que 1 + 2i et i − 2 sont associés.
• Les inversibles de K[X] étant les éléments non-nuls de K, on en déduit que tout polynôme est associé à un
polynôme unitaire et un seul.

2.1.3 Sous-anneau (rappel de Sup)


Définition 2.10 : sous-anneau
On considère un anneau (A, +, ×) et une sous-partie A0 de A. On dit que la partie A0 est un sous-anneau de A
lorsque :
1. (A0 , +) est un sous-groupe de (A, +).
2. La partie A0 est stable pour la loi × : ∀(a, b) ∈ A02 , ab ∈ A0 .
3. L’élément unité de A est dans A0 : 1A ∈ A0 .

Théorème 2.11 : caractérisation d’un sous-anneau


Soit (A, +, ×, 1A ) un anneau unitaire. Une partie A0 de A est un sous-anneau de A si et seulement si :
(i) 1A ∈ A0 .
(ii) ∀(a, b) ∈ A02 , a − b ∈ A0 .
(iii) ∀(a, b) ∈ A02 , a × b ∈ A0 .

Exemple 2.12 :
1. L’ensemble Z est un sous-anneau de R.
2. L’ensemble Z[i] est un sous-anneau de C, appelé anneau des entiers de Gauss.
3. L’ensemble des application continues de R dans R est un sous-anneau de l’anneau des applications de R dans R.
4. L’ensemble des suites bornées, l’ensemble des suites périodiques, sont des sous-anneaux de RN .

2.1.4 Produit d’anneaux


Théorème 2.13 : produit de deux anneaux
Soit (A, +A , ×A , 1A ) et (B, +B , ×B , 1B ) deux anneaux unitaires. On définit deux lois de composition interne + et
× sur A × B en posant :

∀(a1 , a2 ) ∈ A2 , ∀(b1 , b2 ) ∈ B 2 , (a1 , b1 ) + (a2 , b2 ) = (a1 +A a2 , b1 +B b2 ), (a1 , b1 ) × (a2 , b2 ) = (a1 ×A a2 , b1 ×B b2 ).

Alors (A × B, +, ×, (1A , 1B )) est un anneau unitaire. appelé anneau produit.

On effectue de même le produit d’un nombre fini d’anneaux.

2.1.5 Morphisme d’anneaux


Définition 2.14 : morphisme d’anneaux
Soit (A, +, ×) et (B, +, ×) deux anneaux.
1. Un morphisme d’anneaux est une application f : A → B respectant les structures d’anneaux, c’est-à-dire véri-
fiant :
∀(a, b) ∈ A2 , f (a + b) = f (a) + f (b) ∧ f (a × b) = f (a) × f (b) et f (1A ) = 1B .
Lorsque A = B, on parle d’endomorphisme de l’anneau A.

Fénelon Sainte-Marie – La Plaine-Monceau 27/244 31 août 2022


2.1. STRUCTURES D’ANNEAU, DE CORPS MP 2022-23

2. Un morphisme d’anneaux bijectif est appelé isomorphisme d’anneaux.


Lorsque A = B, on parle d’automorphisme de l’anneau A.

Exemple 2.15 :
Si a est un élément inversible de l’anneau A, alors l’application ϕa : x 7→ axa−1 est un automorphisme d’anneau
de A, appelé automorphisme intérieur. Sa bijection réciproque est ϕa−1 .
Proposition 2.16 : image directe et image réciproque de sous-anneaux par un morphisme
L’image directe et l’image réciproque de sous-anneaux par un morphisme d’anneaux sont des sous-sous-anneaux.
Plus précisément soit f : A → B un morphisme d’anneaux, et A0 et B 0 des sous-anneaux de A et B respectivement.
Alors f (A0 ) est un sous-anneau de B et f −1 (B 0 ) est un sous-anneau de A.

Définition 2.17 : noyau et image d’un morphisme d’anneaux


Soit f : A → B un morphisme d’anneaux.
1. On appelle noyau de f , noté Ker (f ), l’ensemble des antécédents par f de 0B dans A :

Ker (f ) = f −1 ({0B }) = {x ∈ A ; f (x) = 0B }.

Ce n’est pas un sous-anneau de A car il ne contient pas AA .


2. On appelle image de f , noté Im (f ), l’ensemble des images par f des éléments de A :

Im (f ) = f (A) = {y ∈ B ; ∃x ∈ A, y = f (x)}.

C’est d’après la proposition précédente un sous-anneau de B.

Attention : un noyau n’est jamais vide ! En effet il contient toujours au moins 0A .


Théorème 2.18 : caractérisation des morphismes injectifs/surjectifs
Soit f : A → B un morphisme d’anneaux.
1. f est injective si et seulement si Ker (f ) = {0A }.
2. f est surjective si et seulement si Im (f ) = B.

Théorème 2.19 : réciproque d’un isomorphisme d’anneaux


La bijection réciproque d’un isomorphisme d’anneaux est elle-même un isomorphisme d’anneaux.

2.1.6 Intégrité, corps (rappel de Sup)


Définition 2.20 : diviseurs de zéro, anneau intègre
Soit (A, +, ×) un anneau.
1. Lorsqu’il existe des éléments a et b de A non-nuls tels que ab = 0A , on dit que a et b sont des diviseurs de zéro.
2. L’anneau A est intègre lorsque :
(a) A 6= {0A }.
(b) × est commutative.
(c) Il n’y a pas de diviseur de zéro : ∀(a, b) ∈ A2 , ab = 0 =⇒ (a = 0) ∨ (b = 0).
Ceci équivaut à : si a 6= 0 et b 6= 0 alors ab 6= 0.

Exemple 2.21 :
1. (Z, +, ×) est un anneau intègre.
2. Dans l’anneau (RR , +, ×) il y a des diviseurs de zéro. En effet les fonctions f = 1[−2,−1] et g = 1[1,2] , indicatrices
de [−2, −1] et [1, 2] respectivement, sont non-nulles mais de produit nul.

Fénelon Sainte-Marie – La Plaine-Monceau 28/244 31 août 2022


CHAPITRE 2. ANNEAUX, CORPS, ALGÈBRES MP 2022-23

! ! !
0 1 0 1 0 0
3. M2 (R) admet des diviseurs de zéro : × = . On généralise sans problème à
0 0 0 0 0 0
Mn (R).

Définition 2.22 : structure de corps


Un ensemble K muni de deux LCI + et × est un corps lorsque :
1. (K, +, ×) est un anneau.
2. 0K 6= 1K .
3. Tout élément de K \ {0} admet un inverse pour × dans K.
Si de plus la loi × est commutative alors le corps (K, +, ×) est commutatif.
Théorème 2.23 : caractérisation d’un corps
L’ensemble K muni de deux LCI + et × est un corps si et seulement si :
(i) Le couple (K, +) est un groupe abélien.
(ii) Le couple (K \ {0K }, ×) est un groupe abélien.
(iii) La loi × est distributive par rapport à la loi +.

Exemple 2.24 :
• Les ensembles C, R, Q pour les lois + et × usuelles sont des corps commutatifs.
• Z est un anneau commutatif unitaire intègre, mais ce n’est pas un corps car par exemple 2 n’a pas de symétrique
pour × (i.e. n’admet pas d’inverse).
• K[X] n’est pas un corps car un polynôme non constant n’a pas d’inverse dans K[X].

Remarque 2.25 :
1. Dans la suite, tous les corps qui interviendront seront commutatifs.
2. Tout corps commutatif est un anneau intègre. La réciproque est fausse : (Z, +, ×) est intègre mais pas un corps.

Définition 2.26 : sous-corps


Soit (K, +, ×) un corps et L une partie de K. On dit que L est un sous-corps de K lorsque :
1. L est un sous-anneau de K.
2. ∀x ∈ L \ {0K }, x−1 ∈ L.
Ou encore :
(i) ∀(x, y) ∈ L2 , x − y ∈ L.
(ii) ∀(x, y) ∈ L2 , xy ∈ L.
(iii) 1K ∈ L.
(iv) ∀x ∈ L \ {0K }, x−1 ∈ L.

Exemple 2.27 :
• Q est un sous-corps de R, qui est un sous-corps de C (pour les lois + et × usuelles).
√ √
• L’ensemble Q[ 2] = {a + b 2 ; (a, b) ∈ Q2 } est un sous-corps de R.

Remarque 2.28 :
1. Tout sous-corps L d’un corps K est un corps pour les lois induites. Les neutres de L pour + et × sont ceux de
K.
2. Le plus petit sous-corps de C est Q.
En effet soit k un sous-corps de C. Alors 1 ∈ k, donc Z ⊂ k d’après (i), puis Q ⊂ k d’après (ii) et (iv).

Proposition 2.29 : anneau intègre fini


Tout anneau intègre fini est un corps.

Fénelon Sainte-Marie – La Plaine-Monceau 29/244 31 août 2022


2.2. IDÉAL D’UN ANNEAU COMMUTATIF MP 2022-23

2.2 Idéal d’un anneau commutatif


2.2.1 Définition et premières propriétés
Soit (A, +, ×) un anneau commutatif.
Définition 2.30 : structure d’idéal
On appelle idéal de A une partie I de A telle que :
• (I, +) est un sous-groupe de (A, +) ;
• I est stable par la multiplication par un élément quelconque de A : ∀x ∈ I, ∀a ∈ A, ax ∈ I.

Exemple 2.31 :
L’ensemble 2Z des entiers pairs est un idéal de l’anneau Z des entiers.
Plus généralement, les nZ sont des idéaux de l’anneau Z. Nous verrons dans le théorème 2.36 qu’il n’y en a pas
d’autre.
Proposition 2.32 : images directe et réciproque d’un idéal par un morphisme d’anneaux
Soit f un morphisme d’anneaux de A dans A0 (A et A0 anneaux commutatifs).
1. L’image directe d’un idéal de A est un idéal du sous-anneau f (A).
2. L’image réciproque d’un idéal de A0 est un idéal de A. En particulier Ker f est un idéal de A.

Remarque 2.33 :
Pourquoi anneau commutatif ?
Sinon, on parle d’idéal à gauche (∀i ∈ I, ∀a ∈ A, ia ∈ I) ou d’idéal à droite ∀i ∈ I, ∀a ∈ A, ai ∈ I).
Définition 2.34 : idéal engendré par un élément
L’ensemble xA = {xa ; a ∈ A} des multiples d’un élément x de A est un idéal, appelé idéal engendré par x. On
peut aussi le noter (x).
Remarque 2.35 :
La relation « divise » se ramène à une inclusion des idéaux engendrés : x divise y si et seulement si (y) ⊂ (x).

2.2.2 Idéaux de Z
Théorème 2.36 : idéaux de Z
Les idéaux de l’anneau Z sont les nZ, pour n ∈ Z (on dit que l’anneau Z est principal).

Étant donné deux entiers a et b, l’idéal engendré par {a, b} est :

aZ + bZ = {au + bv ; (u, v) ∈ Z2 }

Définition 2.37 : PGCD d’élément de Z


L’unique générateur positif de l’idéal aZ + bZ est appelé plus grand commun diviseur (PGCD) de a et b et noté
a ∧ b ou PGCD(a, b) :
aZ + bZ = (a ∧ b)Z.

Autrement dit l’ensemble des entiers de la forme au + bv est l’ensemble des multiples de a ∧ b.
En particulier :
Théorème 2.38 : Bézout
PGCD(a, b) = 1 si et seulement si : ∃(u, v) ∈ Z2 , au + bv = 1.

On a vu en Première Année les corollaires de ce théorème :

Fénelon Sainte-Marie – La Plaine-Monceau 30/244 31 août 2022


CHAPITRE 2. ANNEAUX, CORPS, ALGÈBRES MP 2022-23

• (Lemme de Gauss) Si un entier divise le produit de deux entiers, et s’il est premier avec l’un, alors il divise
l’autre :
( a | bc et pgcd(a, b) = 1 ) =⇒ a | c.

• Si un entier est divisible par les éléments d’une famille d’entiers premiers entre eux deux à deux, alors il est
divisible par leur produit :

(∀i ∈ [[1, n]], ai |b) et (∀(i, j) ∈ [[1, n]]2 , i 6= j ⇒ pgcd(ai , aj ) = 1) =⇒ a1 × · · · × an |b.

• Si un entier est premier avec les éléments d’une famille d’entiers, il est premier avec leur produit :

(∀i ∈ [[1, n]], pgcd(a, bi ) = 1) =⇒ pgcd(a, b1 × · · · × bn ) = 1.

• Si deux entiers sont premiers entre eux, il en est de même de toutes puissances de ces deux entiers :

pgcd(a, b) = 1 =⇒ ∀(n, m) ∈ N2 , pgcd(an , bm ) = 1.

Définition 2.39 : PPCM d’éléments de Z


Soit (a, b) ∈ Z2 . Le générateur positif de l’idéal aZ ∩ bZ est appelé plus petit commun multiple (PPCM) de a et b :

aZ ∩ bZ = (a ∨ b)Z = ppcm(a, b)Z.

Proposition 2.40 : lien entre pgcd et ppcm (rappel de Sup)


Soit (a, b) ∈ Z2 . Alors pgcd(a, b) × ppcm(a, b) = |a| × |b|.

2.3 L’anneau Z/nZ


2.3.1 Multiplication dans Z/nZ
Prouvons que la relation de congruence modulo n est compatible avec la multiplication, c’est-à-dire que a ≡ b [n]
et a0 ≡ b0 [n] implique aa0 ≡ bb0 [n].
Définissons un produit dans Z/nZ de la façon suivante. Soit A et B deux éléments de Z/nZ. Choisissons a et b
deux représentants de ces classes, c’est-à-dire (a, b) ∈ Z2 tel que A = cl(a) et B = cl(b). On définit alors : AB = cl(ab).
Proposition 2.41 : le produit sur Z/nZ
Cette définition ne dépend pas des représentants choisis dans les deux classes.

Ceci nous permet d’affirmer que nous avons bien défini une loi de composition interne sur Z/nZ. Ceci est la base
de la démonstration du :
Théorème 2.42 : l’anneau quotient Z/nZ
L’ensemble (Z/nZ, +, ×) muni des lois cl(a) + cl(b) = cl(a + b) et cl(a) × cl(b) = cl((ab) est un anneau commutatif
unitaire.

Exemple 2.43 :
La table de multiplication de Z/4Z est la suivante :

× 0 1 2 3
0 0 0 0 0
1 0 1 2 3
2 0 2 0 2
3 0 3 2 1

Fénelon Sainte-Marie – La Plaine-Monceau 31/244 31 août 2022


2.3. L’ANNEAU Z/N Z MP 2022-23

On constate que Z/4Z n’est pas intègre : 2 × 2 = 0. Les éléments inversibles sont 1 et 3, ils sont leurs propres inverses.

On remarque alors que la surjection canonique a 7→ cl(a) de Z dans Z/nZ est un morphisme d’anneaux surjectif.
Théorème 2.44 : produit des anneaux Z/nZ et Z/pZ
Soit (n, p) ∈ N2 . Si n et p sont premiers entre eux, alors les anneaux Z/nZ × Z/pZ et Z/(np)Z sont isomorphes.

2.3.2 Éléments inversibles de l’anneau Z/nZ


Théorème 2.45 : éléments inversibles de l’anneau Z/nZ
L’élément cl(k) est inversible dans Z/nZ pour × si et seulement si k est premier avec n.

Remarque 2.46 :
Le calcul de l’inverse d’une classe dans Z/nZ se ramène à l’algorithme d’Euclide. Déterminons par exemple l’inverse
de 5 dans Z/14Z. On a 14 = 5 × 2 + 4 et 5 = 4 × 1 + 1 donc 1 = 5 − 4 = 5 − (14 − 5 × 2) = 5 × 3 + (−1) × 14. Par
−1
conséquent 5 = 3 dans Z/14Z.
Remarque 2.47 :
D’après la proposition 2.7, l’ensemble (U(Z/nZ), ×) des inversibles pour × de l’anneau Z/nZ est un groupe.
Définition 2.48 : fonction indicatrice d’Euler
On appelle fonction indicatrice d’Euler la fonction ϕ : N → N qui à n associe le nombre ϕ(n) d’entiers de l’intervalle
[[1, n]] premiers avec n.
D’après le théorème précédent ϕ(n) est le cardinal du groupe des éléments inversibles de l’anneau (Z/nZ, +, ×).
En particulier ϕ(p) = p − 1 si p est premier .
Corollaire 2.49 : un théorème d’Euler
ϕ(n)
Pour tout entier k premier avec n, on a k = 1.
En particulier, pour tout entier relatif x premier avec n, on a xϕ(n)+1 ≡ x mod n.

Corollaire 2.50 : CNS pour que Z/nZ soit un corps


L’anneau Z/nZ est un corps si et seulement si n est premier.

Corollaire 2.51 : petit théorème de Fermat


Si p est un nombre premier, alors pour tout entier relatif x : xp ≡ x mod p.

2.3.3 Calcul de l’indicatrice d’Euler d’un entier


Théorème 2.52 : calcul de l’indicatrice d’Euler
Si n et m sont des entiers relatifs premiers entre eux, alors ϕ(nm) = ϕ(n)ϕ(m).

Pour connaître l’indicatrice d’Euler d’un entier n, il suffit donc de calculer celle des puissances de nombres premiers
figurant dans la décomposition de n.
Si p est un nombre premier, alors les entiers de [[1, pk ]] premiers avec pk sont ceux qui sont premiers avec p, c’est-
à-dire tous ceux qui ne sont pas des multiples de p. Il y a ainsi exactement pk−1 éléments non inversibles modulo p
dans [[1, pk ]] (car multiples de p), à savoir : 1 × p, 2 × p, . . . , pk−1 × p. Par conséquent :

ϕ(pk ) = pk − pk−1 = pk−1 (p − 1).


k
On en déduit que si n se décompose en produit de facteurs premiers sous la forme n = pk11 pk22 · · · pq q , alors son
indicatrice d’Euler est donnée par :

ϕ(n) = pk11 −1 (p1 − 1)p2k2 −1 (p2 − 1) · · · pkq q −1 (pk − 1).

Fénelon Sainte-Marie – La Plaine-Monceau 32/244 31 août 2022


CHAPITRE 2. ANNEAUX, CORPS, ALGÈBRES MP 2022-23

2.4 Anneau des polynômes à une indéterminée


2.4.1 Idéaux de K[X]
Théorème 2.53 : les idéaux de K[X]
Les idéaux de l’anneau K[X] sont monogènes : pour tout idéal I de K[X], il existe un polynôme P tel que I = (P ).
(On dit que K[X] est principal).

2.4.2 PGCD et PPCM de polynômes, polynômes premiers entre eux


Soit P et Q deux polynômes de K[X]. L’ideal (P ) + (Q) engendré par {P, Q} est :

(P ) + (Q) = {U P + V Q ; (U, V ) ∈ K[X]2 }.

D’après le théorème 2.53, cet idéal admet un unique générateur unitaire.


Définition 2.54 : PGCD d’éléments de K[X]
L’unique générateur unitaire de l’idéal (P ) + (Q) est appelé plus grand commun diviseur (PGCD) de P et Q et
noté pgcd(P, Q) ou P ∧ Q :  
(P ) + (Q) = pgcd(P, Q) .

Autrement dit, l’ensemble des polynômes de la forme U P + V Q est l’ensemble des multiples du polynôme pgcd(P, Q).

En particulier :
Théorème 2.55 : Bézout
On a : pgcd(P, Q) = 1 si et seulement si ∃(U, V ) ∈ K[X]2 , U P + V Q = 1.
On a vu en Sup les corollaires de ce théorème :
• (Lemme de Gauss) Si un polynôme divise le produit de deux polynômes, et s’il est premier avec l’un, alors il
divise l’autre :
( P | QR ∧ pgcd(P, Q) = 1 ) =⇒ P | R.

• Si P est divisible par les éléments d’une famille de polynômes premiers entre eux deux à deux, alors il est divisible
par leur produit :

( ∀i ∈ [[1, n]] Pi | P ) ∧ ( ∀(i, j) ∈ [[1, n]]2 i 6= j ⇒ pgcd(Pi , Pj ) = 1 ) =⇒ P1 × · · · × Pn | P.

• Si P est premier avec les éléments d’une famille de polynômes, alors il est premier avec leur produit :

( ∀i ∈ [[1, n]] pgcd(P, Pi ) = 1 ) =⇒ pgcd(P, P1 × · · · × Pn ) = 1.

• Si deux polynômes sont premiers entre eux, alors il en est de même des puissances de ces deux polynômes :

pgcd(P, Q) = 1 =⇒ ∀(n, m) ∈ N2 , pgcd(P n , Qm ) = 1.

Remarque 2.56 :
La recherche d’un couple (U0 , V0 ) solution de AU + BV = 1 s’effectue à l’aide de l’algorithme d’Euclide. Pour
déterminer ensuite tous les couples possibles, il faut encore travailler !
Supposons en effet que (U, V ) est une autre solution. Il vient AU0 + BV0 = 1 et AU + BV = 1 donc par différence
A(U − U0 ) + B(V − V0 ) = 0, ce qui implique A(U − U0 ) = −B(V − V0 ). Or A et B sont premiers entre eux, donc
A divise V − V0 . Il existe ainsi un polynôme R tel que V − V0 = AR. On remplace cette dernière égalité dans
A(U − U − 0) = −B(V − V0 ) pour obtenir A(U − U0 ) = −BAR puis U − U0 = −BR.
Les solutions de AU + BV = 1 sont finalement de la forme (U0 − BR, V0 + AR), pour R ∈ K[X].
Exemple 2.57 :

Fénelon Sainte-Marie – La Plaine-Monceau 33/244 31 août 2022


2.4. ANNEAU DES POLYNÔMES À UNE INDÉTERMINÉE MP 2022-23

Posons A = X 3 + X 2 et B = X 2 + 1. Alors X 3 + X 2 = (X 2 + 1)(X + 1) − X − 1 et X 2 + 1 = (−X − 1)(−X + 1) + 2


donc

2 = X 2 + 1 − (1 − X)(−X − 1) = X 2 + 1 − (1 − X)(X 3 + X 2 − (X 2 + 1)(X + 1))


= (X 2 + 1)(1 − (1 − X)(X + 1)) + (X 3 + X 2 )(X − 1) = (X 2 + 1)(2 − X 2 ) + (X 3 + X 2 )(X − 1).

Ceci nous donne U0 = X − 1 et V0 = 2 − X 2 , puis U = X − 1 − (X 2 + 1)R et V = 2 − X 2 + (X 3 + X 2 )R pour


R ∈ K[X].
Définition 2.58 : PPCM d’éléments de K[X]
Soit (P, Q) ∈ K[X]2 . L’unique générateur unitaire de l’idéal (P ) ∩ (Q) est appelé plus petit commun multiple de
P et Q, noté ppcm(P, Q) ou P ∨ Q :
(P ) ∩ (Q) = (ppcm(P, Q)).

Proposition 2.59 : lien entre pgcd et ppcm, version K[X]


Soit deux polynômes unitaires P et Q dans K[X]. Alors pgcd(P, Q) × ppcm(P, Q) = P × Q.

2.4.3 Irréductibles de K[X] (rappel de Sup)


Définition 2.60 : éléments irréductible d’un anneau
Un polynôme non constant est dit irréductible lorsque ses seuls diviseurs sont les scalaires et lui-même.
Remarque 2.61 :
Attention, cette notion dépend du corps considéré. Ainsi X 2 + 1 est irréductible sur R[X] mais pas sur C[X].
Lemme 2.62 :
Tout polynôme non constant admet au moins un diviseur irréductible.

Théorème 2.63 : décomposition d’un polynôme comme produit d’irréductibles (rappel de Sup)
Tout polynôme non constant se décompose comme produit de facteurs irréductibles. La décomposition est unique,
sauf à changer un facteur en un facteur associé ou à modifier l’ordre des facteurs.
On peut affirmer de façon équivalente que tout polynôme non constant se décompose de façon unique comme le
produit d’un scalaire par un produit de polynômes unitaires irréductibles.

Rappelons les irréductibles de C[X] puis de R[X]. Le théorème suivant, parfois appelé théorème fondamental de
l’algèbre, règle le cas de C[X] :
Théorème 2.64 : D’Alembert-Gauss, ou TH fondamental de l’algèbre (rappel de Sup)
Tout polynôme non constant de C[X] possède au moins une racine.
Ce théorème admet de multiples démonstrations, toutes nécessitant des outils que nous n’avons pas le temps de
développer. Ces démonstrations sont donc officiellement hors-programme.
Corollaire 2.65 : irréductibles de C[X] (rappel de Sup)
1. Les seuls polynômes irréductibles de C[X] sont les polynômes de degré 1.
2. Tout polynôme de C[X] de degré n ≥ 0 possède exactement n racines complexes, comptées avec leur ordre de
multiplicité.

Remarque 2.66 :
Le cas réel est trompeur : ce n’est pas parce qu’un polynôme à coefficients réels n’admet aucune racine réelle qu’il
est irréductible ! Par exemple
√ √
X 4 + 1 = (X 2 + 1)2 − 2X 2 = (X 2 − 2X + 1)(X 2 + 2X + 1).

Fénelon Sainte-Marie – La Plaine-Monceau 34/244 31 août 2022


CHAPITRE 2. ANNEAUX, CORPS, ALGÈBRES MP 2022-23

Corollaire 2.67 : irréductibles de R[X] (rappel de Sup)


Les seuls polynômes irréductibles de R[X] sont
— les polynômes de degré 1 ;
— les polynômes de degré 2 à discriminant strictement négatif.

Rappelons enfin deux propriétés fort utiles démontrées en Sup :


Lemme 2.68 : deux propriétés des polynômes réels (rappel de Sup)
1. Tout polynôme de R[X] de degré impair admet au moins une racine réelle.
2. Si z ∈ C est une racine d’un polynôme réel P , alors z est aussi une racine de P .

2.5 Structure d’algèbre (rappel de Sup)


Définition 2.69 : structure d’algèbre
Un ensemble A muni de deux lois de composition internes + : A × A → A et × : A × A → A, et d’une loi
· : K × A → A externe de domaine d’opérateurs K, est une K-algèbre (unitaire) lorsque :
1. (A, +, ×) est un anneau (unitaire).
2. (A, +, ·) est un K-espace vectoriel.
3. Les lois × et · sont compatibles : ∀(a, b) ∈ K2 , ∀(x, y) ∈ A2 , (a · x) × (b · y) = (ab) · (x × y).
On note usuellement (A, +, ×, ·).
Exemple 2.70 :
Les ensembles suivants sont des K-algèbres usuelles :

(K[X], +, ×, ·), (L(E), +, ◦, ·), (Mn (K), +, ×, ·), (F(X, K), +, ×, ·),

où E est un K-espace vectoriel et X un ensemble non vide.


Définition 2.71 : sous-algèbre
Un ensemble B est une sous-K-algèbre d’une algèbre A lorsque B est un sous-anneau et un sous-espace vectoriel
de A.
Exemple 2.72 :
1. L’ensemble des matrices triangulaires supérieures d’ordre n est une sous-algèbre de l’algèbre Mn (K).
2. L’ensemble des applications de classe C ∞ de R dans R est une sous-algèbre de RR .

Définition 2.73 : morphisme d’algèbres


Soit A et A0 deux K-algèbres. Une application f : A → A0 est un morphisme de K-algèbres lorsque f est un
morphisme d’anneaux et d’espaces vectoriels.
Exemple 2.74 :
1. Fixons a ∈ K. L’application eva : K[X] → K, P 7→ P (a), est un morphisme de la K-algèbre (K[X], +, ×, ·) dans
la K-algèbre (K, +, ·, ·).
2. Soit E un K-espace vectoriel et g ∈ GL(E) fixé. L’application ϕg : L(E) → L(E), h 7→ g ◦ h ◦ g −1 , est appelée
automorphisme intérieur associé à g.
On vérifie sans détour que ϕg est un endomorphisme de la K-algèbre (L(E), +◦, ·).

EPCC : exercices 86, 94.

The end – chapitre 2

Fénelon Sainte-Marie – La Plaine-Monceau 35/244 31 août 2022


2.5. STRUCTURE D’ALGÈBRE (RAPPEL DE SUP) MP 2022-23

Fénelon Sainte-Marie – La Plaine-Monceau 36/244 31 août 2022


Chapitre 3

Espaces vectoriels normés

Dans tout ce chapitre, K désigne exclusivement R ou C.

3.1 Normes et distances


3.1.1 Définition d’une norme
Définition 3.1 : norme
Soit E un K-espace vectoriel. On appelle norme sur E toute application N : E → R vérifiant :
1. Positivité : ∀x ∈ E, N (x) ≥ 0.
2. Axiome de séparation : ∀x ∈ E, N (x) = 0 ⇒ x = 0.
3. Homogénéité : ∀x ∈ E, ∀λ ∈ K, N (λx) = |λ|N (x).
4. Inégalité triangulaire : ∀(x, y) ∈ E 2 , N (x + y) ≤ N (x) + N (y).

Définition 3.2 : espace vectoriel normé


1. Lorsque E est un espace vectoriel muni d’une norme N , le couple (E, N ) s’appelle un espace vectoriel normé.
2. Lorsque (E, N ) est un espace vectoriel normé, un vecteur de E est dit unitaire lorsque sa norme vaut 1.

Exemple 3.3 :
(fondamental !)
1. Dans Kn , pour x = (x1 , . . . , xn ) posons :

n n
! 21
X X
N1 (x) = |xi |, N2 (x) = |xi |2 , N∞ (x) = max |xi |.
i∈[[1,n]]
i=1 i=1

Alors N1 , N2 et N∞ sont des normes sur Kn .


La norme N2 est appelée norme euclidienne (ou hermitienne si K = C) associée au produit scalaire (x, y) 7→
Xn
x̄i yi .
i=1
2. Dans C([a, b], R), pour une fonction f posons :
! 21
Z b Z b
2
N1 (f ) = |f (t)| dt, N2 (f ) = f (t) dt , N∞ (f ) = sup |f (t)|.
a a t∈[a,b]

Alors N1 , N2 et N∞ sont des normes sur C([a, b], R).

37
3.1. NORMES ET DISTANCES MP 2022-23

Z b
La norme N2 est appelée norme euclidienne associée au produit scalaire (f, g) 7→ f (t)g(t) dt, ou encore
a
norme de la convergence en moyenne quadratique.
La norme N1 est appelée norme de la convergence en moyenne.
La norme N∞ est appelée norme de la convergence uniforme.

3.1.2 Distance associée


Soit E un espace vectoriel normé.
Définition 3.4 : distance associée à une norme
Si k · k est une norme sur E, on appelle distance associée à k · k l’application d : E × E → R, (x, y) 7→ ky − xk.
La distance associée à une norme euclidienne (respectivement hermitienne) est appelée distance euclidienne (resp.
hermitienne) (voir paragraphe 3.1.3).
Une telle application vérifie les propriétés suivantes.
Proposition 3.5 : propriétés d’une distance
1. ∀(x, y) ∈ E 2 , d(x, y) ≥ 0.
2. ∀(x, y) ∈ E ,2
d(x, y) = 0 ⇐⇒ x = y.
3. ∀(x, y) ∈ E ,2
d(x, y) = d(y, x).
4. ∀(x, y, z) ∈ E , 3
d(x, z) ≤ d(x, y) + d(y, z).

Définition 3.6 : espace métrique


Un ensemble E muni d’une distance, c’est-à-dire muni d’une application d : E × E → R vérifiant les propriétés
ci-dessus, est appelé un espace métrique.
Remarque 3.7 :
1. Un espace vectoriel normé est donc un cas particulier d’espace métrique.
2. Il existe des distances, c’est-à-dire des applications vérifiant les quatre propriétés précédentes, qui ne proviennent
pas d’une norme.
Par exemple, la distance discrète d définie sur n’importe quel ensemble par d(x, y) = 1 si x 6= y et d(x, x) = 0.

Définition 3.8 : distance d’un point à une partie non vide


Soit (E, d) un espace métrique. Étant donné une partie A de E et x un élément de E, on appelle distance de x à A
la borne inférieure des distances de x à tous les éléments de A (attention : cette borne n’est pas nécessairement
atteinte) :
d(x, A) = inf d(x, a).
a∈A

3.1.3 Norme euclidienne


Proposition 3.9 : inégalité de Cauchy-Schwarz, rappel de Sup
Soit E un R-espace vectoriel muni d’un produit scalaire noté ( · | · ). Alors :
∀(x, y) ∈ E 2 , (x|y)2 ≤ (x|x)(y|y),
et cette inégalité est une égalité si et seulement si (x, y) est une famille liée.

Nous avons vu que dans certains cas, la norme est euclidienne (ou hermitienne si K = C), c’est-à-dire associée à
un produit scalaire.
Définition 3.10 : produit scalaire hermitien
(Hors-programme) Si E est un C-espace vectoriel, on appelle produit scalaire hermitien sur E une application ϕ
de E × E dans C sesquilinéaire, hermitienne et définie positive, c’est-à-dire :

Fénelon Sainte-Marie – La Plaine-Monceau 38/244 31 août 2022


CHAPITRE 3. ESPACES VECTORIELS NORMÉS MP 2022-23

1. ϕ est linéaire à droite : ∀(x, y, y 0 ) ∈ E 3 , ∀(α, β) ∈ C2 , ϕ(x, αy + βy 0 ) = αϕ(x, y) + βϕ(x, y 0 ).


2. ϕ est semi-linéaire à gauche : ∀(x, x0 , y) ∈ E 3 , ∀(α, β) ∈ C2 , ϕ(αx + βx0 , y) = αϕ(x, y) + βϕ(x0 , y).
3. ϕ est hermitienne : ∀(x, y) ∈ E 2 , ϕ(y, x) = ϕ(x, y).
4. ϕ est positive : ∀x ∈ E, ϕ(x, x) ≥ 0 (on a ϕ(x, x) ∈ R puisque ϕ(x, x) = ϕ(x, x) d’après la symétrie hermitienne).
5. ϕ est définie : ∀x ∈ E, ϕ(x, x) = 0 ⇒ x = 0.

On remarquera que si le point 3 est vérifié, alors les points 1 et 2 sont équivalents.
Proposition 3.11 : inégalité de Cauchy-Schwarz, cas complexe (hors-programme)
Soit E un C-espace vectoriel muni d’un produit scalaire hermitien noté ( · | · ). Alors :
2
∀(x, y) ∈ E 2 , |(x|y)| ≤ (x|x)(y|y),

et cette inégalité est une égalité si et seulement si (x, y) est une famille liée.

On en déduit que :
Théorème 3.12 : norme associée à un produit scalaire euclidien
Soit ( · | · ) un produit scalaire sur un R-espace
p vectoriel E.
Alors l’application k · k définie par kxk = (x|x) est une norme, appelée norme euclidienne associée au produit
scalaire.
Elle vérifie en particulier l’inégalité de Minkowski (conséquence de l’inégalité de Cauchy-Schwarz) :

∀(x, y) ∈ E 2 kx + yk ≤ kxk + kyk.

Il existe une version pour les espaces complexes :


Théorème 3.13 : norme hermitienne associée à un produit scalaire hermitien
Soit ( · | · ) un produit scalaire sur un C-espace
p vectoriel E.
Alors l’application k · k définie par kxk = (x|x) est une norme, appelée norme hermitienne associée au produit
scalaire hermitien.
Elle vérifie en particulier l’inégalité de Minkowski (conséquence de l’inégalité de Cauchy-Schwarz) :

∀(x, y) ∈ E 2 kx + yk ≤ kxk + kyk.

Remarque 3.14 :
Notons que pour tout x ∈ E : kxk = sup |(x|y)|.
kyk≤1

3.1.4 Partie bornée


Soit (E, N = k · k) un espace vectoriel normé. Soit a ∈ E et r ∈ R+ .
Définition 3.15 : boule ouverte, fermée, unité
1. On appelle boule fermée de centre a et de rayon r de E l’ensemble B(a, r) = {u ∈ E; ku − ak ≤ r} (orange avec
son écorce).
Lorsque r = 1 et a = 0, on parle de boule unité fermée.
2. On appelle boule ouverte de centre a et de rayon r de E l’ensemble B(a, r) = {u ∈ E; ku − ak < r} (orange sans
son écorce).
Lorsque r = 1 et a = 0, on parle de boule unité ouverte.
3. On appelle sphère de centre a et de rayon r de E l’ensemble S(a, r) = {u ∈ E; ku − ak = r} (écorce de l’orange).
Lorsque r = 1 et a = 0, on parle de sphère unité.

Fénelon Sainte-Marie – La Plaine-Monceau 39/244 31 août 2022


3.1. NORMES ET DISTANCES MP 2022-23

Définition 3.16 : partie bornée


Une partie A de E est dite bornée lorsqu’il existe une boule la contenant.
Remarque 3.17 :
1. Il est équivalent de considérer une boule ouverte ou fermée, de centre a ou 0E .
2. Une partie A de E est bornée si et seulement si : ∃r ∈ R+ , ∀u ∈ A, kuk ≤ r.

Exemple 3.18 :
1. B(a, r) est bornée par kak + r. De même pour la boule ouverte et la sphère.
2. Dans (R2 , N∞ ), le pavé [a, b] × [c, d] est borné par max (|a|, |b|, |c|, |d|).

Définition 3.19 : application bornée


Une application d’un ensemble X quelconque dans E est dite bornée lorsque l’ensemble {f (x); x ∈ X} est borné.

Notation : On note B(X, E) l’ensemble des applications bornées de X dans E.


Remarque 3.20 :
L’ensemble B(X, E) est un K-espace vectoriel, et l’application :

B(X, E) −→ R, f 7−→ sup kf (x)k


x∈X

est une norme sur B(X, E), notée k · k∞ et appelée la norme infinie.

3.1.5 Applications lipschitziennes


Soit E et F deux espaces vectoriels normés et I un intervalle de R. Considérons une partie A de E.
Définition 3.21 : application lipschitzienne
Une application f : A → F est dite (k-)lipschitzienne sur A lorsqu’il existe k ∈ R+ tel que : ∀(x, y) ∈ A2 ,
kf (x) − f (y)kF ≤ k kx − ykE .
On note Lipk (A, F ) l’ensemble des applications k-lipschitziennes de A dans F et Lip(A, F ) l’ensemble des applica-
tions lipschitziennes.
Exemple 3.22 :
1. Les applications x 7→ kxk et x 7→ d(x, A) sont 1-lipschitziennes de E dans R.
2. Une fonction dérivable sur un intervalle I de R, dont la dérivée sur I est majorée en valeur absolue par k, est
k-lipschitzienne d’après le théorème des accroissements finis.

Proposition 3.23 : composition d’applications lipschitziennes


La composée de deux applications lipschitziennes est lipschitzienne.

3.1.6 Produit d’une famille finie d’EVN


Soit E1 , . . . , En des espaces vectoriels normés, munis respectivement des normes k · kE1 , . . . , k · kEn . L’espace
vectoriel produit E = E1 × E2 × · · · × En peut être muni de la norme N définie par :

∀x = (x1 , . . . , xn ) ∈ E1 × E2 × · · · × En , N (x) = sup kxi kEi .


i∈[[1,n]]

On laisse à la sagacité du lecteur la vérification que ceci définit bien une norme sur E. D’autres normes peuvent définies
Xn
sur E, par exemple N 0 (x) = kxi kEi .
i=1

Fénelon Sainte-Marie – La Plaine-Monceau 40/244 31 août 2022


CHAPITRE 3. ESPACES VECTORIELS NORMÉS MP 2022-23

Notons que toute projection


pi
E1 × E2 × · · · × En −→ Ei
x 7−→ xi
est 1-lipschitzienne.

3.2 Suites d’éléments d’un EVN


3.2.1 Convergence
Soit E un espace vectoriel normé.
Définition 3.24 : suite convergente
Une suite (xn )n d’éléments de E est dite convergente lorsque :

∃` ∈ E, ∀ε > 0, ∃n0 ∈ N, ∀n ≥ n0 kxn − `k ≤ ε.


n→+∞
On le note xn −→ `.
N

Comme pour les suites réelles, on montre facilement l’unicité de ` lorsqu’il existe. On l’appelle limite de la suite.
Proposition 3.25 : propriétés immédiates
1. Toute suite convergente est bornée.
2. L’ensemble des suites bornées de E est un K-espace vectoriel noté `∞ (E), et l’application :

`∞ (E) −→ R
u 7−→ sup kun k
n∈N

est une norme sur `∞ (E), notée k · k∞ .


3. L’ensemble des suites convergentes est un sous-espace vectoriel de `∞ (E), et l’application qui à une suite fait
correspondre sa limite est linéaire.

Remarque 3.26 :
Il est très important de noter que la définition de la convergence est liée à la norme de E. S’il existe plusieurs
normes sur E, une même suite peut converger pour une norme et diverger pour une autre.
Exemple 3.27 :
Considérons la suite de fonctions (fn )n définies sur [0, 1] par fn (t) = tn .
Z 1
1
• kfn k1 = |tn |dt = : la suite (fn )n converge vers la fonction nulle pour la norme k · k1 (convergence en
0 n + 1
moyenne).
• kfn k∞ = sup tn = 1 : la suite (fn )n ne converge pas vers la fonction nulle (ni vers aucune autre) pour la norme
t∈[0,1]
k · k∞ .

Proposition 3.28 : convergence d’une suite dans un produit fini d’EVN


Une suite d’éléments d’un espace vectoriel normé produit converge si et seulement si chacune des suites composantes
converge.

3.2.2 Normes équivalentes


Théorème 3.29 : comparaison de normes et convergence de suites
Soit E un K-espace vectoriel et N , N 0 deux normes sur E. Alors les deux propositions suivantes sont équivalentes :
1. ∃α > 0, ∀x ∈ E, N 0 (x) ≤ αN (x).

Fénelon Sainte-Marie – La Plaine-Monceau 41/244 31 août 2022


3.2. SUITES D’ÉLÉMENTS D’UN EVN MP 2022-23

2. Toute suite d’éléments de E qui converge vers 0 pour la norme N converge aussi vers 0 pour la norme N 0 .

Définition 3.30 : normes équivalentes


Soit N et N 0 deux normes sur un espace vectoriel E. On dit que N et N 0 sont équivalentes lorsque :
2
∃(α, β) ∈ R∗+ , αN ≤ N 0 ≤ βN.

Il résulte immédiatement du théorème la


Proposition 3.31 : équivalence de normes et convergence de suites
Deux normes sont équivalentes si et seulement si toute suite qui converge pour l’une converge pour l’autre (avec la
même limite).
Remarque 3.32 :
On peut caractériser deux normes équivalentes N et N 0 en disant que toute N -boule contient une N 0 -boule et
réciproquement.
Conformément au programme, nous admettrons le théorème suivant sans démonstration :
Théorème 3.33 : équivalence des normes en dimension finie
Dans un espace vectoriel de dimension finie, toutes les normes sont équivalentes.
La démonstration fait appel à la notion de compacité qui sera étudiée plus tard. C’est pourquoi dans beaucoup de
cours ce théorème ne figure qu’à partir de ce point. Puisque nous sommes autorisés à l’admettre, autant en profiter
dès à présent. . .
Exemple 3.34 :
1. Dans Kn , les normes k · k1 , k · k2 et k · k∞ sont équivalentes. Pour tout x ∈ Kn :

kxk∞ ≤ kxk1 ≤ nkxk∞



kxk∞ ≤ kxk2 ≤ nkxk∞
1 √
kxk1 ≤ kxk2 ≤ nkxk1 .
n

2. Dans C([0, 1], R) au contraire, il existe des normes qui ne sont pas équivalentes. Posons :
s
Z 1 Z 1
∀f ∈ C([0, 1], R), kf k1 = |f (t)|dt, kf k2 = f (t)2 dt, kf k∞ = sup |f |.
0 0 [0,1]

Alors les normes k · k1 , k · k2 et k · k∞ ne sont pas équivalentes.


En effet, on a déjà :
Z 1
∀f ∈ C([0, 1], R) kf k1 = |f (t)|dt ≤ sup |f | = kf k∞ .
0 [0,1]

On montre de même que pour tout f ∈ C([0, 1], R), kf k2 ≤ kf k∞ .


De plus, l’inégalité de Cauchy-Schwarz prouve que pour tout f ∈ C([0, 1], R), kf k1 ≤ kf k2 . On a donc :

k · k1 ≤ k · k 2 ≤ k · k∞ .

Cependant, pour fn (t) = tn :

1 1
kfn k1 = ; kfn k2 = √ ; kfn k∞ = 1.
n+1 2n + 1

kfn k2 kfn k∞
Les quotients et ne sont pas majorés : les trois normes ne sont pas équivalentes deux à deux.
kfn k1 kfn k2

Fénelon Sainte-Marie – La Plaine-Monceau 42/244 31 août 2022


CHAPITRE 3. ESPACES VECTORIELS NORMÉS MP 2022-23

Il faut donc distinguer la convergence d’une suite de fonctions suivant la norme utilisée :

• la convergence pour la norme k · k1 s’appelle convergence en moyenne ;


• la convergence pour la norme k · k2 s’appelle convergence en moyenne quadratique ;
• la convergence pour la norme k · k∞ s’appelle convergence uniforme.

La convergence uniforme implique la convergence en moyenne quadratique, qui implique la convergence en moyenne,
mais les réciproques sont fausses.

3.2.3 Suites extraites


Soit (xn )n une suite d’éléments de l’espace vectoriel normé E.
Définition 3.35 : suite extraite
On appelle suite extraite de (xn )n une suite de la forme (xϕ(n) ) où ϕ est une application strictement croissante de
N dans N.
On démontre par récurrence que pour tout n ∈ N, ϕ(n) ≥ n (voir cours de première année).
Comme pour les suites réelles, on montre sans détour que :
Proposition 3.36 : propriétés des suites extraites

1. Toute suite extraite d’une suite convergente converge vers la même limite.
2. Si une suite admet deux suites extraites qui convergent vers des limites différentes, alors la suite initiale ne
converge pas.
3. Si par exemple (x2n )n et (x2n+1 )n convergent vers `, alors (xn )n converge vers `.

Définition 3.37 : valeur d’adhérence d’une suite


Un élément a de E est appelé valeur d’adhérence de la suite (xn )n s’il existe une suite extraite de (xn )n qui converge
vers a.
Proposition 3.38 : caractérisation de l’adhérence
L’élément a est une valeur d’adhérence de (xn )n si et seulement si pour tout n0 ∈ N, toute boule de centre a
contient au moins un terme de la suite de rang supérieur ou égal à n0 .
Au contraire, a n’est pas une valeur d’adhérence de (xn )n si et seulement s’il existe n0 ∈ N et une boule de centre
a ne contenant aucun terme de la suite de rang supérieur ou égal à n0 .

Remarque 3.39 :
Si la suite (xn )n converge vers `, alors ` est l’unique valeur d’adhérence de (xn )n .
Il en résulte qu’une suite ayant au moins deux valeurs d’adhérence distinctes est divergente.
Exemple 3.40  : π 
La suite cos n est divergente.
3 n
Remarque 3.41 :
Si E = R ou C, on sait d’après le théorème de Bolzano-Weierstrass que toute suite bornée possède au moins une
valeur d’adhérence. On peut montrer alors que si cette valeur d’adhérence est unique, la suite est convergente. Mais
cette propriété n’est pas vraie dans un espace vectoriel normé quelconque.

3.3 Comparaison des suites


Soit (xn )n une suite d’éléments de l’espace vectoriel normé E, et (αn )n une suite d’éléments du corps K.

Fénelon Sainte-Marie – La Plaine-Monceau 43/244 31 août 2022


3.3. COMPARAISON DES SUITES MP 2022-23

3.3.1 Domination
Définition 3.42 : suite dominée par une autre
La suite (xn )n est dite dominée par la suite (αn )n lorsque :

∃M ∈ R, ∃n0 ∈ N, ∀n ≥ n0 kxn k ≤ M |αn |.

On écrit : xn = O(αn ).
Remarque 3.43 :  
1
Si la suite (αn )n ne s’annule pas à partir d’un certain rang xn = O(αn ) signifie que la suite xn est bornée
αn
dans E.

3.3.2 Négligeabilité
Définition 3.44 : suite négligeable devant une autre
La suite (xn )n est dite négligeable devant la suite (αn )n lorsque :

∀ε > 0, ∃n0 ∈ N, ∀n ≥ n0 kxn k ≤ ε |αn |.

On écrit : xn = o(αn ).
Remarque 3.45 :  
1
Si la suite (αn )n ne s’annule pas à partir d’un certain rang, xn = o(αn ) signifie que la suite xn converge vers
αn
0E .

3.3.3 Équivalence
Soit (xn )n et (yn )n deux suites d’éléments de E.
Définition 3.46 : suites équivalentes
On dit que (xn )n est équivalente à (yn )n si la différence (xn − yn )n est négligeable devant (kyn k)n :

∀ε > 0, ∃n0 ∈ N, ∀n ≥ n0 kxn − yn k ≤ ε kyn k .

On écrit : xn ∼ yn .
On peut montrer qu’il s’agit d’une relation d’équivalence. La symétrie permet de dire « les suites (xn )n et (yn )n
sont équivalentes ».
Proposition 3.47 : suites équivalentes
1. Si deux suites sont équivalentes et si l’une d’elles converge vers `, alors l’autre converge aussi vers `.
2. La suite (xn )n est équivalente à la suite constante (`)n , avec ` 6= 0E , si et seulement si (xn )n converge vers `.

Remarque 3.48 :
Attention : xn ∼ 0E signifie que la suite (xn )n est stationnaire nulle !

EPCC : aucun !

The end – chapitre 3

Fénelon Sainte-Marie – La Plaine-Monceau 44/244 31 août 2022


Chapitre 4

Topologie

Dans tout le chapitre E désigne un espace vectoriel normé et A une partie de E.

4.1 Notions topologiques


4.1.1 Voisinages
Soit E un espace vectoriel normé.
Définition 4.1 : voisinage d’un point
On appelle voisinage d’un point x de E toute partie V de E qui contient une boule ouverte de centre x (rappelons
qu’une boule a un rayon strictement positif).
On note VE (x) ou V(x) la collection de tous les voisinages de x dans E ; ainsi V ∈ VE (x) signifie que :

∃r > 0 / ∀y ∈ E, ky − xk < r ⇒ y ∈ V.

Proposition 4.2 : propriétés immédiates des voisinages


1. Tout voisinage de x contient x.
2. Une boule ouverte de centre x est un voisinage de x.
3. Une boule fermée de centre x est un voisinage de x.
4. Toute partie contenant un voisinage de x est un voisinage de x.
5. La réunion d’une famille quelconque de voisinages de x est un voisinage de x.
6. L’intersection d’une famille finie de voisinages de x est un voisinage de x.

Il est à noter que :


Théorème 4.3 : normes équivalentes et voisinages
Deux normes équivalentes définissent les mêmes voisinages.
En particulier, en dimension finie la notion de voisinage est indépendante de la norme.

4.1.2 Ouverts et fermés


Définition 4.4 : partie ouverte
On appelle ouvert de E une partie de E qui est un voisinage de chacun de ses points. Autrement dit O est un
ouvert si et seulement si pour tout x ∈ O, il existe une boule ouverte de centre x de rayon strictement positif incluse
dans O.

45
4.1. NOTIONS TOPOLOGIQUES MP 2022-23

En d’autres termes :
∀x ∈ O, ∃r > 0 / ∀y ∈ E, ky − xk < r ⇒ y ∈ O.

Proposition 4.5 : propriétés immédiates des ouverts


1. ∅ est ouvert (toute proposition commençant par ∀x ∈ ∅ . . .).
2. E est ouvert.
3. Toute boule ouverte est ouverte (sic !).
4. La réunion d’une famille quelconque d’ouverts est ouverte.
5. L’intersection d’une famille finie d’ouverts est ouverte.

Définition 4.6 : parties fermées


On appelle fermé le complémentaire dans E d’un ouvert. Autrement dit F est fermé si et seulement si pour tout
x 6∈ F il existe une boule ouverte de centre x ne rencontrant pas F. En d’autres termes :
 
∀x ∈ E, x 6∈ F =⇒ ∃r > 0/∀y ∈ E, ky − xk < r ⇒ y 6∈ F .

Proposition 4.7 : propriétés immédiates des fermés


1. ∅ est fermé.
2. E est fermé.
3. Tout singleton {x} est fermé.
4. Toute boule fermée est fermée (ouf !).
5. L’intersection d’une famille quelconque de fermés est fermée.
6. La réunion d’une famille finie de fermés est fermée.

Proposition 4.8 : normes équivalentes et ouverts/fermés


Deux normes équivalentes définissent les mêmes ouverts et donc, par passage au complémentaire, les mêmes fermés.
En particulier, en dimension finie les notions d’ouvert et de fermé sont indépendantes de la norme.

4.1.3 Adhérence d’une partie


Définition 4.9 : point adhérent à un ensemble
Soit A une partie de E. Un point x de E est dit adhérent à A si tout voisinage de x rencontre A. En d’autres
termes :
∀V ∈ V(x) V ∩ A 6= ∅.
L’ensemble des éléments de E adhérents à A est appelé adhérence de A et noté A.
Proposition 4.10 : caractérisation de l’adhérence d’un ensemble
Un point x est adhérent à A si et seulement si toute boule ouverte de centre x contient au moins un élément de A.
En d’autres termes x est adhérent à A si et seulement si :

∀ε > 0 ∃a ∈ A ka − xk < ε.

Remarque 4.11 :

Fénelon Sainte-Marie – La Plaine-Monceau 46/244 31 août 2022


CHAPITRE 4. TOPOLOGIE MP 2022-23

1. Un point x est adhérent à A si et seulement si sa distance à A est nulle : d(x, A) = 0.


2. Tout élément de A est adhérent à A : A ⊂ A. La réciproque est fausse : par exemple dans C le point d’affixe 1
est adhérent à la boule unité ouverte (de centre 0 de rayon 1), mais ne lui appartient pas.

Définition 4.12 : point d’accumulation, point isolé


Soit A une partie de E et x ∈ E (x pas forcément dans A).
1. Si tout voisinage de x rencontre A en au moins un autre point que x, on dit que x est un point d’accumulation
de A :
∀V ∈ VE (x), (V \ {x}) ∩ A 6= ∅.
2. Si au contraire il existe un voisinage de x qui ne rencontre A qu’au point x, on dit que x est un point isolé de
A:
∃V ∈ VE (x), V ∩ A = {x}.

Exemple 4.13 :
1. Le point du plan d’affixe 1 est un point adhérent à la boule unité ouverte.
2. Tous les points de Z sont des points isolés de Z.
3. Pour l’ensemble A = {a} (singleton), le point a est adhérent à A ; ce point a est un point isolé de A ; mais a
n’est pas un point d’accumulation de A.

Remarque 4.14 :
1. Un point adhérent à A qui ne lui appartient pas est nécessairement un point d’accumulation.
2. Un point isolé appartient nécessairement à A.

Définition 4.15 : partie dense


On dit qu’une partie A est dense dans une partie B si A = B.
Exemple 4.16 :
Q est dense dans R : tout réel est adhérent à Q.
Théorème 4.17 : caractérisation de l’adhérence
Soit E un espace vectoriel normé. Pour toute partie A de E, l’adhérence A de A est le plus petit fermé de E
contenant A.

Corollaire 4.18 : autre caractérisation de l’adhérence


L’adhérence A de A est l’intersection de la famille des fermés contenant A.

Corollaire 4.19 : caractérisation du caractère fermé d’un ensemble


Une partie A est fermée si et seulement si elle contient tous ses points adhérents : A = A.

4.1.4 Caractérisation séquentielle de l’adhérence


Théorème 4.20 : caractérisation séquentielle de l’adhérence
Soit A une partie d’un espace vectoriel normé E.
Un point x ∈ E est adhérent à A si et seulement s’il existe une suite (an )n d’éléments de A qui converge vers x.

L’adhérence A est donc l’ensemble des limites des suites convergentes d’éléments de A. Plus généralement A est
l’ensemble des valeurs d’adhérence des suites d’éléments de A.
Corollaire 4.21 : autre caractérisation séquentielle du caractère fermé
Une partie A d’un espace vectoriel normé est fermée si et seulement si elle contient les limites de toutes ses suites
convergentes.

Fénelon Sainte-Marie – La Plaine-Monceau 47/244 31 août 2022


4.1. NOTIONS TOPOLOGIQUES MP 2022-23

4.1.5 Intérieur d’une partie


Définition 4.22 : point intérieur à un ensemble
Un point x de E est dit intérieur à A lorsque A est un voisinage de x, autrement dit lorsqu’il existe une boule
ouverte de centre x contenue dans A :

∃ε > 0 ∀y ∈ E, ky − xk < ε ⇒ y ∈ A.

L’ensemble des éléments de E intérieurs à A est appelé intérieur de A et noté A.
Remarque 4.23 :
◦ ◦
1. Bien sûr, tout élément de A est élément de A : A ⊂ A.
2. La réciproque est fausse : par exemple dans C le point d’affixe 1 est élément de la boule unité fermée mais ne
lui est pas intérieur.

Théorème 4.24 : caractérisation de l’intérieur ◦


Soit E un espace vectoriel normé. Pour toute partie A de E, l’intérieur A est le plus grand ouvert de E contenu
dans A.

4.1.6 Liens entre adhérence et intérieur


Théorème 4.25 : lien entre intérieur et adhérence
Soit A une partie d’un espace vectoriel normé E.

_
1. Le complémentaire de l’adhérence de A est l’intérieur du complémentaire de A : {E A ={E A.

2. Le complémentaire de l’intérieur de A est l’adhérence du complémentaire de A : {E A= {E A.

4.1.7 Frontière d’une partie


Définition 4.26 : frontière d’uen partie
On appelle point frontière de A un point adhérent à A qui n’est pas intérieur à A. L’ensemble des points frontières
est appelé frontière de A :

Fr(A) = A\ A = A ∩ {E A.

Remarque 4.27 :
1. La frontière de A est l’intersection de deux fermés, c’est donc un fermé.
2. La frontière de A est aussi la frontière du complémentaire de A.

Exemple 4.28 :
La frontière de la boule unité fermée du plan complexe est le cercle unité fermé. Plus généralement la frontière
d’une boule (ouverte ou fermée) est la sphère qui lui est associée.

4.1.8 Topologie induite sur une partie


Définition 4.29 : voisinage relatif à une partie
1. Soit a un élément de A. On appelle voisinage de a relatif à A l’intersection de A avec un voisinage de a.
2. La notion de voisinage relatif peut être étendue à un élément adhérent à A : pour a ∈ A, un voisinage relatif à A
est l’intersection de A avec un voisinage de a.

Fénelon Sainte-Marie – La Plaine-Monceau 48/244 31 août 2022


CHAPITRE 4. TOPOLOGIE MP 2022-23

Exemple 4.30 :
Le segment [0, 1] est un voisinage de 0 relatif à R+ .
Définition 4.31 : ouvert/fermé relatif à une partie
On appelle ouvert relatif de A l’intersection de A avec un ouvert de E, et fermé relatif de A l’intersection de A
avec un fermé de E.
Remarque 4.32 :
1. Un fermé relatif de A est le complémentaire dans A d’un ouvert relatif de A.
2. Attention : un ouvert relatif de A n’est pas nécessairement un ouvert de E. Par exemple ]0, 1[ est un ouvert
relatif de R, mais ce n’est pas un ouvert de C.
3. Attention : un fermé relatif de A n’est pas nécessairement un fermé de E. Par exemple ]0, 12 ] est un fermé relatif
de ]0, 1[, mais ce n’est pas un fermé de R.

4.2 Étude locale d’une application


4.2.1 Limite en un point
Soit E et F deux espaces vectoriels normés, A une partie de E, et f une application de A dans F . Soit a un point
adhérent à A et ` un point de F .
Définition 4.33 : limite d’une fonction en un point
On dit que f admet pour limite ` au point a lorsque pour tout voisinage V de `, il existe un voisinage de a relatif
à A dont l’image est contenue dans V :

∀V ∈ VF (`), ∃W ∈ VE (a) / f (W ∩ A) ⊂ V.

En d’autres termes :
∀ε > 0, ∃α > 0, ∀x ∈ A, kx − ak ≤ α ⇒ kf (x) − `k ≤ ε.

Proposition 4.34 : unicité de la limite d’une fonction


Le vecteur ` (s’il existe) est unique. On l’appelle la limite de la fonction f au point a et on le note lim f ou lim f (x).
a x→a

Remarque 4.35 :
Le vecteur ` est adhérent à f (A).
Remarque 4.36 :
La définition faisant intervenir des voisinages peut s’étendre au cas des applications possédant une limite en ±∞
lorsque E = R, ou une limite infinie lorsque F = R.
Il convient pour cela d’appeler voisinage de +∞ toute partie de R contenant au moins un intervalle de la forme
[d, +∞[, et de même voisinage de −∞ toute partie de R contenant au moins un intervalle de la forme ] − ∞, d].
Ainsi lim f (x) = −∞ signifie :
x→+∞

∀c ∈ R ∃d ∈ R ∀x ∈ A x ≥ d ⇒ f (x) ≤ c.

Définition 4.37 : limite d’une fonction selon une partie


Si P est une partie de A, on dit que f admet la limite ` au point a selon P lorsque la restriction de f à P possède
la limite ` au point a.
Exemple 4.38 :

Fénelon Sainte-Marie – La Plaine-Monceau 49/244 31 août 2022


4.2. ÉTUDE LOCALE D’UNE APPLICATION MP 2022-23

1. La fonction x 7→ E(−x2 ) admet la limite −1 au point 0, selon R∗ .


2. La fonction indicatrice de Q admet en 0 la limite 1 selon Q et la limite 0 selon R \ Q.

Définition 4.39 : continuité d’une fonction en un point


Si a appartient à A et si f admet une limite en a, alors cette limite est nécessairement f (a). On dit dans ce cas
que que f est continue en a (exercice !).
Remarque 4.40 :

1. Si a n’appartient pas à A, alors f admet une limite en a si et seulement si elle est prolongeable par continuité
en a, c’est-à-dire si la fonction définie sur A ∪ {a} égale à f sur A et telle que f (a) = lim f , est continue en a.
a
2. Si deux normes sont équivalentes, alors elles définissent les mêmes limites et les mêmes fonctions continues. En
dimension finie par exemple, les notions de limite et de continuité sont indépendantes de la norme.

4.2.2 Opérations sur les limites


La limite d’une composée d’applications donne accès à tous les autres cas :
Lemme 4.41 : limite et produit d’espaces
Soit E et F1 , . . . , Fp des espaces vectoriels normés. On pose F = F1 × · · · × Fp . Si pour tout i ∈ [[1, p]], fi est une
application d’une partie A de E dans Fi , on considère l’application f de A dans F définie par f (x) = (f1 (x), . . . , fp (x)).
Alors : f admet en un point a de A la limite ` = (`1 , . . . , `p ) si et seulement si pour tout i ∈ [[1, p]], fi admet en a
la limite `i .
Théorème 4.42 : composition des limites
Soit E, F , G trois espaces vectoriels normés. Considérons f une application d’une partie A de E dans F et g une
application de f (A) dans G.
Si f admet pour limite b en un point a adhérent à A, et si g admet pour limite c au point b, alors g ◦ f admet pour
limite c au point a.

Corollaire 4.43 : linéarité de la limite


Soit E, F deux espaces vectoriels normés. Considérons f et g deux applications d’une partie A de E dans F
admettant des limites en un point a adhérent à A. Alors :

∀(α, β) ∈ K2 lim(αf + βg) = α lim f + β lim g.


a a a

Corollaire 4.44 : produit de limites


Soit E, F deux espaces vectoriels normés. Considérons f une application d’une partie A de E dans F , et u une
application de A dans K, toutes les deux admettant des limites en un point a adhérent à A. Alors :

lim (u × f ) = lim u × lim f.


a a a

Corollaire 4.45 : structure de l’ensemble des applications continues

1. L’ensemble des applications de A dans F qui admettent une limite en a est un K-espace vectoriel.
2. En particulier si a ∈ A, alors l’ensemble des applications de A dans F continues en a est un K-espace vectoriel.
3. Si F = K, alors les deux ensembles ci-dessus sont même des K-algèbres.

Fénelon Sainte-Marie – La Plaine-Monceau 50/244 31 août 2022


CHAPITRE 4. TOPOLOGIE MP 2022-23

4.2.3 Caractérisation séquentielle de l’existence d’une limite d’une fonction


Théorème 4.46 : caractérisation séquentielle de l’existence d’une limite d’une fonction
Soit E, F deux espaces vectoriels normés, f une application d’une partie A de E dans F , et a un point adhérent
à A.
Alors : f admet une limite en a si et seulement si pour toute suite (un )n d’éléments de A convergeant vers a, la
suite (f (un ))n est convergente.

On en déduit une caractérisation séquentielle de la continuité :


Corollaire 4.47 : caractérisation séquentielle de la continuité
Soit E, F deux espaces vectoriels normés, f une application d’une partie A de E dans F , et a un point de A. Alors
f est continue en a si et seulement si pour toute suite (un )n d’éléments de A convergeant vers a, la suite (f (un ))n
converge vers f (a).

4.2.4 Relations de comparaison


Soit E et F deux espaces vectoriels normés, A une partie de E, a un point adhérent à A. Considérons une application
f de A dans F et une application ϕ de A dans K.
Définition 4.48 : domination, négligeabilité, équivalence de fonctions
1. On dit que f est dominée par ϕ au point a lorsque :

∃M ∈ R ∃V ∈ V(a) ∀x ∈ V ∩ A kf (x)k ≤ M |ϕ(x)|.

On écrit : f = O(ϕ).
2. On dit que f est négligeable devant ϕ au point a lorsque :

∀ε > 0 ∈ R ∃V ∈ V(a) ∀x ∈ V ∩ A kf (x)k ≤ ε |ϕ(x)|.

On écrit : f = o(ϕ).
3. Soit g une autre application de A dans F . On dit que f est équivalente à g au point a lorsque f −g est négligeable
devant kgk :
∀ε > 0 ∃V ∈ V(a) ∀x ∈ V ∩ A kf (x) − g(x)k ≤ ε kg(x)k .
On écrit : f ∼ g.

Proposition 4.49 : relations de comparaison


1
1. Si ϕ ne s’annule pas au voisinage de a, alors f = O(ϕ) signifie que la fonction f est bornée au voisinage de a.
ϕ
1
2. Si ϕ ne s’annule pas au voisinage de a, alors f = o(ϕ) signifie que la fonction f admet la limite 0 au point a.
ϕ
3. La relation d’équivalence de fonctions est une relation d’équivalence (RST). La symétrie permet de dire « les
fonctions f et g sont équivalentes ».

Remarque 4.50 :
1. Si deux fonctions sont équivalentes en a et si l’une d’elles admet pour limite ` au point a, alors l’autre admet
aussi la limite ` au point a.
Réciproque fausse : deux fonctions de limite nulle ne sont pas forcément équivalentes.
Par exemple f (x) = x et g(x) = x2 en x = 0.
2. La fonction f est équivalente à la fonction constante `, avec ` 6= 0F , si et seulement si f admet la limite ` au
point a.
3. Attention : f ∼ 0F signifie que la fonction f est identiquement nulle sur un voisinage de a, ce qui est rarement
le cas.

Fénelon Sainte-Marie – La Plaine-Monceau 51/244 31 août 2022


4.2. ÉTUDE LOCALE D’UNE APPLICATION MP 2022-23

4.2.5 Applications continues


Soit E et F deux espaces vectoriels normés et A une partie de E.
Définition 4.51 : application continue sur une partie
1. Une application f : A → F est dite continue lorsqu’elle est continue en tout point de A.
2. Si B est une partie de A, alors on dit que f est continue sur B si sa restriction à B est continue (en tout point
de B).

Remarque 4.52 :
Attention : cette définition n’est pas universellement adoptée et certains auteurs veulent que f elle-même soit
continue en tout point de B. Il nous semble pourtant normal de dire que la fonction partie entière est continue sur
[0, 1[ (où elle est constante !), bien que non continue en 0. . . Il sera cependant prudent d’être très explicite sur ce genre
de question.
Proposition 4.53 : structure de l’ensemble des applications continues
L’ensemble des applications continues de A dans F est un espace vectoriel, noté C(A, F ). Si F = K il s’agit même
d’une K-algèbre, simplement notée C(A).
Il résulte du théorème de composition des limites que la composée de deux applications continues est continue.
Exemple 4.54 :
L’application identité R → R est bien entendu continue.
Le corollaire 4.44 permet d’affirmer par produit que les applications puissances x 7→ xn sont continues.
r
Encore le corollaire 4.44 permet d’affirmer que les applications multinomiales (x1 , . . . , xp ) 7→ xr11 · · · xpp sont conti-
nues.
Enfin le corollaire 4.43 permet d’affirmer par linéarité que les applications polynomiales
N
X
(x1 , . . . , xp ) 7→ ai1 ,...,ip xr11 · · · xrpp
i1 ,...,ip =0

sont continues.
Théorème 4.55 : applications continues qui coïncident sur une partie dense
Soit E et F deux espaces vectoriels normés et A une partie de E. Deux applications continues de A dans F qui
coïncident sur une partie B dense dans A sont égales.

4.2.6 Image réciproque d’un ouvert ou d’un fermé par une application continue
Théorème 4.56 : caractérisation de la continuité par l’image réciproque d’un ouvert ou d’un fermé
Soit E et F deux espaces vectoriels normés et f une application d’une partie A de E dans F . Les trois propriétés
suivantes sont équivalentes :
(i) f est continue.
(ii) L’image réciproque de tout fermé de F est un fermé relatif de A.
(iii) L’image réciproque de tout ouvert de F est un ouvert relatif de A.

Remarque 4.57 :
Ce résultat permet de démontrer très facilement qu’une partie est ouverte ou fermée.
Exemple 4.58 :
1. Dans R3 , la sphère de centre O de rayon 1 est l’image réciproque du fermé {1} par l’application (x, y, z) 7→
x2 + y 2 + z 2 , continue sur R3 : ainsi cette sphère est fermée dans R3 .

Fénelon Sainte-Marie – La Plaine-Monceau 52/244 31 août 2022


CHAPITRE 4. TOPOLOGIE MP 2022-23

2. Dans R2 , la région strictement comprise entre les deux branches de l’hyperbole équilatère d’équation x2 − y 2 = 1
est l’image réciproque de l’ouvert ] − ∞, 1[ par l’application (x, y) 7→ x2 − y 2 , continue sur R2 : ainsi cette région
est un ouvert relatif de R2 (mais pas un ouvert de R3 par exemple. . . ).
3. Dans Mn (K), l’ensemble des matrices inversibles est l’image réciproque de l’ouvert K∗ par l’application A 7→
det(A), continue : ainsi GLn (K) est un ouvert de Mn (K).
4. Considérons l’espace vectoriel E des suites réelles bornées, muni de la norme k · k∞ , l’ensemble A des suites
convergentes, et l’ensemble B des suites convergentes de limite strictement positive.
Tout d’abord B est l’image réciproque de l’ouvert R∗+ par l’application lim : A → R, (un )n 7→ lim un , qui
n→+∞ n→+∞
est 1-lipschitzienne donc continue : ainsi B est un ouvert relatif de A.
Mais B n’est pas un ouvert de E : si (un )n ∈ B, alors pour tout ε > 0 la suite (vn )n définie par vn = un +(−1)n ε/2
n’est pas dans B (elle n’admet même pas de limite !) alors que k(un )n − (vn )n k∞ = ε/2 < ε.

4.2.7 Homéomorphisme
Définition 4.59 : homéomorphisme
Soit E et F deux espaces vectoriels normés. On appelle homéomorphisme une application continue et bijective de
E dans F dont la bijection réciproque f −1 est aussi continue. On dit aussi que f est bicontinue.
Théorème 4.60 : équivalence de normes et homéomorphisme
Soit E un espace vectoriel. Deux normes N1 et N2 de E sont équivalentes si et seulement si IdE est un homéomor-
phisme de (E, N1 ) dans (E, N2 ).

Corollaire 4.61 : équivalence de normes et parties ouvertes


Soit E un espace vectoriel. Deux normes N1 et N2 de E sont équivalentes si et seulement si les parties ouvertes de
(E, N1 ) et (E, N2 ) sont les mêmes.

4.2.8 Continuité uniforme


Définition 4.62 : applications uniformément continues
Soit E et F deux espaces vectoriels normés. Une application f d’une partie A de E et à valeurs dans F est dite
uniformément continue sur A lorsque :
∀ε > 0, ∃α > 0, ∀(x, y) ∈ A2 , kx − yk ≤ α =⇒ kf (x) − f (y)k ≤ ε.

Remarque 4.63 :
1. En particulier : toute application lipschitzienne sur A est uniformément continue sur A, donc continue sur A.

2. La réciproque est fausse : en effet la fonction racine carrée · : R+ → R+ est uniformément continue sur [0, 1]
alors qu’elle n’est pas lipschitzienne sur [0, 1].

Exemple 4.64 :
L’application x 7→ d(x, A) (distance à la partie A d’un EVN E) est lipschitzienne, donc uniformément continue,
donc continue. Ceci a déjà été démontré au chapitre 3, dans l’exemple 3.22.

4.3 Applications linéaires continues, bilinéaires continues


4.3.1 Caractérisation des applications linéaires continues
Il est clair que l’ensemble des applications linéaires continues de E dans F est un sous-espace vectoriel de L(E, F ).
On le note usuellement LC(E, F ).

Fénelon Sainte-Marie – La Plaine-Monceau 53/244 31 août 2022


4.3. APPLICATIONS LINÉAIRES CONTINUES, BILINÉAIRES CONTINUES MP 2022-23

Théorème 4.65 : caractérisation des applications linéaires continues


Soit E et F deux espaces vectoriels normés et f une application linéaire de E dans F . Les propositions suivantes
sont équivalentes :
1. f est continue sur E.
2. f est continue en 0E .
3. f est bornée sur la boule unité fermée.
4. ∃K ∈ R+ , ∀x ∈ E, kf (x)k ≤ K kxk.
5. f est lipschitzienne sur E.
6. f est uniformément continue sur E.

Remarque 4.66 :
Dans le troisième point, on peut remplacer la boule unité fermée par la boule unité ouverte ou par la sphère unité
ou encore par une boule ouverte ou fermée ou une sphère de rayon fixé quelconque.
Exemple 4.67 :

1. Supposons E = F (espace préhilbertien réel ou complexe). Alors tout automorphisme orthogonal de E conserve
la norme donc est borné sur la boule unité, et par conséquent est continu sur E.
En d’autres termes : un automorphisme orthogonal d’un espace préhilbertien (réel ou complexe) est toujours
continu.
2. Considérons l’espace vectoriel E des suites réelles convergentes, muni de la norme k · k∞ . Alors l’application de
E dans R qui à toute suite convergente associe sa limite est 1-lipschitzienne donc continue sur E.
n
3. Considérons l’espace E = Kn [X] muni de la norme définie pour P = ak X k par kP k∞ = max k∈[[0,n]] |ak |.
P
k=0
Alors l’application dérivation D : E → E, P 7→ P 0 , vérifie : ∀P ∈ Kn [X], kP 0 k∞ ≤ n kP k∞ . Par conséquent elle
est continue.
En revanche, l’application dérivation considérée de K[X] dans K[X] n’est pas continue car kX n k∞ = 1 tandis
que kD(X n )k∞ = n X n−1 ∞ = n n’est pas majoré.

Remarque 4.68 :

1. Si deux normes sont équivalentes (par exemple en dimension finie), alors toute application linéaire continue pour
l’une est continue pour l’autre.
2. Ce n’est pas toujours vrai pour deux normes non équivalentes : il existe des applications qui sont continues pour
une norme et pas pour une autre. En effet dans le dernier exemple, si on munit K[X] de la norme N définie pour
n |ak |
ak X k par N (P ) = max k∈[[0,n]] , alors l’application dérivation de (K[X], k · k∞ ) dans (K[X], N )
P
P =
k=0 (k + 1)!
devient continue car pour tout P ∈ K[X], on a N (P 0 ) ≤ kP k∞ .

Théorème 4.69 : continuité des applications linéaires de source de dimension finie


Soit E et F deux espaces vectoriels normés. Si E est de dimension finie, alors toute application linéaire de E dans
F est continue.

Remarque 4.70 :
Lorsque E est de dimension finie, on peut donc confondre LC(E, F ) et L(E, F ).

4.3.2 Caractérisation de la continuité d’une application bilinéaire


Théorème 4.71 : caractérisation des applications bilinéaire continues

Fénelon Sainte-Marie – La Plaine-Monceau 54/244 31 août 2022


CHAPITRE 4. TOPOLOGIE MP 2022-23

Soit E, F , G trois espaces vectoriels normés et ϕ une application bilinéaire de E × F dans G. Alors l’application
ϕ est continue sur E × F si et seulement si :

∃K ∈ R, ∀(x, y) ∈ E × F, kϕ(x, y)k ≤ K kxk kyk .

Exemple 4.72 :
1. L’application K × E, (α, x) 7→ αx est bilinéaire continue.
2. Si E est un espace préhilbertien réel ou complexe, le produit scalaire est bilinéaire continu (c’est une conséquence
de l’inégalité de Cauchy-Schwarz).
3. La multiplication matricielle est une application bilinéaire de Mn (K)2 dans Mn (K). Elle est continue car pour
n’importe quelle norme matricielle : kABk ≤ kAk kBk.
Exercice : la norme k · k∞ n’est pas matricielle, par contre la norme de Frobénius (définie par (A|B) = tr (tA · B))
l’est.

Théorème 4.73 : continuité des applications bilinéaires de source de dimension finie


Soit E, F, G trois espaces vectoriels normés. Si E et F sont de dimension finie, alors toute application bilinéaire de
E × F dans G est continue.

Remarque 4.74 :
On démontre par récurrence immédiate que toute application n-linéaire de source un produit d’espaces de dimension
finie est continue.
Ceci permet d’affirmer que le déterminant est une application continue.
Exemple 4.75 :
Si E est un espace vectoriel normé de dimension 2 muni d’une base b = (e1 , e2 ), alors l’application detb : E 2 → K,
(x, y) 7→ detb (x, y) est bilinéaire de source de dimension finie, donc continue.
Plus généralement si E est de dimension n, alors l’application detb : E n → K, (x1 , . . . , xn ) 7→ detb (x1 , . . . , xn ) est
n-linéaire continue.
L’application det : Mn (K) → K, A 7→ det(A) est également continue car polynomiale.

4.3.3 Norme d’une application linéaire continue


Pour tout élément f de LC(E, F ), l’ensemble des normes des images des éléments de la boule unité de E est une
partie non vide et majorée de R : elle admet une borne supérieure, que nous noterons |||f |||. En d’autres termes :

|||f ||| = sup kf (x)k .


kxk≤1

Théorème 4.76 : norme subordonnée d’une application linéaire continue


Soit E et F deux espaces vectoriels normés. L’application ||| · ||| : LC(E, F ) → R, f 7→ |||f |||, est une norme sur
LC(E, F ), appelée norme subordonnée aux normes de E et de F .
On parle aussi de norme triple de f : E → F quand il n’y a pas d’ambigüité sur les normes de E et F .

Théorème 4.77 : caractérisation de la norme triple


Soit f ∈ LC(E, F ) où E et F sont deux EVN.
On peut caractériser |||f ||| par :

kf (x)k
|||f ||| = sup kf (x)k ou |||f ||| = sup .
kxk=1 x6=0E kxk

Ainsi |||f ||| est donc le plus petit réel K tel que : ∀x ∈ E, kf (x)k ≤ K kxk.

Fénelon Sainte-Marie – La Plaine-Monceau 55/244 31 août 2022


4.3. APPLICATIONS LINÉAIRES CONTINUES, BILINÉAIRES CONTINUES MP 2022-23

Théorème 4.78 : sous-multiplicativité de la norme subordonnée


Soit E, F et G trois espaces vectoriels normés. Si f est une application linéaire continue de E dans F et g une
application linéaire continue de F dans G, alors g ◦ f est une application linéaire continue de E dans G et :

|||g ◦ f ||| ≤ |||g||| × |||f |||.

4.3.4 Algèbre normée unitaire


Définition 4.79 : algèbre normée unitaire
On appelle algèbre normée unitaire une algèbre A unitaire (c’est-à-dire possédant un élément neutre e) munie
d’une norme k · k telle que :
kek = 1 et ∀(x, y) ∈ A2 , kx · yk ≤ kxk · kyk .

Exemple 4.80 :
E étant un espace vectoriel normé et A une partie non vide de E, l’ensemble des applications bornées de A dans
C, muni de la norme k · k∞ définie par
kf k∞ = sup kf (x)k ,
x∈A

est une algèbre normée unitaire notée B(A, C).


Le théorème précédent montre par ailleurs que :
Proposition 4.81 : l’algèbre normée unitaire LC(E)
L’ensemble LC(E) des endomorphismes continus de E est une algèbre normée unitaire.

EPCC : exercices 35, 36, 37, 38, 41, 44.

The end – chapitre 4

Fénelon Sainte-Marie – La Plaine-Monceau 56/244 31 août 2022


Chapitre 5

Éléments propres

Soit K un sous-corps de R ou C.
Fixons un K-espace vectoriel E, et un endomorphisme u de E.

5.1 Somme, somme directe d’une famille finie de sous-espaces vectoriels


5.1.1 Somme de p sous-espaces vectoriels
Étendons au cas de p sous-espaces vectoriels (p ∈ N∗ ) la définition de la somme, vue en première année, de deux
sous-espaces vectoriels.
Définition 5.1 : somme de sous-espaces vectoriels
Soit E un K-espace vectoriel et (F1 , . . . , Fp ) une famille de p sous-espaces vectoriels de E. On appelle somme de
cette famille l’ensemble des combinaisons linéaires (finies) d’éléments des sous-espaces Fi , pour i ∈ [[1, p]]. Chacun de
ces sous-espaces étant stable par combinaisons linéaires, on peut écrire un élément de cette somme comme une somme
d’éléments appartenant à chacun des Fi :
p
X
Fi = {x ∈ E , ∃ (x1 , . . . , xp ) ∈ F1 × · · · × Fp / x = x1 + · · · + xp } .
i=1

Remarque 5.2 :
1. La somme de la famille (F1 , . . . , Fp ) est le plus petit sous-espace vectoriel de E contenant tous les sous-espaces
de cette famille (ou, de façon équivalente, la réunion de cette famille).
2. Pour p = 1, la somme de la famille (F1 ) est évidemment le sous-espace F1 .

5.1.2 Somme directe de p sous-espaces vectoriels


Définition 5.3 : somme directe
p
X
Soit E un K-espace vectoriel et (F1 , . . . , Fp ) une famille de p sous-espaces vectoriels de E (p ≥ 2). La somme Fi
i=1
est dite directe lorsque la décomposition d’un élément de cette somme en somme d’éléments de chacun des sous-espaces
Fi est unique. On la note alors :
p
M
Fi = {x ∈ E , ∃!(x1 , . . . , xp ) ∈ F1 × · · · × Fp , x = x1 + · · · + xp } .
i=1

Proposition 5.4 : CNS pour qu’une somme soit directe

57
5.1. SOMME, SOMME DIRECTE D’UNE FAMILLE FINIE DE SOUS-ESPACES VECTORIELS MP 2022-23

p
X
Soit E un K-espace vectoriel et (F1 , . . . , Fp ) une famille de p sous-espaces vectoriels de E (p ≥ 2). La somme Fi
i=1
est directe si et seulement si :
p
X
∀(x1 , . . . , xp ) ∈ F1 × · · · × Fp , xi = 0 =⇒ x1 = · · · = xp = 0.
i=1

Proposition 5.5 : caractérisation d’une somme directe


p
X
Soit E un K-espace vectoriel et (F1 , . . . , Fp ) une famille de p sous-espaces vectoriels de E (p ≥ 2). La somme Fi
i=1
est directe si et seulement si :
p−1

X
la somme Fi est directe;






i=1
p−1
!
 M
 • Fi ∩ Fp = {0}.



i=1

Remarque 5.6 :
On remarque que pour p = 2 on retrouve la caractérisation d’une somme directe de deux sous-espaces vectoriels
étudiée en première année : la somme F1 + F2 est directe si et seulement si F1 ∩ F2 = {0}. Il ne faudrait pas en déduire
que pour p > 2 il suffirait que les intersections deux à deux des sous-espaces Fi soient réduites à {0} pour que la
somme F1 + · · · + Fp soit directe. On peut penser, par exemple, à trois droites vectorielles sécantes deux à deux du
plan vectoriel : leur somme n’est pas directe !

5.1.3 Projecteurs associés à une somme directe


Définition 5.7 : projecteurs associés à une somme directe
Soit E un K-espace vectoriel et (F1 , . . . , Fp ) une famille de p sous-espaces vectoriels de E dont la somme est directe.
On appelle projecteurs associés à cette somme directe les p projections sur l’un de ces sous-espaces parallèlement à la
somme directe des (p − 1) autres.
p
X
Si la somme Fi est directe, alors tout vecteur x de E se décompose de façon unique en x = x1 + · · · + xp , avec
i=1
pour tout i ∈ [[1, p]] : xi ∈ Fi . Le i-ième projecteur associé à cette somme
M directe est l’application pi de E dans E qui
à x associe xi . C’est un endomorphisme de E, de noyau Ker pi = Fj et d’image Im pi = Fi . Il vérifie pi ◦ pi = pi
j6=i
et pi ◦ pj = 0 si i 6= j.

5.1.4 Cas de la dimension finie


Proposition 5.8 : dimension d’une somme de sous-espaces
Soit E un K-espace vectoriel et (F1 , . . . , Fp ) une famille de p sous-espaces vectoriels de dimension finie de E. Alors :

p p
!
X X
dim Fi ≤ dim(Fi ).
i=1 i=1

De plus l’égalité est vérifiée si et seulement si la somme est directe.

Fénelon Sainte-Marie – La Plaine-Monceau 58/244 31 août 2022


CHAPITRE 5. ÉLÉMENTS PROPRES MP 2022-23

5.1.5 Décomposition d’une application linéaire sur une somme directe


Proposition 5.9 : décomposition sur une somme directe
p
M
Soit E et F deux K-espaces vectoriels. Si E1 , . . . , Ep sont des sous-espaces vectoriels de E tels que Ei = E et
i=1
si ui ∈ L(Ei , F ) pour tout i ∈ [[1, p]], alors il existe une et une seule application linéaire u ∈ L(E, F ) dont la restriction
à Ei soit ui pour tout i ∈ [[1, p]].

5.2 Calcul matriciel par blocs


5.2.1 Matrice définie par blocs
Soit A une matrice à n lignes, m colonnes à coefficients dans K. Il peut être utile d’effectuer une partition des
colonnes en p tranches consécutives et des lignes en q tranches consécutives. On obtient ainsi des sous-matrices Ai,j
de A avec i ∈ [[1, p]] et j ∈ [[1, q]] :
 
A1,1 . . . A1,q
 . .. 
 
A =  .. .  .
 
Ap,1 . . . Ap,q
Une telle écriture est appelée matrice blocs.
Exemple 5.10 :  
1 0 1 0 0 !
A1,1 A1,2 A1,3
La matrice A =  0 1 0 1 0  peut s’écrire A = , avec A1,1 = A1,2 =
 
A2,1 A2,2 A2,3
0 0 0 0 1
! !
1 0 0  
, A1,3 = , A2,1 = A2,2 = 0 0 et A2,3 = (1).
0 1 0
Si A est la matrice d’une application linéaire u d’un espace vectoriel E dans un espace vectoriel F relativement à
des bases B de E et B 0 de F , alors cette opération revient à partager la base B en q bases consécutives de sous-espaces
E1 , . . . , Eq dont la somme directe est E et la base B 0 en p bases consécutives de sous-espaces F1 , . . . , Fp dont la somme
directe est F . Alors la sous-matrice Ai,j est la matrice de la composée de la restriction de u à Ej par la projection de
M p Mp
F = Fk sur Fi parallèlement à Fk .
k=1 k6=i

5.2.2 Opérations par blocs


Il est clair que l’écriture d’une matrice en blocs est compatible avec l’addition, c’est-à-dire que si A et B sont deux
matrices de Mn,m découpées en blocs (Ai,j ) et (Bi,j ) avec les mêmes partitions des lignes et des colonnes, alors la
matrice A + B s’écrit en blocs (Ci,j ) avec pour tout (i, j) : Ci,j = Ai,j + Bi,j .
Exemple 5.11 :
     
1 0 1 0 1 −1 1 1 0
 0 1 −1  +  1 0 1  =  1 1 0 .
     

1 −1 1 −1 1 0 0 0 1

De même, l’écriture en blocs est compatible avec la multiplication par un scalaire, c’est-à-dire que si A est une
matrice de Mn,m découpée en blocs (Ai,j ), alors pour tout α ∈ K, la matrice αA s’écrit en blocs (Ci,j ) avec pour tout
(i, j) : Ci,j = αAi,j .
Exemple 5.12 :

Fénelon Sainte-Marie – La Plaine-Monceau 59/244 31 août 2022


5.2. CALCUL MATRICIEL PAR BLOCS MP 2022-23

   
1 0 1 −1 0 −1
(−1) ×  0 1 −1  =  0 −1 1 .
   

1 −1 1 −1 1 −1

Il est moins évident et pourtant remarquable que l’écriture en blocs est également compatible avec la multiplication
matricielle, c’est-à-dire que si A et B sont deux matrices appartenant respectivement à Mn,m et Mm,r , découpées en
blocs (Ai,j ) et (Bj,k ) avec la même partition pour les colonnes de A et les lignes de B, alors la matrice AB s’écrit en
Xm
blocs (Ci,k ) avec pour tout (i, k) : Ci,k = Ai,k Bk,j .
j=1
Conformément au programme, la démonstration de ce résultat n’est pas exigible.
Exemple 5.13 :
     
1 0 1 0 1 1 0
 0 1 −1  ×  1 0  =  0 1 .
     

1 −1 1 1 −1 0 0

Remarque 5.14 :
Cela revient à dire que les matrices-blocs se comportent comme des matrices dont les coefficients seraient eux-mêmes
des matrices.
Les opérations élémentaires sur les lignes ou les colonnes d’une matrice (échange, multiplication par un scalaire,
ajout d’une ligne ou d’une colonne dans une autre), destinées à déterminer le rang d’une matrice ou à résoudre un
système linéaire, s’étendent sans difficultés aux matrices blocs.

5.2.3 Déterminant d’une matrice triangulaire par blocs


Soit A une matrice carrée de taille n à coefficients dans K. On dit que A est triangulaire par blocs lorsqu’on peut
l’écrire en blocs Ai,j , où les blocs diagonaux Ai,i sont carrés et Ai,j = 0 si i > j.
Exemple 5.15 :
 
1 0 1 1 0
 
0 1 0 0 −1 A1,1 A1,2 A1,3
 
 
 
A =  0 0 1 0 1  = 
 0 A2,2 A2,3  .

 
0 0 0 0 1 0 0 A3,3
 
 
0 0 0 1 0

Proposition 5.16 : déterminant d’une matrice triangulaire par blocs


Le déterminant d’une matrice triangulaire par blocs est le produit des déterminants des blocs diagonaux. Plus
p
Y
2
précisément, si A = (Ai,j ) avec (i, j) ∈ [[1, p]] alors det(A) = det(Ai,i ).
i=1

Ici encore, ce résultat sera admis sans démonstration.


Exemple 5.17 :
1 0 0 1
Dans l’exemple précédent : det(A) = × (1) × = −1.

0 1 1 0
Remarque 5.18 :
Ce résultat ne concerne que les matrices triangulaires par blocs. Il ne faudrait pas croire que le déterminant d’une
matrice blocs quelconque, ses blocs fussent-ils carrés, se calcule comme celui d’une matrice ordinaire en remplaçant
chaque bloc par son déterminant.

Fénelon Sainte-Marie – La Plaine-Monceau 60/244 31 août 2022


CHAPITRE 5. ÉLÉMENTS PROPRES MP 2022-23

Exemple 5.19 :
Considérons la matrice :  
1 0 1 0
 0 1 0 1 
A =  .
 
 1 0 1 0 
0 1 0 −1

1 1
En remplaçant chaque bloc par son déterminant, on obtient = −2, alors que le déterminant de A est

1 −1
évidemment nul (deux lignes sont égales).

5.3 Sous-espaces stables


5.3.1 Sous-espace vectoriel stable par un endomorphisme
Définition 5.20 : sous-espace stable
Un sous-espace vectoriel F de E est dit stable par u ou u-stable lorsque u(F ) ⊂ F , c’est-à-dire lorsque :

∀x ∈ F, u(x) ∈ F.

Dans ce cas, la restriction de u à F , au départ comme à l’arrivée, est un endomorphisme de F appelé endomorphisme
induit par u.
Exemple 5.21 :
Si u et v sont deux endomorphismes de E qui commutent, alors les sous-espaces Ker u et Im u sont stables par v.
En particulier Ker u et Im u sont stables par u.

5.3.2 Caractérisation matricielle de la stabilité d’un SEV


Supposons E de dimension finie n, et soit F un sous-espace u-stable de E. Considérons une base (e1 , . . . , ep ) du
sous-espace F ; on peut la compléter en une base B = (e1 , . . . , en ) de E. La matrice de u dans cette base est de la
forme : !
B C
A = où B ∈ Mp (K), D ∈ Mn−p (K).
0 D
Réciproquement, toute matrice de cette forme représente un endomorphisme stabilisant le sous-espace engendré par
les p premiers vecteurs de base.
Remarque 5.22 :
Le déterminant de u est alors : det u = det A = det B · det D.
Plus généralement, soit (E1 , . . . , Ep ) une famille finie de sous-espaces vectoriels dont E est la somme directe, et u un
endomorphisme de E stabilisant chaque Ei . La matrice de u dans une base adaptée à cette décomposition est diagonale
par blocs. Réciproquement, toute matrice de cette forme représente un endomorphisme stabilisant chaque sous-espace
Ei .
Remarque 5.23 :
Le déterminant de u est alors le produit des déterminants diagonaux.

5.3.3 Droite stable par un endomorphisme


Proposition 5.24 : droite stable
Soit E un K-espace vectoriel et u un endomorphisme de E. Une droite vectorielle D de E est stable par u si et
seulement si il existe un scalaire λ tel que pour tout x ∈ D, u(x) = λx.

Fénelon Sainte-Marie – La Plaine-Monceau 61/244 31 août 2022


5.4. POLYNÔMES D’UN ENDOMORPHISME MP 2022-23

Si E est de dimension finie, alors on peut compléter la base (e) de D en une base (e, e2 , . . . , en ) de E dans laquelle
la matrice de u sera de la forme :  
λ ∗ ··· ∗
 0
 

A =   ..
.
 .

 B
0
Soit F = Vect(e2 , . . . , en ) et p la projection sur F parallèlement à D. Alors B est la matrice de l’endomorphisme de
F induit par p ◦ u.

5.4 Polynômes d’un endomorphisme


5.4.1 Morphisme P 7→ P (u) ; noyau et image de ce morphisme
Le morphisme. . .
Soit E un K-espace vectoriel et u un endomorphisme de E.
Xp
Pour tout polynôme P = ak X k , on définit l’endomorphisme :
k=0

p
X
P (u) = ak uk où u0 = IdE .
k=0

Théorème 5.25 : le morphisme évaluation


L’application P 7→ P (u) est un morphisme de l’algèbre K[X] dans l’algèbre L(E) :

1K[X] (u) = IdE ; ∀(P, Q) ∈ K[X]2 (αP + βQ)(u) = αP (u) + βQ(u) ; (P Q)(u) = P (u) ◦ Q(u).

Exemple 5.26 : !
2 1
Pour A = et P (X) = X 2 − 2X + 3, calculer P (A).
−1 −1

Remarque 5.27 :
Soit P ∈ K[X].
   
λ1 (∗) P (λ1 ) (∗0 )
1. Si A = 
 ..  est triangulaire supérieure alors P (A) = 
  ..  l’est aussi.

 .   0 . 
(0) λn (0) P (λn )
2. En particulier si A = diag (a1 , . . . , an ) est diagonale alors P (A) = diag (P (a1 ), . . . , P (an )) est diagonale.
3. Si A = diag (A1 , . . . , Ak ) est diagonale par blocs alors P (A) = diag (P (A1 ), . . . , P (Ak )) l’est aussi.
! !
A1 A2 P (A1 ) P (A2 )
4. Attention, si A = alors en général P (A) n’est pas égal à !
A3 A4 P (A3 ) P (A4 )

. . . son noyau. . .
Le noyau de ce morphisme est l’ensemble des polynômes P tels que P (u) = 0.
Définition 5.28 : polynôme annulateur d’un endomorphisme
Les polynômes P tels que P (u) = 0 sont appelés les polynômes annulateurs de u.
Remarque 5.29 :

Fénelon Sainte-Marie – La Plaine-Monceau 62/244 31 août 2022


CHAPITRE 5. ÉLÉMENTS PROPRES MP 2022-23

Les polynômes annulateurs de u forment un idéal de l’anneau K[X] (sous-groupe additif de K[X] vérifiant : pour
tout polynôme P annulateur de u et tout polynôme A de K[X], le polynôme AP est encore un polynôme annulateur
de u).
L’anneau K[X] étant principal, l’idéal des polynômes annulateurs de u est principal, c’est-à-dire que c’est l’ensemble
des multiples d’un polynôme µu (X).
Définition 5.30 : polynôme minimal d’un endomorphisme
Parmi les polynômes annulateurs de u, soit µu (X) celui qui est de degré minimal et unitaire. Lorsqu’il est non nul,
ce polynôme µu (X) est appelé le polynôme minimal de u.
Remarque 5.31 :
Vu la remarque précédente, on en déduit que lorsqu’on connaît un polynôme annulateur non nul P de u, le polynôme
minimal de u est nécessairement un diviseur de P .
Exemple 5.32 :

1. Un projecteur p vérifie p2 = p ; le polynôme P = X 2 − X est donc un polynôme annulateur de p. Si le projecteur


est différent de 0 et de IdE , son polynôme minimal est X 2 − X.
2. Un endomorphisme nilpotent non nul u a pour polynôme minimal X n , où n est l’indice de nilpotence de u,
c’est-à-dire l’entier n tel que un−1 6= 0 et un = 0.

Remarque 5.33 :
Il est à noter qu’un endomorphisme ne possède pas toujours de polynôme minimal. En effet l’ensemble de ses
polynômes annulateurs peut être réduit à {0}).
Par exemple l’opérateur de dérivation D sur K[X] : il n’existe aucune équation différentielle linéaire à coefficients
constants vérifiée par tous les polynômes. Cependant, en dimension finie :
Théorème 5.34 : existence d’un polynôme minimal en dimension finie
Tout endomorphisme d’un espace vectoriel de dimension finie possède un polynôme minimal.

Exemple 5.35 :
La restriction à Kn [X] de l’opérateur de dérivation D a pour polynôme minimal X n+1 .
Voyons trois applications de l’existence de polynômes annulateurs en dimension finie.

Proposition 5.36 : en dimension finie, base de K[u]


Soit u un endomorphisme d’un espace vectoriel de dimension finie (respectivement A une matrice carrée).
Si d est le degré du polynôme minimal de u (resp. A), alors la famille (uk )0≤k≤d−1 est une base de K[u].

Proposition 5.37 : toute sous-algèbre de Mn (K) est stable par prise d’inverse
Soit A une sous-algèbre de Mn (K).
Pour toute matrice M inversible appartenant à A, l’inverse M −1 appartient encore à A.

Exemple 5.38 :
Voici deux applications concrètes de ce résultat :
1. Si T est triangulaire supérieure et inversible, alors son inverse est également triangulaire supérieure.
sup
Ceci découle du fait que Tn (K) est une sous-algèbre de Mn (K).
! !
1 0 0 1
2. Considérons I2 = et A = . Remarquons que Vect(I2 , A) est une sous-algèbre de M2 (R)
0 1 1 0
(exo !). Alors d’après la proposition précédente, l’inverse de xI2 + yA (s’il existe) est de la forme x0 I2 + y 0 A.

La troisième application des polynômes annulateurs que nous citerons est le calcul de la puissance d’une matrice :
Exemple 5.39 :

Fénelon Sainte-Marie – La Plaine-Monceau 63/244 31 août 2022


5.4. POLYNÔMES D’UN ENDOMORPHISME MP 2022-23

 
0 1 −1
Dans M3 (R) soit la matrice A =  −3 4 −3 .
 

−1 1 0
1. Calculer A2 ; vérifier que A2 − 3A + 2I3 = 0.
2. En déduire que A est inversible et déterminer A−1 .
3. Soit n ∈ N, n > 2. Déterminer le reste de la division euclidienne de X n par X 2 − 3X + 2. En déduire An .

. . . et son image !
L’image du morphisme P 7→ P (u) est l’ensemble des endomorphismes de la forme P (u), avec P ∈ K[X]. C’est une
sous-algèbre de L(E).
Définition 5.40 : sous-algèbre engendrée par un endomorphisme
L’image du morphisme P 7→ P (u) est appelée sous-algèbre engendrée par u et notée K[u].
Notons que pour tout polynôme P , l’endomorphisme P (u) commute avec u ; il s’ensuit que les sous-espaces ker P (u)
et Im P (u) sont stables par u.

5.4.2 Polynôme caractéristique d’un endomorphisme d’un EV de dimension finie


Plaçons-nous dans le cas où E est de dimension finie n et u est un endomorphisme de E.
L’application qui à λ ∈ K associe det(λIdE − u) est polynomiale. Il existe en fait un polynôme χu , de degré n, à
coefficients dans K, tel que :
∀λ ∈ K, χu (λ) = det(λIdE − u).
Définition 5.41 : polynôme caractéristique d’un endo. d’un EV de dim finie
Le polynôme χu , de degré n, à coefficients dans K, tel que :

∀λ ∈ K, χu (λ) = det(λIdE − u)

est appelé le polynôme caractéristique de u.


On a bien sûr la définition analogue pour les matrices carrées :
Définition 5.42 : polynôme caractéristique d’une matrice
Soit A ∈ Mn (K). Le polynôme χA , de degré n, à coefficients dans K, tel que

∀λ ∈ K, χA (λ) = det(λIn − A)

est appelé le polynôme caractéristique de A.


Pour A = (ai,j )i,j :
λ − a1,1 −a1,2 ... −a1,n
..

..
−a
2,1 λ − a2,2 . .
χA (λ) =

.. .. ..

. . . −an−1,n



−an,1 ... −an,n−1 λ − an,n

En développant, on obtient :
Proposition 5.43 : trace, déterminant et polynôme caractéristique
Pour toute A ∈ Mn (K), nous avons χA (λ) = λn − tr (A)λn−1 + · · · + (−1)n det(A).

Remarque 5.44 :
n
Y
Si M = (mi,j )i,j est triangulaire supérieure, alors χM (X) = (X − mi,i ).
i=1

Fénelon Sainte-Marie – La Plaine-Monceau 64/244 31 août 2022


CHAPITRE 5. ÉLÉMENTS PROPRES MP 2022-23

5.4.3 Théorème de décomposition des noyaux


Lemme 5.45 : intersection de noyaux de polynômes d’endomorphismes
Soit E un K-espace vectoriel, u un endomorphisme de E, A et B deux polynômes de K[X] et D = A ∧ B leur
PGCD. Alors :
ker A(u) ∩ ker B(u) = ker D(u).

Théorème 5.46 : décomposition des noyaux


Soit E un K-espace vectoriel, u un endomorphisme de E, et A, B deux polynômes de K[X] premiers entre eux.
Alors :
ker A(u) ⊕ ker B(u) = ker AB(u).

On en déduit par récurrence :


Corollaire 5.47 : généralisation du théorème de décomposition des noyaux
Soit E un K-espace vectoriel, u un endomorphisme de E, A1 , . . . , Ap des polynômes de K[X] premiers entre eux
deux à deux. Alors :
p
M
ker(A1 · · · Ap )(u) = ker Ai (u).
i=1

5.5 Éléments propres d’un endomorphisme


5.5.1 Valeurs propres et vecteurs propres d’un endomorphisme
Soit E un K-espace vectoriel, u un endomorphisme de E et λ un scalaire. Les propriétés suivantes sont équivalentes :
(1) il existe un vecteur x non nul tel que u(x) = λx ;
(2) Ker (u − λIdE ) 6= {0E } ;
(3) l’endomorphisme u − λIdE n’est pas injectif.
Définition 5.48 : valeur propre, vecteur propre, espace propre, d’un endomorphisme
• Lorsque l’une des trois conditions équivalentes ci-dessus est vérifiée, on dit que λ est une valeur propre de u, et
que x est un vecteur propre de u associé à la valeur propre λ.
• Le sous-espace vectoriel Ker (u − λIdE ) est appelé sous-espace propre associé à la valeur propre λ, et noté Eλ (u).
• L’ensemble des valeurs propres de u est appelé spectre de u : Sp(u) = {λ ∈ K / ker(u − λIdE ) 6= {0E }}.
• Le rayon spectral est la borne supérieure de l’ensemble des modules des valeurs propres : ρ(u) = sup |λ|.
λ∈Sp(u)

Remarque 5.49 :
• Attention : un vecteur propre est supposé non nul. Le sous-espace propre associé à la valeur propre λ est
constitué des vecteurs propres associés à la valeur propre λ et du vecteur nul.
• Lorsque le corps de base est C, le dernier • permet d’affirmer que tout endomorphisme, toute matrice, admet au
moins une valeur propre (et donc un espace propre non réduit à {0}).

Exemple 5.50 :
1. Soit p la projection sur le sous-espace vectoriel F parallèlement à un supplémentaire G. Des valeurs propres de
p sont 0 et 1 ; de plus E0 (p) = G et E1 (p) = F .

Fénelon Sainte-Marie – La Plaine-Monceau 65/244 31 août 2022


5.5. ÉLÉMENTS PROPRES D’UN ENDOMORPHISME MP 2022-23

2. Soit D l’opérateur de dérivation sur C ∞ (R, R). Alors tout réel est valeur propre de D. Le sous-espace propre
associé à la valeur propre λ est l’ensemble des solutions de l’équation différentielle y 0 = λy, c’est-à-dire Vect(x 7→
eλx ).
3. L’opérateur de dérivation D : K[X] → K[X] n’admet aucune valeur propre autre que 0, puisque l’équation
P 0 = λP n’admet aucune solution polynomiale non nulle.
4. Éléments propres des homothéties, des symétries, des rotations.

Théorème 5.51 : lien entre valeurs propres et racines du polynôme caractéristique


Pour un endomorphisme d’un espace de dimension finie : les valeurs propres sont les racines du polynôme caracté-
ristique.
Définition 5.52 : multiplicité d’une valeur propre d’un endomorphisme
La multiplicité d’une valeur propre d’un endomorphisme (d’une espace de dimension finie) est la multiplicité en
tant que racine du polynôme caractéristique.
Exemple 5.53 :
Soit u un endomorphisme de polynôme caractéristique (X − a)3 (X − b)(X − c). Ses valeurs propres sont a, a, a, b, c.
La valeur propre a est triple, les valeurs propres b et c sont simples. Le spectre de u est Sp(u) = (a, a, a, b, c) = {a, b, c}
(avec/sans multiplicités).
Remarque 5.54 :
• Si deux endomorphismes commutent, alors tout sous-espace propre de l’un est stable par l’autre.
En effet si x ∈ ker(u − λIdE ) alors u(v(x)) = v(u(x)) = v(λx) = λv(x) donc v(x) ∈ ker(u − λIdE ).
• En particulier tout sous-espace propre de u est stable par u.

Définition 5.55 : éléments propres d’une matrice


On définit de même les éléments propres d’une matrice.
Proposition 5.56 : polynôme caractéristique de matrices semblables
Deux matrices semblables ont même polynôme caractéristique, donc même spectre.

Remarque 5.57 :
Soit K0 un sous-corps de K et M une matrice de Mn (K0 ). Alors le spectre de M dans K0 est contenu dans le spectre
de M dans K.
Exemple 5.58: 
0 1 0
Pour M =  −1 0 0 , il vient χM (X) = (X − 1)(X 2 + 1) donc SpC (M ) = (1, i, −i) contient SpR (M ) = (1).
 

0 0 1
Proposition 5.59 : en dimension finie, existence de droite ou plan stable d’un endo./d’une matrice
Soit u un endomorphisme d’un espace vectoriel réel ou complexe de dimension finie (respectivement A une matrice
carrée).
Alors l’endomorphisme u admet une droite stable ou un plan stable.

5.5.2 Sous-espaces propres associés à des valeurs propres distinctes


Théorème 5.60 : les sous-espaces propres sont en somme directe
Les sous-espaces propres associés à p valeurs propres distinctes deux à deux sont en somme directe.

Corollaire 5.61 : liberté des vecteurs propres associés à des valeurs propres distinctes
Toute famille de vecteurs propres associés à des valeurs propres distinctes deux à deux est libre.

Fénelon Sainte-Marie – La Plaine-Monceau 66/244 31 août 2022


CHAPITRE 5. ÉLÉMENTS PROPRES MP 2022-23

5.5.3 Valeurs propres et polynômes annulateurs


Théorème 5.62 : spectre de P (u)
Soit u un endomorphisme d’un K-espace vectoriel E et P un polynôme de K[X]. Pour toute valeur propre λ de u,
le scalaire P (λ) est une valeur propre de P (u).

Corollaire 5.63 : valeurs propres et racines des polynômes annulateurs


Si P est un polynôme annulateur de u, alors toute valeur propre de u est une racine de P .

La réciproque est fausse : X 2 − X est un polynôme annulateur de IdE , mais sa racine 0 n’est pas une valeur propre
de IdE .
Exemple 5.64 :
Soit p un projecteur. Alors p2 − p = 0 donc X 2 − X = X(X − 1) est un polynôme annulateur de p. Les valeurs
propres de p sont à chercher dans {0, 1}. Or 0 et 1 sont valeurs propres, d’où Sp(p) = {0, 1}.
Corollaire 5.65 : valeurs propres et racines du polynôme minimal
Si u admet un polynôme minimal µu (X) (ce qui est le cas notamment en dimension finie), alors les valeurs propres
de u sont exactement les racines de µu (X). En d’autres termes : Sp(u) = Z(µu (X)) = Z(χu (X)).

5.5.4 Polynôme caractéristique et sous-espaces stables


Théorème 5.66 : polynôme caractéristique de la restriction d’un endomorphisme
Soit E un K-espace vectoriel de dimension finie, u un endomorphisme de E, et F un sous-espace vectoriel stable
par u. Le polynôme caractéristique de l’endomorphisme de F induit par u divise le polynôme caractéristique de u. En
d’autres termes : χu|F (X)|χu (X).

Plus généralement, si F1 , . . . , Fp sont des sous-espaces stables par u dont E est somme directe, alors le polynôme
caractéristique de u est le produit des polynômes caractéristiques des endomorphismes induits par u sur F1 , . . . , Fp .
Corollaire 5.67 : encadrement de la dimension d’un espace propre
Soit E un K-espace vectoriel de dimension finie, u un endomorphisme de E, et λ une valeur propre de u, d’ordre
de multiplicité m dans χu . Alors :
1 ≤ dim Eλ (u) ≤ m.

Remarque 5.68 :
En particulier si λ est une racine simple de χu alors m = 1, donc dim Eλ (u) = 1.

5.5.5 Théorème de Cayley-Hamilton


Nous avons remarqué qu’en dimension finie, le polynôme minimal et le polynôme caractéristique d’un endomor-
phisme u avaient les mêmes racines : les valeurs propres de u. Le théorème suivant permet de préciser le lien entre ces
deux polynômes :
Théorème 5.69 : Cayley-Hamilton
Soit E un K-espace vectoriel de dimension finie. Alors le polynôme caractéristique d’un endomorphisme u de E est
un polynôme annulateur de u, donc un multiple de son polynôme minimal :

χu (u) = 0.

Conformément au programme, nous admettrons ce résultat sans démonstration.


Remarque 5.70 :
Conséquences :

Fénelon Sainte-Marie – La Plaine-Monceau 67/244 31 août 2022


5.5. ÉLÉMENTS PROPRES D’UN ENDOMORPHISME MP 2022-23

1. Le polynôme minimal est à chercher parmi les diviseurs du polynôme caractéristique.


2. Le degré du polynôme minimal est inférieur ou égal à la dimension de E.
3. Ces deux polynômes (minimal et caractéristique) ne diffèrent que par les ordres de multiplicité des racines, plus
petits dans le polynôme minimal que dans le polynôme caractéristique.

Démonstration
HORS-PROGRAMME
Notons n = dim(E) et prouvons que χu (u)(x) = 0E pour tout x ∈ E. Déjà si x est nul alors l’égalité est claire.
Supposons désormais x 6= 0E , de sorte que (x) est une famille libre. Considérons

ν = min k ≥ 2 / x, u(x), . . . , uk (x) liée .


 

Par construction uν (x) est lié avec (x, u(x), . . . , uν−1 (x)) qui est libre, donc uν (x) se décompose en

uν (x) = a0 x + a1 u(x) + · · · + aν−1 uν−1 (x).

Complétons la famille (x, u(x), . . . , uν−1 (x)) en une base B de E, dans laquelle la matrice de u est :
 
0 a0 ∗
 . .. .. .. 
 1 . .  !

..  =
 C(P ) ∗
[u]B = 
 . ..
 ν,n−ν
 0 aν−2 .  0n−ν,ν M
 
 1 aν−1 ∗ 
0 ··· ··· 0 M

où P (X) = X ν − aν−1 X ν−1 − · · · − a1 X − a0 . Constatons que P (u)(x) = 0E . Démontrons maintenant que χC(P ) = P ,
ce qui justifiera a posteriori que la matrice C(P ) est appelée matrice compagne de P . En effet :
 
0 −a0
 1 0
 −a1  
 .. .. .. 
C(P ) = 
 . . . .

.. ..
 
. 0 .
 
 
1 −an−1
n−1
X
Ajoutons à la première ligne L1 du polynôme caractéristique de cette matrice la combinaison linéaire X k Lk+1 .
k=1
Pour être plus précis : en remontant, on ajoute X fois une ligne à celle qui est au-dessus. Ainsi à Ln−1 on ajoute XLn ,
puis à Ln−2 on ajoute X fois la nouvelle Ln−1 , et ainsi de suite.
n−1
 
X
0 Xn + ak X k 
 
X 0 ··· 0 a0  0 0 ···
 −1 X . . .
 ..  
k=0

. .. ..
 
a1 
.
 
−1 0 . a
 
.. .. .
 1

.
 
χC(P ) (X) =  . . .
 = 
. .
 
0 .. .. .
. . .
 

.. ..   0 
. X
 
. .. ..
   
. .
 
0
 
−1 X + an−1
 
−1 X + an−1
n−1
!
X
En développant par rapport à la première ligne il vient χC(P ) (X) = (−1)n−1 ×(−1)n−1 × X n + ak X k c’est-à-dire
k=0
n−1
X
χC(P ) (X) = X n + ak X k = P (X) .
k=0

Fénelon Sainte-Marie – La Plaine-Monceau 68/244 31 août 2022


CHAPITRE 5. ÉLÉMENTS PROPRES MP 2022-23

On remarque alors que


χu (X) = χC(P ) (X) × χM (X)
puis en évaluant en u
χu (u) = χM (u) ◦ χC(P ) (u)
et enfin en appliquant à x :
     
χu (u)(x) = χM (u) χC(P ) (u)(x) = χM (u) P (u)(x) = χM (u) 0E = 0E .

Remarque 5.71 :
Le théorème de Cayley-Hamilton permet de calculer la puissance d’une matrice. Il suffit en effet d’appliquer la
même technique que dans l’exemple 39.
En supposant χA (X) connu, on commence par calculer la division euclidienne de X n par le polynôme caractéris-
tique : (∗) X n = QχA (X) + R(X) avec deg(R) < n. La détermination de R(X) se fait en évaluant (∗) en les valeurs
propres de A. Ensuite, en évaluant (∗) en A, il vient An = Q(A)χA (A) + R(A) = R(A).

EPCC : exercices 62, 65, 83, 93.

The end – chapitre 5

Fénelon Sainte-Marie – La Plaine-Monceau 69/244 31 août 2022


5.5. ÉLÉMENTS PROPRES D’UN ENDOMORPHISME MP 2022-23

Fénelon Sainte-Marie – La Plaine-Monceau 70/244 31 août 2022


Chapitre 6

Séries de nombres réels ou de vecteurs

6.1 Séries réelles ou vectorielles


Soit (un )n une suite de nombres réels ou d’éléments d’un espace vectoriel normé E.

6.1.1 Définition d’une série — rappels de Sup


Définition 6.1 : série, somme partielle, reste, somme
n
X
• On appelle série de terme général un la suite un = (Sn )n définie par : ∀n ∈ N, Sn = uk .
P
k=0
X
• Pour n fixé, Sn s’appelle somme partielle de la série un .
n
X
• On dit que la série un converge lorsque la suite (Sn )n converge.
n
+∞
X
Sa limite est alors appelée somme de la série et notée un .
n=0
+∞
X n
X
La différence Rn = uk − uk est appelé reste d’ordre n de la série.
k=0 k=0
• Lorsque la série ne converge pas, on dit qu’elle diverge.

Attention : ne pas confondre les symboles :


X
• un qui désigne la série.
n
+∞
X
• un sa somme (si elle existe).
n=0
n
X
• uk une somme partielle.
k=0
+∞
X
• uk le reste correspondant.
k=n+1

Remarque 6.2 :
On peut retrouver le terme général d’une série à partir de ses sommes partielles : un = Sn − Sn−1 .
Exemple 6.3 :

71
6.1. SÉRIES RÉELLES OU VECTORIELLES MP 2022-23

X1 Z k+1
1 dt 1
1. La série , appelée série harmonique est divergente. En effet : ∀k ∈ N ,

≤ ≤ , d’où :
n
n k + 1 k t k

n Z n+1 n
X 1 dt X 1
Sn = ≥ = ln(n + 1) d’où lim = +∞.
k 1 t n→+∞ k
k=1 k=1

X 1 1 1 1
2. La série est convergente. En effet : ∀k ∈ N∗ , = − , d’où :
n
n(n + 1) k(k + 1) k k+1

n n n
X 1 X 1 X 1 1
= − = 1− .
k(k + 1) k k+1 n+1
k=1 k=1 k=1

+∞
X 1
La somme de la série est : = 1. C’est un cas de série « télescopique » :
n=1
n(n + 1)
X
3. La série un est télescopique lorsqu’il existe une suite de réels (vn )n telle que un = vn − vn+1 pour tout entier
n
n
X X
n. La somme partielle vérifie par conséquent uk = v0 − vn+1 . La série un est alors convergente si et
k=0 n
+∞
X
seulement si la suite (vn )n converge, et dans ce cas : un = v0 − lim vn .
n→+∞
n=0

Une application des séries télescopiques est le :


Lemme 6.4 : lien suite/série — rappel de Sup
La suite (un )n est convergente si et seulement si la série n un+1 − un est convergente.
P

Proposition 6.5X : linéarité


X de la somme — rappel de Sup X
Si deux séries un et vn sont convergentes, alors pour tous réels (resp. complexes) λ, µ la série λun + µvn
n n n
est convergente et
+∞
X +∞
X +∞
X
λun + µvn = λ un + µ vn .
n=0 n=0 n=0

6.1.2 Une condition nécessaire de convergence d’une série — rappels de Sup


Théorème 6.6 : une Xcondition nécessaire de convergence d’une série — rappel de Sup
Pour que la série un converge, il est nécessaire que le terme général tende vers 0 (ou 0E ).
n

Remarque 6.7 :
Cette condition n’est pas du tout suffisante : il existe des séries dont le terme général converge vers 0 mais pas
convergentes pour autant. Par exemple la série harmonique !
Définition 6.8 : série grossièrement divergente
Une série dont le terme général ne converge pas vers 0E est dite grossièrement divergente.
Exemple 6.9 :
La série de terme général (−1)n est grossièrement divergente.
Proposition 6.10 : convergence des séries à termes complexes — rappel de Sup

Fénelon Sainte-Marie – La Plaine-Monceau 72/244 31 août 2022


CHAPITRE 6. SÉRIES DE NOMBRES RÉELS OU DE VECTEURS MP 2022-23

X X
Soit (zn )n∈N une suite complexe. Alors la série zn converge si et seulement si les deux séries <(zn ) et
X n n
=(zn ) convergent et, dans ce cas :
n

+∞
X +∞
X +∞
X
zn = <(zn ) + i =(zn ).
n=0 n=0 n=0

6.1.3 Séries absolument convergentes


Définition 6.11 : série absolument convergente X
Une série réelle, complexe, ou à valeur dans un EVN un est dite absolument convergente lorsque la série des
X n X
valeurs absolues (resp. des modules, des normes) |un | (resp. kun k) est convergente.
n n

Théorème 6.12 : Pour les séries réelles : CA⇒Cgce — vu en Sup


Toute série réelle absolument convergente est convergente.

La propriété « absolue convergence implique convergence » peut ensuite être étendue aux séries à valeurs complexes
en séparant de la même façon parties réelle et imaginaire.
Corollaire 6.13 : CA⇒ CS en dimension finie
Toute série absolument convergente, à termes dans un espace vectoriel réel de dimension finie, est convergente.

Exemple 6.14 :
X (−1)n
1. La série réelle est absolument convergente, donc convergente.
n
n(n + 1)
X einx
2. La série complexe est absolument convergente, donc convergente.
n
n2
X An kAn k
3. Pour toute matrice orthogonale A ∈ O(p), la série de matrices est absolument convergente car =
n
n2 n2

p
2
.
n
X An
Ainsi : si A ∈ O(p) alors est convergente.
n
n2

Remarque 6.15 : X
ATTENTION ! ! ! La réciproque est fausse : une série un peut être convergente sans que la série des valeurs
X n
absolues/modules |un | le soit. On dit alors qu’elle est semi-convergente.
n

Exemple 6.16 :
X (−1)n (2n + 1)
La série est semi-convergente. En effet :
n
n(n + 1)
(−1)n (2n + 1) (−1)n (−1)n−1
• Elle converge car = − , d’où par télescopage :
n(n + 1) n+1 n
+∞
X (−1)n (2n + 1)
= −1.
n=1
n(n + 1)

Fénelon Sainte-Marie – La Plaine-Monceau 73/244 31 août 2022


6.1. SÉRIES RÉELLES OU VECTORIELLES MP 2022-23

(2n + 1) 2 X 2
• Elle n’est pas absolument convergente, car ≥ et la série tend vers +∞.
n(n + 1) n+1 n
n+1

6.1.4 Espaces `1 (E), `2 (C)


X
1. L’ensemble des suites (un )n d’éléments de E telles que la série un soit absolument convergente est un espace
n
+∞
X
vectoriel, noté `1 (E). L’application N1 : u 7→ kun k est une norme sur `1 (E).
n=0
X
2. Si E = C, alors l’ensemble des suites (un )n de nombres complexes telles que la série |un |2 soit convergente
n
+∞
X
est un espace vectoriel, noté `2 (C). L’application (u, v) 7→ un vn est un produit scalaire hermitien sur `2 (C)
n=0 v
u +∞
uX
(forme sesquilinéaire définie positive). La norme associée est définie par N2 (u) = t |un |2 .
n=0

6.1.5 Application des séries absolument convergentes : la série géométrique


Tout d’abord un petit rappel de Sup :
Théorème 6.17 : les séries géométriques complexes X — rappel de Sup
Soit z un nombre complexe. La série géométrique z n est convergente si et seulement si |z| < 1. Sa somme est
n
alors :
+∞
X 1
zn = .
n=0
1−z

Remarque 6.18 :
Remarquons qu’on sait aussi calculer explicitement le reste, ce qui est assez rare pour une série :

z n+1
Rn = .
1−z

Maintenant, généralisons ces séries à des espaces plus généraux que C.


Soit A une algèbre normée unitaire de dimension finie, d’élément neutre e. La norme ici est une norme d’algèbre :

∀(u, v) ∈ A2 , ku · vk ≤ kuk × kvk .

Définition 6.19 : série géométrique


X +∞
X
Pour tout élément u de A tel que kuk < 1, la série un est appelée série géométrique. Sa somme un est
n n=0
(e − u)−1 , inverse dans A de l’élément e − u.
Exemple 6.20 :
Si A est une matrice carrée
X diagonalisable d’ordre p dont toutes les valeurs propres ont un module strictement
inférieur à 1, alors la série An est absolument convergente, et :
n

+∞
X
An = (Ip − A)−1 .
n=0

Fénelon Sainte-Marie – La Plaine-Monceau 74/244 31 août 2022


CHAPITRE 6. SÉRIES DE NOMBRES RÉELS OU DE VECTEURS MP 2022-23

Remarque 6.21 :
1 1
ATTENTION ! La notation n’a pas de sens en général. En particulier l’écriture est à proscrire !
e−u In − A

6.1.6 Application des séries absolument convergentes : la série exponentielle


Soit A une algèbre normée unitaire de dimension finie, d’élément neutre e.
Définition 6.22 : série exponentielle
X un
Pour tout élément u de A, la série est absolument convergente et appelée série exponentielle. On note exp(u)
n
n!
sa somme, de sorte que :
+∞ n
X u
exp u = .
n=0
n!

Remarque 6.23 :
1. Pour A = R ou A = C, on retrouve la fonction exponentielle réelle ou complexe déjà connue. Voir plus bas.
2. On a ainsi une définition de l’exponentielle d’un endomorphisme d’un espace vectoriel de dimension finie, ou
d’une matrice carrée (réelle ou complexe).
3. Au chapitre 10 (fonctions vectorielles, exemple 72) nous généraliserons bon nombre de propriétés de l’exponen-
tielle d’un réel ou d’un complexe (dérivée, exponentielle de la somme. . . ) aux exponentielles d’éléments d’un
espace vectoriel normé.

Exemple 6.24 : !
cos θ − sin θ
Soit R(θ) = A = la matrice de la rotation plane d’angle θ. Calculer exp(R(θ)).
sin θ cos θ

Proposition 6.25 : la série exponentielle complexe correspond à l’exponentielle classique (ouf !)


X zn
Soit z ∈ C. Alors la série est absolument convergente et de surcroît :
n
n!

+∞ n
X z
= ez
n=0
n!

avec ez = ex (cos y + i sin y) et x = <z, y = =z.

6.1.7 Cas des séries réelles alternées


Définition 6.26 : série alternée
Une série réelle est dite alternée lorsque son terme général est alternativement positif et négatif : ∀n ∈ N,
un un+1 ≤ 0.
Théorème
X 6.27 : critère spécial des séries alternées (CSSA), pour les séries réelles
Soit un une série réelle alternée telle que :
n
• La suite (|un |)n est décroissante.
• La suite (un )n converge vers 0.
X
Alors la série un est convergente.
n

Exemple 6.28 :

Fénelon Sainte-Marie – La Plaine-Monceau 75/244 31 août 2022


6.2. ENCORE UNE APPLICATION DES SÉRIES AC : PRODUIT DE CAUCHY DE SUITES MP 2022-23

X (−1)n  
1
La série harmonique alternée est convergente, car elle est alternée et est décroissante et converge
n
n n n
vers 0.
Ce type de séries convergentes est particulièrement avantageux car on a beaucoup de renseignements sur la somme
de la série, et sur le reste d’ordre n :
Corollaire 6.29 : propriétés des séries réelles vérifiant le CSSA
X n
X
Soit un une série vérifiant le critère spécial des séries alternées. On note Sn = uk la somme partielle et
n k=0
+∞
X
Rn = uk le reste d’ordre n de cette série. Alors pour tout n ∈ N :
k=n+1
1. La somme de la série est comprise entre les sommes partielles consécutives Sn et Sn+1 .
2. Le reste Rn est du signe du premier terme négligé : Rn un+1 ≥ 0.
3. Le reste Rn est majoré en valeur absolue par le premier terme négligé : |Rn | ≤ |un+1 |.

6.2 Encore une application des séries AC : produit de Cauchy de suites


Dans cette section, soit A une algèbre normée unitaire de dimension finie, d’élément neutre e.

6.2.1 Définition
Définition 6.30 : produit de Cauchy de séries
On appelle produit de Cauchy de deux suites (un )n et (vn )n d’éléments de A la suite (wn )n définie par :
n
X X
∀n ∈ N, wn = uk vn−k = ui vj .
k=0 i+j=n

Cette opération sur l’ensemble des suites d’éléments de A :


— prolonge la multiplication des polynômes ;
— est associative ;
— a pour élément neutre la suite définie par u0 = e et pour tout n ∈ N∗ : un = 0 ;
— est distributive par rapport à l’addition.
Par conséquent :
Proposition 6.31 : structure de l’espace des suites d’une algèbre normée
Le produit de Cauchy confère à l’ensemble AN des suites à valeurs dans A une structure de K-algèbre.

6.2.2 Convergence
Étudions d’abord la convergence du produit de Cauchy de deux séries convergentes à termes positifs :
Lemme 6.32 :X produitXde Cauchy de séries à termes réels positifs X
Si les séries un et vn de réels positifs sont convergentes, alors leur produit de Cauchy wn est convergent,
n n n
et : ! !
+∞
X +∞
X +∞
X
wn = un vn .
n=0 n=0 n=0

Ce résultat se généralise aux séries absolument convergentes d’une algèbre normée unitaire de dimension finie :

Fénelon Sainte-Marie – La Plaine-Monceau 76/244 31 août 2022


CHAPITRE 6. SÉRIES DE NOMBRES RÉELS OU DE VECTEURS MP 2022-23

Théorème 6.33 : produit de Cauchy de séries d’éléments d’une X algèbre


X normée
Soit A une algèbre normée unitaire de dimension finie. Si les séries un et vn d’éléments de E sont absolument
X n n
convergentes, alors leur produit de Cauchy wn est absolument convergent et :
n

+∞ +∞
! +∞
!
X X X
wn = un vn .
n=0 n=0 n=0

Ce résultat permet de démontrer la propriété fondamentale de l’exponentielle :


Corollaire 6.34 : exponentielle d’une somme
Soit A une algèbre normée unitaire de dimension finie. Si u et v sont deux éléments de A qui commutent, alors :

exp(u + v) = exp(u) exp(v).

En particulier, si z et z 0 sont deux nombres complexes alors : exp(z + z 0 ) = exp(z) exp(z 0 ).


Remarque 6.35 :
(−1)n
Le théorème ci-dessus n’est pas valable pour les séries semi-convergentes. Posons en effet un = vn = √ . Alors
n+1
n
X 1 2
|wn | = p . Or pour k ∈ [[0, n]] on a (k + 1)(n − k + 1) ≤ n2 + 1 (étude de la fonction de
k=0
(k + 1)(n − k + 1)
n+1
variable k), donc |wn | ≥ n  de limite 2. Ainsi wn ne tend pas vers 0, ce qui permet d’affirmer que la série
P
wn
2 +1
est grossièrement divergente.

6.3 Compléments sur les séries réelles à termes positifs


6.3.1 Majoration des sommes partielles d’une série à termes réels positifs — rappel de
Sup
Théorème 6.36 : Uue CNS de convergence d’une série de réels à termes positifs — rappel de Sup
Une série de réels à termes positifs est convergente si et seulement si la suite de ses sommes partielles est majorée.

Exemple 6.37 :
X 1
La série converge, car :
n
n2
n n
X 1 X 1
≤ 1 + ≤ 2.
k2 (k − 1)k
k=1 k=2

Remarque 6.38 :
erreur classique !
Malheureusement, ce raisonnement ne donne qu’un majorant de la somme de la série et ne permet pas de déterminer
cette somme. On peut seulement dire que la somme de la série est la borne supérieure des sommes partielles.
Corollaire
X 6.39 :X cas classiques de convergence de séries à termes positifs — rappel de Sup
Soit un et vn deux séries de nombres réels à termes positifs.
n n
X X X X
1. Supposons 0 ≤ un ≤ vn . Alors : si vn converge alors un converge ; si un diverge alors vn diverge.
n n n n

Fénelon Sainte-Marie – La Plaine-Monceau 77/244 31 août 2022


6.3. COMPLÉMENTS SUR LES SÉRIES RÉELLES À TERMES POSITIFS MP 2022-23

X X X
2. Supposons un ≥ 0, vn ≥ 0 et un = O(vn ). Alors : si vn converge alors un converge ; si un diverge alors
X n n n
vn diverge.
n
X X
3. Supposons un ≥ 0, vn ≥ 0 et un ∼ vn . Alors : les séries un et vn sont de même nature (toutes deux
n n
convergentes ou toutes deux divergentes).

Remarque 6.40 :
1. On pourra souvent utiliser ce résultat en comparant une série avec une série de Riemann.
X1 1 1 1 1
Par exemple la série sin est convergente, car sin ∼ 2 .
n
n n n n n
2. Attention, les séries sont de même nature mais leurs sommes ne sont pas pour autant égales !

6.3.2 Comparaison d’une série à termes positifs à une intégrale — rappel de Sup
Théorème 6.41 : comparaison série/intégrale — rappel de Sup
Soit f une fonction continue par morceaux sur R+ , positive et décroissante. Alors :
Z n
1. La série de terme général wn = f (t)dt − f (n) est convergente.
n−1
X Z n
2. La série f (n) est convergente si et seulement si la suite d’intégrales f (t)dt est convergente.
n 0

Application aux séries de Riemann — rappel de Sup


Définition 6.42 : séries de Riemann X 1
On appelle séries de Riemann les séries de la forme , pour α réel.
n

Corollaire 6.43 : convergence des séries de Riemann — rappel de Sup
X 1
La série de Riemann est convergente si et seulement si α > 1.
n

Exemple 6.44 :
X 1
On retrouve que la série converge et que sa somme est inférieure ou égale à 2.
n
n2
Remarque 6.45 :
X 1
La somme de la série de Riemann pour α > 1 est notée ζ(α).
n

Prolongée à C \ {1} (dur), cette fonction zeta de Riemann joue un rôle très important dans de nombreuses branches
des mathématiques. La célèbre hypothèse de Riemann, toujours indémontrée depuis 1859, conjecture que les zéros de
1
cette fonction, autres que les entiers négatifs pairs, ont tous pour partie réelle . De ce résultat dépend, par exemple,
2
la répartition des nombres premiers. . .
1
Les calculs actuels ont prouvé que les 1013 premiers zéros de la fonction zeta sont effectivement d’abscisse
2
et des tests statistiques portant sur d’autres zéros les donnent bien sur la même droite. Mais même 1013 exemples
convaincants ne constituent pas une démonstration !
Corollaire 6.46 : convergence des séries de Bertrand (hors-programme)
X 1
La série de Bertrand α (ln n)β
est convergente si et seulement si α > 1 ou (α = 1 et β > 1).
n
n

Fénelon Sainte-Marie – La Plaine-Monceau 78/244 31 août 2022


CHAPITRE 6. SÉRIES DE NOMBRES RÉELS OU DE VECTEURS MP 2022-23

6.3.3 Règle de d’Alembert pour les séries réelles à termes positifs


Théorème
X 6.47 : règle de d’Alembert pour les séries réelles à termes positifs
Soit un une série réelle à termes strictement positifs.
n
un+1 X
1. S’il existe k ∈]0, 1[ et n0 ∈ N tels que ∀n ≥ n0 , ≤ k, alors la série un converge.
un n
un+1 X
2. S’il existe n0 ∈ N tel que ∀n ≥ n0 , ≥ 1, alors la série un diverge grossièrement.
un n
 
un+1
3. Si la suite admet une limite finie `, alors :
un n
X
• Si ` < 1 alors la série un converge.
n
X
• Si ` > 1 alors la série un diverge grossièrement.
n
• Si ` = 1 alors on ne peut rien prévoir.

Exemple 6.48 :
X n! n!
Étudions la série n
. Soit n ∈ N. Posons un = n . Alors :
n
n n

un+1 (n + 1)! nn nn 1
= = = .
un (n + 1) n+1 n! (n + 1)n (1 + n1 )n
 n
1 un+1 1
Or lim 1+ = e, d’où lim = < 1, donc la série converge.
n→+∞ n n→+∞ un e
Remarque 6.49 :
 
un+1
• Si la suite est de limite 1 par valeurs supérieures, alors la suite (un )n est croissante à partir d’un
un n
X
certain rang, et par conséquent la série un est grossièrement divergente.
n
 
un+1
• Si est de limite 1 par valeurs inférieures ou de façon quelconque, alors on ne peut rien conclure.
un
un+1 X
• Le fait que ≤ k ≤ 1 ne sert à RIEN pour étudier la convergence de un .
un n

6.3.4 Sommation des relations de comparaison, pour les séries réelles à termes positifs
Étant données deux séries convergentes à termes réels positifs, la comparaison de leurs termes généraux permet de
comparer leurs restes d’ordre n :
ThéorèmeX 6.50 X : comparaison des restes des séries convergentes à termes réels positifs
Soit un et vn deux séries convergentes à termes réels positifs. On désigne par rn et rn0 leurs restes respectifs
n n
d’ordre n.
1. Si un = O(vn ), alors rn = O(rn0 ).
2. Si un = o(vn ), alors rn = o(rn0 ).
3. Si un ∼ vn , alors rn ∼ rn0 .

Exemple 6.51 :

Fénelon Sainte-Marie – La Plaine-Monceau 79/244 31 août 2022


6.3. COMPLÉMENTS SUR LES SÉRIES RÉELLES À TERMES POSITIFS MP 2022-23

X 1 1 1
Trouvons un équivalent du reste d’ordre n de la série convergente 2
. Remarquons que 2 ∼ . Or :
n
n n n(n + 1)
+∞ +∞  
X 1 X 1 1 1
= − = .
k(k + 1) k k+1 n+1
k=n+1 k=n+1
X 1 1
On en déduit que le reste de la série 2
est équivalent à .
n
n n
De même, étant données deux séries divergentes à termes positifs, la comparaison de leurs termes généraux permet de
comparer leurs sommes partielles d’ordre n :
ThéorèmeX 6.52 X : comparaison des sommes partielles des séries divergentes à termes réels positifs
Soit un et vn deux séries divergentes à termes réels positifs. On désigne par Sn et Sn0 leurs sommes partielles
n n
respectives d’ordre n.
1. Si un = O(vn ), alors Sn = O(Sn0 ).
2. Si un = o(vn ), alors Sn = o(Sn0 ).
3. Si un ∼ vn , alors Sn ∼ Sn0 .

Exemple 6.53 :
n n n
X 1 1 1 X 1 X 1 1
Trouvons un équivalent de . Remarquons que ∼ . Or ∼ ln n, d’où ∼ ln n.
2k − 1 2k − 1 2k k 2k − 1 2
k=1 k=1 k=1

6.3.5 Application de la sommation des relations de comparaison : formule de Stirling


Appliquons ce qui précède pour trouver un équivalent de n! :
Théorème 6.54 : formule de Stirling
Il existe une constante K telle que :
n→+∞ √
n! ∼ K nn e−n n.

Remarque 6.55 :
La√valeur de K peut être calculée de diverses façons, notamment à partir des intégrales de Wallis. On obtient
K = 2π. La formule de Stirling s’écrit donc :
 n n √
n→+∞
n! ∼ 2πn.
e

6.3.6 Application de la sommation des relations de comparaison : théorème de Cesàro


Théorème 6.56 : de Cesàro, pour les séries de nombres réels ou de vecteurs
Soit (un )n une suite de nombres réels ou d’éléments d’un EVN. Si (un )n est convergente de limite ` ∈ E, alors
u0 + · · · + un−1 n→+∞
−→ `.
n
u0 + · · · + un−1 n→+∞
Si (un )n est une suite réelle convergente de limite ` = +∞ (resp. −∞), alors −→ +∞ (resp. −∞).
n

EPCC : exercices 6, 40, 46, 54, 61.

The end – chapitre 6

Fénelon Sainte-Marie – La Plaine-Monceau 80/244 31 août 2022


Chapitre 7

Réduction des endomorphismes en


dimension finie

Soit E un K-espace vectoriel de dimension finie et u un endomorphisme de E.

7.1 Diagonalisation
7.1.1 Définition d’un endomorphisme diagonalisable
Définition 7.1 : endomorphisme diagonalisable
On dit que u est diagonalisable lorsqu’il existe une base B de E dans laquelle la matrice de u est diagonale.
Proposition 7.2 : CNS de diagonalisabilité
L’endomorphisme u est diagonalisable s’il vérifie une des trois propriétés équivalentes suivantes :
1. Il existe une base de E formée de vecteurs propres de u.
 
λ1
2. Il existe une base B de E dans laquelle la matrice de u est diagonale : MatB
 .. .

B (u) = 
 . 
λn
3. La somme directe des sous-espaces propres de u est égale à E :
L
Eλ (u) = E.
λ∈Sp(u)
X
Si les pλ sont les projecteurs associés à la somme directe alors on a la décomposition spectrale de u : u= λ pλ .
λ∈Sp(u)
Réciproquement : si u est une combinaison linéaire de projecteurs associés à une somme directe, alors u est diagona-
lisable.
Problème : ce n’est pas parce que Sp(u) est connu que u est diagonalisable ! Il nous faut maintenant des caractéri-
sations de la diagonalisabilité.
Définition 7.3 : endomorphisme diagonalisable d’un EV de dimension finie
Une matrice carrée A est dite diagonalisable lorsqu’elle représente un endomorphisme diagonalisable, autrement
dit lorsqu’elle est semblable à une matrice diagonale D :

∃P ∈ GLn (K), A = P DP −1 ,

où P est la matrice de passage de la base canonique de Kn à une base B de « diagonalisation ».


Remarque 7.4 :
1. Cette réduction a de multiples applications ! Elle peut servir en particulier à calculer les puissances de A. En
effet par récurrence immédiate :
∀k ∈ N, Ak = P Dk P −1 .

81
7.1. DIAGONALISATION MP 2022-23

2. Nous donnerons plus loin des méthodes effectives de diagonalisation d’un endomorphisme ou d’une matrice.

7.1.2 Caractérisation de la diagonalisabilité par la dimension des sous-espaces propres


Rappel : on a 1 ≤ dim(Eλ ) ≤ nλ , où nλ est la multiplicié de λ comme valeur propre de u.
On sait que pour tout endomorphisme de E la somme des sous-espaces propres distincts est directe. Cette somme
est égale à E si sa dimension est celle de E :
Théorème 7.5 : diagonalisabilité et dimension des sous-espaces propres
Soit E un espace vectoriel de dimension finie. Un endomorphisme u de E est diagonalisable si et seulement si la
somme des dimensions des sous-espaces propres de u est égale à la dimension de E.
Corollaire 7.6 : diagonalisabilité et ordre de multiplicité des valeurs propres
Soit E un espace vectoriel de dimension finie. Un endomorphisme u de E est diagonalisable si et seulement si son
polynôme caractéristique est scindé et si la dimension de chaque sous-espace propre est égale à l’ordre de multiplicité
de la valeur propre correspondante.

Un cas particulièrement simple donne une condition suffisante de diagonalisabilité :


Corollaire 7.7 : endomorphisme avec dim(E) valeurs propres distinctes
Soit E un espace vectoriel de dimension finie n. Un endomorphisme u possédant n valeurs propres distinctes deux
à deux est diagonalisable.

7.1.3 Caractérisation par le polynôme minimal


Théorème 7.8 : diagonalisabilité et polynôme minimal
Soit E un espace vectoriel de dimension finie. Un endomorphisme u de E est diagonalisable si et seulement si son
polynôme minimal est scindé et toutes ses racines sont simples.

Corollaire 7.9 : diagonalisabilité et polynôme scindé à racines simples


Soit E un espace vectoriel de dimension finie. Un endomorphisme u de E est diagonalisable si et seulement si il
annule un polynôme scindé à racines simples. Y
Plus précisément u est diagonalisable si et seulement si il annule le polynôme P = (X − λ).
λ∈Sp(u)

Corollaire 7.10 : restriction d’un endomorphisme diagonalisable à un SEV stable


Si u est un endomorphisme diagonalisable d’un espace E de dimension finie, alors pour tout sous-espace F stable
par u, l’endomorphisme de F induit par u est aussi diagonalisable.

Exemple 7.11 :
Les projections et les symétries sont diagonalisables. En effet :
• Une projection est une application linéaire p telle que p2 = p. Le polynôme X 2 − X = X(X − 1), scindé et à
racines simples, annule p.
• Une symétrie est une application linéaire s telle que s2 = IdE . Le polynôme X 2 − 1 = (X − 1)(X + 1), scindé et
à racines simples, annule s.

7.1.4 Matrice carrée diagonalisable


Définition 7.12 : matrice carrée diagonalisable
Une matrice carrée A est dite diagonalisable lorsqu’elle représente un endomorphisme diagonalisable, autrement
dit lorsqu’elle est semblable à une matrice diagonale D :

∃P ∈ GLn (K), A = P DP −1 ,

Fénelon Sainte-Marie – La Plaine-Monceau 82/244 31 août 2022


CHAPITRE 7. RÉDUCTION DES ENDOMORPHISMES EN DIMENSION FINIE MP 2022-23

où P est la matrice de passage de la base canonique de Kn à une base B de « diagonalisation ».


Exemple 7.13 :
Soit A la matrice suivante :  
0 −1 1
A =  −1 0 1 .
 

1 1 0
Montrer que la matrice A est diagonalisable. La diagonaliser.

7.2 Trigonalisation
Toujours les mêmes hypothèses : u endomorphisme d’un K-espace vectoriel E de dimension finie.

7.2.1 Définition d’un endomorphisme trigonalisable


Il n’est pas toujours possible de trouver une base dans laquelle la matrice de u soit diagonale. À défaut, on peut en
chercher une dans laquelle la matrice de u soit triangulaire supérieure.
Définition 7.14 : endomorphisme trigonalisable d’un EV de dimension finie
On dit que u est trigonalisable lorsqu’il existe une base de E dans laquelle la matrice de u est triangulaire supérieure.

Soit B = (e1 , . . . , en ) une base de E ; pour tout k ∈ [[1, n]], posons Fk = Vect(e1 , . . . , ek ). La matrice de u dans la base
B est triangulaire supérieure si et seulement si tous les sous-espaces Fk sont stables par u.
Il en résulte que :
Proposition 7.15 : trigonalisabilité et existence d’un drapeau
L’endomorphisme u (du K-espace E de dimension finie) est trigonalisable si et seulement si il existe une suite
(F1 , . . . , Fn ) de sous-espaces stables par u, strictement croissante pour l’inclusion.
Définition 7.16 : drapeau de sous-espaces
Une telle suite strictement croissante (pour l’inclusion) de sous-espaces :

F1 ⊂ F2 ⊂ · · · ⊂ Fn

est appelée drapeau de sous-espaces vectoriels.


Définition 7.17 : matrice carrée trigonalisable
Une matrice carrée A est dite trigonalisable lorsqu’elle représente un endomorphisme trigonalisable, autrement dit
lorsqu’elle est semblable à une matrice triangulaire supérieure T :

∃P ∈ GLn (K), A = P T P −1 ,

où P est la matrice de passage de la base canonique de Kn à une base adaptée à un drapeau.

7.2.2 Caractérisation de la trigonalisabilité par le polynôme minimal ou le polynôme


caractéristique
Théorème 7.18 : trigonalisabilité et polynôme minimal/caractéristique
Soit E un K-espace vectoriel de dimension finie. Un endomorphisme u de E est trigonalisable si et seulement si
son polynôme minimal est scindé (ou ce qui revient au même, son polynôme caractéristique).

Corollaire 7.19 : trigonalisabilité et annulation d’un polynôme scindé


Un endomorphisme u d’un espace vectoriel de dimension finie est trigonalisable si et seulement s’il annule un
polynôme scindé.

Fénelon Sainte-Marie – La Plaine-Monceau 83/244 31 août 2022


7.3. APPLICATIONS MP 2022-23

Corollaire 7.20 : trigonalisabilité sur C


Tout endomorphisme d’un espace de dimension finie sur R ou C est trigonalisable sur C.

7.2.3 Matrice carrée trigonalisable


Définition 7.21 : matrice carrée trigonalisable
Une matrice carrée A est dite trigonalisable lorsqu’elle représente un endomorphisme trigonalisable, autrement dit
lorsqu’elle est semblable à une matrice triangulaire supérieure T .

∃P ∈ GLn (K) A = P T P −1

où P est la matrice de passage de la base canonique de Kn à une base adaptée à un drapeau.

7.3 Applications
Ces applications sont des grands classique des oraux.
Il faut connaître par coeur ces techniques et être au point sur les calculs.

Toujours les mêmes hypothèses : u endomorphisme d’un K-espace vectoriel E de dimension finie.

7.3.1 Commutant d’un endomorphisme ou d’une matrice


Proposition 7.22 : rappels sur les polynômes d’endomorphismes
Si u ∈ L(E) et v ∈ L(E) commutent, alors :
• Ker u et Im u sont stables par v.
• Tout sous-espace propre de u est stable par v.
• Plus généralement, si P ∈ K[X], alors v et P (u) commutent donc Ker P (u) et Im P (u) sont stables par v.
• En particulier, pour u ∈ L(E) et (P, Q) ∈ K[X]2 on a P (u) ◦ Q(u) = Q(u) ◦ P (u) : deux polynômes du même
endomorphisme commutent.

Exemple 7.23 :
Trouver le commutant de la matrice A :
 
5 2 −4
A =  4 3 −4 .
 

4 2 −3

7.3.2 Puissances d’une matrice


Lorsqu’une matrice A ∈ Mn (K) est diagonalisable, la diagonaliser permet de calculer ses puissances entières. En
effet, si P ∈ GLn (K) et D diagonale sont telles que A = P DP −1 , alors :

∀k ∈ N, Ak = P Dk P −1

et il suffit donc de calculer les puissances de la matrice diagonale D et l’inverse de P pour en déduire les puissances
de A.
Exemple 7.24 :

Fénelon Sainte-Marie – La Plaine-Monceau 84/244 31 août 2022


CHAPITRE 7. RÉDUCTION DES ENDOMORPHISMES EN DIMENSION FINIE MP 2022-23

On peut reprendre l’exemple 7.13 : Soit A la matrice suivante :


 
0 −1 1
A =  −1 0 1 .
 

1 1 0

Calculer Ak pour tout k ∈ N.

7.3.3 Suites récurrentes linéaires


Exemple 7.25 :
Suite récurrente linéaire d’ordre 3, cas d’une matrice diagonalisable.
Trouver les suites récurrentes (un )n satisfaisant :
∀n ∈ N, un+3 = 6un+2 − 11un+1 + 6un .

Exemple 7.26 :
Suite récurrente linéaire d’ordre 2, cas d’une matrice trigonalisable.
Trouver la suite récurrente (un )n satisfaisant :
∀n ∈ N, un+2 = 2un+1 − un
et les conditions initiales u0 = 1, u1 = 3.

7.3.4 Équations algébriques d’inconnues matricielles


Exemple 7.27 :
Résoudre dans M3 (R) :  
−1 −1 −1
X2 =  3 3 1 
 

3 1 3

7.3.5 Déterminant et trace des puissances d’une matrice


Proposition 7.28 : déterminant et trace de Ak
Soit A ∈ Mn (K). Notons Sp(A) = (λ1 , . . . , λn ). Alors pour tout entier k ∈ N :
n
Y k
X
det(Ak ) = λki , tr (Ak ) = λki .
i=1 i=1

En particulier le déterminant d’une matrice est le produit de ses valeurs propres, et la trace d’une matrice est la somme
de ses valeurs propres.

Application : détermination itérative d’une approximation de la plus grande valeur propre.


Supposons qu’il existe un indice i0 tel que |λi | < |λi0 | pour tout i 6= i0 . Alors λki = ok→+∞ (λki0 ) pour tout i 6= i0
n
X
donc tr (Ak ) = λki ∼ λki0 . On en déduit :
i=1

tr (Ak+1 ) k→+∞
−→ λ i0 .
tr (Ak )
Ceci permet également d’obtenir une approximation du rayon spectral ρ(A) = max λ∈Sp(A) |λ|.

Fénelon Sainte-Marie – La Plaine-Monceau 85/244 31 août 2022


7.4. TRIGONALISATION À L’AIDE DES SOUS-ESPACES CARACTÉRISTIQUES MP 2022-23

7.4 Trigonalisation à l’aide des sous-espaces caractéristiques


L’étude des endomorphismes nilpotents va nous permettre de construire plus facilement une matrice triangulaire
supérieure représentant un endomorphisme trigonalisable.

7.4.1 Endomorphismes nilpotents, matrices nilpotentes


Définition 7.29 : endomorphisme nilpotent
Un endomorphisme u de E est dit nilpotent lorsqu’il existe un entier p ≥ 1 tel que up = 0. On appelle indice de
nilpotence de u le plus petit entier p possédant cette propriété, c’est-à-dire tel que up = 0 et up−1 6= 0.
Exemple 7.30 :
Dans Kn [X], l’opérateur de dérivation est nilpotent d’indice n + 1 car Dn+1 = 0 et Dk 6= 0 pour tout k ≤ n.
Proposition 7.31 : une CNS de nilpotence
Un endomorphisme u est nilpotent si et seulement s’il est trigonalisable avec pour seule valeur propre 0.

Proposition 7.32 : nilpotence et familles libres


Soit u un endomorphisme nilpotent d’indice p et x un vecteur de E tel que up−1 (x) 6= 0.
Alors la famille (x, u(x), . . . , up−1 (x)) est libre.

Corollaire 7.33 : endomorphisme nilpotent d’indice n


Soit u un endomorphisme nilpotent d’un espace E de dimension n.
Alors l’indice de nilpotence de u est inférieur ou égal à n.
De plus, si l’indice de nilpotence est égal à n alors il existe une base de E dans laquelle la matrice de u est
 
0 1 0 ... 0
 . .
 .. . . . . . . . . ... 

 
 . .. ..
 .

 . . . 0  ,
 .
 . ..

 . . 1 

0 ... ... ... 0


appelée matrice nilpotente de Jordan.

Définition 7.34 : matrice nilpotente


Une matrice A ∈ Mn (K) est dite nilpotente lorsqu’il existe un entier p ≥ 1 tel que Ap = 0.
On appelle indice de nilpotence de A le plus petit entier p possédant cette propriété, à savoir Ap = 0 et Ap−1 6= 0.

Les propriétés des endomorphismes en dimension finie s’appliquent aux matrices carrées. En particulier :
Proposition 7.35 : propriétés des matrices carrées nilpotentes
1. Une matrice carrée est nilpotente si et seulement si elle est trigonalisable avec pour seule valeur propre 0.
2. L’indice de nilpotence d’une matrice de Mn (K) est inférieur ou égal à n.
3. Si une matrice A ∈ Mn (K) est nilpotente d’indice n, alors elle est semblable à la matrice nilpotente de Jordan :
 
0 1 0 ... 0
 . . .. 
 .. .. ... ... . 
 
 . .. ..
 ..

Jn =  . . 0 ,

 .
 . ..

 . .

1 
0 ... ... ... 0

Fénelon Sainte-Marie – La Plaine-Monceau 86/244 31 août 2022


CHAPITRE 7. RÉDUCTION DES ENDOMORPHISMES EN DIMENSION FINIE MP 2022-23

7.4.2 Espaces caractéristiques


Soit u un endomorphisme trigonalisable. Son polynôme caractéristique est alors scindé sur K :
k
Y
χu (X) = (X − λi )mi ,
i=1

où les valeurs propres sont les λi , de multiplicité mi , pour 1 ≤ i ≤ k.


Définition 7.36 : sous-espaces caractéristiques
On appelle sous-espaces caractéristiques de u les sous-espaces

Fλi (u) = Ker ((u − λi IdE )mi ) .

Théorème 7.37 : propriétés des sous-espaces caractéristiques


Soit u un endomorphisme trigonalisable d’un K-espace vectoriel E de dimension finie. Pour i ∈ [[1, k]], notons λi ses
valeurs propres, de multiplicités mi ; Eλi (u) ses sous-espaces propres ; enfin Fλi (u) ses sous-espaces caractéristiques.
Alors :
1. Pour tout i ∈ [[1, k]], on a Eλi (u) ⊂ Fλi (u).
2. Pour tout i ∈ [[1, k]], le sous-espace Fλi (u) est u-stable.
k
M
3. Les sous-espaces caractéristiques sont supplémentaires dans E : E = Fλi (u).
i=1
4. Pour tout i ∈ [[1, k]], on a dim(Fλi (u)) = mi .
5. L’endomorphisme u|Fλi induit par u sur Fλi est la somme d’une homothétie et d’un endomorphisme nilpotent.

Corollaire 7.38 : trigonalisation à l’aide des sous-espaces caractéristiques


Soit u un endomorphisme trigonalisable de E. Alors il existe une base de E dans laquelle la matrice de u est
diagonale par blocs, chaque bloc diagonal étant triangulaire supérieur ayant une même valeur propre de u sur la
diagonale.
En d’autres termes, notons Sp(u) = {λ1 , . . . , λk }. Alors il existe une base B de E telle que
   
T1 0 . . . 0 λi ∗ . . . ∗
 0 . . . . . . ...   0 . . . . . . ... 
   
[u]B =  .  , où ∀i ∈ [[1, k]], Ti =  . .
   
 . .. ..  . .. ..
 . . . 0   . . . ∗ 
 

0 . . . 0 Tk 0 . . . 0 λi

Exemple 7.39 :
 
1 0 0 0
 −1 4 1 −2 
Trigonalisons A =   à l’aide des espaces caractéristiques.
 
 2 1 2 −1 
1 2 1 0

EPCC : exercices 59, 67, 69, 70, 72, 73, 88, 91.

The end – chapitre 7

Fénelon Sainte-Marie – La Plaine-Monceau 87/244 31 août 2022


7.4. TRIGONALISATION À L’AIDE DES SOUS-ESPACES CARACTÉRISTIQUES MP 2022-23

Fénelon Sainte-Marie – La Plaine-Monceau 88/244 31 août 2022


Chapitre 8

Familles sommables de nombres réels ou


complexes

Ce chapitre rappelle les principaux résultats vus en Sup.


Dans ce chapitre, nous apprenons à compter (section 1), puis à additionner avec une main (section 2), et enfin à
additionner avec deux mains (section 3).

8.1 Dénombrabilité
Dans cette première partie, nous allons apprendre à compter !

8.1.1 Ensembles dénombrables


Définition 8.1 : ensemble dénombrable
Un ensemble est dit dénombrable lorsqu’il est en bijection avec N.
Exemple 8.2 :
1. L’ensemble {1, 2, . . .} = N \ {0} est dénombrable.
On définit en effet une bijection entre N et N \ {0} en posant s(n) = n + 1 (« s » pour shift, décalage).
2. L’ensemble N \ {p} est dénombrable.
On définit en effet une bijection entre N \ {p} et N \ {0} en posant f (i) = i si i ∈
/ {p, 0} et f (0) = p.
3. L’ensemble Z est dénombrable. On numérote en effet les entiers relatifs de la façon suivante : f (n) = 2n − 1 et
f (−n) = 2n pour tout n ∈ N, c’est-à-dire :

n 0 1 −1 2 −2 3 −3 ...
f (n) 0 1 2 3 4 5 6 ...

4. Pour tout p ∈ N, les ensembles pN et pZ sont dénombrables.


On définit en effet une bijection f entre N et pN, ou entre Z et pZ, en posant f (n) = pn.
5. En composant les deux exemples précédents, on obtient une bijection de N dans pZ.

Notation : on note ℵ0 (« aleph zéro ») le cardinal de tout ensemble isomorphe à N.


Remarque 8.3 :
1. On ne peut pas se contenter de dire que Card (N) = +∞, car nous verrons plus loin que R n’est pas dénombrable :
il existe ainsi plusieurs « tailles » d’infinis.

89
8.1. DÉNOMBRABILITÉ MP 2022-23

2. Les exemples ci-dessus permettent d’affirmer que ℵ0 + 1 = ℵ0 puis ℵ0 − 1 = ℵ0 . Par récurrence immédiate :
ℵ0 + k = ℵ0 pour tout k ∈ Z.
À l’aide du 3e exemple : 2ℵ0 = ℵ0 . Encore par récurrence immédiate : kℵ0 = ℵ0 pour tout k ∈ N∗ .

Exemple 8.4 :
L’hôtel de Hilbert est une curiosité mathématique digne de trois étoiles dans le guide « relais et châteaux ».
Cet hôtel possède une infinité dénombrable de chambres, numérotées 0, 1, 2, . . .
Supposons que l’hôtel soit complet : chaque chambre contient un client et un seul.
1. Un client supplémentaire arrive ? Pas de problème ! Les clients déjà en place se décalent d’une chambre, le dernier
arrivé va dans la chambre 0 (ceci illustre ℵ0 + 1 = ℵ0 ).
2. Un nombre fini k de clients arrive ? Pas de problème ! Chaque client déjà en place va k chambres plus loin, et on
case les k nouveaux arrivants dans les chambres 0 à k − 1 (ceci illustre ℵ0 + k = ℵ0 ).
3. Une infinité dénombrable de clients arrive ? Pas de problème ! Chaque client déjà en place va dans la chambre
de numéro double de sa chambre actuelle (0 → 0, 1 → 2, 2 → 4, 3 → 6, . . . ) et les nouveaux clients s’intercalent
dans les chambres de numéros impairs (ceci illustre 2ℵ0 = ℵ0 ).

Proposition 8.5 : parties infinies de N


Toute partie infinie de N est dénombrable.

Corollaire 8.6 : CNS pour qu’un ensemble soit fini ou dénombrable


Un ensemble est fini ou dénombrable si et seulement s’il est en bijection avec une partie de N.

8.1.2 Produit cartésien d’ensembles dénombrables


Proposition 8.7 : l’ensemble N2 est dénombrable
L’ensemble N2 est dénombrable.

Remarque 8.8 :
Cette fonction alambiquée n’est que la mise en forme de l’énumération évidente de N2 par balayage diagonal :

5 20 26 33 41 50 60
4 14 19 25 32 40 49
3 9 13 18 24 31 39
2 5 8 12 17 23 30
1 2 4 7 11 16 22
0 0 1 3 6 10 15
q/p 0 1 2 3 4 5

Corollaire 8.9 : produit fini d’ensembles dénombrables


Tout produit cartésien d’un nombre fini d’ensembles dénombrables est dénombrable.

8.1.3 Réunion d’ensembles dénombrables


Proposition 8.10 : réunion d’ensembles dénombrables
Une réunion finie ou dénombrable d’ensembles dénombrables est dénombrable.

Exemple 8.11 :  
[ p
L’ensemble Q est dénombrable car Q = avec Z × N∗ dénombrable, est dénombrable.

q
(p,q)∈Z×N

Fénelon Sainte-Marie – La Plaine-Monceau 90/244 31 août 2022


CHAPITRE 8. FAMILLES SOMMABLES DE NOMBRES RÉELS OU COMPLEXES MP 2022-23

Corollaire 8.12 : réunion au plus dénombrable d’ensembles dénombrables


Une réunion finie ou dénombrable d’ensembles finis ou dénombrables est finie ou dénombrable.

8.1.4 Cas de l’ensemble R


Théorème 8.13 : l’ensemble R n’est pas dénombrable
L’ensemble R n’est pas dénombrable.

8.2 Familles sommables de nombres réels ou complexes


Nous sommes maintenant assez outillés pour attaquer la partie principale de ce chapitre : additionner des nombres !
Comme c’est difficile (hou la la. . . ), nous commencerons par les nombres réels positifs.

8.2.1 Familles sommables de nombres réels positifs


Définition 8.14 : famille sommable de réels positifs
On dit qu’une famille (ui )i∈I de nombresX réels positifs est sommable lorsqu’il existe un nombre
X réel positifX
M tel
que, pour toute partie finie J ⊂ I , on ait uj ≤ M . On définit alors la somme de la famille par ui = sup uj .
J⊂I
j∈J i∈I J fini j∈J
X
Notation : si une famille (ui )i∈I de réels positifs n’est pas sommable, on écrira ui = +∞.
i∈I
Il est clair que :
Lemme 8.15 : sommabilité d’une famille de réels positifs indexée par N X
Une famille (ui )i∈N de réels positifs indexée par N est sommable si et seulement si la série ui est convergente.
i∈N

Remarquons que les termes non nuls d’une famille de réels positifs ne peuvent pas être « très nombreux » :
Proposition 8.16 : support d’une famille sommable de réels positifs
Soit (ui )i∈I une famille sommable de réels positifs. Alors son support K = {i ∈ I / ui 6= 0} est fini ou dénombrable.

Théorème 8.17 : de Fubini version faible, ou de sommation par paquets, pour les familles de réels
positifs — ADMIS
Soit (ui )i∈I une famille de nombres réels positifs et (In )n∈N une partition dénombrable de I.
Alors la famille (ui )i∈I est sommable si et seulement si les deux conditions suivantes sont vérifiées :
1. Pour tout n ∈ N, la sous-famille (ui )i∈In est sommable.
!
X X
2. La série ui est convergente.
n i∈In
Dans ce cas : !
+∞
X X X
ui = ui .
n=0 i∈In i∈I

Remarque 8.18 :
Si l’une des deux hypothèses n’est pas réalisée, alors on écrit :
+∞
!
X X X
ui = ui = +∞.
n=0 i∈In i∈I

Fénelon Sainte-Marie – La Plaine-Monceau 91/244 31 août 2022


8.2. FAMILLES SOMMABLES DE NOMBRES RÉELS OU COMPLEXES MP 2022-23

Remarque 8.19 :
La réciproque est fausse : la famille ((−1)n )n n’est pas sommable mais les sommes partielles par paquets de 2
donnent l’illusion d’une convergence.

8.2.2 Familles sommables de nombres réels ou complexes


Définition 8.20 : famille sommable de réels ou de complexes
Une famille (ui )i∈I de nombres réels ou complexes est dite sommable lorsque la famille de réels positifs (|ui |)i∈I
est sommable. Dans ce cas :
1. Soit (ui )i∈I une famille sommable de nombres réels. Notons I+ = {i ∈ I / ui ≥ 0} et I− = {i ∈ I / ui < 0}.
Alors les familles (ui )i∈I+ et (ui )i∈I− sont sommables et on peut définir la somme de la famille (ui )i∈I comme
étant le réel : X X X
ui = |ui | − |ui |.
i∈I i∈I+ i∈I−

2. Soit (ui )i∈I une famille sommable de nombres complexes.


Alors les familles (<(ui ))i∈I et (=(ui ))i∈I sont sommables et on peut définir la somme de la famille (ui )i∈I
comme étant le complexe : X X X
ui = <(uj ) + i =(uj ).
i∈I j∈I j∈I

Proposition 8.21 : inégalité triangulaire généralisée, pour les familles sommables


Soit (ui )i∈I une famille sommable de nombres complexes. Alors :

X X
ui ≤ |ui |.



i∈I i∈I

Remarque 8.22 :
Cas des familles de nombres complexes indexées par N ou Z.
1. Une famille (un )n∈N (indexée par N) est sommable si et seulement si la série un est absolument convergente.
P

X +∞
X
Dans ce cas : un = un .
n∈N n=0

2. Une famille (un )n∈Z est sommable si et seulement si les deux séries un et u−n sont absolument convergentes.
P P

X X+∞ +∞
X
Dans ce cas : un = un + u−n .
n∈Z n=0 n=1

8.2.3 Permutation des termes d’une série absolument convergente


Théorème 8.23 : toute série absolument convergente est commutativement convergente
Soit un une série de nombres complexes absolument convergente et σ une permutation de N. Alors la série
P

uσ(n) est absolument convergente et de même somme :


P

+∞
X +∞
X
uσ(n) = un .
n=0 n=0

Remarque 8.24 :

Fénelon Sainte-Marie – La Plaine-Monceau 92/244 31 août 2022


CHAPITRE 8. FAMILLES SOMMABLES DE NOMBRES RÉELS OU COMPLEXES MP 2022-23

La condition de convergence absolue est indispensable à la validité du théorème. Considérons la série semi-
(−1)n−1
convergente xn avec xn = et soit S sa somme (on peut montrer que S = ln 2). Soit ϕ : N∗ → N∗
P
n
définie par ϕ(3k + 1) = 2k + 1, ϕ(3k + 2) = 4k + 2 et ϕ(3k + 3) = 4k + 4. On vérifie facilement que ϕ est une bijection
de N dans N, sa bijection réciproque étant définie par des congruences modulo 4).
Sommons alors par paquets de 3 la série xϕ(n) . On a
P

1 1 1 1 1
xϕ(3k+1) + xϕ(3k+2) + xϕ(3k+3) = − − = −
2k + 1 4k + 2 4k + 4 4k + 2 4k + 4
 
1 1
= = O .
2(2k + 1)(2k + 2) k2

Ceci montre que la nouvelle série converge encore. Néanmoins


 
1 1 1 1
xϕ(3k+1) + xϕ(3k+2) + xϕ(3k+3) = = −
2(2k + 1)(2k + 2) 2 2k + 1 2k + 2
(2k+1)−1
(−1)(2k+2)−1
 
1 (−1)
= −
2 2k + 1 2k + 2

donc la somme de la nouvelle série est la moitié de la somme de la série initiale !

8.2.4 Sommation par paquets de nombres réels ou complexes


Généralisons le théorème 8.17 de sommation par paquets de réels positifs, pour les familles de nombres réels ou
complexes.
Théorème 8.25 : de Fubini version faible, ou de sommation par paquets, pour les familles de nombres
complexes
Soit (ui )i∈I une famille de nombres réels ou complexes et (In )n∈N une partition dénombrable de I. Alors : la famille
(ui )i∈I est sommable si et seulement si les deux conditions suivantes sont vérifiées :
1. Pour tout n ∈ N, la sous-famille (ui )i∈In est sommable.
!
X X
2. La série |ui | est convergente.
n i∈In

Dans ce cas : !
+∞
X X X
ui = ui .
n=0 i∈In i∈I

Remarque 8.26 :
Attention, si l’une au!moins des hypothèses n’est pas réalisée alors la famille (ui )i∈I n’est pas forcément sommable,
+∞
X X
et la somme ui peut exister sans représenter la somme de la famille ! Par exemple, pour la famille ((−1)n )n∈N
n=0 i∈In
qui n’est évidemment pas sommable, on peut considérer
! la partition (In )n∈N de N définie par In = {2n, 2n + 1}. On a
X +∞
X X
alors ui = 0 pour tout n ∈ N, donc ui = 0, qui ne représente pas la somme de la famille.
i∈In n=0 i∈In

8.3 Séries doubles (I = N × N)


Maintenant qu’on a bien appris à faire des additions avec les doigts d’une main, on ajoute l’autre main !

Fénelon Sainte-Marie – La Plaine-Monceau 93/244 31 août 2022


8.3. SÉRIES DOUBLES (I = N × N) MP 2022-23

8.3.1 Interversion des sommations


Théorème 8.27 : somme sur N × N de nombres réels positifs
Soit (up,q )(p,q)∈N×N une famille de nombres réels positifs indexée par N × N.
Alors : la famille (up,q )(p,q)∈N×N est sommable si et seulement si les deux conditions suivantes sont vérifiées :
1. Pour tout entier q, la série p up,q est convergente. Notons Sq sa somme.
P

2. La série q Sq est convergente.


P

Dans ce cas :
1. Pour tout entier p, la série q up,q est convergente. Notons Tp sa somme.
P

2. La série p Tp est convergente.


P

3. Et on a la double égalité :
+∞ X
+∞
! +∞ X
+∞
!
X X X
up,q = up,q = up,q .
(p,q)∈N×N q=0 p=0 p=0 q=0

Attention, les deux premiers points sont importants ! Sinon la 2e égalité n’a pas de sens.

Une fois ce gros théorème démontré, on peut le décliner :


Théorème 8.28 : somme sur N × N de nombres complexes
Soit u = (up,q )(p,q)∈N×N une famille de nombres réels ou complexes indexée par N × N. Alors les trois assertions
suivantes sont équivalentes :
1. La famille u est sommable. !
+∞
X X
2. Pour tout q, la série p up,q est absolument convergente et la série |up,q | est convergente.
P
q p=0
+∞
!
X X
3. Pour tout p, la série up,q est absolument convergente et la série est convergente.
P
q |up,q |
p q=0
Dans ce cas, on a la double égalité :
+∞ X
+∞
! +∞ X
+∞
!
X X X
up,q = up,q = up,q .
(p,q)∈N×N q=0 p=0 p=0 q=0

On continue à broder :
Corollaire 8.29 : somme double à variables séparables
Soit (ap )p∈N et (bq )q∈N deux familles sommables de nombres complexes. Alors la famille (ap bq )(p,q)∈N×N est som-
mable et :    
X X X
ap bq =  ap  ×  bq  .
(p,q)∈N×N p∈N q∈N

8.3.2 Sommation triangulaire


Théorème 8.30 : sommation triangulaire de nombres réels positifs X
Soit u = (up,q )(p,q)∈N×N une famille de nombres réels positifs indexée par N × N. Notons Un = up,q .
p+q=n
Alors : la famille u est sommable si et seulement si la série Un converge. Dans ce cas on a :
P

+∞
!
X X X
up,q = up,q .
(p,q)∈N×N n=0 p+q=n

Fénelon Sainte-Marie – La Plaine-Monceau 94/244 31 août 2022


CHAPITRE 8. FAMILLES SOMMABLES DE NOMBRES RÉELS OU COMPLEXES MP 2022-23

Corollaire 8.31 : sommation triangulaire de nombres complexes X


Soit u = (up,q )(p,q)∈N×N une famille de nombres complexes indexée par N × N. Notons Un0 = |up,q |.
p+q=n
!
X X
Alors : la famille u est sommable si et seulement si la série Un0 converge. Dans ce cas la série
P
up,q
n p+q=n
est absolument convergente et on a :
+∞
!
X X X
up,q = up,q .
(p,q)∈N×N n=0 p+q=n

8.3.3 Retour sur le produit de Cauchy de deux séries absolument convergentes


Nous allons redémontrer les résultats déjà établis sur le produit de Cauchy de deux séries absolument convergentes,
à l’aide des familles sommables. Rappelons la :
Définition 8.32 : produit de Cauchy de séries de réels ou complexes
Soit un et vn deux séries de nombres complexes. On appelle produit de Cauchy de ces séries la série
P P P
wn
X Xn
de terme général wn = up vq = uk vn−k .
p+q=n k=0

Théorème 8.33 : produit de Cauchy de séries absolument convergentes


Soit un et vn deux séries de nombres complexes absolument convergentes.
P P

Alors leur produit de Cauchy wn est absolument convergent et on a :


P

+∞ +∞
! +∞ !
X X X
wn = un vn .
n=0 n=0 n=0

Ce résultat permet de démontrer la propriété fondamentale de l’exponentielle :


Corollaire 8.34 : exponentielle d’une somme
Soit A une algèbre normée unitaire de dimension finie. Si u et v sont deux éléments de A qui commutent, alors :

exp(u + v) = exp(u) exp(v).

Remarque 8.35 :
On rappelle que le théorème ci-dessus n’est pas valable pour les séries semi-convergentes. Voir exemple dans le
chapitre 6, séries de nombres réels ou de vecteurs.

EPCC : aucun !

The end – chapitre 8

Fénelon Sainte-Marie – La Plaine-Monceau 95/244 31 août 2022


8.3. SÉRIES DOUBLES (I = N × N) MP 2022-23

Fénelon Sainte-Marie – La Plaine-Monceau 96/244 31 août 2022


Chapitre 9

Suites et séries de fonctions

Dans tout le chapitre :


• K désigne le corps R ou C.
• E est un K-espace vectoriel de dimension finie.
• A est une partie de E.
• (fn )n∈N est une suite de fonctions définies sur A, à valeurs dans K.

9.1 Convergence d’une suite de fonctions


9.1.1 Convergence simple
Définition 9.1 : convergence simple d’une suite de fonctions
La suite (fn )n converge simplement lorsque pour tout x fixé de A, la suite numérique (fn (x)) converge (dans K).
Si on pose f (x) = lim fn (x), alors la fonction f : A → K est appelée limite simple de la suite (fn )n .
n→+∞

∀x ∈ A, ∀ε > 0, ∃n0 ∈ N, ∀n ≥ n0 , |fn (x) − f (x)| ≤ ε.

Exemple 9.2 :
Posons fn (x) = xn pour x ∈ [0, 1]. La suite des fonctions fn converge simplement vers la fonction f telle que :
f (x) = 0 si x ∈ [0, 1[ et f (1) = 1.
Remarque 9.3 :
L’exemple précédent montre que la limite d’une suite de fonctions continues n’est pas nécessairement continue.

9.1.2 Convergence uniforme


Définition 9.4 : convergence uniforme d’une suite de fonctions
La convergence est dite uniforme sur A lorsque n0 ne dépend que de ε, et non de x :

∀ε > 0, ∃n0 ∈ N, ∀n ≥ n0 , ∀x ∈ A, |fn (x) − f (x)| ≤ ε.

Ceci qui équivaut à :


∀ε > 0, ∃n0 ∈ N, ∀n ≥ n0 , sup |fn (x) − f (x)| ≤ ε.
x∈A

Remarque 9.5 :

97
9.1. CONVERGENCE D’UNE SUITE DE FONCTIONS MP 2022-23

Rappelons que dans l’ensemble des fonctions bornées de A dans K, l’application g 7→ sup |g(x)| est une norme
x∈A
notée k k∞ . Ainsi la convergence uniforme sur A peut s’écrire :

∀ε > 0, ∃n0 ∈ N, ∀n ≥ n0 , kfn − f k∞ ≤ ε.

Il s’agit donc de la convergence au sens de la norme k k∞ . Cette norme est appelée norme de la convergence uniforme.

Théorème 9.6 : CU ⇒ CS
Pour les suites de fonctions, la convergence uniforme implique la convergence simple.

Remarque 9.7 :

1. La réciproque du théorème est fausse : dans l’exemple 9.2 du paragraphe précédent (fn (x) = xn pour x ∈ [0, 1]),
on a : kfn − f k∞ = sup |fn (x) − f (x)| = 1, qui ne tend pas vers 0.
x∈[0,1]

2. Utile : pour démontrer qu’une suite de fonctions convergeant simplement vers f ne converge pas uniformément,
il suffit de trouver une suite (xn )n d’éléments de A telle que fn (xn ) − f (xn ) ne tende pas vers 0.
En effet : kfn − f k∞ ≥ |fn (xn ) − f (xn )|.

Exemple 9.8 :
Toujours avec le même exemple (fn (x) = xn pour x ∈ [0, 1]), prouver la non-convergence uniforme à l’aide du
second point de la remarque précédente (à l’aide de xn bien choisi).

Remarque 9.9 :
Dans le cas d’une suite de fonctions de R dans R, la convergence uniforme d’une suite (fn )n vers f s’interprète
graphiquement de la façon suivante : pour tout ε > 0, le voisinage tubulaire compris entre les graphes des fonctions
f − ε et f + ε contient tous les graphes des fonctions fn à partir d’un certain rang.
Exemple 9.10 :

1. Posons fn (x) = x2 e−nx pour x ∈ R+ .


Pour x = 0 on a fn (x) = 0 et pour x > 0 on a lim fn (x) = 0. Donc la suite (fn )n converge simplement vers
n→+∞
la fonction nulle sur R+ .
Pour tout n ∈ N, la fonction fn est dérivable sur R+ et fn0 (x) = xe−nx (2 − nx).
 
2 2 4
Si n ≥ 1, alors la fonction fn admet un maximum en x = . D’où kfn − f k∞ = fn = 2 e−2 . Donc
n n n
kfn − f k∞ tend vers 0 : la suite fn converge uniformément vers f .
2. Soit la suite de fonctions (fn )n définies sur R+ par :
  
1

 nx si x ∈ 0,
 n 




 1 2
fn (x) = 2 − nx si x ∈ ,

 n n 
2

si x ∈

 0 , +∞


n

La suite (fn )n converge simplement vers 0, mais pour tout n ∈ N∗ , fn ( n1 ) = 1 : ainsi la convergence n’est pas
uniforme.
3. Soit la suite de fonctions (fn )n définies sur R+ par :

Fénelon Sainte-Marie – La Plaine-Monceau 98/244 31 août 2022


CHAPITRE 9. SUITES ET SÉRIES DE FONCTIONS MP 2022-23

si


 0 x ∈ [0, n]
si

 x−n x ∈ [n, n + 1]
fn (x) =


 n+2−x si x ∈ [n + 1, n + 2]
si x ∈ [n + 2, +∞[.

0
La suite (fn )n converge simplement vers 0, mais pour tout n ∈ N, fn (n + 1) = 1 : ainsi la convergence n’est pas
uniforme.

9.1.3 Convergence uniforme sur tout compact


Dans le dernier exemple la convergence n’est pas uniforme sur R+ , mais cependant sur tout compact inclus dans
R+ .
Soit donc (fn )n une suite de fonctions définies sur une partie A d’un espace vectoriel normé E.
Définition 9.11 : convergence uniforme sur tout compact d’une suite de fonctions
La suite de fonctions (fn )n converge uniformément sur tout compact de A lorsque pour toute partie compacte K
incluse dans A la suite (fn |K ) converge uniformément.
Remarque 9.12 :
La convergence uniforme sur A implique la convergence uniforme sur tout compact de A, mais la réciproque est
fausse (cf. point n°3 de l’exemple précédent).

9.1.4 Limite uniforme d’une suite de fonctions bornées


Théorème 9.13 : la limite uniforme d’une suite de fonctions bornées est bornée
Soit A une partie d’un espace vectoriel normé E et (fn )n une suite de fonctions de A dans K, bornées. Si la suite
(fn )n converge uniformément vers f , alors f est bornée.
On dit que la limite uniforme d’une suite de fonctions bornées est une fonction bornée.

Remarque 9.14 :
La convergence uniforme est la convergence de l’espace vectoriel normé (B(A, K), k · k∞ ).

9.1.5 Limite uniforme d’une suite de fonctions continues


Théorème 9.15 : la limite uniforme d’une suite de fonctions continues est continue
Soit A une partie d’un espace vectoriel normé E et (fn )n une suite de fonctions de A dans K, continues. Si (fn )n
converge uniformément vers f , alors f est continue.
On dit que la limite uniforme d’une suite de fonctions continues est une fonction continue.

Remarque 9.16 :

1. Remarquons que (B(A), k · k∞ ) est un EVN. Supposons que A est compact, auquel cas C 0 (A) ⊂ B(A).
Le théorème s’interprète ainsi : lorsque A est compact, le sous-espace C 0 (A, K) est une partie fermée de l’espace
(B(A), k · k∞ ).
2. Plus généralement, il suffit que la suite de fonctions continues (fn )n converge uniformément sur tout compact
pour que sa limite soit continue.

On peut étendre le théorème au cas des limites :


Corollaire 9.17 : théorème de la double limite — ADMIS
Soit (fn )n une suite de fonctions définies sur A convergeant uniformément vers une fonction f , et soit a un point
adhérent à A.

Fénelon Sainte-Marie – La Plaine-Monceau 99/244 31 août 2022


9.2. CONVERGENCE D’UNE SÉRIE DE FONCTIONS MP 2022-23

Si pour tout n ∈ N la fonction fn admet une limite bn en a, alors la suite (bn )n converge vers b ∈ K et f admet b
pour limite en a :    
lim lim fn (x) = lim lim fn (x) .
x→a n→+∞ n→+∞ x→a

En résumé : si fn CU vers f et si pour tout n, lim fn = bn , alors lim lim fn = lim lim fn .
a a n n a

Remarque 9.18 :
Si A est une partie de R contenant un intervalle de la forme [c, +∞[ ou ] − ∞, c], alors ce résultat s’étend au cas
où chaque fonction fn admet une limite en +∞ ou −∞.

9.2 Convergence d’une série de fonctions


9.2.1 Convergence uniforme d’une série de fonctions
Remarque 9.19 : X
Soit (un ) une suites de fonctions définies sur A, à valeurs dans K. Dire que la série de fonctions un converge
n
uniformément, c’est dire que la suite des sommes partielles (Sn )n converge uniformément, c’est-à-dire que la suite
(Rn )n des restes d’ordre n converge uniformément vers 0 :
+∞
X
∀ε > 0, ∃n0 ∈ N, ∀n ∈ N, ∀x ∈ A, n ≥ n0 =⇒ uk (x) ≤ ε.


k=n+1

On peut étendre aux séries de fonctions certaines propriétés des suites de fonctions :
Proposition 9.20 : extension aux séries de fonctions des propriétés précédentes
X
1. La convergence uniforme implique la convergence simple : si la série de fonctions un converge uniformément
X n
sur A, alors la série numérique un (x) converge pour tout x ∈ A.
n
2. La somme d’une série de fonctions continues qui converge uniformément est continue.
3. La somme d’une série de fonctions continues qui converge uniformément sur tout compact est continue.
X
4. Si la série de fonctions un converge uniformément et si chaque fonction un admet une limite `n en un point
X n
a ∈ A, alors la série `n converge et :
n

+∞
X +∞
X
lim un (x) = lim un (x).
x→a x→a
n=0 n=0

Remarque 9.21 :
La convergence uniforme de la série de fonctions un équivaut à la convergence uniforme de la suite des sommes
P

partielles (Sn ). Elle implique donc la convergence uniforme vers 0 du terme général un .
Dans la pratique : pour montrer qu’une série de fonctions ne converge pas uniformément, il suffit de trouver une
suite (xn ) de A telle que un (xn ) ne converge pas vers 0.

9.2.2 Convergence normale


Définition 9.22 : convergence normale d’une série de fonctions

Fénelon Sainte-Marie – La Plaine-Monceau 100/244 31 août 2022


CHAPITRE 9. SUITES ET SÉRIES DE FONCTIONS MP 2022-23

X
Une série de fonctions un définies sur A et à valeurs dans K est dite normalement convergente lorsque la série
X n
kun k∞ converge.
n

Remarque 9.23 :
La série kun k∞ étant à termes positifs, il suffit pour qu’elle converge que ses sommes partielles soient majorées.
P

Il suffit donc qu’il existe une série majorante αn , c’est-à-dire telle que pour tout n ∈ N : kun k∞ ≤ αn qui
P

converge.

Exemple 9.24 :
X x e−nx
La série de fonctions converge normalement sur R+ car pour tout x ≥ 0 :
n
n

x e−nx n x e−nx 1
= 2
≤ 2 (car ue−u ≤ 1).
n n n

P 1
et la série converge.
n2

9.2.3 Lien entre convergence normale et convergence uniforme


X
La convergence normale d’une série de fonctions un correspond à la convergence absolue dans l’espace B(A, K).
n
Théorème 9.25 : CN ⇒ (CU et CA)
Toute série de fonctions qui converge normalement converge uniformément. De plus, la convergence est absolue en
tout point.

Remarque 9.26 :
La réciproque est fausse comme le montre l’exemple suivant.

Exemple 9.27 :

X (−1)n
• Pour tout x ∈ R, la série est semi-convergente, d’après le critère spécial des séries alternées.
n
x2 + n
(−1)n

1 n→+∞ 1 P1
• La convergence pour x fixé n’est pas absolue, car 2
=
2
∼ et diverge. Ceci prouve
x +n x + n n n
(−1)n

1
que la série de fonctions ne converge pas normalement ; d’ailleurs
x 7→ x2 + n = n .


• Cependant cette série converge uniformément sur R, car le reste d’ordre n d’une série vérifiant le critère spécial
des séries alternées est majoré en valeur absolue par le premier terme négligé, donc tend vers 0 uniformément.

Remarque 9.28 :
Le dernier point de la remarque donne une méthode très efficace pour prouver la convergence uniforme de
certaines séries de fonctions vérifiant le CSSA.
X
Plus précisément, soit fn une série de fonctions vérifiant le CSSA et telle que |fn | ≤ αn avec (αn )n suite réelle
X n
de limite nulle. Alors fn converge uniformément.
n
En effet pour tout x, |Rn (x)| ≤ |fn+1 (x)| ≤ αn+1 donc kRn k∞ ≤ αn+1 .

Fénelon Sainte-Marie – La Plaine-Monceau 101/244 31 août 2022


9.3. EXTENSION AUX FONCTIONS VECTORIELLES MP 2022-23

9.3 Extension aux fonctions vectorielles


9.3.1 Suites et séries de fonctions à valeurs dans un espace vectoriel normé de dimen-
sion finie
Soit E et F deux espaces vectoriels normés de dimension finie et A une partie de E. Pour toute application f
bornée de A dans F , on définit :
kf k∞ = sup kf (x)k .
x∈A

Les normes sur F étant équivalentes, les normes ainsi définies dans B(A, F ) sont équivalentes.
On peut étendre aux suites et séries d’applications de A dans F les résultats suivants :
Proposition 9.29 : définition
1. Une suite (fn )n d’applications de A dans F converge simplement lorsque pour tout x ∈ A la suite (fn (x))n
converge dans F .
La suite (fn )n converge uniformément vers f lorsque la suite (kfn − f k∞ )n converge vers 0.
2. La convergence uniforme des suites de fonctions implique la convergence simple, mais la réciproque est fausse.
X X
3. Une série un d’applications de A dans F converge simplement lorsque pour tout x ∈ A la série un (x)
n n
converge.
X
La série un converge uniformément lorsque la suite des restes d’ordre n converge uniformément vers 0.
n
X X
La série un converge normalement lorsque la série kun k∞ converge.
n n
4. La convergence normale des séries de fonctions implique la convergence uniforme et la convergence absolue en
tout point de A, mais les réciproques sont fausses.
5. La limite uniforme d’une suite d’applications continues sur A est continue sur A. En particulier, la somme d’une
série uniformément convergente d’applications continues est continue.
6. On peut échanger limite en un point et limite d’une suite uniformément convergente, ou limite en un point et
somme d’une série uniformément convergente.

9.3.2 Exemples
Soit A une algèbre normée unitaire de dimension finie et B(0, 1) ⊂ A la boule ouverte de centre 0 de rayon 1.
Alors :
1. L’application B(0, 1) → A, u 7→ (e − u)−1 , somme de la série de fonctions continues fn : u 7→ un qui converge
normalement sur tout compact de la boule B(0, 1), est continue sur B(0, 1).
1 n
2. L’application A → A, u 7→ exp(u), somme de la série de fonctions continues gn : u 7→ u qui converge
n!
normalement sur tout compact de A, est continue sur A tout entier.

9.4 Approximation des fonctions d’une variable réelle


9.4.1 Fonctions en escalier
Soit f une fonction définie sur le segment [a, b] (a < b), à valeurs dans un espace vectoriel normé F de dimension
finie.
Définition 9.30 : fonction en escalier sur le segment [a, b]
On dit que f est en escalier lorsqu’il existe une partition de [a, b] en un nombre fini d’intervalles sur chacun
desquels f est constante.

Fénelon Sainte-Marie – La Plaine-Monceau 102/244 31 août 2022


CHAPITRE 9. SUITES ET SÉRIES DE FONCTIONS MP 2022-23

Il existe alors une suite finie strictement croissante σ = (xi )i∈[[0,n]] : a = x0 < x1 < · · · < xn = b, telle que f soit
constante sur chaque intervalle ouvert ]xi , xi+1 [ (les valeurs prises par f aux points xi n’ont pas d’importance).
Une telle suite est appelée subdivision de [a, b] adaptée à la fonction en escalier f .
Remarque 9.31 :
• Cette subdivision n’est pas unique : certains points de subdivision peuvent être retirés sans nuire à la définition,
et il est toujours possible d’ajouter arbitrairement des points de subdivision.
• Toute subdivision contenant une subdivision adaptée à f est adaptée à f .
• Cf. le cours de Sup pour plus de détails.

Proposition 9.32 : subdivision adaptée à deux fonctions en escalier


Étant donné deux fonctions en escalier f et g sur [a, b], il existe une subdivision adaptée simultanément aux deux
fonctions.

Remarque 9.33 :
On montre facilement à l’aide de cette proposition que l’ensemble des fonctions en escalier sur [a, b] est un sous-
espace vectoriel de B([a, b], F ), noté E([a, b], F ) (une fonction en escalier est bornée).
Définition 9.34 : fonction en escalier sur R
Plus généralement, on dit qu’une fonction f : R → F est en escalier sur R lorsqu’elle est en escalier sur tout
segment de R.
L’ensemble des fonctions en escalier sur R est un sous-espace vectoriel de B(R, F ), noté E(R, F ).
Remarque 9.35 :
Il est clair également que si f est en escalier sur [a, b], alors x 7→ kf (x)k est aussi en escalier sur [a, b].

9.4.2 Fonctions continues par morceaux


Soit f une fonction définie sur [a, b] à valeurs dans un espace vectoriel normé F de dimension finie.
Définition 9.36 : fonction vectorielle continue par morceaux sur un segment
On dit que f est continue par morceaux lorsqu’elle n’a qu’un nombre fini de points de discontinuité en chacun
desquels elle présente une limite à droite et une limite à gauche finies.
Autrement dit, il existe une subdivision σ = (xi )i∈[[0,n]] de [a, b] telle que la restriction de f à chaque intervalle
ouvert ]xi , xi+1 [ soit continue sur cet intervalle et prolongeable par continuité à l’intervalle fermé [xi , xi+1 ] (c’est-à-dire

admettant une limite finie en x+ i et xi+1 ).
Une telle subdivision est dite adaptée à f .
Remarque 9.37 :
Aucune information n’est donnée sur les f (xi ), à part qu’ils existent !
Proposition 9.38 : CM([a, b], F ) ⊂ B([a, b], F )
Toute fonction continue par morceaux sur un segment est bornée sur ce segment.

Remarque 9.39 :
Comme pour les fonctions en escalier, on montre facilement que l’ensemble des fonctions continues par morceaux
sur [a, b] est un sous-espace vectoriel de B([a, b], F ), noté CM([a, b], F ).
Définition 9.40 : fonction vectorielle continue par morceaux sur un intervalle
Plus généralement, on dit qu’une fonction f est continue par morceaux sur un intervalle I de R lorsque sa restriction
à tout segment de I est continue par morceaux.
L’ensemble des fonctions continues par morceaux sur I est un sous-espace vectoriel de F(R, F ), noté CM(I, F ).
Exemple 9.41 :
Les fonctions inverse sur R∗ et identité sur R sont continues par morceaux.

Fénelon Sainte-Marie – La Plaine-Monceau 103/244 31 août 2022


9.4. APPROXIMATION DES FONCTIONS D’UNE VARIABLE RÉELLE MP 2022-23

Remarque 9.42 :
Il est à noter qu’une fonction continue par morceaux sur un intervalle quelconque n’est pas toujours bornée sur cet
intervalle.
Considérer par exemple la fonction identité sur R.

9.4.3 Approximation uniforme des fonctions continues par morceaux par des fonctions
en escalier
Théorème 9.43 : E([a, b], F ) est dense dans C([a, b], F )
Toute fonction continue sur [a, b] et à valeurs dans F est limite uniforme d’une suite de fonctions en escalier sur
[a, b].

Ce résultat peut être étendu aux fonctions continues par morceaux sur [a, b] :
Corollaire 9.44 : E([a, b], K) est dense dans CM([a, b], K)
Toute fonction continue par morceaux sur [a, b] est limite uniforme d’une suite de fonctions en escalier sur [a, b].

9.4.4 Approximation uniforme des fonctions continues par des fonctions affines par
morceaux
Soit f une fonction définie sur [a, b] à valeurs dans un espace vectoriel normé F de dimension finie.
Définition 9.45 : fonction vectorielle affine par morceaux sur un segment
On dit que f est affine par morceaux lorsqu’il existe une subdivision σ = (xi )i∈[[0,n]] de [a, b] telle que la restriction
de f à chaque intervalle fermé [xi , xi+1 ] soit affine sur cet intervalle.
Théorème 9.46 : AM([a, b], K) est dense dans C([a, b], K)
Toute fonction continue sur [a, b] est limite uniforme d’une suite de fonctions affines par morceaux sur [a, b].

9.4.5 Approximation uniforme des fonctions continues par des fonctions polynomiales
Conformément au programme nous admettrons les deux théorèmes suivants, dus à Karl Weierstrass :
Théorème 9.47 : premier théorème de Weierstrass
Toute fonction continue sur [a, b], à valeurs réelles ou complexes, est limite uniforme d’une suite de fonctions
polynomiales sur [a, b].
Définition 9.48 : polynôme trigonométrique
On appelle polynôme trigonométrique toute combinaison linéaire de fonctions de la forme x 7→ eikωx (ou x → 7

cos kωx et x 7→ sin kωx), où k est un entier naturel et ω = .
T
Théorème 9.49 : deuxième théorème de Weierstrass
Toute fonction continue sur R, à valeurs réelles ou complexes, T -périodique est limite uniforme d’une suite de
polynômes trigonométriques sur R.
Remarque 9.50 :
Les séries de Fourier, vues en École d’ingénieur, donnent une façon d’obtenir une suite de polynômes trigonomé-
triques convergeant uniformément vers une fonction continue périodique, de classe C 1 par morceaux.
Elles sont étudiées dans les Écoles d’ingénieur.

EPCC : exercices 8, 9, 11, 12, 17, 18, 48, 53.

The end – chapitre 9

Fénelon Sainte-Marie – La Plaine-Monceau 104/244 31 août 2022


Chapitre 10

Fonctions vectorielles d’une variable réelle

10.1 Dérivation des fonctions vectorielles


10.1.1 Dérivée en un point
Soit f une fonction définie sur un intervalle I de R à valeurs dans un espace vectoriel normé E de dimension finie.
Définition 10.1 : fonction vectorielle dérivable en un point d’un intervalle
f (t) − f (t0 )
On dit que f est dérivable en un point t0 de I si la fonction t 7→ possède une limite en t0 . Cette limite
t − t0
est notée f 0 (t0 ).
On sait que f est dérivable en t0 si et seulement si elle admet au voisinage de t0 un développement limité d’ordre
1:
f (t0 + h) = f (t0 ) + hf 0 (t0 ) + o(h).
Interprétation graphique : le vecteur f 0 (t0 ) est porté par la tangente à la trajectoire au point f (t0 ). S’il est non
nul, ce vecteur dirige la tangente.
Interprétation cinématique : le vecteur f 0 (t0 ) est le vecteur vitesse instantanée du mobile à l’instant t0 .
Proposition 10.2 : dérivation d’une fonction à valeurs vectorielles
n
Si B = (e1 , . . . , en ) est une base de E, pour tout t ∈ I, f (t) = fi (t)ei . La fonction vectorielle f est dérivable en
P
i=1
t0 si et seulement si chacune de ses fonctions numériques composantes est dérivable en t0 , et :
n
X
f 0 (t0 ) = fi0 (t0 )ei .
i=1

En particulier si f est une fonction à valeurs complexes alors f est dérivable en t0 si et seulement si sa partie réelle et
sa partie imaginaire sont dérivables en t0 .
Définition 10.3 : dérivée à droite, à gauche
La fonction f admet une dérivée à droite (resp. dérivée à gauche) en t0 si sa restriction à [t0 , +∞[ (resp. ] − ∞, t0 ])
est dérivable en t0 .
Exemple 10.4 :
La fonction valeur absolue f = | · | est dérivable en tout point de R∗ , avec f 0 (x) = 1 si x > 0 et f 0 (x) = −1 si
x < 0. Elle est de plus dérivable à gauche et à droite en 0, avec fg0 (0) = −1 et fd0 (0) = 1.

10.1.2 Dérivée globale


Soit f une application d’un intervalle I de R dans un espace vectoriel normé E.
Définition 10.5 : fonction dérivée

105
10.1. DÉRIVATION DES FONCTIONS VECTORIELLES MP 2022-23

Si f est dérivable en tout point de I, on dit qu’elle est dérivable sur I. De plus, dans ce cas, l’application de I dans
df
E : t 7→ f 0 (t) est appelée fonction dérivée de f , et notée f 0 , ou D(f ), ou (cette notation est liée au contexte et
dt
présuppose que l’on désigne la variable par la lettre t).
Proposition 10.6 : dérivation sur un sous-intervalle
Soit f une application définie sur un intervalle I de R et à valeurs dans un espace vectoriel normé E : f : I → E.
1. Soit J un sous-intervalle de I.
Si f est dérivable sur I, alors f|J est dérivable sur J.
2. Réciproquement, supposons J est ouvert dans I.
Si f|J est dérivable sur J, alors f est dérivable en tout point de J.

10.1.3 Applications de classe C 1


Soit encore f : I → E une application.
Définition 10.7 : fonction de classe C 1
On dit que f est de classe C 1 sur I si elle est dérivable sur I et si sa dérivée f 0 est continue sur I.
L’ensemble des fonctions de classe C 1 sur I à valeurs dans E est un espace vectoriel, noté C 1 (I, E).
Exemple 10.8 :
La fonction numérique f définie sur R par

 f (x) = x2 sin 1 si x 6= 0
x
 f (0) = 0

est dérivable sur R mais pas de classe C 1 sur R.

10.1.4 Opérations sur les fonctions dérivables


Dérivée d’une combinaison linéaire
Proposition 10.9 : dérivation d’une combinaison linéaire
Soit f et g des applications de I dans E dérivables en un point a ∈ I (resp. dérivable sur I resp. de classe C 1 sur
I). Soit α et β deux scalaires. Alors αf + βg est dérivable en a (resp. dérivable sur I resp. de classe C 1 sur I) et :

(αf + βg)0 (a) = αf 0 (a) + βg 0 (a) resp. D(αf + βg) = αD(f ) + βD(g).

Remarque 10.10 :
On en déduit que l’ensemble des applications de I dans E dérivables sur I (resp. C 1 sur I) est un K-espace vectoriel
noté D1 (I, E) (resp. C 1 (I, E)) et que l’application f 7→ f 0 (a) est linéaire sur cet espace.

Dérivée et application linéaire


D’après ce qui précède, l’application D de C 1 (I, E) dans C 0 (I, E), f 7→ f 0 est linéaire :

∀(α, β) ∈ K2 ∀(f, g) ∈ C 1 (I, E)2 (αf + βg)0 = αf 0 + βg 0 .

Théorème 10.11 : dérivée et application linéaire


Soit E, F deux espaces vectoriels normés de dimension finie, u une application linéaire de E dans F , et f une
fonction de classe C 1 définie sur un intervalle I de R à valeurs dans E.

Fénelon Sainte-Marie – La Plaine-Monceau 106/244 31 août 2022


CHAPITRE 10. FONCTIONS VECTORIELLES D’UNE VARIABLE RÉELLE MP 2022-23

Alors u ◦ f est une fonction de classe C 1 sur I à valeurs dans F , et :

(u ◦ f )0 = u ◦ f 0 .

Dérivée et application bilinéaire


Théorème 10.12 : dérivée et application bilinéaire
Soit E, F , G trois espaces vectoriels normés de dimension finie, B une application bilinéaire de E × F dans G, et
f et g deux fonctions de classe C 1 définies sur un intervalle I de R à valeurs respectives dans E et F .
Alors B(f, g) est une fonction de classe C 1 sur I à valeurs dans G, et :
 0
B(f, g) = B(f 0 , g) + B(f, g 0 ).

Exemple 10.13 :
Soit E est un espace vectoriel euclidien, de produit scalaire ( · | · ). Alors pour toutes fonctions f et g dérivables sur
un intervalle I de R à valeurs dans E, la fonction (f |g) est dérivable, et :

(f |g)0 = (f 0 |g) + (f |g 0 ).

Sur tout intervalle où kf k2 ne s’annule pas, la fonction kf k2 est dérivable, et :

0 (f |f 0 )
kf k2 = .
kf k2

En particulier, si kf k2 est constant sur I, alors (f |f 0 ) = 0 : le vecteur vitesse est orthoradial. Par exemple, si f est deux
fois dérivable et kf 0 k constant (mouvement uniforme), alors (f 0 |f 00 ) = 0 (l’accélération est orthogonale à la vitesse).
Remarque 10.14 :
Le théorème se généralise à une application multilinéaire : par exemple, si f1 , . . . , fn sont des fonctions dérivables
sur un intervalle I de R à valeurs dans un espace vectoriel normé E de dimension n muni d’une base B, alors la fonction
detB (f1 , . . . , fn ) est dérivable et :

det(f1 , f2 , . . . , fn )0 = det(f10 , f2 , . . . , fn ) + det(f1 , f20 , . . . , fn ) + · · · + det(f1 , f2 , . . . , fn0 ).


B B B B

10.1.5 Théorèmes généraux pour les fonctions à valeurs réelles — rappels de Sup
Il s’agit ici de rappels. On renvoie au cours de première année pour les démonstrations, qui sont à savoir !
Proposition 10.15 : dérivée et extremum — rappel de Sup
Soit f une fonction définie sur I et a ∈ I qui n’est pas une borne de I.
Si f présente en a un extremum local, et si f est dérivable en a, alors f 0 (a) = 0.
Remarque 10.16 :
1. Attention, la réciproque est fausse ! L’annulation de la dérivée n’implique pas la présence d’un extremum.
2. Attention à l’hypothèse ! Si on n’est pas sur un ouvert, alors l’existence d’un extremum n’implique pas l’annulation
de la dérivée.

Exemple 10.17 :

Fénelon Sainte-Marie – La Plaine-Monceau 107/244 31 août 2022


10.1. DÉRIVATION DES FONCTIONS VECTORIELLES MP 2022-23

1. La fonction x 7→ x3 est de classe C 1 sur l’ouvert R de R, de dérivée nulle en 0, mais n’admet pas d’extremum
en 0.
2. La fonction x 7→ x est de classe C 1 sur [1, 2] (qui n’est pas ouvert), possède des extrema en 1 et en 2, mais sa
dérivée ne s’annule ni en 1 ni en 2.

Théorème 10.18 : théorème de Rolle — rappel de Sup


Soit (a, b) ∈ R2 tel que a < b. Soit f : [a, b] → R continue sur [a, b] et dérivable sur ]a, b[. Si f (a) = f (b), alors

∃c ∈]a, b[, f 0 (c) = 0.

Théorème 10.19 : théorème des accroissements finis — rappel de Sup


f (b) − f (a)
Soit a < b et f ∈ C 0 ([a, b], R) dérivable sur ]a, b[. Alors il existe c ∈]a, b[ tel que f 0 (c) = . En d’autres
b−a
termes f (b) − f (a) = (b − a)f 0 (c).
Interprétation cinématique :
Le TAF montre que la vitesse moyenne sur un parcours rectiligne dans un intervalle de temps [t1 , t2 ] est atteinte
par la vitesse instantanée.

On peut également paramétrer le segment [a, b] en posant h = b − a, de sorte que [a, b] = {a + th, t ∈ [0, 1]}. Le
théorème des accroissements finis s’écrit alors

∃θ ∈ [0, 1], f (a + h) = f (a) + hf 0 (a + θh).

L’ordre des bornes peut être inversé.


Remarque 10.20 :
POUR LES FONCTIONS À VALEURS RÉELLES : il est essentiel de remarquer que ces résultats ne s’étendent
ni aux fonctions complexes, ni aux fonctions vectorielles. Considérer par exemple x 7→ eix sur l’intervalle [0, 2π]. Les
démonstrations doivent être connues.
Remarque 10.21 :
Le théorème de Rolle sert à obtenir des informations sur les zéros de la dérivée à partir d’informations sur les zéros
de la fonction. En revanche, le théorème des accroissements finis s’utilise généralement dans l’autre sens ; d’ailleurs, il
se généralisera aux fonctions complexes et vectorielles sous la forme d’une inégalité obtenue par intégration.

Applications du TAF :
Soit f une application continue d’un intervalle I de R dans R (sauf pour la dernière application),

dérivable sur l’intérieur I de I.
• L’application f est croissante (resp. décroissante) sur I si et seulement si f 0 ≥ 0 (resp. f 0 ≤ 0) sur

I.

• f est strictement monotone sur I si et seulement si f 0 est de signe constant sur I et {x ∈ I, f 0 (x) 6= 0}
est dense dans I.

• Si k ∈ R+ , alors f est k-lipschitzienne sur I si et seulement si |f 0 | ≤ k sur I .
• Soit f : I → E une application à valeurs dans un espace vectoriel normé E. f est constante sur I

si et seulement si f 0 = 0 sur I .
La démonstration de ce résultat se ramène au cas des fonctions numériques par passage aux composantes dans
une base. Pour les fonctions à valeurs complexes, il s’obtient par considération de la partie réelle et de la partie
imaginaire.

Fénelon Sainte-Marie – La Plaine-Monceau 108/244 31 août 2022


CHAPITRE 10. FONCTIONS VECTORIELLES D’UNE VARIABLE RÉELLE MP 2022-23

Théorème 10.22 : théorème de la limite de la dérivée — rappel de Sup


Soit f : I → E, avec I intervalle de R et E un espace vectoriel normé de dimension finie. Soit a dans l’intérieur
de I.
Si f est dérivable sur un ensemble du type ]a − η, a + η[\{a} où η > 0 et si f est continue en a, alors l’existence
d’une limite ` = lim f 0 (x) ∈ E assure la dérivabilité de f en a avec de plus ` = f 0 (a).
x→a
En d’autres termes, sous les hypothèses du théorème, f 0 est définie sur ]a − η, a + η[ et est continue en a.

10.1.6 Dérivées d’ordres supérieurs


Soit f une fonction dérivable sur un intervalle I à valeurs dans un espace vectoriel normé E de dimension finie.
Définition 10.23 : dérivée seconde
d2 f
1. Si f 0 est elle-même dérivable, sa dérivée est appelée dérivée seconde de f et notée f 00 , D2 f ou 2 .
dt
dk f
Plus généralement, f peut être k fois dérivable, sa dérivée k-ième est notée f , D f ou k .
(k) k
dt
2. On dit que f est de classe C k sur I si elle est k fois dérivable et si sa dérivée k-ième est continue sur I.
On dit que f est de classe C ∞ sur I si elle possède une dérivée k-ième pour tout k ∈ N.

L’ensemble des fonctions de classe C k sur I (k ∈ N ∪ {+∞}) à valeurs dans E est un espace vectoriel, noté C k (I, E).
Si de plus E = K (R ou C), C k (I, E) est même une algèbre : la dérivée k-ième d’un produit est donnée par la
formule de Leibniz :
k  
X k (i) (k−i)
(f g)(k) = f g .
i=0
i

Théorème 10.24 : composition de fonctions de classe C k


Soit E un espace vectoriel normé de dimension finie, f une fonction de classe C k sur un intervalle I à valeurs dans
E, et ϕ une fonction de classe C k sur un intervalle J à valeurs dans I.
Alors la fonction composée f ◦ ϕ est de classe C k sur J.

Proposition 10.25 : dérivabilité de la réciproque (rappel de Sup)


Soit f ∈ RI continue sur I et strictement monotone de l’intervalle I sur l’intervalle J = f (I), dérivable en a.
Posons b = f (a).
Alors : f −1 est dérivable en b si et seulement si f 0 (a) est non nul. Dans ce cas :
0 1 1
f −1 (b) = = 0 −1 .
f 0 (a) f (f (b))

Corollaire 10.26 : caractérisation des difféomorphismes par la non-annulation de la dérivée (rappel de


Sup)
Soit f de classe C k et bijective entre deux intervalles I et J de R.
Alors : f −1 est de classe C k si et seulement si f 0 ne s’annule pas sur I.

10.2 Intégration sur un segment


10.2.1 Intégrale d’une fonction continue par morceaux sur un segment
La notion de convergence uniforme va nous permettre de définir l’intégrale sur un segment d’une fonction continue
par morceaux plus facilement qu’en Première Année.
La définition de l’intégrale d’une fonction en escalier est évidente :

Fénelon Sainte-Marie – La Plaine-Monceau 109/244 31 août 2022


10.2. INTÉGRATION SUR UN SEGMENT MP 2022-23

Définition 10.27 : intégrale d’une fonction en escalier sur un segment


Si ϕ est en escalier sur [a, b], à valeurs dans un espace vectoriel normé E de dimension finie, il existe une subdivision
(xi )i∈[[0,n]] telle que pour tout i ∈ [[1, n]] et pour tout x ∈]xi , xi+1 [, on ait ϕ(x) = yi . On pose alors :
Z n−1
X
ϕ = (xi+1 − xi ) yi .
[a,b] i=0

Proposition 10.28 : propriétés de l’intégrale d’une fonction en escalier sur un segment


1. Le résultat ne dépend pas de la subdivision choisie.
2. On peut changer la fonction en un nombre fini de points sans changer son intégrale.

On peut en déduire l’intégrale d’une fonction continue par morceaux, sachant qu’elle est limite uniforme de fonctions
en escalier :
Théorème 10.29 : construction de l’intégrale d’une fonction continue par morceaux sur un segment
Soit f une fonction continue par morceaux sur [a, b] à valeurs dans un espace vectoriel normé E de dimension
! finie.
Z
Si (ϕn )n est une suite de fonctions en escalier convergeant uniformément vers f , alors la suite ϕn est
[a,b]
n
convergente. De plus sa limite ne dépend pas de la suite choisie.

Définition 10.30 : intégrale


Z d’une fonction continue par morceaux sur Z un segment
La limite de la suite ( ϕn ) est appelée intégrale de f sur [a, b], notée f.
[a,b] [a,b]

10.2.2 Premières propriétés de l’intégrale


Les propriétés vues en Première Année pour l’intégrale des fonctions numériques s’étendent aux fonctions vecto-
rielles tant qu’elles ne font pas appel à l’ordre de R. Citons en particulier la linéarité et la relation de Chasles.
Voici trois propriétés valables uniquement lorsque E = R :
Proposition 10.31 : positivité, croissance, annulation
Z b
1. Si f est continue par morceaux sur [a, b] et si f ≥ 0 sur [a, b], alors f (x)dx ≥ 0.
a
Z b Z b
2. Si f et g sont continues par morceaux sur [a, b] et si f ≤ g sur [a, b], alors f (x)dx ≤ g(x)dx.
a a
3. Si f est positive, continue sur [a, b] et d’intégrale nulle, alors elle est nulle.

Voici maintenant une propriété valable lorsque E est un espace réel ou complexe sans mention de dimension,
démontrée dans le cadre des espaces vectoriels normés (chapitre 3) :
Proposition 10.32 : inégalité de Cauchy-Schwarz
Soit f et g continues par morceaux sur [a, b], à valeurs un espace vectoriel normé E sur R ou C. Alors :
s s
Z b Z b Z b
2 2
kf (x)k × kg(x)k dx ≤ kf (x)k dx × kg(x)k dx.
a a a

Le fameux « cas d’égalité » n’est valable que dans le cas de fonctions continues (pas seulement continues par mor-
ceaux).
Sans refaire la démonstration, apportons quelques précisions. Dans cette proposition, on utilise l’application ( · | · ) :
Rb
(ϕ, ψ) 7→ a ϕ(t)ψ(t)dt, pour ϕ et ψ continues par morceaux et à valeurs dans R. Cette application est un produit
scalaire quand on la restreint à C([a, b], R). Ici on l’applique aux fonctions kf k : t 7→ kf (t)k et kgk, qui sont bien à
valeurs réelles, alors que f et g sont à valeurs vectorielles.

Fénelon Sainte-Marie – La Plaine-Monceau 110/244 31 août 2022


CHAPITRE 10. FONCTIONS VECTORIELLES D’UNE VARIABLE RÉELLE MP 2022-23

Lorsque l’espace vectoriel E est de dimension finie on conserve quelques propriétés supplémentaires. Le cas le
plus simple est lorsqu’on peut se ramener au cas des fonctions à valeurs scalaires (vu en Première Année) par passage
aux coordonnées dans une base. Par exemple la convergence des sommes de Riemann :
Théorème 10.33 : convergence des sommes de Riemann
Soit f une fonction continue sur un segment [a, b] (a < b) à valeurs dans un espace vectoriel normé E de dimension
finie. Pour n ∈ N∗ , soit Rn la somme de Riemann de f définie par :
n  
b−a X b−a
Rn = f a+k .
n n
k=1

Z b
Alors la suite (Rn )n≥1 des sommes de Riemann converge vers f (t)dt :
a

b n  
b−a X b−a
Z
f (t)dt = lim f a+k .
a n→+∞ n n
k=1

Deux autres exemples du même tonneau seront vus plus loin : intégration des développements limités (vectoriels),
formule de Taylor-Young (vectorielle).
La majoration de la norme d’une intégrale nécessite une nouvelle démonstration :
Théorème 10.34 : inégalité triangulaire généralisée (ou inégalité de la moyenne)
Soit f une fonction continue par morceaux sur [a, b] à valeurs dans un espace vectoriel normé E de dimension finie.
Alors : Z Z

f ≤ kf k ≤ (b − a)kf k∞ .


[a,b] [a,b]

10.2.3 Primitives d’une fonction continue


Rappelons le théorème fondamental du calcul intégral, qui établit le lien entre primitives et intégrales pour une
fonction continue :
Théorème 10.35 : théorème fondamental du calcul intégral (TFCI)
Soit f une fonction continue sur un intervalle I de R à valeurs dans un espace vectoriel normé E de dimension
finie. Z x
Alors pour tout a ∈ I, l’application F de I dans E définie par : F (x) = f (t)dt est de classe C 1 et sa dérivée est
a
f . L’application F est l’unique primitive de f qui s’annule en a.

Remarque 10.36 :
ATTENTION A BIEN PRÉCISER LA CONTINUITÉ DE f .
Proposition 10.37 : TFCI2
Soit u et v deux applications de classe C 1 d’un intervalle J dans R et f une application continue d’un intervalle I
dans E. On suppose que u(J) ⊂ I et v(J) ⊂ I.
Z v(x)
Alors la fonction G : J → E, x 7→ f (t)dt est de classe C 1 et :
u(x)

∀x ∈ J, G0 (x) = v 0 (x)f (v(x)) − u0 (x)f (u(x)).

Remarque 10.38 :
extension aux fonctions continues par morceaux.

Fénelon Sainte-Marie – La Plaine-Monceau 111/244 31 août 2022


10.2. INTÉGRATION SUR UN SEGMENT MP 2022-23

Soit f une application continue par morceaux d’un intervalle I dans E et a ∈ I. Alors, l’application

Fa : I → E
Z x
x →
7 f (t)dt
a

est continue sur I. En tout point x0 de I qui n’en est pas un plus petit élément, resp. un plus grand élément, Fa admet
une dérivée à gauche, resp. à droite, qui vaut :

(Fa )0g (x0 ) = lim− f (x) resp. (Fa )0d (x0 ) = lim+ f (x) .
x→x0 x→x0

Proposition 10.39 : changement de variable


Étant donné f ∈ C(I, E) et ϕ ∈ C 1 ([α, β], R) avec a = ϕ(α) ∈ I et b = ϕ(β) ∈ I, on a :
Z b Z β
f (x)dx = f (ϕ(t)) ϕ0 (t)dt.
a α

Remarque 10.40 :
extension aux fonctions continues par morceaux
Dans le cas où f est simplement continue par morceaux, il est conseillé de se ramener au cas précédent en considérant
une subdivision de ϕ([α, β]).
Du TFCI, on peut déduire une démonstration très économique de l’inégalité des accroissements finis, pour les fonctions
de classe C 1 :
Corollaire 10.41 : inégalité des accroissements finis pour les fonctions de classe C 1
Soit f une fonction définie sur un intervalle I à valeurs dans un espace vectoriel normé E de dimension finie. Pour
tout (a, b) ∈ I 2 , supposons que :
• f est continue sur [a, b] ;
• f est de classe C 1 sur ]a, b[ ;
• ∃k ∈ R, ∀t ∈]a, b[, kf 0 (t)k ≤ k.
Alors : kf (b) − f (a)k ≤ k|b − a|.

10.2.4 Intégration et développements limités


Proposition 10.42 : intégration d’un petit o
Soit f ∈ C 1 (I, E), g ∈ C 1 (I, R) et a ∈ I. On suppose que g 0 ≥ 0 et f 0 = o(g 0 ) au voisinage de a, c’est-à-dire :

∀ε > 0, ∃α > 0, ∀x ∈ I, |x − a| < α ⇒ kf 0 (x)k ≤ εg 0 (x).

Alors, au voisinage de a :
kf (x) − f (a)k = o (|g(x) − g(a)|) .

Théorème 10.43 : intégration d’un DL


Soit n ∈ N fixé. Soit ϕ ∈ C 1 (I, E), avec ϕ0 admettant au voisinage de a ∈ I un développement limité d’ordre n de
la forme
Xn
ϕ0 (x) = (x − a)k ak + o((x − a)n ),
k=0

où les ak sont des vecteurs de E.

Fénelon Sainte-Marie – La Plaine-Monceau 112/244 31 août 2022


CHAPITRE 10. FONCTIONS VECTORIELLES D’UNE VARIABLE RÉELLE MP 2022-23

Alors ϕ admet un développement limité d’ordre n + 1 au voisinage de a donné par :


n
X (x − a)k+1
ϕ(x) = ϕ(a) + ak + o((x − a)n+1 ).
k+1
k=0

Théorème 10.44 : formule de Taylor-Young


Soit f ∈ C n (I, E), a ∈ I. Alors f admet le développement limité suivant, appelé le développement de Taylor-Young
de f au voisinage de a :
n
X (x − a)k (k)
f (x) = f (a) + o((x − a)n ).
k!
k=0

10.2.5 Intégration par parties et applications


Proposition 10.45 : intégration par parties
Soit u ∈ C 1 (I, K), v ∈ C 1 (I, E), (a, b) ∈ I 2 .
Alors on a la formule d’intégration par parties :
Z b Z b
u(t)v 0 (t)dt = [u(t)v(t)]ba − u0 (t)v(t)dt.
a a

C’est encore vrai lorsque u et v sont seulement continues sur I et de classe C 1 par morceaux sur I.

Remarque 10.46 :
Lors d’une intégration par parties, on précisera toujours la classe des fonctions qui interviennent sur l’intervalle de
travail contenant les bornes d’intégration.
Théorème 10.47 : formule de Taylor avec reste intégral
Soit f ∈ C n (I, E), de classe C n+1 par morceaux sur I. Soit a ∈ I.
Alors pour tout point x ∈ I, on a :
n x
(x − a)k (x − t)n (n+1)
X Z
f (x) = Tn (x) + Rn (x) avec Tn (x) = f (k) (a) et Rn (x) = f (t)dt.
k! a n!
k=0

Théorème 10.48 : inégalité de Taylor-Lagrange


Soit f ∈ C n (I, E), de classe C n+1 par morceaux sur I. Soit a et b des éléments de I. La fonction f (n+1) étant

continue par morceaux sur le segment [a, b] (ou [b, a]), elle y admet une borne supérieure M . Il vient alors :
n

(b − a)k (k) (b − a)n+1
X
f (b) − f (a) ≤ M (n + 1)! .

k!


k=0

Remarque 10.49 :

1. La formule de Taylor avec reste intégral, l’inégalité des accroissements finis, l’inégalité de Taylor-Lagrange, sont
des formules globales, permettant des majorations explicites et quantitatives (par exemple majorations d’erreurs).
2. Au contraire, la formule de Taylor-Young est locale et qualitative.

Fénelon Sainte-Marie – La Plaine-Monceau 113/244 31 août 2022


10.2. INTÉGRATION SUR UN SEGMENT MP 2022-23

10.2.6 Norme de la convergence en moyenne


Soit E un espace vectoriel normé de dimension finie et C([a, b], E) l’espace vectoriel des fonctions continues sur
[a, b] à valeurs dans E.
Proposition 10.50 : norme de la convergence en moyenne
L’application :
Z
C([a, b], E) → R, f 7→ N1 (f ) = kf k
[a,b]

est une norme sur C([a, b], E).

Définition 10.51 : norme de la convergence en moyenne


N1 est appelée norme de la convergence en moyenne.

Théorème 10.52 : sur un segment, la convergence uniforme implique la convergence en moyenne


Dans C([a, b], E) : N1 ≤ (b − a)N∞ .
On en déduit que la Z convergence uniforme implique la convergence en moyenne : si la suite (fn )n converge unifor-
mément vers f , alors kfn − f k tend vers 0.
[a,b]

Remarque 10.53 :
La réciproque est fausse : la convergence en moyenne n’implique pas la convergence uniforme, ni même la conver-
gence simple !

Exemple 10.54 :
La suite de fonctions (fn )n définie sur [0, 1] par : fn (x) = xn converge en moyenne vers la fonction nulle (car
1
kfn − 0k1 = ) mais cette convergence n’est pas uniforme (car kfn − 0k∞ = 1), ni même simple pour x = 1 (car
n+1
fn (1) − 0 = 1).

10.2.7 Échange limite-intégrale


Théorème 10.55 : échange limite-intégrale sur un segment
Soit (fn )n une suite de fonctions de C([a, b], E) convergeant uniformément vers f sur [a, b]. Alors :
Z Z
lim fn = lim fn .
n→+∞ [a,b] [a,b] n→+∞

Remarque 10.56 :

1. Il est important de noter que ce résultat ne subsiste pas si la convergence n’est pas uniforme. Soit par exemple
la fonction fn définie sur [0, 1] pour n ∈ N∗ par :
  
1
2n2 x si x ∈ 0, ,


 2n 




 1 1
fn (x) = 2n − 2n2 x si x ∈ , ,

  2n n
 1
si x ∈

 0 ,1 .


n

Fénelon Sainte-Marie – La Plaine-Monceau 114/244 31 août 2022


CHAPITRE 10. FONCTIONS VECTORIELLES D’UNE VARIABLE RÉELLE MP 2022-23

La suite (fn )n converge simplement vers Zla fonction nulle, mais la convergence n’est pas uniforme car kfn −0k∞ =
1
n. On remarque que pour tout n ∈ N∗ , fn = 6= 0.
[0,1] 2
2. La convergence uniforme n’est ici suffisante que parce que [a, b] est un segment (compact suffit). Ce résultat ne
s’appliquera pas aux intégrales sur un intervalle quelconque que nous verrons au chapitre 12 « intégration sur
un intervalle quelconque ».

On peut étendre le résultat aux séries de fonctions uniformément convergentes :


Corollaire 10.57 : intégration terme à terme, ou échange limite-intégrale sur un segment pour les séries
de fonctions
XZ
Soit fn une série de fonctions de C([a, b], E) qui converge uniformément sur [a, b]. Alors la série fn est
P
[a,b]
convergente et :
+∞ Z
X Z +∞
X
fn = fn .
n=0 [a,b] [a,b] n=0

Remarque 10.58 :
Ceci signifie que pour intégrer la somme de la série fn , il suffit d’intégrer terme à terme et de sommer.
P

Exemple 10.59
Z 1 :
Calculer xx dx sous forme de la somme d’une série.
0

Remarque 10.60 :
Soit fn une série de fonctions de C([a, b], E) qui converge normalement sur [a, b]. Alors :
P
Z +∞
Z +∞ Z +∞
X X X
fn ≤ fn ≤ kfn k,


[a,b] [a,b] [a,b]
n=0 n=0 n=0

et comme la série kfn k converge uniformément sur [a, b], on peut échanger l’intégrale et la somme :
P
Z
+∞
X +∞ Z
X
f ≤ kfn k.

n
[a,b] [a,b]
n=0 n=0

Exemple 10.61 :
+∞
2π X
teint
Z
Majorer l’intégrale : I = dt.
0 n=1
n2

Il existe un autre moyen de démontrer que limite/somme et intégrale sont échangeables, en appliquant ce que l’on
appelle le théorème de convergence dominée. Ce théorème existe tant pour les suites de fonctions que pour les séries.

Fénelon Sainte-Marie – La Plaine-Monceau 115/244 31 août 2022


10.2. INTÉGRATION SUR UN SEGMENT MP 2022-23

Ceci dit, son intérêt se révèle réellement lorsqu’on cherche à intégrer sur un intervalle quelconque c’est-à-dire pas
nécessairement un segment. Nous reviendrons donc sur les deux énoncés de convergence dominée dans le chapitre 12
(« intégration sur un intervalle quelconque »).
Nous donnons ici une version allégée de ces théorèmes, dans le cadre de l’intégration sur un segment.
Théorème 10.62 : théorème de convergence dominée pour une suite de fonctions, version « segment »
Soit (fn )n une suite de fonctions à valeurs réelles ou complexes définies sur un segment [a, b]. On suppose que :
• pour tout n ∈ N, la fonction fn est continue par morceaux sur [a, b] (et donc intégrable !) ;
• la suite (fn )n converge simplement sur [a, b] vers une fonction f continue par morceaux (et donc intégrable !) ;
• il existe une fonction ϕ continue par morceaux positive sur [a, b] (et donc intégrable !) telle que pour tout n ∈ N :
|fn | ≤ ϕ (hypothèse de domination).
Z b Z b
Alors f (t)dt = lim fn (t)dt, ou encore
a n a

Z b Z b
lim fn (t)dt = lim fn (t)dt.
a n→+∞ n→+∞ a

Conformément au programme, nous admettrons ce résultat sans démonstration.


Appliquant ce premier théorème au cas des séries de fonctions (i.e. à la suite des sommes partielles), on peut
démontrer (mais c’est loin d’être immédiat !) :
Théorème 10.63 : 2ème théorème d’intégration terme à terme d’une série de fonctions sur un segment
Soit (un )n une suite de fonctions à valeurs réelles ou complexes définies sur un segment [a, b]. On suppose que :
• Pour tout n ∈ N, la fonction un est continue par morceaux sur [a, b] (et donc intégrable !).
• La série un converge simplement vers une fonction S continue par morceaux sur [a, b] (et donc intégrable !).
P

XZ b
• La série |un (t)|dt converge.
n∈N a

Z b +∞ Z
X b
Alors : S(t)dt = un (t)dt, ou encore :
a n=0 a

Z +∞
bX +∞ Z
X b
un (t)dt = un (t)dt.
a n=0 n=0 a

Ce théorème sera également admis sans démonstration.

10.2.8 Norme de la convergence en moyenne quadratique


On va se restreindre dans ce paragraphe à l’espace des fonctions continues sur [a, b] à valeurs complexes : C([a, b], C).
On peut définir dans cet espace un produit scalaire par :
Z
∀(f, g) ∈ C([a, b], C)2 , (f |g) = f g.
[a,b]

Définition 10.64 : norme de la convergence en moyenne quadratique

1. La norme hermitienne associée à ce produit scalaire est appelée norme de la convergence en moyenne quadratique :

Z ! 12
2
∀f ∈ C([a, b], C), kf k2 = |f | .
[a,b]

Fénelon Sainte-Marie – La Plaine-Monceau 116/244 31 août 2022


CHAPITRE 10. FONCTIONS VECTORIELLES D’UNE VARIABLE RÉELLE MP 2022-23

Z
2. Une suite de fonctions (fn )n converge en moyenne quadratique vers une fonction f lorsque |fn −f |2 converge
[a,b]
vers 0.

Théorème 10.65 : sur un segment CU implique convergence en moyenne quadratique


√ √
1. Dans C([a, b], C) : N1 ≤ b − a N2 et N2 ≤ b − a N∞ .
2. On en déduit que la convergence uniforme implique la convergence en moyenne quadratique, qui implique elle-
même la convergence en moyenne :
Z
(a) Si la suite (fn )n converge uniformément vers f , alors kfn − f k2 tend vers 0.
[a,b]
Z Z
(b) Si kfn − f k2 tend vers 0, alors kfn − f k tend vers 0.
[a,b] [a,b]

10.3 Primitives et dérivées des suites et séries de fonctions


10.3.1 Primitivation de la limite d’une suite de fonctions qui converge uniformément
Théorème 10.66 : primitivation de la limite d’une suite de fonctions qui CU
Soit (fn )n une suite de fonctions continues sur un intervalle I à valeurs dans un espace vectoriel normé de dimension
finie E.
Pour tout n ∈ N, on note Fn la primitive de fn qui s’annule en un point a de I.
Si la suite (fn )n converge uniformément vers f sur tout segment inclus dans I, alors la suite (Fn ) converge
uniformément sur tout segment inclus dans I vers F , la primitive Z de f s’annulant
Z en a.
En d’autres termes : si les fn sont continues et CU alors lim fn = lim fn .

Ce résultat peut s’étendre aux séries de fonctions :

10.3.2 Primitivation d’une série de fonctions


Corollaire 10.67 : primitivation d’une série de fonctions qui CU
Soit fn une série de fonctions continues sur un intervalle I à valeurs dans un espace vectoriel normé de dimension
P

finie E.
Pour tout n ∈ N on note Fn la primitive de fn qui s’annule en un point a de I.
Si la série fn converge uniformément vers s sur tout segment inclus dans I, alors la série Fn converge
P P

uniformément sur tout segment inclus dans I vers S, la primitive


Z X de s s’annulant en a.
X XZ
En d’autres termes : si fn continues et fn CU alors fn = fn .

Exemple 10.68 :
+∞
X 1
On sait que : ∀x ∈] − 1, 1[, xn = . Cette série converge normalement, donc uniformément, sur tout
n=0
1−x
segment (compact suffit) de ] − 1, 1[. On en déduit en calculant les primitives s’annulant en 0 :

+∞ n
X x
= − ln(1 − x).
n=1
n

Fénelon Sainte-Marie – La Plaine-Monceau 117/244 31 août 2022


10.3. PRIMITIVES ET DÉRIVÉES DES SUITES ET SÉRIES DE FONCTIONS MP 2022-23

10.3.3 Dérivation de la limite d’une suite de fonctions


Théorème 10.69 : dérivation terme à terme d’une suite de fonctions
Soit (fn )n une suite de fonctions définies sur un intervalle I à valeurs dans un espace vectoriel normé de dimension
finie E. On suppose que :
1. Pour tout n ∈ N, la fonction fn est de classe C 1 sur I.
2. La suite (fn )n converge simplement vers une fonction f continue par morceaux sur I.
3. La suite (fn0 ) converge uniformément vers une fonction g sur tout segment de I.
Alors f est de classe C 1 sur I et f 0 = g.

10.3.4 Dérivation terme à terme d’une série de fonctions


On peut appliquer ce résultat aux séries de fonctions :
Corollaire 10.70 : dérivation terme à terme d’une série de fonctions
Soit fn une série de fonctions définies sur un intervalle I à valeurs dans un espace vectoriel normé de dimension
P

finie E. On suppose que :


1. Pour tout n ∈ N, la fonction fn est de classe C 1 sur I.
2. La série fn converge simplement sur I.
P

3. La série fn converge uniformément sur tout segment de I.


P 0

+∞ +∞
!0 +∞
X X X
Alors fn est de classe C sur I et :
1
fn = fn0 .
n=0 n=0 n=0

Remarque 10.71 :
Ceci signifie que pour dériver la somme de la série fn , il suffit de dériver terme à terme et de sommer, à
P

condition que la série des dérivées converge uniformément.


Exemple 10.72 :
+∞
X x2n+1
1. Soit f la fonction définie sur ] − 1, 1[ par : f (x) = (−1)n . Cette série est normalement convergente sur
n=0
2n + 1
tout segment de ] − 1, 1[, donc simplement convergente sur ] − 1, 1[. La série dérivée terme à terme : (−1)n x2n
P

est aussi normalement, donc uniformément, convergente sur tout segment inclus dans ] − 1, 1[. On en déduit que
f est de classe C 1 et que :
+∞
X 1
f 0 (x) = (−x2 )n = .
n=0
1 + x2

D’où : ∀x ∈] − 1, 1[, f (x) = arctan x.


2. Étant donné un élément a d’une R-algèbre normée A de dimension finie, considérons l’application ea : R → A,
+∞ n
X t n
t 7→ exp(ta) définie par : ea (t) = a . Cette série est normalement convergente sur tout segment de R.
n=0
n!
P tn−1 n
La série dérivée terme à terme : a est aussi normalement, donc uniformément, convergente sur tout
(n − 1)!
segment de R. On en déduit que ea est de classe C 1 sur R et que :
+∞ +∞ n
X tn−1 n X t n+1
e0a (t) = a = a = a ea (t) = ea (t) a
n=1
(n − 1)! n=0
n!

c’est-à-dire : e0a = a ea = ea a.

Fénelon Sainte-Marie – La Plaine-Monceau 118/244 31 août 2022


CHAPITRE 10. FONCTIONS VECTORIELLES D’UNE VARIABLE RÉELLE MP 2022-23

10.3.5 Extension aux suites et séries de fonctions de classe C k


Théorème 10.73 : dérivation k fois terme à terme d’une suite de fonctions
Soit (fn )n une suite de fonctions définies sur un intervalle I à valeurs dans un espace vectoriel normé de dimension
finie E. On suppose que :
1. Pour tout n ∈ N, la fonction fn est de classe C k sur I.
(p)
2. Pour tout p ∈ [[0, k − 1]], la suite (fn )n converge simplement vers une fonction gp sur tout segment de I.
(k)
3. La suite (fn )n converge uniformément vers une fonction gk sur tout segment de I.
Alors f est de classe C k sur I et f (k) = gk .

Appliquons ce résultat aux séries de fonctions de classe C k :


Corollaire 10.74 : dérivation k fois terme à terme d’une série de fonctions
Soit fn une série de fonctions définies sur un intervalle I à valeurs dans un espace vectoriel normé de dimension
P

finie E. On suppose que :


1. Pour tout n ∈ N, la fonction fn est de classe C k sur I.
P (p)
2. Pour tout p ∈ [[0, k − 1]], la série n fn converge sur tout segment de I.
X
3. La série f (k) converge uniformément sur tout segment de I.
n

+∞ +∞
!(k) +∞
X X X
Alors fn est de classe C sur I et :
k
fn = fn(k) .
n=0 n=0 n=0

Exemple 10.75 :
+∞
1 X
En dérivant k fois l’égalité = xn sur ] − 1, 1[, on obtient (en posant n − k = p) :
1−x n=0

+∞ +∞  
1 X
n−k
X p+k p
= n(n − 1) · · · (n − k + 1)x = x .
(1 − x)k+1 p=0
k
n=k

10.4 Arcs paramétrés


Soit E un R-espace vectoriel euclidien orienté (par exemple : le plan usuel) et I un intervalle de R.

10.4.1 Définitions
Définition 10.76 : courbe paramétrée
Soit f : I → E une fonction vectorielle de classe C k , c’est-à-dire k fois dérivable et dont toutes les dérivées sont
continues.
On appelle courbe paramétrée la donnée du couple (I, f ).
L’ensemble f (I) = {f (t) ; t ∈ I} est appelé support de la courbe ou trajectoire.
Remarque 10.77 :
En interprétant le paramètre t comme le temps, on peut donc voir une courbe paramétrée comme la description
d’un mouvement. Il ne s’agit pas d’une courbe au sens géométrique (ceci n’étant que le support).
En fait le point M (t), t ∈ I, du plan se déplace sur le support de la courbe. À l’instant t, la vitesse instantanée est
donnée par →−v (t) = f 0 (t) et l’accélération instantanée par →

a (t) = f 00 (t).

Fénelon Sainte-Marie – La Plaine-Monceau 119/244 31 août 2022


10.4. ARCS PARAMÉTRÉS MP 2022-23

10.4.2 Point régulier, tangente


Soit (I, f ) une courbe paramétrée de classe C k .
Définition 10.78 : point régulier


Le point M (t) de la courbe est dit régulier lorsque f 0 (t) 6= 0 . La courbe est dite régulière si tous ses points sont
réguliers.
Soit M (t0 ) un point de la courbe paramétrée (I, f ).
Définition 10.79 : tangente à une courbe paramétrée
On dit que la courbe possède une tangente au point M (t0 ) lorsqu’il existe un vecteur →

u (t) directeur de la droite

− →

(M (t)M (t0 )) et un vecteur u NON-NUL tel que lim u (t) = u .→

t→t0
La droite passant par M (t ) et dirigée par →
0

u est appelée tangente à la courbe en M (t ). 0

Remarque 10.80 :
Le vecteur →

u (t) est un vecteur directeur de la sécante à la courbe en M (t) et M (t0 ).
Théorème 10.81 : tangente en un point régulier


Soit M (t0 ) un point régulier d’une courbe paramétrée (I, f ) de classe C 1 , c’est-à-dire f 0 (t0 ) 6= 0 .
Alors la courbe possède une tangente au point M (t0 ) dirigée par le vecteur f 0 (t0 ).

Remarque 10.82 :
1. La courbe définie sur R par   
−1/t2


 e , 0 si t > 0,
f (t) = (0,
 0)  si t = 0,

 0, e−1/t2

si t < 0,

est de classe C ∞ mais ne possède pas de tangente en l’origine M (0). En effet si t > 0 les vecteurs directeurs de
la tangente sont de la forme →

u + (t) = (at , 0) et si t < 0 ils sont de la forme →

u − (t) = (0, bt ) ; et ces deux vecteurs
ne peuvent pas tendre vers un même vecteur non-nul.



2. Il se peut que f 0 (t0 ) = 0 mais que malgré tout la courbe admette une tangente en M (t0 ). Par exemple considérer
f (t) = (t2 , t2 ).
On peut malgré tout effectuer l’étude locale complète en un tel point, à l’aide des développements limités, mais
ceci est hors-programme. Un tel point est dit stationnaire.

Voyons déjà pour l’existence d’une tangente en un point stationnaire, quand l’arc est de classe C k :
Proposition 10.83 : tangente à un arc paramétré de classe C k
Soit (I, f ) un arc paramétré de classe C k avec k ≥ 1. Soit t0 ∈ I. On suppose que :

∀i ∈ {1, . . . , k − 1}, f (i) (t0 ) = 0 et f (k) (t0 ) 6= 0.

Alors l’arc paramétré (I, f ) admet au point de paramètre t0 une tangente dirigée par f (k) (t0 ).

Remarque 10.84 :

Fénelon Sainte-Marie – La Plaine-Monceau 120/244 31 août 2022


CHAPITRE 10. FONCTIONS VECTORIELLES D’UNE VARIABLE RÉELLE MP 2022-23

Détermination de la tangente à un arc — utile dans la pratique !


En M (t0 ), une fois un vecteur tangent f 0 (t0 ) calculé, on obtient facilement une équation de la tangente T (t0 ).
−−−−−→
En effet, un point M appartient à T (t0 ) si et seulement si les vecteurs M M (t0 ) et f 0 (t0 ) sont colinéaires, c’est-à-dire
−−−−−→
det(M M (t0 ), f 0 (t0 )) = 0.

Par exemple dans le plan, pour M (t0 ) de coordonnées (x0 , y0 ) et f (t0 ) de coordonnées (x0 , y0 ), on obtient
0 0 0
x − x x0
0
= 0, ou encore (x − x0 )y00 − (y − y0 )x00 = 0.
0

y − y0 y00

Définition 10.85 : branche infinie d’une courbe paramétrée


t→t
On dit que la courbe présente une branche infinie au voisinage de t0 lorsque kf (t)k −→0 +∞, c’est-à-dire lorsqu’au
moins une des fonctions coordonnées tend vers ±∞ quand t → t0 .

En particulier :
Définition 10.86 : droite asymptote à une courbe paramétrée
On dit que la droite D d’équation cartésienne ax + by + c = 0 est asymptote à la courbe au voisinage de t0 lorsque
t→t
d(M (t), D) −→0 0. Ceci est équivalent à :
t→t
ax(t) + by(t) + c −→0 0.

t→t
On peut généraliser à d’autres courbes asymptotes, comme des paraboles asymptotes (ax(t)2 + bx(t) + c − y(t) −→0 0),
etc.

Remarque 10.87 :
L’étude générale des points stationnaires et des branches infinies (en particulier des droites asymptotes), est offi-
ciellement hors-programme.

10.4.3 Exemple d’étude complète

t t3
Considérons la courbe f de coordonnées (x, y) définies par x(t) = , y(t) = .
1 − t4 1 − t4

1. L’ensemble de définition de f est Df = R \ {±1}.

2. Pour tout t 6= ±1, on a x(−t) = −x(t) et y(−t) = −y(t) ; ainsi la courbe est symétrique par rapport à l’origine.
On restreint l’étude à R+ ∩ Df = [0, 1[∪]1, +∞[.
   
1 1
De plus pour t 6= 0 on a x = −y(t) et y = −x(t) ; ainsi la courbe est symétrique par rapport à la
t t
1
seconde bissectrice. L’application ϕ : t 7→ envoie ]0, 1[ sur ]1, +∞[ donc on restreint l’étude à [0, 1[.
t
Une fois l’étude sur [0, 1[ achevée, il faudra effectuer la symétrie par rapport à la seconde bissectrice puis par
rapport à l’origine afin d’obtenir le tracé complet de la courbe.

3. Soit t ∈ [0, 1[. Alors

1 − t4 − t(−4t3 ) 3t4 + 1 3t2 (1 − t4 ) − t3 (−4t3 ) t6 + 3t2


x0 (t) = = , y 0 (t) = = ,
(1 − t4 )2 (1 − t4 )2 (1 − t4 )2 (1 − t4 )2

donc x0 > 0 et y 0 > 0. D’où le tableau des variations :

Fénelon Sainte-Marie – La Plaine-Monceau 121/244 31 août 2022


10.4. ARCS PARAMÉTRÉS MP 2022-23

t 0 1

x0 (t) 1 + +oo

y 0 (t) 0 + +oo

+∞
x

0
+∞
y

On constate qu’en l’origine M (0) la tangente est horizontale.


4. (Hors-programme.)
Pour t → 1− on a x(t) → +∞ et y(t) → +∞, d’où l’existence d’une branche infinie au voisinage de t = 1. Pour
y(t) t→1
t 6= 0 : = t2 −→ 1 d’où une direction asymptotique d’équation y = x.
x(t)
t3 − t t2 − 1 −t t→1 1
Par ailleurs y(t) − 1 × x(t) = = −t = donc y(t) − x(t) −→ − . Ainsi la droite
1 − t4 (t2 − 1)(t2 + 1) 1 + t2 2
1
d’équation y = x − est asymptote à la courbe au voisinage de 1.
2
1 −t 1 1 + t2 − 2t (1 + t)2 1
Enfin y(t) − x(t) + = 2
+ = 2
= donc y(t) − x(t) + > 0 et ainsi la courbe est
2 1+t 2 2(1 + t ) 1 + t2 2
au-dessus de son asymptote.
5. Un petit dessin :

EPCC : exercices 10, 14, 15, 16.

Fénelon Sainte-Marie – La Plaine-Monceau 122/244 31 août 2022


CHAPITRE 10. FONCTIONS VECTORIELLES D’UNE VARIABLE RÉELLE MP 2022-23

The end – chapitre 10

Fénelon Sainte-Marie – La Plaine-Monceau 123/244 31 août 2022


10.4. ARCS PARAMÉTRÉS MP 2022-23

Fénelon Sainte-Marie – La Plaine-Monceau 124/244 31 août 2022


Chapitre 11

Séries entières

11.1 Définition et convergence


11.1.1 Série entière
Soit (an )n∈N une suite de nombres complexes.
Définition 11.1 : série entière
On appelle série entière de la variable complexe z de coefficients (an )n∈N la série
X(de fonctions) an z n . On appelle
P

série entière de la variable réelle x de coefficients (an )n∈N la série (de fonctions) an x .
n

Remarque 11.2 :

1. Un polynôme est une série entière dont les coefficients sont nuls à partir d’un certain rang.
2. Les sommes partielles d’une série entière sont des polynômes.
3. La série entière an z n converge au moins pour z = 0 ; sa somme est alors a0 .
P

11.1.2 Lemme d’Abel


Théorème 11.3 : lemme d’Abel
Soit an z n une série entière et z0 un complexe non nul tel que la suite (an z0n )n soit bornée.
P
 n 
z
1. Pour tout complexe z : an z n = O .
z0
2. Pour tout complexe z tel que |z| < |z0 |, la série n an z n est absolument convergente.
P

11.1.3 Rayon de convergence


Soit an z n une série entière. L’ensemble des réels positifs r tels que la suite (an rn )n soit bornée est un intervalle
P

contenant 0.
Définition 11.4 : rayon de convergence d’une série entière
On appelle rayon de convergence de la série entière an z n la borne supérieure (dans R) de cet intervalle :
P

R = sup{r ∈ R+ , (an rn )n bornée}.

125
11.1. DÉFINITION ET CONVERGENCE MP 2022-23

• Si R = 0, quel que soit z non nul, la suite (an z n )n n’est pas bornée : la série an z n est grossièrement divergente.
P

Elle ne converge que pour z = 0.


Exemple 11.5 :
X
La série nn z n est grossièrement divergente pour tout z ∈ C∗ .

• Si R = +∞ : la suite (an rn )n est bornée pour tout r ∈ R+ . Pour tout complexe z, il existe r ∈ R+ tel que
|z| < r : la série an z n est absolument convergente pour tout z ∈ C.
P

Exemple 11.6 :
X zn  n
r
La série est absolument convergente pour tout z ∈ C, car pour tout r > 0 la suite converge vers
n! n! n
0 donc est bornée.

• Si 0 < R < +∞ :
B Pour tout z ∈ C tel que |z| < R, il existe un réel r strictement compris entre |z| et R tel que la suite (an rn )n
soit bornée : la série an z n est absolument convergente.
P

B Pour tout z ∈ C tel que |z| > R, la suite (an z n )n n’est pas bornée : la série an z n est grossièrement
P

divergente.
B Pour |z| = R, on ne peut rien dire a priori de la série an z n : elle peut être convergente (absolument ou
P

non), ou divergente (grossièrement ou non).


Définition 11.7 : disque ouvert de convergence d’une série entière
Le disque ouvert de centre O de rayon R est appelé disque de convergence ; l’intervalle ] − R, R[ est appelé
intervalle de convergence.

? à l’intérieur du disque de convergence, la série converge absolument ;


? à l’extérieur du disque de convergence, la série diverge grossièrement ;
? sur le cercle de convergence, on ne peut généralement rien dire.

Cependant, deux résultats ne dépendent que


du module :
* si la série converge absolument en un
point du cercle, alors elle converge ab-
solument sur tout le cercle ;
* si la série diverge grossièrement en un
point du cercle, alors elle diverge gros-
sièrement sur tout le cercle.

Proposition 11.8 : rayon de convergence de n nα z n


P

Quel que soit α ∈ R, le rayon de convergence de la série entière n nα z n est égal à 1.


P

Remarque 11.9 :
Soit an z n une série entière et R son rayon de convergence.
P

Fénelon Sainte-Marie – La Plaine-Monceau 126/244 31 août 2022


CHAPITRE 11. SÉRIES ENTIÈRES MP 2022-23

1. Si la série an z n converge pour z = z0 , alors R ≥ |z0 |.


P

2. Si la série an z n diverge pour z = z1 alors R ≤ |z1 |.


P

3. Si la série an z n converge non absolument pour z = z2 , alors R = |z2 |.


P

4. Si la suite (an z n )n est bornée pour z = z0 , alors R ≥ |z0 |.


5. Si la suite (an z n )n ne converge pas vers 0 pour z = z1 , alors R ≤ |z1 |.
6. Si la suite (an z n )n est bornée mais ne converge pas vers 0 pour z = z2 , alors R = |z2 |.

Exemple 11.10 :
X zn
1. La série est semi-convergente pour z = −1 : son rayon de convergence est R = 1. Elle diverge pour z = 1.
n
X zn
2. La série converge absolument pour z = 1 : son rayon de convergence R est supérieur ou égal à 1 ; la suite
 n n2
z
ne converge pas vers 0 dès que |z| > 1 : R ≤ 1. En définitive, R = 1. Comme elle converge absolument
n2 n
au point R, elle converge absolument sur tout le cercle de convergence.
zn zn n

≤ |z| : cette suite est bornée pour z = 2, mais elle ne converge pas vers 0,
X
3. :


(3 + (−1)n )n (3 + (−1)n )n 2n
donc R = 2. Comme la série diverge grossièrement pour z = 2, elle diverge grossièrement sur tout le cercle de
convergence.

Le rayon de convergence peut être caractérisé de différentes façons :

R = sup { r ∈ R+ / (an rn )n , bornée} (définition)

R = sup { r ∈ R+ / (an rn )n , converge vers 0}

an rn , converge}
P
R = sup { r ∈ R+ /

an rn , converge absolument}.
P
R = sup { r ∈ R+ /

11.1.4 Rayon de convergence et relations de comparaison


Proposition 11.11 : utilisation des relations de comparaison
Soit n an z n et n bn z n deux séries entières de rayons de convergence Ra et Rb .
P P

1. Si à partir d’un certain rang |an | ≤ |bn |, alors Ra ≥ Rb .


2. Si an = O(bn ), alors Ra ≥ Rb .
3. Si an = o(bn ), alors Ra ≥ Rb .
4. Si an ∼ bn , alors Ra = Rb .

Exemple 11.12 :
1. n (sin n)z : pour tout n ∈ N, | sin n| ≤ 1, donc R ≥ 1. Pour z = 1, le terme général ne tend pas vers 0 donc
n
P

R = 1.
n2 z n n2
2. : on sait que ∼ n, donc R = 1 d’après la proposition 11.8.
P
n
n + sin(n) n + sin(n)

11.1.5 Règle de d’Alembert pour les séries entières


De la règle de d’Alembert sur les suites numériques, on déduit :
Théorème 11.13 : règle de d’Alembert pour les séries entières
Soit an z n une série entière telle que :
P

• pour tout n ∈ N, an 6= 0 ;

Fénelon Sainte-Marie – La Plaine-Monceau 127/244 31 août 2022


11.2. OPÉRATIONS SUR LES SÉRIES ENTIÈRES MP 2022-23

 
an+1
• la suite
an
admet une limite ` dans R.
n
1
Alors le rayon de convergence de cette série entière est : R = . (En d’autres termes R = 0 si ` = +∞ et R = +∞ si
`
` = 0.)

Exemple 11.14 :
X n! n! an+1
1. n
z n . an = n 6= 0, et lim = e−1 , d’où R = e.
n n n→+∞ an
X n!
2. z 2n . Ici, la règle de d’Alembert ne peut pas s’appliquer directement, car les coefficients de rang impair
nn
sont nuls. Cependant, d’après l’exemple précédent, la série converge pour |z 2 | < e et diverge pour |z 2 | > e. Son

rayon de convergence est donc R = e.

Remarque 11.15 :
Dans le cas où certains coefficients de la série entière s’annulent, on parle de série lacunaire. Il est conseillé de
revenir à la règle de d’Alembert des séries numériques (en incluant la puissance de z dans le calcul) et de refaire la
démarche de la démonstration.
Exemple 11.16 : X 2
Déterminer le rayon de convergence R de la série entière n!z n .

Remarque 11.17 :
Attention, la réciproque du théorème est fausse.  
an+1 1
Ce n’est pas parce qu’une série a pour rayon de convergence R que la suite converge et a pour limite .
an n R
En fait on n’est même pas assurés que cette suite converge. . .
Exemple 11.18 :  nπ 
La série entière z n a pour rayon de convergence 1, mais le quotient de deux termes consécutifs n’est
P
cos
3
1
pas de limite = 1.
1

11.2 Opérations sur les séries entières


11.2.1 Somme de deux séries entières
X X
Soit an z n et
bn z n deux séries entières de rayons de convergence respectifs R et R0 . Que peut-on
n n X
dire du rayon de convergence R00 de la série entière (an + bn )z n ?
n

X X X
Si z est un nombre complexe tel que |z| < min (R, R0 ), les deux séries an z n et bn z n convergent, donc (an +
n n n
bn )z n converge : R00 ≥ min (R, R0 ).
X X
• Supposons R < R0 : si z est un nombre complexe tel que R < |z| < R0 , alors an z n diverge et bn z n
X n n
converge, donc (an + bn )z n diverge : R00 = R = min (R, R0 ).
n
X X 1
• Si R = R0 , il se peut que R00 > min (R, R0 ) : par exemple, z n et( n − 1)z n ont toutes deux un rayon de
n n
7
convergence égal à 1, mais le rayon de convergence de leur somme est 7.

Fénelon Sainte-Marie – La Plaine-Monceau 128/244 31 août 2022


CHAPITRE 11. SÉRIES ENTIÈRES MP 2022-23

Conclusion :
 Si R 6= R0 , R00 = min (R, R0 ).
 Si R = R0 , R00 ≥ min (R, R0 ).
Mais on ne peut rien dire de plus précis, sauf au cas par cas.

11.2.2 Produit de Cauchy de deux séries entières


X X
Soit an z n et bn z n deux séries entières de rayons de convergence respectifs R et R0 . Leur produit de Cauchy
n n
est :
n
XX
(aj bn−j )z n .
n j=0

C’est encore une série entière. Il est à noter


Xque ce produit
X prolonge celui de deux polynômes.
Pour |z| < min (R, R ), les deux séries
0
an z et
n
bn z n convergent absolument, par conséquent leur produit de
n n
Cauchy converge absolument et sa somme est le produit des deux sommes :

+∞ X
n +∞
! +∞
!
X X X
|z| < min (R, R )0
=⇒ (aj bn−j )z n = an z n
bn z n
. (11.1)
n=0 j=0 n=0 n=0

On en déduit que le rayon de convergence du produit de Cauchy est supérieur ou égal à min (R, R0 ), mais l’égalité (11.1)
n’a de sens que dans le disque ouvert de rayon min (R, R0 ).
Attention : ici, même si R 6= R0 , on n’a pas nécessairement R00 = min (R, R0 ). Par exemple :
X X
zn : R = 1; 1−z : R0 = +∞; ( z n )(1 − z) = 1 : R00 = +∞.
n n

Mais l’égalité (11.1) n’a de sens ici que pour |z| < 1.

11.2.3 Exemple de la fonction exponentielle


X zn
La série entière a un rayon de convergence infini (d’après le règle de d’Alembert). On a :
n
n!

+∞ n
X z
∀z ∈ C exp(z) = .
n=0
n!

X zn X z 0n
En effectuant le produit de Cauchy de et , on obtient :
n
n! n
n!

∀(z, z 0 ) ∈ C2 exp(z) exp(z 0 ) = exp(z + z 0 ).

En séparant les parties paire et impaire, on obtient :

+∞ +∞
X z 2n X z 2n+1
ch z = sh z = .
n=0
(2n)! n=0
(2n + 1)!

De même :
+∞ +∞
X z 2n 1 X z 2n+1
cos z = ch iz = (−1)n sin z = sh iz = (−1)n .
n=0
(2n)! i n=0
(2n + 1)!

Fénelon Sainte-Marie – La Plaine-Monceau 129/244 31 août 2022


11.3. ÉTUDE SUR LE DISQUE OUVERT DE CONVERGENCE MP 2022-23

11.3 Étude sur le disque ouvert de convergence


11.3.1 Convergence normale sur tout disque fermé du disque de convergence
Théorème 11.19 :X convergence normale sur tout disque fermé du disque ouvert de convergence
La série entière an z n , de rayon de convergence R, est normalement convergente sur tout disque fermé inclus
n
dans son disque ouvert de convergence, c’est-à-dire sur tout disque D(0, r) avec r < R.

Remarque 11.20 :
Attention : ce résultat n’implique pas la convergence normale de la série entière sur tout son disque de convergence.

Exemple 11.21 :
X 1
La série xn ne converge pas normalement vers sur ] − 1, 1[, car la différence
n
1−x

n
X 1 1 − xn+1 − 1 −xn+1
Rn (x) = xk − = =
1−x 1−x 1−x
k=0

n’est pas bornée pour x ∈] − 1, 1[.

11.3.2 Continuité de la somme


Comme une série entière est normalement convergente sur tout disque fermé inclus dans son disque de convergence,
sa somme est continue en tout point de ce disque ouvert.

11.4 Série entière d’une variable réelle


11.4.1 Théorème d’Abel radial
Théorème 11.22 : théorème d’Abel radial
Soit n an xn une série entière de la variable réelle, de rayon de convergence R ∈ R∗+ .
P

Si la série n an Rn converge, alors :


P

+∞
X +∞
X
lim an xn = an Rn .
x→R
< n=0 n=0

La démonstration est hors-programme (voir le sujet CCINP 2005 MP).


Remarque 11.23 :
Appliqué à une série entière n an z n de la variable complexe, ce théorème montre que si la série converge en un
P

point z0 du cercle limite de convergence, alors la restriction de sa somme au rayon [0, z0 ] est continue au point z0 .
Attention, ceci ne signifie pas que cette somme soit continue en z0 : un voisinage de z0 relatif au disque fermé de
convergence contient des points n’appartenant pas à ce rayon !

11.4.2 Dérivation terme à terme


Théorème
X 11.24 : dérivation d’une série entière
Soit an xn une série entière de la variable réelle x, de rayon de convergence R.
n

Fénelon Sainte-Marie – La Plaine-Monceau 130/244 31 août 2022


CHAPITRE 11. SÉRIES ENTIÈRES MP 2022-23

X
Alors la série entière nan xn−1 a le même rayon de convergence R, et si R > 0 :
n

+∞
!0 +∞
X X
n
∀x ∈] − R, R[, an x = nan xn−1 .
n=0 n=1

La somme de la série entière est donc de classe C 1 sur ] − R, R[.


X
Plus généralement, la série obtenue en dérivant k fois terme à terme la série an xn a toujours le même rayon de
n
convergence R et :
+∞
!(k) +∞
X
n
X n!
∀x ∈] − R, R[, an x = an xn−k .
n=0
(n − k)!
n=k

La somme de la série entière est donc de classe C ∞ sur ] − R, R[. La série entière est la série de Taylor de sa somme S :

S (n) (0)
∀n ∈ N, an = .
n!

Remarque 11.25 :
Pour montrer qu’une fonction est de classe C ∞ sur un intervalle ] − R, R[, il suffit de montrer que c’est la somme
d’une série entière de rayon de convergence supérieur ou égal à R.
Exemple 11.26 :
ln(1 − x) X −xn
La fonction f : x 7→ est la somme de la série entière , dont le rayon de convergence est 1. Elle
x n
n+1
peut donc être prolongée en 0 en une fonction de classe C ∞ sur ] − 1, 1[.
Remarque 11.27 :
+∞
X +∞
X
Si deux fonctions f : x 7→ an xn et g : x 7→ bn xn coïncident sur un voisinage de 0, alors pour tout n :
n=0 n=0
an = bn .
En effet on a f = g au voisinage de 0, donc f (n) = g (n) au voisinage de 0, d’où f (n) (0) = g (n) (0) pour tout n, puis
an = bn pour tout n.

11.4.3 Intégration terme à terme


Théorème
X 11.28 : intégration d’une série entière
Soit an xn une série entière de la variable réelle x, de rayon de convergence R.
n
X an
Alors la série entière xn+1 a le même rayon de convergence R, et si R > 0 :
n
n + 1

+∞
! +∞
Z x X
n
X an n+1
∀x ∈] − R, R[ an t dt = x .
0 n=0 n=0
n+1

Exemple 11.29 :
+∞ +∞ n
X 1 X x
De xn = pour x ∈] − 1, 1[ , on déduit = − ln(1 − x) pour x ∈] − 1, 1[ .
n=0
1−x n=1
n

Fénelon Sainte-Marie – La Plaine-Monceau 131/244 31 août 2022


11.5. DÉVELOPPEMENT EN SÉRIE ENTIÈRE MP 2022-23

11.5 Développement en série entière


11.5.1 Fonction développable en série entière
Définition 11.30 : fonction développable en série entière
Soit r > 0. Une fonction f définie sur un intervalle ] − r, r[ est dite développable en série entière sur ] − r, r[ si elle
est la somme d’une série entière de rayon de convergence supérieur ou égal à r :
+∞
X
∀x ∈] − r, r[, f (x) = an xn .
n=0

Nous avons vu que f est alors de classe C ∞ sur ] − r, r[ et que la série entière est sa série de Taylor :
+∞ (n)
X f (0) n
∀x ∈] − r, r[, f (x) = x .
n=0
n!

Remarque 11.31 :
Réciproquement, toute fonction de classe C ∞ sur ] − r, r[ n’est pas nécessairement développable en série entière. Sa
série de Taylor peut avoir un rayon de convergence nul, ou converger dans ] − r, r[ vers une fonction différente de f .
1
Par exemple, la fonction f : x 7→ e− x2 , prolongée en 0 par f (0) = 0, est de classe C ∞ sur R, mais sa série de Taylor
est la série nulle, de rayon de convergence infini : f n’est pas développable en série entière.
Pour prouver qu’une fonction de classe C ∞ est développable en série entière, il faut prouver que le reste de Taylor
converge vers 0, par exemple à l’aide de l’inégalité de Taylor-Lagrange.
Voyons une autre méthode pour obtenir le développement en série entière d’une fonction de classe C ∞ : à l’aide
d’une équation différentielle.
Exemple 11.32 :
Soit f la fonction définie sur R par : f (x) = earctan x . Démontrer que f est développable en série entière au voisinage
de 0.

Remarque 11.33 : ! !
X X
Si |an | ≤ |bn | pour tout n alors R an z n
≥R bn z n
.
n Xn X
En effet soit z tel que |z| < R = R ( n
). Alors bn z n converge. Or |an z n | ≤ |bn z n | donc an z n converge,
P
n bn z
n n
d’où R ( n an z n ) ≥ R ( n bn z n ).
P P

11.5.2 Développements en série entière usuels


La fonction exponentielle est par définition développable en série entière sur R :
+∞ n
X x
∀x ∈ R, ex = .
n=0
n!

On en déduit :
+∞ +∞
X x2n X x2n+1
∀x ∈ R ch x = sh x =
n=0
(2n)! n=0
(2n + 1)!
+∞ +∞
X x2n X x2n+1
∀x ∈ R cos x = (−1)n sin x = (−1)n
n=0
(2n)! n=0
(2n + 1)!

On sait de même que :


+∞ +∞
1 X 1 X
∀x ∈] − 1, 1[ = xn = (−1)n xn
1 − x n=0 1 + x n=0

Fénelon Sainte-Marie – La Plaine-Monceau 132/244 31 août 2022


CHAPITRE 11. SÉRIES ENTIÈRES MP 2022-23

On en déduit par intégration :


+∞ n +∞
X x X xn
∀x ∈] − 1, 1[ ln(1 − x) = − ln(1 + x) = (−1)n+1
n=1
n n=1
n

+∞
1 X
De plus = (−1)n x2n pour x ∈] − 1, 1[ donne par intégration
1 + x2 n=0

+∞
X (−1)n 2n+1
arctan(x) = x pour x ∈] − 1, 1[.
n=0
2n + 1

Théorème 11.34 : formule du binôme généralisée


Pour tout réel α, la fonction x 7→ (1 + x)α est développable en série entière, au moins sur ] − 1, 1[ :

+∞
X α(α − 1) · · · (α − n + 1) n
∀x ∈] − 1, 1[, (1 + x)α = x .
n=0
n!

Exemple 11.35 :
+∞
1 √ x x2 X (2n − 2)!
Pour α = : ∀x ∈] − 1, 1[, 1+x = 1+ − + ··· = 1 + (−1)n−1 2n−1 xn .
2 2 8 n=1
2 n!(n − 1)!

EPCC : exercices 2, 20, 21, 22, 23, 24, 47, 51.

The end – chapitre 11

Fénelon Sainte-Marie – La Plaine-Monceau 133/244 31 août 2022


11.5. DÉVELOPPEMENT EN SÉRIE ENTIÈRE MP 2022-23

Fénelon Sainte-Marie – La Plaine-Monceau 134/244 31 août 2022


Chapitre 12

Intégration sur un intervalle quelconque

L’objet de ce chapitre est d’étendre la notion d’intégrale au cas des fonctions continues par morceaux sur un
intervalle I qui n’est pas un segment i.e. du type :

]a, b], [a, b[, ] − ∞, b], [a, +∞[, ]c, d[

avec −∞ < a < b < +∞ et −∞ < c < d < +∞.


Nous allons étudier deux notions différentes. Dans la première section nous examinerons les intégrales impropres,
dans les sections suivantes les fonctions intégrables ; cette seconde notion est le coeur de ce chapitre.

12.1 Intégrales impropres


12.1.1 Intégrales impropres sur un intervalle semi-ouvert
Dans cette section l’intervalle [a, b[ est tel que b ≤ +∞, mutatis mutandis avec l’intervalle ]a, b] auquel s’étendent
toutes les définitions et les résultats.
Définition 12.1 : intégrale impropre convergente
Soit f une fonction continue par morceaux sur [a, b[ à valeurs complexes.
Z b
On dit que l’intégrale impropre f (t)dt converge lorsque la fonction Fa : [a, b[→ C définie par :
a
Z x
Fa (x) = f (t)dt
a

possède une limite en b. S’il en est ainsi, cette limite est notée :
Z b
f (t)dt.
a
Z b
Dans le cas contraire on dit que l’intégrale impropre f (t)dt diverge.
a
Proposition 12.2 : intégrale faussement impropre en b < +∞
Soit f une fonction continue par morceaux sur [a, b[ à valeurs complexes avec b < +∞. Lorsque f possède une limite
Z b
à gauche en b, elle se prolonge en une fonction fe continue par morceaux sur le segment [a, b]. L’intégrale f (t)dt est
a
alors convergente et
Z b Z b
f (t)dt = f˜(t)dt.
a a

Dans cette situation on dit souvent que l’intégrale est faussement impropre ou faussement généralisée en b.

135
12.1. INTÉGRALES IMPROPRES MP 2022-23

Exemple 12.3Z :
1
sin t
L’intégrale dt est faussement impropre en 0.
0 t
Proposition 12.4 : localisation, reste
Z b
Soit f une fonction continue par morceaux sur [a, b[ à valeurs complexes et c ∈]a, b[. L’intégrale impropre f (t)dt
Z b a

converge si et seulement si l’intégrale impropre f (t)dt converge et, dans ce cas :


c
Z b Z c Z b
f (t)dt = f (t)dt + f (t)dt.
a a c

Définition 12.5 : reste d’une intégrale impropre convergente


L’application de [a, b[ dans C définie par :
Z b
x 7→ f (t)dt
x

est appelée reste (ou queue) de l’intégrale impropre convergente.


Remarque 12.6 :
Z b
Cette application x 7→ f (t)dt, qui tend vers 0 lorsque x → b, a les mêmes propriétés de régularité que l’ap-
Z x x

plication x 7→ f (t)dt étudiée dans la section 10.2.3 (primitive d’une fonction continue) du chapitre 10 (fonctions
a
vectorielles).
Proposition 12.7 : linéarité de l’intégrale (intervalle semi-ouvert)
Soit f et g deux fonctions continues par morceaux sur [a, b[ à valeurs dans C ; λ et µ deux complexes. On suppose
Z b Z b Z b
que les intégrales f (t)dt et g(t)dt convergent. Alors l’intégrale impropre (λf + µg) (t)dt converge et :
a a a
Z b Z b Z b
(λf + µg) (t)dt = λ f (t)dt + µ g(t)dt.
a a a

Proposition 12.8 : convergence de l’intégrale d’une fonction positive


Soit f une fonction continue par morceaux sur [a, +∞[ à valeurs positives.
Z +∞ Z x
L’intégrale f (t)dt converge si et seulement si la fonction x 7→ f (t)dt est majorée.
a a

Remarque 12.9 :
Il existe de nombreux points communs entre les séries numériques et les intégrales sur [a, +∞[.
Attention, voici cependant une différence importante : contrairement aux séries, pour lesquelles il est nécessaire que
le terme général converge vers 0 pour que la série converge, l’intégrale d’une fonction positive peut être convergente
sans que cette fonction tende vers 0 en +∞.
Exemple 12.10 :
Considérons la fonction f telle que, pour tout n ∈ N∗ :
  1 
 ∀x ∈ n − 2 , n , f (x) = 1 + 2n2 (x − n) ;
2n



  1 
∀x ∈ n, n + 2 , f (x) = 1 − 2n2 (x − n) ;
2n
1 1 

 S 
 ∀x ∈ R \ n − 2,n + 2 , f (x) = 0.


n∈N∗ 2n 2n

Fénelon Sainte-Marie – La Plaine-Monceau 136/244 31 août 2022


CHAPITRE 12. INTÉGRATION SUR UN INTERVALLE QUELCONQUE MP 2022-23

1 1 1
2 8 18

0 1 2 3 x

1
Z n+ 2n 2 1 1
Pour tout n ∈ N ,∗
f= 2
. Pour tout x ≤ n − 2 :
1
n− 2n 2
2n 2n
Z x n +∞
X 1 X 1
f ≤ ≤ .
0 2k 2 2k 2
k=1 k=1
Z +∞
Cette intégrale est majorée : l’intégrale f converge. Pourtant, pour tout n ∈ N∗ , f (n) = 1, si bien que f ne tend
0
pas vers 0 en +∞.
Proposition 12.11 : croissance de l’intégrale Z +∞
Soit f et g deux fonctions continues par morceaux sur [a, +∞[ telles que 0 ≤ f ≤ g. La convergence de g
Z +∞ Z +∞ Z +∞ a

implique celle de f . On a alors : f≤ g.


a a a

12.1.2 Intégrales impropres sur un intervalle ouvert


Définition 12.12 : intégrale impropre sur un intervalle ouvert
Soit f une application continue par morceaux d’un intervalle ]a, b[, −∞ ≤ a < b ≤ +∞, dans C. Les propriétés
suivantes sont équivalentes :
Z c Z b
1. Il existe c ∈]a, b[ tel que les intégrales impropres f (t)dt et f (t)dt convergent.
a c
Z c Z b
2. Pour tout c ∈]a, b[, les intégrales impropres f (t)dt et f (t)dt convergent.
a c
Z c Z b Z b
Dans ce cas, la somme f (t)dt + f (t)dt ne dépend pas de c. On la note : f (t)dt.
a c a

Proposition 12.13 : linéarité de l’intégrale (sur un intervalle ouvert)


Soit f et g deux fonctions continues par morceaux sur ]a, b[ à valeurs dans C ; λ et µ deux complexes. On suppose
Z b Z b Z b
que les intégrales f (t)dt et g(t)dt convergent. Alors l’intégrale impropre (λf + µg) (t)dt converge et :
a a a
Z b Z b Z b
(λf + µg) (t)dt = λ f (t)dt + µ g(t)dt.
a a a

12.2 Intégration sur un intervalle de la forme [a, +∞[


12.2.1 Fonction intégrable sur [a, +∞[

Fénelon Sainte-Marie – La Plaine-Monceau 137/244 31 août 2022


12.2. INTÉGRATION SUR UN INTERVALLE DE LA FORME [A, +∞[ MP 2022-23

Définition 12.14 : fonction intégrable sur [a, +∞[


Soit f une fonction continue par morceaux de [a, +∞[ dans K. On dit que f est intégrable sur [a, +∞[ lorsque
Z +∞ Z +∞
l’intégrale |f | est convergente. On dit aussi que l’intégrale f est absolument convergente.
a a
Remarque 12.15 : Z +∞
Le programme précise qu’un calcul montrant que |f | < +∞ vaut preuve d’intégrabilité, ce qui signifie qu’il
a
n’y aura pas lieu en pratique de justifier précisément que f est continue par morceaux ni de calculer explicitement
l’intégrale.
Il est néanmoins peu probable que les « grands concours » abaissent leur niveau d’exigence. . .
Une intégrale convergente qui n’est pas absolument convergente est dite semi-convergente. On dit que f est inté-
grable en +∞ s’il existe a ∈ R tel que f est intégrable sur [a, +∞[.
Proposition 12.16 : la convergence absolue implique la convergence Z +∞
Si une fonction f est intégrable sur [a, +∞[, alors l’intégrale f converge. Autrement dit : toute intégrale
a
absolument convergente est convergente. La réciproque est fausse.

Un contre-exemple suffit à montrer que la réciproque est fausse.


Exemple 12.17 :
(−1)n
Considérons la fonction f définie sur [0, +∞[ par : ∀n ∈ N∗ , ∀x ∈ [n, n + 1[, f (x) = .
n+1
y

0
1 2 3 4 5 x

-1

x bxc Z x
(−1)k+1
Z X
Remarquons que : ∀x ∈ [1, +∞[, f = + f.
0 k bxc
Z k=1

X (−1)k x 1 1
Or la série converge et f ≤ ≤ , qui tend vers 0 quand x tend vers +∞. Donc

k bxc bxc + 1 x
k
Z +∞
l’intégrale f converge. Mais :
0
Z x bxc
X 1
∀x ∈ [1, +∞[, |f | ≥
0 k
k=1
X1 Z +∞
et la série diverge, donc l’intégrale f n’est pas absolument convergente : la fonction f n’est pas intégrable
k 0
k
sur [0, +∞[.

1
12.2.2 Intégrabilité de x 7→ sur [1, +∞[

Proposition 12.18 : nature de l’intégrale de Riemann en +∞
1
Soit α ∈ R. La fonction x 7→ α est intégrable sur [1, +∞[ si et seulement si α > 1. On a alors :
x
Z +∞
1 1
α
dt = .
1 t α−1

Fénelon Sainte-Marie – La Plaine-Monceau 138/244 31 août 2022


CHAPITRE 12. INTÉGRATION SUR UN INTERVALLE QUELCONQUE MP 2022-23

Remarque 12.19 :
1
Pour l’intégrabilité de la fonction x 7→ sur ]0, 1], voir le paragraphe 12.3.2.

12.2.3 Intégrabilité de x 7→ e−αx sur [0, +∞[


R +∞ −αt
Proposition 12.20 : nature de l’intégrale 0 e dt
Soit α ∈ R. La fonction x 7→ e−αx est intégrable sur [0, +∞[ si et seulement si α > 0. On a alors :
Z +∞
1
e−αt dt = .
0 α

12.2.4 Intégrabilité et relations de comparaison


Théorème 12.21 : théorème de comparaison
Soit f et g deux fonctions continues par morceaux sur [a, +∞[ à valeurs dans K.
1. Si f (x) = Ox→+∞ (g(x)), alors l’intégrabilité de g sur [a, +∞[ implique celle de f .
2. Si f (x) = ox→+∞ (g(x)), alors l’intégrabilité de g sur [a, +∞[ implique celle de f .
x→+∞
3. Si f (x) ∼ g(x), alors l’intégrabilité de g sur [a, +∞[ équivaut à celle de f .

1
On utilisera fréquemment des comparaisons avec les fonctions x 7→ et x 7→ e−αx .

Exemple 12.22 :
sin x | sin x| 1
1. La fonction x 7→ est intégrable sur [1, +∞[, car est majoré par 2 .
x2 x2 x
1 1
2. La fonction x 7→ n’est pas intégrable sur [2, +∞[, car elle est minorée par x 7→ .
ln x x
1
3. La fonction x 7→ x3 e−x est intégrable sur [0, +∞[, car elle est dominée en +∞ par x 7→ .
x2
1 1
4. La fonction x 7→ 4
est intégrable sur [0, +∞[, car elle est positive et équivalente en +∞ à 4 .
1+x x

x 1
5. La fonction x 7→ n’est pas intégrable sur [0, +∞[, car elle est positive et équivalente en +∞ à 1 .
1+x x2
2
6. La fonction x 7→ e−x est intégrable sur [0, +∞[, car elle est négligeable en +∞ devant e−x .

Remarque 12.23 :
Le théorème de comparaison ne parle que de l’intégrabilité de l’une ou l’autre des deux fonctions, c’est-à-dire de
la convergence absolue de leurs intégrales. Le résultat ne s’étend pas aux intégrales semi-convergentes. En effet, deux
fonctions équivalentes en +∞ peuvent avoir des intégrales de natures différentes (l’une semi-convergente et l’autre
divergente).
Exemple 12.24 :
Z +∞ Z +∞ 
(−1)bxc (−1)bxc

1
On peut prouver que dx est semi-convergente. Il s’ensuit que +√ dx est diver-
1 x 1 x x
Z +∞
1 (−1)bxc (−1)bxc 1
gente, puisque √ dx = +∞. Pourtant x 7→ et x 7→ + √ sont équivalentes en +∞.
1 x x x x

Fénelon Sainte-Marie – La Plaine-Monceau 139/244 31 août 2022


12.3. INTÉGRATION SUR UN INTERVALLE QUELCONQUE MP 2022-23

12.3 Intégration sur un intervalle quelconque


12.3.1 Intégration sur un intervalle semi-ouvert
On peut reprendre toute l’étude précédente pour des fonctions continues par morceaux sur un intervalle de la forme
[a, b[ ou ]a, b], où (a, b) ∈ R2 , avec a < b.
Définition 12.25 : intégrale convergente sur [a,b[ ou sur ]a,b]
Z b
Soit f une fonction continue par morceaux de [a, b[ dans K. On dit que l’intégrale f converge lorsque la fonction
Z x a

x 7→ f a une limite finie en b.


a
Z b
De même, soit f une fonction continue par morceaux de ]a, b] dans K. On dit que l’intégrale f converge lorsque
Z b a

la fonction x 7→ f a une limite finie en a.


x
Z b Z b Z Z Z
Dans les deux cas, cette limite est notée f ou f (t)dt ; ou bien f ou f , ou f selon le cas.
a a [a,b[ ]a,b] ]a,b[

Exemple 12.26 :
Z 1 Z x
dt dt √
1. √ converge car, pour x ∈ [0, 1[, √ = 2(1 − 1 − x), qui tend vers 2 quand x tend vers 1. On
0 1−t Z 0 1−t
1
dt
peut écrire : √ = 2.
0 1−t
Z 1 Z 1
2. ln tdt converge car, pour tout x ∈]0, 1], ln tdt = x − x ln x − 1, qui tend vers −1 quand x tend vers 0. On
0 Z 1 x

peut écrire : ln tdt = −1.


0

Z b
Tout comme dans la proposition 12.2, si f possède une limite finie ` au point b, alors l’intégrale f converge et
a
on parle à nouveau d’intégrale faussement impropre en b.
Définition 12.27 : fonction intégrable sur [a,b[ ou sur ]a,b]
Soit f une fonction continue par morceaux de [a, b[ (resp. ]a, b]) dans K. On dit que f est intégrable sur [a, b[ (resp.
Z b
]a, b]), lorsque l’intégrale |f | est convergente.
a

Si f est une fonction continue par morceaux sur un intervalle I et a ∈ I, on dit que f est intégrable à droite (resp.
à gauche) en a s’il existe b ∈ I tel que f est intégrable sur ]a, b] (resp. sur [b, a[).
Remarque 12.28 :
Pour étudier l’intégrabilité de f en a à droite (resp. à gauche), on peut étudier celle de la fonction t 7→ f (a + t)
en 0 à droite (resp. celle de la fonction t 7→ f (a − t) en 0 à gauche). C’est un simple changement de variable affine,
cf. 12.41.

1
12.3.2 Intégrabilité en a de x 7→
|x − a|α
Proposition 12.29 : nature de l’intégrale de Riemann en a
1
Soit α ∈ R. La fonction x 7→ est intégrable en a si et seulement si α < 1.
|x − a|α

Exemple 12.30 :
 
1 1 1 1
1. La fonction x 7→ √ sin est intégrable sur 0, , car elle est dominée au voisinage de 0 par 1 .
x x π x2

Fénelon Sainte-Marie – La Plaine-Monceau 140/244 31 août 2022


CHAPITRE 12. INTÉGRATION SUR UN INTERVALLE QUELCONQUE MP 2022-23

sin x 1
2. La fonction x 7→ 2
n’est pas intégrable sur ]0, π], car elle est équivalente à en 0.
x x

12.3.3 Intégration sur un intervalle de la forme ]a, b[


Définition 12.31 : Intégrale convergente sur ]a, b[
Z b
2
Soit f ∈ C(]a, b[, K), avec (a, b) ∈ R . On dit que l’intégrale f converge lorsqu’il existe c ∈]a, b[ tel que les deux
Z c Z b Z b Z c a Z b
intégrales f et f convergent. On pose alors : f= f+ f.
a c a a c
Remarque 12.32 :
Z c Z b Z d Z b
1. Si les intégrales f et f convergent, alors il en est de même de f et f pour tout d ∈]a, b[ et
Z c Z b a Z bc a d
Z d
f+ f= f+ f . La valeur de c est donc indifférente.
a c a d
Z c Z b
2. Il faut bien s’assurer que les deux intégrales f et f convergent indépendamment l’une de l’autre. Par
Z x a c Z a
exemple, il ne suffit pas que f possède une limite quand x tend vers a pour que f soit convergente. Par
−x −a
Z x Z π/2
exemple, pour tout x ∈] − π2 , π2 [ nous avons tan tdt = 0, mais l’intégrale tan tdt diverge.
−x −π/2

Définition 12.33 : fonction intégrable sur ]a, b[


Z b
Soit f ∈ CM(]a, b[, K). On dit que f est intégrable sur ]a, b[ lorsque l’intégrale |f | est convergente.
a
Exemple 12.34 :
2 2 1
1. La fonction x 7→ e−x est intégrable sur R, car e−x est négligeable devant au voisinage de −∞ et de +∞.
x2
1 1
2. La fonction x →7 √ est intégrable sur ]0, 1[, car elle est dominée par x 7→ 1 au voisinage de 0 et par
x−x 2 x2
1
1 au voisinage de 1.
(1 − x) 2
1
3. La fonction x 7→ α n’est intégrable sur ]0, +∞[ pour aucune valeur du réel α, car elle n’est jamais simultanément
x
intégrable sur ]0, 1] et sur [1, +∞[.

12.3.4 Propriétés de l’intégrale


Soit I un intervalle
Z quelconque de R. Si f est une fonction intégrable sur I à valeurs dans K, alors son intégrale
sur I est notée f.
I
Proposition 12.35 : linéarité de l’intégrale
L’ensemble des fonctions continues par morceaux de I dans Z K et dont l’intégrale sur I converge est un K-espace
vectoriel. L’application de cet espace dans K qui à f associe f est linéaire.
I

Corollaire 12.36 : espace vectoriel L1 (I)


L’ensemble des fonctions continues par morceaux de I Zdans K et intégrables sur I est un K-espace vectoriel, noté
L1 (I). L’application de cet espace dans K qui à f associe f est linéaire.
I
Proposition 12.37 : inégalité triangulaire

Fénelon Sainte-Marie – La Plaine-Monceau 141/244 31 août 2022


12.3. INTÉGRATION SUR UN INTERVALLE QUELCONQUE MP 2022-23

Soit f une fonction intégrable sur un intervalle I à valeurs dans K. Alors :


Z Z

f ≤ |f |.

I I

Proposition 12.38 : positivité Z


Soit f une fonction continue par morceaux de I dans R. Si f est positive sur I et si l’intégrale f converge, alors :
I
Z
f ≥ 0.
I
Z
De plus, si f est continue et positive sur I et si f = 0, alors f = 0 sur I.
I

Proposition 12.39 : Relation de Chasles


3
Soit f une fonction continue par morceaux de I dans K dont l’intégrale sur I converge. Pour tout (a, b, c) ∈ I
dans R (a, b ou c peuvent prendre les valeurs ±∞) :
Z b Z c Z c
f+ f = f.
a b a

Exemple 12.40 :
Z +∞
(−1)btc
Calculer I = dt.
1 t2

12.3.5 Changement de variable


On peut étendre aux intégrales sur un intervalle quelconque la formule de changement de variable vue en première
année pour les intégrales sur un segment :
Théorème 12.41 : changement de variable
Soit f une fonction continue sur Zun intervalle
Z I à valeurs dans K et ϕ une bijection d’un intervalle I 0 dans I, de
classe C 1 sur I 0 . Alors les intégrales f et f ◦ ϕ · |ϕ0 | sont de même nature et égales si elles sont convergentes.
I I0
En particulier si I =]α, β[ et I 0 =]a, b[ avec a = lim ϕ−1 et b = lim ϕ−1 , il vient :
α β

Z β Z b
f (t)dt = (f ◦ ϕ)(u) · ϕ0 (u) du.
α a

Remarque 12.42 :
Le programme précise que dans le cas des changements de variable usuels, on ne demandera pas de justifier les
hypothèses concernant la fonction ϕ.
Il est néanmoins peu probable que les « grands concours » abaissent leur niveau d’exigence. . .
Seul un changement de variable affine est faisable sans plus de justification !
Exemple 12.43 :
Z +∞ −x
e
Calculer I = dx sous forme d’une intégrale sur un segment.
1 x

Fénelon Sainte-Marie – La Plaine-Monceau 142/244 31 août 2022


CHAPITRE 12. INTÉGRATION SUR UN INTERVALLE QUELCONQUE MP 2022-23

12.3.6 Intégration par parties


Proposition 12.44 : intégration par parties
2
Soit f et g deux fonctions de classe C 1 sur I et (a, b) ∈ I dans R (a et b peuvent prendre les valeurs ±∞). Si le
Z b Z b
produit f g possède des limites finies en a et en b, alors les intégrales f g 0 et f 0 g sont de même nature et, si elles
a a
convergent :
Z b  b
Z b  b
f (t)g 0 (t)dt = fg a − f 0 (t)g(t)dt, où f g a = lim f g − lim f g.
a a b a

Remarque 12.45 :
Le programme précise que pour les applications pratiques, on ne demandera pas de justifier les hypothèses de
régularité (f et g de classe C 1 ).
Il est néanmoins peu probable que les « grands concours » abaissent leur niveau d’exigence. . .
Exemple 12.46 :
Z 1
ln t
Calculer I = √ dt, en justifiant son existence.
0 1−t

12.4 Convergence en moyenne, en moyenne quadratique


12.4.1 Norme de la convergence en moyenne
Les fonctions continues et intégrables sur un intervalle I à valeurs complexes constituent un sous-espace vectoriel
de C(I), que nous noterons CI 1 (I). Montrons que l’application :

N1 : CI 1 (I) → R Z
f 7→ N1 (f ) = |f |
I

est une norme sur CI 1 (I) :


• Pour tout f ∈ CI 1 (I), N1 (f ) ≥ 0.
• Si N1 (f ) = 0, comme la fonction |f | est continue et positive sur I, elle est nulle sur I et la fonction f aussi.
• Pour tout f ∈ CI 1 (I) et tout λ ∈ K, N1 (λf ) = |λ|N1 (f ).
• Soit (f, g) ∈ CI 1 (I)2 , alors :
Z Z Z Z
N1 (f + g) = |f + g| ≤ (|f | + |g|) ≤ |f | + |g| = N1 (f ) + N1 (g).
I I I I

N1 est appelée norme de la convergence en moyenne. Z


Une suite de fonctions (fn )n converge en moyenne vers une fonction f lorsque |fn − f | converge vers 0.
I

12.4.2 Norme de la convergence en moyenne quadratique


Définition 12.47 : fonctions de carré intégrable
Soit f une fonction continue par morceaux sur un intervalle I de R, à valeurs dans K = R ou C. On dit que f est
de carré intégrable sur I lorsque la fonction |f |2 est intégrable sur I.
Proposition 12.48 : produit de fonctions de carré intégrable
Soit I un intervalle de R. Le produit de deux fonctions de carré intégrable sur I est intégrable sur I.

Corollaire 12.49 : espace L2 (I)

Fénelon Sainte-Marie – La Plaine-Monceau 143/244 31 août 2022


12.4. CONVERGENCE EN MOYENNE, EN MOYENNE QUADRATIQUE MP 2022-23

Soit I un intervalle de R. L’ensemble des fonctions de carré intégrable sur I est un K-espace vectoriel, noté L2 (I).

Théorème 12.50 : inégalité de Cauchy-Schwarz (cas réel)


Soit I un intervalle de R et f , g deux fonctions de carré intégrable sur I, à valeurs réelles. Alors :
Z 2 Z Z
2
fg ≤ f g2 .
I I I

Si de plus les fonctions f et g sont continues sur I, alors l’égalité est vérifiée si et seulement si les fonctions f et g sont
colinéaires.

Les fonctions continues et de carré intégrable sur un intervalle I à valeurs réelles constituent un sous-espace vectoriel
de C(I), que nous noterons CI 2 (I). À titre d’exercice, le lecteur pourra prouver que et ensemble est muni d’un produit
scalaire défini par Z
(f |g) = f g,
I

et que l’application :
N2 : CI 2 (I) → R
sZ
f 7→ N2 (f ) = f2
I

est une norme sur CI 2 (I), appelée norme de la convergence en moyenne quadratique. Z
Une suite de fonctions (fn )n converge en moyenne quadratique vers une fonction f lorsque (fn − f )2 converge
I
vers 0.
Corollaire 12.51 : continuité du produit scalaire sur CI 2 (I)
Le produit scalaire (f, g) 7→ (f |g) est une application continue de CI 2 (I)2 dans R.

Remarque 12.52 :
lien entre les normes k · k1 et k · k2
Contrairement au cas de l’intégration sur un segment, sur un intervalle quelconque la convergence pour la norme
infinie, la convergence en moyenne et la convergence en moyenne quadratique sont indépendantes.
Exemple 12.53 :
1
1. Considérons la suite de fonctions (fn )n définies sur [0, +∞[ par : ∀x ∈ [0, n], fn (x) = et ∀x ∈]n, +∞[,
n
fn (x) = 0.
1 1
On a kfn k∞ = , kfn k1 = 1, kfn k2 = √ .
n n
Ainsi (fn )n converge vers la fonction nulle sur R+ : simplement, pour la norme infinie, en moyenne quadratique,
mais pas en moyenne. Bilan : 2 et ∞ .
2. Hélas on ne peut pas trouver de suite de fonctions qui : converge simplement, pour la norme infinie, en moyenne,
et pas en moyenne quadratique.
En d’autres termes : sur R+ , la convergence en norme ∞ et en norme 1 impliquent la convergence en norme 2.

3. La suite de fonctions (fn )n définies sur [0, +∞[ par : fn (0) = n, fn ( n12 ) = 0, affine sur [0, n12 ], nulle après.
√ 1 1
On a kfn k∞ = n, kfn k1 = √ , kfn k2 = √ .
2n n 3n
Ainsi (fn )n converge vers la fonction nulle sur R∗+ : simplement, en moyenne, en moyenne quadratique, mais pas
pour la norme infinie. Bilan : 1 et 2 .

   
1 1
4. La suite de fonctions (fn )n définies sur [0, +∞[ par : ∀x ∈ 0, , fn (x) = n et ∀x ∈ , +∞ , fn (x) = 0.
n n

Fénelon Sainte-Marie – La Plaine-Monceau 144/244 31 août 2022


CHAPITRE 12. INTÉGRATION SUR UN INTERVALLE QUELCONQUE MP 2022-23

√ 1
On a kfn k∞ = n, kfn k1 = √ , kfn k2 = 1.
n
Ainsi (fn )n converge vers la fonction nulle sur R∗+ : simplement, en moyenne, mais ni pour la norme infinie ni
en moyenne quadratique. Bilan : 1 .
1
5. La suite de fonctions (fn )n définies sur [0, +∞[ par : ∀x ∈ [0, n2 ], fn (x) = et ∀x ∈]n2 , +∞[, fn (x) = 0.
n
1
On a kfn k∞ = , kfn k1 = n, kfn k2 = 1.
n
Ainsi (fn )n converge vers la fonction nulle sur R+ : simplement, pour la norme infinie, mais ni en moyenne
quadratique ni en moyenne. Bilan : ∞ .
1
6. La suite de fonctions (fn )n définies sur [0, +∞[ par : ∀x ∈ [0, n], fn (x) = , et fn (n + 1) = 1, et nulle ailleurs.
n
1
On a kfn k∞ = 1, kfn k1 = 1, kfn k2 = √ .
n
Ainsi (fn )n converge vers la fonction nulle sur R+ : simplement et en moyenne quadratique, mais ni pour la
norme infinie ni en moyenne. Bilan : 2 .

12.5 Suites et séries de fonctions intégrables


12.5.1 Théorème de convergence dominée (intégration terme à terme d’une suite de
fonctions)
Attention : Contrairement à l’intégration sur un segment, la convergence uniforme d’une suite de fonctions
(fn )n intégrables
Z Z sur un intervalle
 quelconque I vers une fonction intégrable sur I, ne suffit pas pour assurer que
lim fn = lim fn .
n→+∞ I I n→+∞
Exemple 12.54 :
1
Considérons la suite de fonctions (fn )n définie sur R+ par : fn (x) = pour x ∈ [0, n] et fn (x) = 0 pour x > n. La
n Z
suite (fn )n converge uniformément vers la fonction nulle sur R+ et pourtant pour tout n ∈ N, fn = 1.
R+

Il nous faut donc un résultat plus puissant. Le théorème suivant est dû à Henri Lebesgue (1875-1941) :
Théorème 12.55 : théorème de convergence dominée (TCD)
Soit (fn )n une suite de fonctions à valeurs réelles ou complexes définies sur un intervalle I. On suppose que :
• Pour tout n ∈ N, la fonction fn est continue par morceaux sur I.
• La suite (fn )n converge simplement sur I vers une fonction continue par morceaux.
• Il existe une fonction ϕ continue par morceaux positive et intégrable sur I telle que pour tout n ∈ N : |fn | ≤ ϕ
(hypothèse de domination).
Z Z
Alors les fonctions fn et leur limite f sont intégrables sur I et : f = lim fn .
I n I
Conformément au programme, nous admettrons ce résultat sans démonstration.
Exemple 12.56 :
archi-classique !
Z +∞ −n Z +∞
x2 2
Pour tout n ∈ N , posons In =

1+ dx. Convergence de la suite (In )n ? En déduire e−x dx.
0 n 0

Remarque 12.57 :
Si l’intervalle I est borné (par exemple si c’est un segment), une fonction dominante ϕ constante peut convenir.
Exemple 12.58Z:
π
sin nt
Posons In = dt. Démontrer que la suite (In )n≥1 est convergente et calculer sa limite.
0 nt

Fénelon Sainte-Marie – La Plaine-Monceau 145/244 31 août 2022


12.5. SUITES ET SÉRIES DE FONCTIONS INTÉGRABLES MP 2022-23

Théorème 12.59 : théorème de convergence dominée à paramètre continu, ou théorème d’existence


R
d’une limite sous le signe
Soit (fλ )λ∈J une famille de fonctions à valeurs réelles ou complexes définies sur un intervalle I. On suppose que :
• pour tout λ ∈ J, la fonction fλ est continue par morceaux sur I ;
• pour tout x ∈ I, la fonction λ 7→ fλ (x) admet une limite notée f (x) quand λ tend vers λ0 ∈ J dans R, et la
fonction f ainsi définie est continue par morceaux sur I ;
• il existe une fonction ϕ continue par morceaux positive et intégrable sur I telle que pour tout λ ∈ J : |fλ | ≤ ϕ
(hypothèse de domination).
Alors, les fonctions fλ et leur limite f sont intégrables sur I et :
Z Z
lim fλ = lim fλ .
I λ→λ0 λ→λ0 I

Exemple 12.60 :
Considérons la fonction f définie sur R∗+ × R+ par :
( 1
∗ si t ≤ 1
x f (x, t) = (1 − xt) x
∀(x, t) ∈ R+ × R+
si t > 1
x f (x, t) = 0

1. Esquisser le graphe de t 7→ f (x, t).


Z +∞
2. Calculer lim f (x, t)dt.
x→0 t=0

12.5.2 Intégration terme à terme d’une série de fonctions


Appliquons aux séries de fonctions le théorème de convergence dominée :
Théorème 12.61 : intégration terme à terme d’une série de fonctions
Soit (fn )n une suite de fonctions à valeurs réelles ou complexes définies sur un intervalle I. On suppose que :
• Pour tout n ∈ N, la fonction fn est continue par morceaux et intégrable sur I.
• La série fn converge simplement vers une fonction S continue par morceaux sur I.
P
Z
• La série |fn | converge.
P
I
Z +∞ Z
X
Alors la fonction S est intégrable sur I et : S = fn .
I n=0 I

Ce théorème sera également admis sans démonstration.


Exemple 12.62 :
ln x
Montrer que la fonction f : x 7→ est intégrable sur ]0, 1] et exprimer son intégrale sous la forme d’une série.
1 + x2

Remarque 12.63 :
Ici encore, contrairement à l’intégration sur un segment (voir le corollaire 57 du chapitreZ 10), la convergence
X
uniforme de la série de fonctions n fn sur un intervalle quelconque I ne suffit pas pour que fn soit égale à
P
I n
X Z
fn .
n I

Exemple 12.64 :
Considérons la série de fonctions n fn définie sur l’intervalle I = [1, +∞[ par fn (x) = ne−nx − (n + 1)e−(n+1)x .
P

Fénelon Sainte-Marie – La Plaine-Monceau 146/244 31 août 2022


CHAPITRE 12. INTÉGRATION SUR UN INTERVALLE QUELCONQUE MP 2022-23

12.6 Intégrales dépendant d’un paramètre


12.6.1 Continuité sous le signe somme
R
Théorème 12.65 : continuité sous le signe
Soit f une fonction à valeurs réelles ou complexes définie sur A × I, où A est une partie de Rm et I un intervalle
de R. On suppose que :
• Pour tout x ∈ A, la fonction f (x, · ) : t 7→ f (x, t) est continue par morceaux sur I.
• Pour tout t ∈ I, la fonction f ( · , t) : x 7→ f (x, t) est continue sur A.
• Hypothèse de domination. Il existe une fonction ϕ continue par morceaux, positive et intégrable sur I telle que :
∀(x, t) ∈ A × I, |f (x, t)| ≤ ϕ(t).
Z
Alors pour tout x ∈ A, f (x, ·) est intégrable sur I, et la fonction F définie sur A par F (x) = f (x, t) dt est continue
I
sur A.

Remarque 12.66 :
Z +∞
1. L’hypothèse de domination est essentielle : la fonction définie sur R+ par F (x) = xe−tx dt n’est pas continue
0
+∞
en 0, étant donné que F (0) = 0 alors que pour tout x > 0 : F (x) = [−e−tx ]t=0 = 1. En fait on ne peut pas
dominer t 7→ xe−tx par une fonction intégrable indépendante de x.
2. Il suffit que l’hypothèse de domination soit vérifiée sur toute boule fermée (segment dans le cas de R) de A : pour
toute boule fermée B incluse dans A, il existe une fonction ϕB continue par morceaux, positive et intégrable sur
I telle que pour tout (x, t) ∈ B × I, |f (x, t)| ≤ ϕB (t).

Exemple 12.67 :
Étudier la continuité sur R∗+ de la fonction F définie par :
Z +∞
1
∀x ∈ R∗+ , F (x) = dt.
0 x2 + E(t)2

Remarque 12.68 :
cas particulier où f est continue et l’intervalle I est un segment :
Lorsque l’intervalle d’intégration est un segment I = [a, b], et la fonction f est continue sur A×[a, b], il est beaucoup
plus facile de dominer.
En effet, pour toute boule fermée B de A, B × [a, b] est fermé borné, et comme f est continue, f (B × [a, b]) est
fermé borné : f est bornée. La fonction constante M = sup |f | assure l’hypothèse de domination. Le théorème 12.65
permet de conclure que F est continue sur A.
Exemple 12.69 :
1
ln(1 + |x − t|)
Z
L’application x 7→ dt est continue sur R.
0 1 + t2
Remarque 12.70 :
Dans ce corollaire, la continuité par rapport à chacune des variables ne suffit pas.
Considérons par exemple la fonction f définie sur [0, 1]2 par :
xt
∀(x, t) ∈ [0, 1]2 f (x, t) = .
(x2 + t2 )2
Pour tout t ∈ [0, 1], la fonction x 7→ f (x, t) est continue sur [0, 1]. Pour tout x ∈ [0, 1], la fonction t 7→ f (x, t) est
continue sur [0, 1]. Cependant
Z 1  1
xt x 1 1
∀x ∈]0, 1], F (x) = 2 2 2
dt = − 2 2
= 2
et F (0) = 0,
0 (x + t ) 2 x +t 0 2x(x + 1)

Fénelon Sainte-Marie – La Plaine-Monceau 147/244 31 août 2022


12.6. INTÉGRALES DÉPENDANT D’UN PARAMÈTRE MP 2022-23

donc F n’est pas continue en 0 ! Cela provient du fait que la fonction f n’est pas continue en (0, 0). En effet lim f (u, u) =
u→0
+∞).

12.6.2 Dérivation sous le signe somme


Théorème 12.71 : dérivation sous le signe somme
Soit f une fonction à valeurs réelles ou complexes définie sur A × I, où A et I sont des intervalles de R. On suppose
que :
• Pour tout x ∈ A, la fonction f (x, ·) est continue par morceaux et intégrable sur I .
∂f
• La fonction f admet sur A × I une dérivée partielle par rapport à la première variable .
∂x
• Cette dérivée partielle vérifie les hypothèses du théorème 12.65 de continuité sous le signe :
R

∂f
B Pour tout x ∈ A, la fonction (x, ·) est continue par morceaux sur I.
∂x
∂f
B Pour tout t ∈ I, la fonction (·, t) est continue sur A.
∂x
B Il existe une
fonction ϕ continue par morceaux, positive et intégrable sur I telle que pour tout (x, t) ∈ A×I,
∂f
(x, t) ≤ ϕ(t) (hypothèse de domination).

∂x
Z
∂f
Alors (x, ·) est intégrable sur I et la fonction F définie sur A par : F (x) = f (x, t) dt est de classe C 1 sur A et :
∂x I
Z
∂f
∀x ∈ A, F 0 (x) = (x, t) dt (formule de Leibniz).
I ∂x

Remarque 12.72 :
Ici encore, il suffit que l’hypothèse de domination soit vérifiée sur tout segment de A : pour tout segment B inclus
dans
A, il existe une fonction ϕB continue par morceaux, positive et intégrable sur I telle que pour tout (x, t) ∈ B × I,
∂f
(x, t) ≤ ϕB (t).
∂x
Remarque 12.73 :
cas particulier où l’intervalle I est un segment.
∂f
Là encore, lorsque I = [a, b] est un segment et continue sur A × I, la domination est beaucoup plus facile à
∂x
obtenir.
En effet, pour toute boule fermée B de A, la dérivée partielle est continue sur le fermé borné B × [a, b] donc elle y
est bornée (et atteint ses bornes).
Exemple 12.74 : Z 1
sin(xt)
Montrer que la fonction F définie par : F (x) = dt est de classe C 1 sur R et calculer sa dérivée.
0 t
Remarque 12.75 :
Comme corollaire du théorème de dérivation sous le signe et de la remarque précédente, on peut aussi énoncer
R

un théorème de dérivation p fois sous le signe . Les hypothèses sont alors :


R

∂if
• Intégrabilité de (x, · ) pour tout x ∈ J, pour tout i ∈ [[0, p − 1]].
∂xi
∂if
• Domination de (indépendamment de x) sur tout segment de J, pour tout i ∈ [[1, p]].
∂xi
Théorème 12.76 : classe C k d’une intégrale à paramètre
Soit f une fonction à valeurs réelles ou complexes définie sur A × I, où A et I sont des intervalles de R. Soit k ∈ N∗ .
Supposons que :

Fénelon Sainte-Marie – La Plaine-Monceau 148/244 31 août 2022


CHAPITRE 12. INTÉGRATION SUR UN INTERVALLE QUELCONQUE MP 2022-23

• Pour tout t ∈ I, la fonction f ( · , t) est de classe C k sur A.


∂j f
• Pour tout x ∈ A et tout j ∈ [[0, k − 1]] , la fonction (x, · ) est continue par morceaux et intégrable sur I.
∂xj
∂kf
• Pour x ∈ A, la fonction (x, · ) est continue par morceaux sur I.
∂xk
• Pour tout segment K inclus dans A, il existe une fonction ϕ continue par morceaux, positive et intégrable sur
∂kf
I, telle que, pour tout (x, t) ∈ K × I, k (x, t) ≤ ϕ(t) (hypothèse de domination).

∂x
k Z
∂ f
Alors, (x, · ) est intégrable sur I et la fonction F définie sur A par F (x) = f (x, t)dt est de classe C k sur A avec :
∂xk I
Z k
∂ f
∀x ∈ A, F (k) (x) = k
(x, t)dt.
I ∂x

Remarque 12.77 :
∂j f
Une façon simple de satisfaire à l’hypothèse « pour tout x ∈ A et tout j ∈ [[0, k − 1]], la fonction (x, · ) est
∂xj
intégrable sur I » est de prouver, sans utiliser l’inégalité des accroissements finis, que chaque dérivée partielle inter-
∂j f ∂kf
médiaire (x, · ) est dominée par une fonction intégrable sur I, tout comme la dernière dérivée partielle (x, · ).
∂xj ∂xk
On peut ainsi alléger le théorème 76 de la façon suivante :
Corollaire 12.78 : classe C k d’une intégrale à paramètre, version allégée
Soit f une fonction à valeurs réelles ou complexes définie sur A × I, où A et I sont des intervalles de R. Soit k ∈ N∗ .
On suppose que :
• Pour tout t ∈ I, la fonction f ( · , t) est de classe C k sur A.
∂j f
• pour tout x ∈ A et tout j ∈ [[0, k]], la fonction (x, · ) est continue par morceaux sur I.
∂xj
• Pour tout j ∈ [[0, k]] et pour tout segment K inclus dans A, il existe ϕj continue par morceaux, positive et
∂j f
intégrable sur I, telle que, pour tout (x, t) ∈ K × I, j (x, t) ≤ ϕj (t) (hypothèse de domination généralisée).

∂x
k Z
∂ f
Alors (x, · ) est intégrable sur I et la fonction F définie sur A par F (x) = f (x, t)dt est de classe C k sur A avec :
∂xk Z k I
(k) ∂ f
∀x ∈ A, F (x) = k
(x, t)dt.
I ∂x

12.6.3 Application : la fonction Γ


Considérons la fonction Γ définie sur ]0, +∞[ par :
Z +∞
Γ(x) = e−t tx−1 dt.
0

Montrons que Γ est de classe C ∞ sur ]0, +∞[ et que Γ est convexe sur R∗+ .
Théorème 12.79 : la fonction Γ prolonge la factorielle
Pour tout x ∈ R∗+ , Γ(x + 1) = x Γ(x).

Corollaire 12.80 : une jolie formule


Pour tout n ∈ N∗ , Γ(n) = (n − 1)!.

La fonction Γ est donc un prolongement à R∗+ de la factorielle qui n’est définie que sur les entiers.
Exemple 12.81 :

Fénelon Sainte-Marie – La Plaine-Monceau 149/244 31 août 2022


12.6. INTÉGRALES DÉPENDANT D’UN PARAMÈTRE MP 2022-23

Déterminer les variations de la fonction Gamma sur R∗+ . On précisera les limites aux bornes, un équivalent de Γ
en 0 et la limite de Γ0 en 0.

EPCC : exercices 19, 25, 26, 27, 28, 29, 30, 49, 50.

The end – chapitre 12

Fénelon Sainte-Marie – La Plaine-Monceau 150/244 31 août 2022


Chapitre 13

Espaces préhilbertiens réels

Ce chapitre rappelle les principaux résultats vus en Sup.


Dans tout le chapitre E est un R-espace vectoriel.

13.1 Formes bilinéaires — rappels de Sup


13.1.1 Formes bilinéaires symétriques — rappels de Sup
Définition 13.1 : forme bilinéaire, forme bilinéaire symétrique
1. Une forme bilinéaire sur E est une application ϕ de E × E dans R linéaire par rapport à chacune des deux
variables, c’est-à-dire telle que :
(a) Pour tout y ∈ E, l’application E → R, x 7→ ϕ(x, y) est linéaire.
(b) Pour tout x ∈ E, l’application E → R, y 7→ ϕ(x, y) est linéaire.
2. La forme bilinéaire ϕ : E 2 → R est dite symétrique lorsque pour tout (x, y) ∈ E 2 , ϕ(x, y) = ϕ(y, x).

Proposition 13.2 : l’espace des formes bilinéaires symétriques


L’ensemble des formes bilinéaires symétriques sur E est un sous-espace vectoriel de l’espace des applications de
E × E dans R, noté BS(E).

13.1.2 Expression matricielle en dimension finie — rappels de Sup


Soit E un R-espace vectoriel de dimension n. Munissons E d’une base b = (e1 , . . . , en ). Considérons ϕ une forme
bilinéaire symétrique sur E. Pour tous vecteurs x et y de E :
n
X n
X n X
X n
x = xi ei ; y = yi ei ; ϕ(x, y) = xi yj ϕ(ei , ej ).
i=1 i=1 i=1 j=1

 
Notons Q la matrice ϕ(ei , ej ) , X et Y les matrices représentant les vecteurs x et y dans la base b. On
(i,j)∈[[1,n2 ]]
peut écrire :
ϕ(x, y) = t XQY.

Remarquons que la matrice Q est symétrique.


Définition 13.3 : matrice associée à une FBS
La matrice Q est dite associée à la forme bilinéaire symétrique ϕ dans la base b, notée Q = Mb (ϕ) = Mb (Φ).
Exemple 13.4 :

151
13.2. ESPACE PRÉHILBERTIEN RÉEL — RAPPELS DE SUP MP 2022-23

Déterminer la matrice dans la base canonique de la forme bilinéaire symétrique (A, B) 7→ tr (AB) définie sur
M2 (R)2 .

Réciproquement, toute matrice symétrique Q définit une forme bilinéaire symétrique unique.
Proposition 13.5 : correspondance entre formes bilinéaires symétriques et matrices symétriques
L’application de BS(E) dans Sn (R) qui à la forme bilinéaire symétrique ϕ associe sa matrice dans la base b est un
isomorphisme. On en déduit que :
n(n + 1)
dim BS(E) = dim Sn (R) = .
2

Théorème 13.6 : changement de base pour une FBS


Soit E un R-espace vectoriel de dimension finie. Soit b et b0 deux bases de E et P la matrice de passage de b à
b . Considérons ϕ, une forme bilinéaire (pas forcément symétrique) sur E. Posons Q = Mb (ϕ) et Q0 = Mb0 (ϕ). Alors
0

Q0 = t P QP .

Définition 13.7 : matrices congruentes


On dit que deux matrices Q et Q0 de Mn (R) sont congruentes lorsqu’elles représentent la même forme bilinéaire
dans deux bases b et b0 .
Proposition 13.8 : tout est dit
La congruence est une relation d’équivalence dans Mn (R).

13.1.3 Formes bilinéaires symétriques positives, définies positives — rappels de Sup


Définition 13.9 : FBS positive, définie positive
Soit ϕ une forme bilinéaire symétrique sur E.
1. La forme ϕ est dite positive lorsque pour tout x ∈ E, ϕ(x, x) ≥ 0.
2. La forme ϕ est dite définie positive lorsque de plus ϕ(x, x) = 0 implique x = 0.

Théorème 13.10 : inégalité de Cauchy-Schwarz — rappel de Sup


Soit ϕ une forme bilinéaire symétrique positive sur un espace vectoriel réel E. Pour tous vecteurs x et y :
p p
ϕ(x, y) ≤ ϕ(x, x) · ϕ(y, y).

Si ϕ est définie positive, alors l’égalité est réalisée si et seulement si x et y sont colinéaires.

13.2 Espace préhilbertien réel — rappels de Sup


Soit E un R-espace vectoriel.

13.2.1 Produit scalaire — définition et exemples — rappels de Sup


Définition 13.11 : produit scalaire
On appelle produit scalaire sur E une forme bilinéaire symétrique définie positive. Un R-espace vectoriel muni d’un
produit scalaire est appelé espace préhilbertien réel. Le produit scalaire de deux vecteurs x et y est noté (x|y).
Exemple 13.12 :
1. Dans Rn , pour x = (x1 , . . . , xn ) et y = (y1 , . . . , yn ) : (x|y) = x1 y1 + · · · + xn yn .
n p min (n,p)
X X X
2. Dans R[X], pour P = ak X k et Q = bk X k : (P |Q) = ak bk .
k=0 k=0 k=0

Fénelon Sainte-Marie – La Plaine-Monceau 152/244 31 août 2022


CHAPITRE 13. ESPACES PRÉHILBERTIENS RÉELS MP 2022-23

Z
3. Dans l’ensemble C([a, b], R) des fonctions continues sur le segment [a, b] : (f |g) = f g.
[a,b]
Z
4. Dans l’ensemble CL (I, R) des fonctions continues et de carré intégrable sur un intervalle I :
2
(f |g) = f g.
I
+∞
X
5. Dans l’ensemble ` (N, R) des suites (un )n telles que la série
2
u2n converge : un vn .
P
(u|v) =
n=0

13.2.2 Deux théorèmes — rappels de Sup


Le produit scalaire étant une forme bilinéaire symétrique définie positive, il vérifie l’inégalité de Cauchy-Schwarz
et le cas d’égalité :
Théorème 13.13 : inégalité de Cauchy-Schwarz
Soit E un espace préhilbertien réel. Pour tous vecteurs x et y :

(x|y)2 ≤ (x|x) (y|y).

L’égalité est réalisée si et seulement si x et y sont colinéaires.


Théorème 13.14 : inégalité de Minkowski
Soit E un R-espace vectoriel muni d’un produit scalaire ( · | · ).
Alors N : x 7→ (x|x) est une norme sur E, appelée la norme euclidienne associée au produit scalaire.
p

Notation : Lorsqu’il n’y a pas ambigüité, on note kxk pour N (x).


Exemple 13.15 :
1. N2 : x = (x1 , . . . , xn ) 7→ x21 + · · · + x2n est la norme euclidienne sur Rn associée au produit scalaire usuel
p
X n
(défini par x · y = xi yi pour x = (xi ) et y = (yi ) vecteurs de Rn ).
i=1

2. N : (x1 , x2 ) 7→ x21 + 2x1 x2 + 3x22 est une norme euclidienne sur R2 .


p

On vérifie en effet que ϕ : ((x1 , x2 ), (y1 , p


y2 )) 7→ x1 y1 + x1 y2 + x2 y1 + 3x2 y2 est bilinéaire, symétrique, définie
positive, puis, pour tout x ∈ R2 , N (x) = ϕ(x, x).

Remarque 13.16 :
1. On rappelle qu’à une norme N sur E on peut associer une distance d : E × E → R+ définie par : ∀(x, y) ∈ E 2 ,
d(x, y) = N (x − y).
En particulier, la distance associée à une norme euclidienne est appelée une distance euclidienne.
2. On rappelle enfin qu’il existe des distances non euclidiennes, c’est-à-dire associées à aucune norme (par exemple
la distance discrète).

13.2.3 Propriétés des normes et produits scalaires — rappels de Sup


Proposition 13.17 : identités de polarisation
Soit E un R-ev muni d’un produit scalaire et soit k · k la norme euclidienne associée. Pour tout (x, y) ∈ E 2 :
1. kx + yk2 = kxk2 + kyk2 + 2(x|y) ;
2. kx − yk2 = kxk2 + kyk2 − 2(x|y) ;
3. kx + yk2 − kx − yk2 = 4(x|y) ;
4. Identité du parallélogramme : kx + yk2 + kx − yk2 = 2 kxk2 + kyk2 .


Fénelon Sainte-Marie – La Plaine-Monceau 153/244 31 août 2022


13.2. ESPACE PRÉHILBERTIEN RÉEL — RAPPELS DE SUP MP 2022-23

Remarque 13.18 :
L’interprétation géométrique de l’identité du parallélogramme est : « dans un parallélogramme la somme des carrés
des longueurs des côtés est égale à la somme des carrés des longueurs des diagonales ».

Remarque 13.19 :
Il existe des normes qui ne proviennent pas d’un produit scalaire (normes non-euclidiennes). Comment les repérer ?

Proposition 13.20 : CNS pour qu’une norme soit euclidienne


1
Une norme N est euclidienne si et seulement si l’application (x, y) 7→ N (x + y)2 − N (x)2 − N (y)2 est un

2
produit scalaire.

Exemple 13.21 :
1. N1 : (x1 , . . . , xn ) 7→ |x1 | + · · · + |xn | est une norme non euclidienne sur Rn .
En effet, N1 ne vérifie pas l’identité du parallélogramme :

N (e1 + e2 )2 + N (e1 − e2 )2 = 8,
2 N (e1 )2 + N (e2 )2

= 4 6= 8.

2. N∞ : (x1 , . . . , xn ) 7→ max (|x1 |, . . . , |xn |) est une norme non euclidienne sur Rn .
En effet, N∞ ne vérifie pas non plus l’identité du parallélogramme :

N (e1 + e2 )2 + N (e1 − e2 )2 = 2,
2 N (e1 )2 + N (e2 )2

= 4 6= 2.

3. Pour une norme N , on appelle boule unité de N l’ensemble des vecteurs x tels que N (x) ≤ 1 et sphère unité de
N l’ensemble des vecteurs de norme 1. On a représenté ci-contre les sphères unités pour les trois normes N1 , N2 ,
N∞ de R2 . Saurez-vous identifier quelle « sphère » correspond à quelle norme ?

Fénelon Sainte-Marie – La Plaine-Monceau 154/244 31 août 2022


CHAPITRE 13. ESPACES PRÉHILBERTIENS RÉELS MP 2022-23

13.3 Orthogonalité — rappels de Sup


13.3.1 Vecteurs orthogonaux — rappels de Sup
Soit (E, ( · | · )) un espace préhilbertien réel ou complexe.
Définition 13.22 : orthogonal d’un vecteur
Soit x et y deux vecteurs de E. On dit que x est orthogonal à y lorsque (x|y) = 0. On note x ⊥ y.
Remarque 13.23 :
1. En fait, on ne fait qu’étendre la notion d’orthogonalité connue dans le plan et dans l’espace.
2. Le vecteur nul est orthogonal à tout vecteur de E puisque par bi- ou sesqui-linéarité, (x|0) = 0.

Exemple 13.24 :
Z 2π
1. Dans l’espace préhilbertien réel C 0 ([0, 2π], R) muni de (f |g) = f (t)g(t)dt, on a :
0
Z 2π  2π
1
(cos | sin) = cos t sin tdt = sin2 t = 0
0 2 0

donc dans C 0 ([0, 2π], R) : sin ⊥ cos.


2. Dans Rn [X], la famille (1, X, . . . , X n ) est une base orthonormée pour le produit scalaire ( · | · )2 défini par
n
X Z 1
(P |Q)2 = ak bk , mais c’est une base ni orthogonale ni normée pour ( · | · ) défini par (P |Q) = P (t)Q(t)dt.
k=0 −1

Proposition 13.25 : propriété de Pythagore


Dans un espace préhilbertien (E, ( · | · )), étant donné (x, y) ∈ E 2 , il vient x ⊥ y ⇐⇒ kx + yk2 = kxk2 + kyk2 .

Remarque 13.26 :
Dans le cas complexe, la condition nécessaire reste valable : si x et y sont orthogonaux, alors kx+yk2 = kxk2 +kyk2 .
En effet, l’identité kx + yk2 = kxk2 + kyk2 + 2<(x|y) permet de conclure.

13.3.2 Sous-espaces orthogonaux — rappels de Sup


Soit (E, ( · | · )) un espace préhilbertien réel ou complexe.
Définition 13.27 : orthogonal d’un vecteur
Soit x ∈ E. L’ensemble des vecteurs de E orthogonaux au vecteur x s’appelle l’orthogonal de x et se note x⊥ =
{y ∈ E; (x|y) = 0}.
Proposition 13.28 : le sous-espace orthogonal à un vecteur
L’ensemble x⊥ est un sous-espace vectoriel de E.

Remarque 13.29 :
Si E est de dimension finie et x ∈ E \{0}, alors, x⊥ étant le noyau d’une forme linéaire non nulle, c’est un hyperplan
de E. En particulier, l’orthogonal d’un vecteur non nul dans l’espace est un plan.
Définition 13.30 : orthogonal d’une partie
Soit A ⊂ E (A est une partie quelconque de E, pas nécessairement un sev) ; on appelle orthogonal de A l’ensemble
des vecteurs de E orthogonaux à tout vecteur de A : A⊥ = {y ∈ E; ∀a ∈ A, (a|y) = 0}.
Remarque 13.31 : \
On a donc A⊥ = a⊥ , or l’intersection de sev est un sev donc A⊥ est un sev de E, même si A n’est pas un sev !
a∈A

Exemple 13.32 :

Fénelon Sainte-Marie – La Plaine-Monceau 155/244 31 août 2022


13.3. ORTHOGONALITÉ — RAPPELS DE SUP MP 2022-23

n→ − → − →− → −o − →
→ −
E = R3 et A = i + k , i + j . Un vecteur → −
w (x, y, z) appartient à A⊥ si et seulement si →

w · i + k = 0 et
→
− → −


w · i + j = 0, ce qui s’écrit x + z = 0 et x + y = 0, ou encore (x, y, z) = (x, −x, −x). Ainsi A⊥ est la droite de

− → − → −
vecteur directeur (1, −1, −1) = i − j − k .

Proposition 13.33 : propriétés de l’orthogonal d’une partie


1. E ⊥ = {0} et {0}⊥ = E.
2. ∀(A, B) ∈ P(E)2 , A ⊂ B ⇒ B ⊥ ⊂ A⊥ .
3. Si G est une famille génératrice finie de F , alors G ⊥ = F ⊥ .
⊥
4. ∀A ∈ P(E), A ⊂ A⊥ .

Définition 13.34 : sous-espaces orthogonaux


Soit F et G deux sev de E. On dit que F et G sont des sev orthogonaux lorsque : ∀(x, y) ∈ F × G, (x|y) = 0,
autrement dit lorsque tout vecteur de F est orthogonal à tout vecteur de G. On note alors F ⊥ G.
Exemple 13.35 :
1. Dans R3 , soit la droite F = Re3 et le plan G = Vect(e1 − e2 , e1 + 2e2 ). Alors F ⊥ G. En fait, ici, F ⊥ = G.
Si H = Re1 , on a aussi F ⊥ H.
2. Dans R3 , soit F = Vect(e1 , e2 ) et G = Vect(e3 , e2 + e3 ). On n’a pas F ⊥ G mais par contre F ⊥ ⊥ G⊥ : les deux
droites sont orthogonales.
3. Si F et G sont deux sev orthogonaux alors F ⊂ G⊥ et G ⊂ F ⊥ .

Proposition 13.36 : intersection de sous-espaces orthognaux


Soit F et G deux sev orthogonaux de E. Alors F ∩ G = {0}.

13.3.3 Supplémentaire orthogonal — rappels de Sup


Soit (E, ( · | · )) un espace préhilbertien réel ou complexe et F un sous-espace vectoriel de E. La somme F + F ⊥
est directe :
F + F ⊥ = F ⊕ F ⊥.
Définition 13.37 : supplémentaire orthogonal
Si la somme directe F ⊕ F ⊥ est égale à E, alors on dit que F ⊥ est le supplémentaire orthogonal de F .
Dans ce cas, on remarque que (F ⊥ )⊥ = F : il s’ensuit que F est le supplémentaire orthogonal de F ⊥ .
On dit alors que F et F ⊥ sont supplémentaires orthogonaux.
Remarque 13.38 :

Fénelon Sainte-Marie – La Plaine-Monceau 156/244 31 août 2022


CHAPITRE 13. ESPACES PRÉHILBERTIENS RÉELS MP 2022-23

Un sous-espace vectoriel ne possède pas toujours un supplémentaire orthogonal.


Par exemple dans R[X] (ou C[X]) muni du produit scalaire défini à l’exemple 13.12, second point (c’est-à-dire (P |Q) =
min (n,p)
X
ak bk ), l’orthogonal du sous-espace formé par les polynômes multiples de X − 1 est réduit à {0}. Ce sous-espace
k=0
n’a pas de supplémentaire orthogonal.
Théorème 13.39 : existence du supplémentaire orthogonal à un SEV de dimension finie
Soit E un espace préhilbertien réel. Tout sous-espace vectoriel de dimension finie possède un supplémentaire
orthogonal.

13.3.4 Familles orthogonales, orthonormales — rappels de Sup


Soit (E, ( · | · )) un espace préhilbertien réel ou complexe. Soit (x1 , . . . , xp ) ∈ E p .
Définition 13.40 : famille orthogonale
1. (x1 , . . . , xp ) est une famille orthogonale de E lorsque : ∀i 6= j, xi ⊥ xj .
2. x ∈ E est normé ou unitaire lorsque kxk = 1.
(
1 si i = j
3. (x1 , . . . , xp ) est une famille orthonormale de E lorsque : ∀(i, j) ∈ {1, . . . , p} ,
2
(xi |xj ) = δij = .
0 si i =
6 j

Remarque 13.41 :
1
Tout vecteur x 6= 0 peut être normé en considérant x.
kxk
Exemple 13.42 :
Z 2π
1
Dans C 0 ([0, 2π], R) muni de (f |g) = f (t)g(t)dt, on a déjà vu que sin ⊥ cos donc la famille (sin, cos) est
2π 0
1 √ √
orthogonale. De plus, on vérifie que k sin k = k cos k = √ donc ( 2 sin, 2 cos) est une famille orthonormale.
2
Proposition 13.43 : liberté d’une famille OG ne contenant pas 0E
Toute famille orthogonale ne contenant pas le vecteur nul est libre.

Corollaire 13.44 : propriétés des familles OG ou ON


1. Une famille orthonormée est libre.
2. En dimension n, une famille orthogonale a au plus n vecteurs non nuls.
3. Si E est de dimension n, alors : si une famille orthogonale a n vecteurs tous non nuls, c’est une base de E.
En particulier, en dimension n une famille orthonormée à n vecteurs est une b.o.n.

Proposition 13.45 : relation de Pythagore pour une famille de p vecteurs orthogonaux


Soit (E, ( · | · )) un espace préhilbertien réel et (x1 , x2 , . . . , xp ) une famille de p vecteurs de E orthogonaux deux à
deux. Alors :
X 2
p p
X
xk = kxk k2 .



k=1 k=1

13.4 Projection orthogonale, distance à un SEV de dimension finie —


rappels de Sup
Dans cette section, on considère un sous-espace vectoriel F de dimension finie de E.

Fénelon Sainte-Marie – La Plaine-Monceau 157/244 31 août 2022


MPDE
13.4. PROJECTION ORTHOGONALE, DISTANCE À UN SEV DE DIMENSION FINIE — RAPPELS 2022-23
SUP

13.4.1 Définition et exemple — rappels de Sup


Définition 13.46 : projection orthogonale sur un SEV de dim. finie
Soit (E, ( · | · )) un espace préhilbertien réel et F un sev de E de dimension finie (donc admettant un supplémentaire
orthogonal F ⊥ d’après le théorème 13.39). La projection sur F parallèlement à F ⊥ s’appelle projection orthogonale
sur F et se note pF .
Remarque 13.47 :
1. On a alors, pour tout x ∈ E : pF (x) ⊥ x − pF (x).
2. Par définition d’une projection, y = pF (x) est l’unique vecteur de E vérifiant y ∈ F et x − y ∈ F ⊥ .

Remarque 13.48 :
Si E est somme directe orthogonale de la famille de sous-espaces (Fi )i∈[[1,n]] , alors à chaque sous-espace Fi est
n
X
attaché un projecteur orthogonal pi , et : pi = IdE .
i=1

Exemple 13.49 :
On peut munir Mn (R) du produit scalaire de Frobénius défini par (A|B) = tr (tAB). Déterminons la projection
orthogonale sur Sn pour ce produit scalaire.

13.4.2 Expression d’une projection (sur un SEV de dim. finie) dans une BON —
rappels de Sup
Proposition 13.50 : expression d’une projection dans une BON
Soit (E, ( · | · )) un espace vectoriel préhilbertien réel et F un sous-espace vectoriel de E de dimension finie. Soit
(e1 , . . . , ep ) une base orthonormée de F .
p
X
∀x ∈ E, pF (x) = (x|ei )ei .
i=1

Fénelon Sainte-Marie – La Plaine-Monceau 158/244 31 août 2022


CHAPITRE 13. ESPACES PRÉHILBERTIENS RÉELS MP 2022-23

Remarque 13.51 :
Dans le cas particulier où E est de dimension finie, lorsqu’on projette orthogonalement sur un hyperplan H, si ν
désigne un vecteur unitaire normal à H, alors pH (x) = x − (x|ν)ν.

En effet, (e1 , . . . , en−1 ) étant une BON de H, la famille (e1 , . . . , en−1 , ν) est une BON de E et on a donc x =
n−1
X n−1
X
(x|ek )ek + (x|ν)ν avec pH (x) = (x|ek )ek . . .
k=1 k=1

Théorème 13.52 : inégalité de Bessel


Soit E un espace préhilbertien réel, et (e1 , . . . , ep ) une famille orthonormale d’éléments de E.
Alors pour tout vecteur x de E :
X p
(x|ei )2 ≤ kxk2 .
i=1

Théorème 13.53 : inégalité de Bessel généralisée


Soit E un espace préhilbertien réel, et (en )n∈N une famille orthonormale d’éléments de E. Pour tout vecteur x de
E, la série (x|en )2 est convergente et :
P
+∞
X
(x|en )2 ≤ kxk2 .
n=0

13.4.3 Distance d’un point à un sous-espace de dimension finie — rappels de Sup


Proposition 13.54 : caractérisation du projeté par une propriété de minimisation d’une distance
Soit F un sev de dimension finie d’un espace préhilbertien réel (E, ( · | · )). Alors :
(
0 x0 ∈ F
∀x ∈ E, x = pF (x) ⇐⇒ .
∀y ∈ F, kx0 − xk ≤ ky − xk

Définition 13.55 : distance d’un point à une partie


Si X est une partie non vide quelconque de (E, ( · | · )) (préhilbertien réel), et u ∈ E, alors on appelle distance de
u à X le réel positif d(u, X) = inf ku − xk.
x∈X

On déduit alors immédiatement de la proposition précédente le corollaire suivant :


Corollaire 13.56 : la distance d’un point à un SEV de dim finie est atteinte
Soit F un sev de dimension finie de (E, ( · | · )) et soit u ∈ E.
Alors le réel d(u, F ) est atteint en l’unique vecteur v = pF (u), et on a
2 2
∀x ∈ E, kxk = kpF (x)k + d(x, F )2 .

Fénelon Sainte-Marie – La Plaine-Monceau 159/244 31 août 2022


13.5. ESPACES EUCLIDIENS — RAPPELS DE SUP MP 2022-23

Méthode : Calcul pratique de la distance à un sev, lorsque E est de dimension finie


Soit F un sev de (E, ( · | · )) ; soit B = (f1 , . . . , fp ) une base orthonormée de F et C = (g1 , . . . , gq ) une
base orthonormée de F ⊥ . Pour x ∈ E, on a

d(x, F ) = kx − pF (x)k = kpF ⊥ (x)k .

On peut donc exprimer d(x, F ) de deux façons :


p
X
• d’une part pF (x) = (x|fi )fi , donc (formule que l’on utilisera lorsque p ≤ n − p) :
i=1
p

X
d(x, F ) = x − (x|fi )fi ,


i=1

q
X
• d’autre part pF ⊥ (x) = (x|gi )gi , donc (formule que l’on utilisera lorsque p > n − p) :
i=1
v
u q
uX
d(x, F ) = t (x|gi )2 .
i=1

Exemple 13.57 :
Déterminer inf f (x, y), où f (x, y) = (2x + y − 1)2 + (x − 3y)2 + (y − 1)2 .
(x,y)∈R2

13.5 Espaces euclidiens — rappels de Sup


13.5.1 Bases orthonormales — rappels de Sup
Définition 13.58 : espace vectoriel euclidien
On appelle espace vectoriel euclidien un espace préhilbertien réel de dimension finie.
Théorème 13.59 : existence de BON dans les EVE
Tout espace euclidien (espace préhilbertien réel de dimension finie) possède des bases orthonormales.

Nous avons vu au théorème 13.59 que tout espace vectoriel euclidien possédait au moins une base orthonormale
(en fait ∅ est une base orthonormale de {0}). Comment obtenir une telle base ? Tout d’abord à partir d’une base
orthonormale d’un sous-espace :
Théorème 13.60 : théorème de la base orthonormale incomplète
Dans un espace vectoriel euclidien, toute famille orthonormale peut être complétée en une base orthonormale.

13.5.2 Orthonormalisation de Gram-Schmidt – rappels de Sup


Le procédé suivant permet de construire une base orthonormale à partir d’une base quelconque :
Proposition 13.61 : procédé de Gram-Schmidt
Soit (E, ( · | · )) un espace vectoriel euclidien et soit (e1 , . . . , en ) une base quelconque de E. Il existe une base
orthonormée (ε1 , . . . , εn ) de E telle que :

∀i ∈ [[1, n]], Vect(e1 , . . . , ei ) = Vect(ε1 , . . . , εi ).

Par ailleurs on a unicité de la base (ε1 , . . . , εn ) si on exige de plus la condition : ∀i ∈ [[1, n]], (ei |εi ) ∈ R∗+ .

Fénelon Sainte-Marie – La Plaine-Monceau 160/244 31 août 2022


CHAPITRE 13. ESPACES PRÉHILBERTIENS RÉELS MP 2022-23

Méthode : dans la pratique, on applique exactement la technique de la démonstration pour « orthonor-


maliser » une base d’un espace donné. On appelle ce procédé l’orthonormalisation de Gram-Schmidt.
Exemple 13.62 :
Orthogonaliser la base canonique usuelle de R2 à l’aide du produit scalaire défini par : (x|y) = 2x1 y1 + x2 y2 +
x1 y2 + x2 y1 .

Remarque 13.63 :
Dans la pratique, pour alléger les calculs on peut chercher d’abord une base uniquement orthogonale puis à la fin
normaliser les vecteurs en les divisant par leur norme.

13.6 Suites totales


On souhaiterait généraliser la notion de base à des espaces de dimension infinie. Il existe en effet des bases dans
tout espace vectoriel, mais dans les espaces de dimension infinie celles-ci ne sont pas toujours d’une grande utilité :
elles sont souvent non dénombrables et pas facilement explicitables. La topologie va alors venir à notre secours, via les
suites totales.
Soit E un espace préhilbertien réel.
Définition 13.64 : suite totale de vecteurs
Une suite (an )n∈N de vecteurs de E est dite totale lorsque le sous-espace vectoriel Vect({an / n ∈ N}) qu’ils
engendrent est dense dans E.
Remarque 13.65 :
Une suite (an )n∈N d’éléments de E est totale si et seulement si l’une des deux propriétés ci-dessous est satisfaite :
1. Tout voisinage d’un élément de E contient au moins une combinaison linéaire des vecteurs an .
2. Tout élément de E est la limite d’une suite de combinaisons linéaires des vecteurs an .
Attention ! Ceci ne signifie pas que tout élément est limite d’une suite extraite de (an )n !
Théorème 13.66 : existence d’une suite de polynômes orthogonaux, pour un produit scalaire avec poids
Soit E = C([a, b], R). Considérons une fonction poids, c’est-à-dire ω ∈ C([a, b], R+ ) ne s’annulant qu’en un nombre
fini de points. Alors :
1. L’application ( · | · ) définie par
Z b
2
∀(f, g) ∈ E , (f |g) = f (t)g(t)ω(t)dt,
a

est un produit scalaire sur E.


2. Il existe une et une seule suite (Pn )n∈N de polynômes unitaires, orthogonaux pour ce produit scalaire, et telle
que deg(Pn ) = n pour tout n.
Ces polynômes sont appelés polynômes orthogonaux pour ω.

L’intérêt de ces polynômes orthogonaux est le suivant :


Proposition 13.67 : toute suite de polynômes orthogonaux est totale
Soit E = C([a, b], R) muni du produit scalaire ( · | · ) défini par :
Z b
2
∀(f, g) ∈ E , (f |g) = f (t)g(t)ω(t)dt,
a

où ω est une fonction poids (continue sur [a, b] et ne s’annulant qu’en un nombre fini de points).
Alors : toute suite de polynômes orthogonaux pour ( · | · ) est totale, c’est-à-dire qu’ils engendrent un espace vectoriel
dense dans E.

Fénelon Sainte-Marie – La Plaine-Monceau 161/244 31 août 2022


13.6. SUITES TOTALES MP 2022-23

L’étude des polynômes orthogonaux remplit de nombreux livres, car ceux-là ont moultes applications. Nous nous
contenterons de prouver une de leurs multiples propriétés :
Théorème 13.68 : racines des polynômes orthogonaux
Soit (Pn )n∈N la suite de polynômes orthogonaux unitaires pour un produit scalaire avec poids ω.
Alors : pour tout n, le polynôme Pn admet n racines réelles distinctes dans ]a, b[.

Remarque 13.69 :
Comme écrit plus haut, la littérature sur les polynômes orthogonaux est abondante. En particulier les polynômes
orthogonaux sont une réelle mine de sujets de concours. . .
On peut même définir des polynômes orthogonaux à l’aide de produits scalaires à poids sur des intervalles qui
ne sont pas des segments, modulo quelques hypothèses supplémentaires sur la fonction poids ω pour nous assurer de
l’intégrabilité de P Qω.
En voici 25 exemples, depuis 2000 :
Exemple 13.70 :
1. Polynôme de Legendre : [a, b] = [−1, 1] et ω(t) = 1. CCINP 2018 MP maths 1, CCINP 2018 PC, X 2018 MP
maths B, PT 2011, CCINP PC 2002.
1
2. Polynôme de Tchebychev de première espèce : ]a, b[=] − 1, 1[ et ω(t) = √ . E3A 2014 PSI maths A, ENS
1 − t2
BL 2008, PT 2007, CCINP 2e concours 2007, INT Management 2006, BCE 2005.

3. Polynôme de Tchebychev de seconde espèce : [a, b] = [−1, 1] et ω(t) = 1 − t2 . Centrale 2014 PSI maths 1.
4. Polynômes de Laguerre : [a, b[= [0, +∞[ et ω(t) = e−t . CCINP 2019 PC, X 2018 L2 étr., CAPES 2011, BCE
2011, ENGEES 2001.
2
5. Polynômes de Hermite : ]a, b[=] − ∞, +∞[ et ω(t) = e−t . CCINP 2016 MP maths 2, Mines 2009 PSI maths 2,
BCE 2008, ENS 2007, CCINP TPC 2006, ISUP 2006, ESSEC 2002.
6. Polynômes de Hilbert : [a, b] = [0, 1] et ω(t) = 1. Centrale MP 2011.

EPCC : exercices 39, 76, 77, 79, 80, 81, 82, 92.

The end – chapitre 13

Fénelon Sainte-Marie – La Plaine-Monceau 162/244 31 août 2022


Chapitre 14

Isométries vectorielles, endomorphismes


auto-adjoints

Dans tout le chapitre E est un espace vectoriel euclidien et u un endomorphisme de E.


Bon nombre des démonstrations s’appuieront sur le résultat évident suivant :
Proposition 14.1 : expression de (x|u(y)) dans une base
Soit E un espace euclidien de dimension n et de base orthonormée B. Soit x et y deux vecteurs de E et u un
endomorphisme de E. On note X et Y les vecteurs colonnes des coordonnées de x et y dans la base B, et M la matrice
de u dans la base B. Alors :
(x|u(y)) = t X M Y.

14.1 Adjoint d’un endomorphisme


14.1.1 Représentation d’une forme linéaire sur un espace euclidien
Définition 14.2 : dual d’un espace vectoriel
On appelle dual de E l’ensemble des formes linéaires sur E : E ∗ = L(E, R).
Remarque 14.3 :
Si E est de dimension finie n alors E ∗ = L(E, K) est de dimension finie n × 1 = n.
Théorème 14.4 : théorème de représentation (un EVE et son dual sont isomorphes)
Soit E un espace vectoriel euclidien.
Alors pour toute forme linéaire f ∈ E ∗ , il existe un vecteur y unique tel que :

∀x ∈ E, f (x) = (x|y).

En d’autres termes toute forme linéaire f s’écrit sous la forme f = ( · |y) pour un vecteur y unique.

Exemple 14.5 :
1. Un hyperplan H de E est le noyau d’une forme linéaire non nulle. On peut donc le représenter à l’aide d’un seul
vecteur n, appelé vecteur normal de H :

∀x ∈ E, x∈H ⇐⇒ (x|n) = 0.

2. Si E est un espace euclidien orienté de dimension 3, alors le déterminant d’une famille de trois vecteurs est le
même dans toutes les bases orthonormales directes ; on l’appelle produit mixte, et on le note [x, y, z].

163
14.2. ISOMÉTRIES VECTORIELLES ET MATRICES ORTHOGONALES MP 2022-23

Pour tout couple (x, y) ∈ E 2 , la forme linéaire z 7→ [x, y, z] peut être représentée par un seul vecteur noté x ∧ y :

∀(x, y, z) ∈ E 3 [x, y, z] = (x ∧ y | z).

3. Voir chapitre 19 (calcul différentiel). Si f est une fonction de classe C 1 de R3 dans R, alors sa différentielle en un
point est une forme linéaire, qui peut donc être représentée par un seul vecteur : le gradient de f en ce point :

∀u ∈ R3 , d fa (u) = (grad(f )a | u).

14.1.2 Adjoint d’un endomorphisme


Théorème 14.6 : définition et existence de l’adjoint
Soit E un espace vectoriel euclidien, et u un endomorphisme de E. Il existe un unique endomorphisme u∗ tel que :

∀(x, y) ∈ E 2 , (u(x)|y) = (x|u∗ (y)).

Cet endomorphisme est appelé adjoint de u.

On peut caractériser l’endomorphisme adjoint par sa matrice dans une base orthonormée :
Corollaire 14.7 : matrice de l’adjoint dans une base orthonormée
Si l’endomorphisme u est représenté dans une base orthonormée par la matrice A, alors son adjoint u∗ est représenté
dans cette même base par la matrice tA.

On en déduit immédiatement les relations suivantes :


Corollaire 14.8 : propriétés de l’adjoint
Un endomorphisme u et son adjoint u∗ ont :
— même rang : rg (u∗ ) = rg (u) ;
— même trace : tr (u∗ ) = tr (u) ;
— même déterminant : det(u∗ ) = det(u) ;
— même polynôme caractéristique : χu∗ = χu ;
— même spectre : Sp(u∗ ) = Sp(u).

Corollaire 14.9 : propriétés de l’application u 7→ u∗


1. L’application u 7→ u∗ est linéaire.
2. L’application u 7→ u∗ est involutive : u∗∗ = u.
3. (u ◦ v)∗ = v ∗ ◦ u∗ .
4. Ker (u∗ ) = Im (u)⊥ .
5. Im (u∗ ) = Ker (u)⊥ .
6. Un sous-espace vectoriel F de E est stable par u si et seulement si F ⊥ est stable par u∗ .

14.2 Isométries vectorielles et matrices orthogonales


14.2.1 Isométries vectorielles
Soit (E, ( · | · )) un espace vectoriel euclidien de dimension n.
Définition 14.10 : automorphisme orthogonal

Fénelon Sainte-Marie – La Plaine-Monceau 164/244 31 août 2022


CHAPITRE 14. ISOMÉTRIES VECTORIELLES, ENDOMORPHISMES AUTO-ADJOINTS MP 2022-23

On appelle isométrie vectorielle ou automorphisme orthogonal tout endomorphisme u ∈ L(E) tel que :

∀(x, y) ∈ E 2 , (u(x)|u(y)) = (x|y).

On dit que u conserve le produit scalaire, et cela implique que u conserve aussi la norme : ∀x ∈ E, ku(x)k = kxk.
Notation : On note O(E) l’ensemble des isométries vectorielles de l’espace E.
Proposition 14.11 : justification de l’appellation « automorphisme orthogonal »
Si u est un automorphisme orthogonal de E, alors u est un automorphisme !

Exemple 14.12 :
1. Soit s la symétrie orthogonale par rapport à un sous-espace vectoriel F de E. Alors s est une isométrie vectorielle.
2. Soit p la projection orthogonale sur F , SEV strict E. Alors p n’est pas une isométrie vectorielle.

Proposition 14.13 : caractérisation des isométries vectorielles par la conservation de la norme


(
u ∈ L(E)
u ∈ O(E) ⇐⇒ .
∀x ∈ E, ku(x)k = kxk
Ceci justifie la dénomination isométries vectorielles.

Proposition 14.14 : caractérisation des isométries vectorielles par leur adjoint


Un endomorphisme u ∈ L(E) est une isométrie si et seulement si son adjoint est égal à son inverse, c’est-à-dire :

u ◦ u∗ = u∗ ◦ u = IdE , ou encore : u∗ = u−1 .

Proposition 14.15 : le groupe orthogonal


Le couple (O(E), ◦) est un groupe appelé groupe orthogonal de E.

Remarque 14.16 :
Attention, ce n’est pas un espace vectoriel ! Par exemple l’application nulle n’est pas dans O(E).
Proposition 14.17 : caractérisation de l’orthogonalité par l’image d’une BON
Soit (E, ( · | · )) un espace vectoriel euclidien de base orthonormée B. Soit u ∈ L(E).
Alors : u est une isométrie vectorielle si et seulement si l’image de B par u est une base orthonormée de E.

Exemple 14.18 :
Dans R3 muni de sa structure euclidienne usuelle et de la base canonique (i, j, k), on définit u ∈ L(E) par u(i) = j,
u(j) = k et u(k) = i. La base orthonormée (i, j, k) est transformée par u en la base orthonormée (j, k, i). Donc
u ∈ O R3 .


Proposition 14.19 : stabilité de l’orthogonal d’un sous-espace stable par une isométrie vectorielle
Soit (E, ( · | · )) un e.v.e. et F un s.e.v. de E. Soit u ∈ O(E).
Si F est stable par u, alors F ⊥ est aussi stable par u.

14.2.2 Matrices orthogonales


Définition 14.20 : matrice orthogonale
Une matrice M ∈ Mn (R) est dite orthogonale lorsque tM M = M tM = In .
Notation : On note On (R) ou O(n) l’ensemble des matrices orthogonales d’ordre n.
Remarque 14.21 :

Fénelon Sainte-Marie – La Plaine-Monceau 165/244 31 août 2022


14.2. ISOMÉTRIES VECTORIELLES ET MATRICES ORTHOGONALES MP 2022-23

1. En fait, M est orthogonale si et seulement si tM M = In ou M tM = In .


 n
X
 ∀(i, j) ∈ [[1, n]]2 , i 6= j,



 aki akj = 0
2. L’égalité tM M = In se traduit par le système k=1
Xn
a2ki = 1

 ∀i ∈ [[1, n]],



k=1
3. En notant C1 , . . . , Cn les colonnes de la matrice M , M M = In se traduit par hCi |Cj i = δij , où h · , · i est le
t

produit scalaire usuel sur Rn . De même, en traduisant M tM = In , on obtient hLi |Lj i = δij , où les Li sont les
vecteurs lignes de la matrice M .

La proposition suivante est alors immédiate.


Proposition 14.22 : caractérisation de l’orthogonalité d’une matrice par ses colonnes ou ses lignes
Soit M ∈ Mn (R). Alors les assertions suivantes sont équivalentes :
1. M ∈ On (R).
2. Les vecteurs colonnes de M forment une base orthonormée de Rn .
3. Les vecteurs lignes de M forment une base orthonormée de Rn .

Proposition 14.23 : lien entre automorphismes orthogonaux et matrices orthogonales


Soit (E, ( · | · )) un e.v.e. de dimension n et soit B une base orthonormée de E. Soit u ∈ L(E). Alors :

u ∈ O(E) ⇐⇒ MatB (u) ∈ On (R).

Corollaire 14.24 : pour les automorphismes, caractérisation de l’orthogonalité par la matrice dans une
BON
Un automorphisme u d’un espace vectoriel euclidien est orthogonal si et seulement si sa matrice dans une base
orthonormale a pour inverse sa transposée :
A−1 = t A.

Méthode :
Pour vérifier qu’une matrice M est orthogonale, on calcule les normes de chacun des vecteurs
colonnes (ou lignes) pour vérifier si elles valent 1 ; puis on vérifie si les colonnes (ou lignes) distinctes
sont orthogonales en calculant les produits scalaires 2 à 2.
Exemple 14.25 :
 1
0 − √12


2
Soit M =  0 1 0 . On vérifie aisément que M ∈ O3 (R). Si on note u l’endomorphisme de R3 de
 
√1 0 √1
2 2 →− →− →−
matrice M dans la base canonique i , j , k (orthonormée pour le produit scalaire usuel), alors u est une isométrie


vectorielle. On verra que u est la rotation d’axe orienté par j et d’angle π4 . De plus M −1 = tM .
Proposition 14.26 : le groupe On (R)
Le couple (On (R), ×) est un sous-groupe de (GLn (R), ×).

Proposition 14.27 : déterminant d’une matrice orthogonale / le groupe spécial orthogonal


1. Si M ∈ On (R) alors det(M ) ∈ {±1}.
2. L’ensemble des matrices orthogonales n × n de déterminant +1 est un sous-groupe de O(n) (ou On (R)) noté
SO(n) (ou SOn (R)) et appelé groupe spécial orthogonal d’ordre n.

Fénelon Sainte-Marie – La Plaine-Monceau 166/244 31 août 2022


CHAPITRE 14. ISOMÉTRIES VECTORIELLES, ENDOMORPHISMES AUTO-ADJOINTS MP 2022-23

14.2.3 Changement de base orthonormale


Proposition 14.28 : une CNS pour qu’une base soit orthonormée
Soit B une base orthonormée de (E, ( · | · )), et B 0 une autre base.
Alors la base B 0 est orthonormée si et seulement si la matrice de passage de B dans B 0 est orthogonale.

Méthode : pour une matrice de passage P d’une base orthonormée à une autre base orthonormée, on
a P −1 = tP .
Corollaire 14.29 : pour un endomorphisme, formule de changement de bases orthonormées
Soit (E, ( · | · )) un espace vectoriel euclidien de bases orthonormées B et B 0 . Soit u ∈ L(E), A = MatB (u),
A0 = MatB0 (u) et P = PB→B0 . Alors : A0 = tP AP .

14.2.4 Automorphismes orthogonaux, déterminant (et spectre)


Proposition 14.30 : déterminant d’un endomorphisme orthogonal
Si u ∈ O(E), alors det u = ±1.

Il est clair que dans un espace vectoriel euclidien, l’ensemble des automorphismes orthogonaux de déterminant 1
est stable par la composition, alors que celui des automorphismes de déterminant −1 ne l’est pas. C’est une simple
conséquence de la propriété det(v ◦ u) = det v × det u.
Définition 14.31 : le groupe spécial orthogonal
Soit (E, ( · | · )) un espace vectoriel euclidien.
1. L’ensemble des automorphismes orthogonaux de E de déterminant positif, donc égal à 1, est appelé le groupe
spécial orthogonal de E et noté SO(E).
Ses éléments sont appelés rotations.
2. L’ensemble des automorphismes orthogonaux indirects de E (i.e. de déterminant négatif, égal à −1), est noté
O− (E).
3. Toute symétrie orthogonale par rapport à un hyperplan de E est appelée réflexion.
4. On définit de façon analogue le groupe SOn (R) = SO(n) et l’ensemble On− (R) = O− (n).

Proposition 14.32 : le groupe spécial orthogonal de E


Soit (E, ( · | · )) un espace vectoriel euclidien.
Alors (SO(E), ◦) est un sous-groupe de (GL(E), ◦).

Remarque 14.33 :
En revanche (O− (E), ◦) et (On− (R), ×) ne sont pas des groupes puisque par exemple ne contenant respectivement
pas IdE et In .
Proposition 14.34 : caractérisation de SO(E) par l’image d’une BOND
Soit (E, ( · | · )) un espace vectoriel euclidien. Soit u ∈ L(E) et B une base orthonormée directe de E.
Alors : u ∈ SO(E) si et seulement si l’image de B par u est une base orthonormée directe de E.

Proposition 14.35 : déterminant d’une réflexion


Dans un espace vectoriel euclidien E, toute réflexion a pour déterminant −1.
Proposition 14.36 : spectre d’un automorphisme orthogonal
Soit u ∈ O(E).
1. Si λ ∈ C est valeur propre pour u, alors |λ| = 1.
2. En particulier si u admet une valeur propre réelle λ, alors λ = ±1.

Fénelon Sainte-Marie – La Plaine-Monceau 167/244 31 août 2022


14.3. AUTOMORPHISMES ORTHOGONAUX DU PLAN MP 2022-23

14.2.5 Générateurs du groupe orthogonal


Rappelons que si u ∈ O(E) alors det(u) = ±1.
Théorème 14.37 : le groupe orthogonal est engendré par les réflexions
Soit E un espace vectoriel euclidien de dimension n.
Alors tout automorphisme orthogonal de E est une composée d’au plus n réflexions.

14.2.6 Réduction des éléments de O(E)


Théorème 14.38 : réduction des éléments du groupe orthogonal
Soit E un espace vectoriel euclidien de dimension n et u dans O(E).
Alors il existe une base orthonormée B de E dans laquelle u a pour matrice
 
Ip
−Iq
 
 
 
[u]B = 
 R(θ 1 ) 


 . ..


 
R(θr )
!
cos(θi ) − sin(θi )
où les R(θi ) = sont des matrices de rotation et p + q + 2r = n.
sin(θi ) cos(θi )

14.3 Automorphismes orthogonaux du plan


14.3.1 Étude de O2 (R)
Proposition 14.39 : description de O2 (R)
Les matrices orthogonales du plan sont :
!
cos θ − sin θ
1. Soit du type R(θ) = (matrice de rotation d’angle θ).
sin θ cos θ
!
cos θ sin θ
2. Soit du type S(θ) = (matrice de réflexion).
sin θ − cos θ

14.3.2 Étude de SO2 (R)


Corollaire 14.40 : description de SO2 (R)
On a SO2 (R) = {R(θ), θ ∈ R} et O2− (R) = {S(θ), θ ∈ R}.
Proposition 14.41 : propriétés de SO2 (R) et O2− (R)
Le couple (SO2 (R), ×) est un groupe commutatif et ϕ : θ 7→ R(θ) est un morphisme de groupes surjectif de (R, +)
sur (SO2 (R), ×) de noyau 2πZ.

14.3.3 Étude de SO(E) pour E e.v.e. de dimension 2


Proposition 14.42 : matrice d’un élément de SO(E)
Soit (E, ( · | · )) un espace vectoriel euclidien orienté de dimension 2 et r ∈ SO(E) ; il existe un unique réel θ ∈ [0, 2π[
tel que pour toute base orthonormée directe B, MatB (r) = R(θ).

Fénelon Sainte-Marie – La Plaine-Monceau 168/244 31 août 2022


CHAPITRE 14. ISOMÉTRIES VECTORIELLES, ENDOMORPHISMES AUTO-ADJOINTS MP 2022-23

Définition 14.43 : rotation vectorielle


L’application r s’appelle rotation vectorielle et θ s’appelle une mesure de l’angle de la rotation vectorielle r.
Proposition 14.44 : éléments d’une rotation du plan
Si r est la rotation vectorielle plane d’angle de mesure θ, alors pour tout vecteur unitaire u :

cos θ = (u|r(u)) et sin θ = det(u, r(u)).

14.3.4 Réflexions vectorielles du plan


Proposition 14.45 : isométrie vectorielle indirecte du plan = réflexion vectorielle
Les isométries vectorielles indirectes du plan sont les réflexions vectorielles.
Un élément u ∈ O(E) \ SO(E) est de fait diagonalisable et de spectre (−1, 1). C’est la réflexion par rapport à
Ker (u − IdE ).

Proposition 14.46 : éléments d’une réflexion du plan


L’axe de la réflexion sθ , de matrice Sθ dans la base orthonormée directe B de E, est dirigé par le vecteur
u cos θ2 , sin θ2 (coordonnées dans B).


Proposition 14.47 : composition de réflexions du plan, décomposition des rotations du plan

1. Soit D et D0 deux droites vectorielles de vecteurs directeurs unitaires u et u0 , alors sD0 ◦ sD = r2(u,u
\ 0) .

2. Toute rotation vectorielle se décompose en produit de deux réflexions vectorielles, dont l’une peut être choisie
arbitrairement.

14.4 Automorphismes orthogonaux de l’espace


14.4.1 Étude de SO(E), E e.v.e. de dimension 3
Définition 14.48 : rotation d’un EVE de dimension 3
On appelle rotation de E tout élément u de SO(E), c’est-à-dire toute isométrie vectorielle de déterminant +1.
Proposition 14.49 : décomposition de SO(E), E de dim 3
Soit u ∈ SO(E).
1. L’application u est produit de deux réflexions.
 
1 0 0
(3)
2. Il existe une base orthonormée directe B et un unique θ ∈ [0, 2π[ tel que MatB (u) = Rθ =  0 cos θ − sin θ .
 

0 sin θ cos θ

Définition 14.50 : axe et angle d’une rotation de l’espace

1. Lorsque θ 6= 0, u s’appelle la rotation d’angle θ et d’axe orienté par x.


2. L’axe d’une rotation de l’espace est l’ensemble des vecteurs invariants par cette rotation.
3. Une rotation d’angle π s’appelle un retournement de l’espace.

Fénelon Sainte-Marie – La Plaine-Monceau 169/244 31 août 2022


14.4. AUTOMORPHISMES ORTHOGONAUX DE L’ESPACE MP 2022-23

14.4.2 Angle d’une rotation de l’espace autour d’un axe orienté


Proposition 14.51 : éléments d’une rotation de l’espace
Soit r une rotation d’angle θ autour d’un axe orienté par un vecteur unitaire k.
1. Pour tout vecteur x orthogonal à k : r(x) = cos θ x + sin θ (k ∧ x).
2. Si de plus kxk = 1, alors cos θ = (x|r(x)) et sin θ = [x, r(x), k].

14.4.3 Méthode pratique d’étude d’un isomorphisme vectoriel en dimension 3


Soit (E, ( · | · )) un espace vectoriel euclidien de dimension 3, et de base orthonormée directe B. Soit u ∈ O(E) et
soit A la matrice de u dans B.
Évidemment, si det(u) = 1 (ce qui se vérifie par C1 ∧ C2 = +C3 ) alors u est une rotation. On trouve son axe et
son angle à l’aide de la proposition 14.51.
Revenons au cas général. Le polynôme caractéristique de A est de degré 3 ; il possède donc au moins une racine
réelle, valeur propre de A. Deux cas se présentent :
1. La matrice A possède 3 racines réelles (comptées avec leur ordre de multiplicité) égales à 1 ou −1. D’après
la proposition 14.38, la matrice A est diagonalisable dans une base orthonormée, orthogonalement semblable à
l’une des matrices suivantes :
       
1 0 0 1 0 0 1 0 0 −1 0 0
D1 = 0 1 0 = I3 ; D2 = 0 1 0  ; D3 = 0 −1 0  ; D4 =  0 −1 0  = −I3 .
       

0 0 1 0 0 −1 0 0 −1 0 0 −1

Les isométries représentées dans une base orthonormée par ces matrices sont :
— IdE pour D1 ;
— une réflexion pour D2 ;
— une symétrie axiale pour D3 ;
— −IdE , c’est-à-dire la symétrie centrale pour D4 .
2. La matrice A possède une unique racine réelle et deux racines non réelles conjuguées eiθ et e−iθ . D’après
la proposition 14.38, la matrice A est orthogonalement semblable à l’une des deux matrices suivantes :
   
1 0 0 −1 0 0
(3) (3)
Rθ = 0 cos θ − sin θ ; Sθ =  0 cos θ − sin θ .
   

0 sin θ cos θ 0 sin θ cos θ


(3)
• Une isométrie u représentée dans une base orthonormée par la matrice Rθ est la rotation D = Vect(u−IdE ),
sous-espace propre associé à la valeur propre 1, et d’angle θ, si l’on suppose le plan D⊥ orienté.
(3)
• Une isométrie u représentée dans une base orthonormée par la matrice Sθ est la composée commutative
(3)
de la rotation Rθ et de la réflexion de plan D⊥ :
     
−1 0 0 −1 0 0 1 0 0
(3)
Sθ =  0 cos θ − sin θ =  0 1 0 × 0 cos θ − sin θ .
     

0 sin θ cos θ 0 0 1 0 sin θ cos θ

Exemple 14.52 :
Déterminer la nature et les éléments caractéristiques de l’endomorphisme de R3 canoniquement associé à la matrice
 
2 2 1
1
A =  −2 1 2  .

3
1 −2 2

Fénelon Sainte-Marie – La Plaine-Monceau 170/244 31 août 2022


CHAPITRE 14. ISOMÉTRIES VECTORIELLES, ENDOMORPHISMES AUTO-ADJOINTS MP 2022-23

Exemple 14.53 :
Déterminer la nature et les éléments caractéristiques de l’endomorphisme de R3 canoniquement associé à la matrice
 
−8 4 1
1
A = −  4 7 4 .

9
1 4 −8

Exemple 14.54 :
Nature et éléments caractéristiques de l’endomorphisme de R3 canoniquement associé à la matrice
 √ 
3 1 6
1 √ 
A = −  1 3 − 6 .
4 √ √
− 6 6 2

14.5 Endomorphismes auto-adjoints (ou symétriques)


14.5.1 Définition, premières propriétés et exemples
Définition 14.55 : endomorphisme auto-adjoint (ou symétrique)
Un endomorphisme u de l’espace vectoriel euclidien E est dit autoadjoint ou symétriquelorsqu’il vérifie la relation :

∀(x, y) ∈ E 2 , (u(x)|y) = (x|u(y)),

c’est-à-dire u∗ = u. On note S(E) l’ensemble des endomorphismes symétriques de E.


Théorème 14.56 : caractérisation des endomorphismes auto-adjoints
1. Un endomorphisme est auto-adjoint si et seulement si sa matrice dans une base orthonormale est sa propre
transposée, c’est-à-dire si elle est symétrique.
n(n + 1)
2. L’ensemble S(E) est un sous-espace vectoriel de L(E) de dimension .
2

Proposition 14.57 : image et noyau d’un endomorphisme auto-adjoint


L’image et le noyau d’un endomorphisme auto-adjoint sont supplémentaires orthogonaux : Im (u) = Ker (u)⊥ .

Rappelons qu’un projecteur est dit orthogonal lorsque son image et son noyau sont supplémentaires orthogonaux,
et qu’une symétrie est dite orthogonale lorsque la projection qui lui est associée (à savoir s = 2p−IdE ) est orthogonale.
Voici deux exemples de référence :
Théorème 14.58 : projection et symétrie orthogonales
1. Un projecteur est auto-adjoint si et seulement si c’est une projection orthogonale.
2. Une symétrie est auto-adjointe (ou symétrique !) si et seulement si c’est une symétrie orthogonale.

Proposition 14.59 : stabilité de l’orthogonal d’un sous-espace stable par un endo. auto-adjoint
Soit (E, ( · | · )) un e.v.e. et F un s.e.v. de E. Soit u ∈ S(E).
Si F est stable par u, alors F ⊥ est aussi stable par u.

Corollaire 14.60 : décomposition d’un endomorphisme auto-adjoint à l’aide d’un sous-espace stable

Fénelon Sainte-Marie – La Plaine-Monceau 171/244 31 août 2022


14.5. ENDOMORPHISMES AUTO-ADJOINTS (OU SYMÉTRIQUES) MP 2022-23

Soit u un endomorphisme auto-adjoint de E et F un sous-espace vectoriel de dimension p de E stable par u. Alors


la matrice M de u dans une base adaptée à la décomposition E = F ⊕⊥ F ⊥ est diagonale par blocs :
!
A 0p,n−p
M = avec A ∈ Mp (R) et B ∈ Mn−p (R).
0n−p,p B

14.5.2 Réduction des endomorphismes auto-adjoints dans une base orthonormale


Théorème 14.61 : théorème spectral
Soit E un espace vectoriel euclidien, et u un endomorphisme auto-adjoint de E. Alors :
1. Les valeurs propres complexes de u sont réelles.
2. Les sous-espaces propres de u sont orthogonaux deux à deux.
3. L’endomorphisme u est diagonalisable dans une base orthonormale.
4. Si A est la matrice de u dans une base orthonormale quelconque, alors il existe une matrice diagonale D et une
matrice orthogonale P telles que :
A = P DP −1 = P Dt P.
On dit aussi que A est orthogonalement diagonalisable.

14.5.3 Endomorphismes auto-adjoints positifs, définis positifs


Soit f ∈ S(E).
Définition 14.62 : endomorphisme auto-adjoint positif, défini positif
1. f est positif lorsque : pour tout x ∈ E, (f (x)|x) ≥ 0.
2. f est défini positif lorsque : pour tout x ∈ E \ {0}, (f (x)|x) > 0.

Théorème 14.63 : endomorphismes auto-adjoints positifs, défini positifs


Soit E un espace vectoriel euclidien, et u un endomorphisme auto-adjoint de E. Alors :
1. f est positif si et seulement si Sp(f ) ⊂ R+ .
2. f est défini positif si et seulement si Sp(f ) ⊂ R∗+ .

EPCC : exercices 63, 66, 68, 78.

The end – chapitre 14

Fénelon Sainte-Marie – La Plaine-Monceau 172/244 31 août 2022


Chapitre 15

Probabilités sur un univers au plus


dénombrable
N
X
En Sup, nous avons étudié les probabilités sur un univers fini : .
n=1
+∞
X
En Spé, nous allons étudier les probabilités sur un univers au plus dénombrable : .
n=1
Z +∞
En L3, nous étudierons les probabilités sur un univers continu : .
t=0
Nous suivrons le même fil que le programme de Sup : probabilités dans ce chapitre puis variables aléatoires dans
le chapitre suivant.
Nous travaillons désormais sur un univers Ω au plus dénombrable, constitué de tous les résultats possibles d’une
expérience.

15.1 Espace probabilisé


15.1.1 Définitions et premières propriétés
L’univers Ω étant au plus dénombrable, on peut choisir P(Ω) comme ensemble de tous les événements.
Ce choix n’est plus possible si Ω n’est pas au plus dénombrable.
En effet, une probabilité µ doit avoir parmi ses propriétés le fait que µ(I ∪ I 0 ) = µ(I) + µ(I 0 ) si I ∩ I 0 = ∅, pour
deux événements I et I 0 . La longueur de I semble un choix raisonnable pour µ(I), mais il existe des parties de R
(donc des I potentiels) n’admettant pas de longueur. . . On ne peut donc pas prendre P(Ω) comme ensemble de tous
les événements.
Le paradoxe de Banach-Tarski démontre qu’il est possible de couper une boule de Rn (n ≥ 3) en un nombre fini de
morceaux et de réassembler ces morceaux pour former deux boules identiques à la première, à un déplacement près.
Ce résultat paradoxal implique que ces morceaux soient non mesurables, sans quoi on obtiendrait une contradiction
(le volume étant un exemple de mesure, cela veut plus simplement dire que ces morceaux n’ont pas de volume).
Il faut donc être plus précis quant au choix du « terrain de jeu » sur lequel nous construirons une probabilité :
Définition 15.1 : tribu
Pour un univers Ω au plus dénombrable, on appelle tribu sur Ω une partie T de l’ensemble P(Ω) des parties de Ω
telle que :
1. Ω ∈ T .
2. Pour tout A ∈ T , A = Ω \ A ∈ T .
[
3. Pour toute suite (An )n∈N d’éléments de T , la réunion An appartient encore à T .
n∈N

173
15.1. ESPACE PROBABILISÉ MP 2022-23

Ceci revient à dire qu’une tribu est non-vide, stable par complémentaire et réunion dénombrable.
Proposition 15.2 : conséquences immédiates de la définition
Soit T une tribu sur un univers Ω. Alors :
1. ∅ ∈ T .
\
2. Pour toute suite (An )n∈N d’éléments de T , l’intersection An appartient encore à T .
n∈N
3. T est stable par réunion finie.
4. T est stable par intersection finie.
5. Pour tous A et B éléments de T , A ∩ B = A \ B ∈ T .

Exemple 15.3 :

1. {∅, Ω} est une tribu sur Ω, appelée la tribu triviale.


2. P(Ω) est une tribu sur Ω ; on l’appelle la tribu pleine.
3. ∅, A, A, Ω (avec A ⊂ Ω) est la plus petite tribu (au sens de l’inclusion) sur un ensemble contenant A. On


l’appelle la tribu engendrée par l’événement A.


4. On lance deux dés indiscernables et on s’intéresse à la somme des résultats de ces deux dés.
• L’univers intuitif est fini, égal à l’ensemble [[1, 6]] × [[1, 6]], et la tribu associé est P(Ω).
• On peut aussi choisir comme univers, encore fini, l’ensemble de toutes les sommes possibles, soit Ω0 = [[2, 12]],
et comme tribu P(Ω0 ).
Les probabilités définies sur P(Ω) ou P(Ω0 ) sont alors deux applications distinctes, mais elles fourniront la même
probabilité d’obtenir une somme donnée.

Définition 15.4 : espace probabilisable, événement


Soit Ω un univers et T une tribu sur Ω.
1. Le couple (Ω, T ) est appelé un espace probabilisable.
2. Un élément de T est appelé un événement ou un événement observable.

Définition 15.5 : système complet d’événements (SCE)


Soit (Ω, T ) un espace probabilisable associé à un univers Ω au plus dénombrable. Un système complet d’événements
est une partition au plus dénombrable de Ω par des événements, en d’autres termes c’est une suite (Ai )i∈I d’événements,
où I est au plus dénombrable, telle que :
[
1. Ai = Ω.
i∈I

2. Pour tout (i, j) ∈ I 2 , si i 6= j alors Ai ∩ Aj = ∅.

Exemple 15.6 :

1. Si A est un événement, alors {A, A} est un SCE.


2. Pour tout espace probabilisable (Ω, P(Ω)), la famille d’événements ({ω})ω∈Ω forme un SCE.
3. On lance une pièce de monnaie une infinité de fois. On s’intéresse au rang du premier Pile obtenu.
Le résultat est un entier naturel : 0 si on n’a jamais Pile, n si on obtient le premier Pile au n-ième essai. Ainsi
Ω = N.
Alors la suite d’événements formée par A0 = « n’obtenir aucun Pile » et les An = « obtenir le premier Pile au
n-ième lancer » (n ≥ 1) forme un SCE.

Fénelon Sainte-Marie – La Plaine-Monceau 174/244 31 août 2022


CHAPITRE 15. PROBABILITÉS SUR UN UNIVERS AU PLUS DÉNOMBRABLE MP 2022-23

15.1.2 Lexique des probabilités


On donne ci-après la signification des mots de vocabulaire couramment utilisés en probabilités, et leur lien avec le
vocabulaire ensembliste.
Soit (Ω, T ) un espace probabilisable associé à une expérience aléatoire. On rappelle que les résultats possibles de
l’expérience aléatoire sont appelés les issues ou les éventualités. On rappelle aussi que Ω est l’ensemble de toutes
les issues possibles de l’expérience aléatoire ; il est appelé l’univers. On rappelle enfin que T est une tribu sur Ω.
• Les éléments de T sont les événements, ou événements observables comme défini plus haut.
Tout événement est donc une partie de Ω ; en revanche, les parties de Ω ne sont pas toutes des événements
lorsque la tribu choisie est distincte de P(Ω).
• Si ω est un résultat d’une expérience aléatoire associée à un espace probabilisé (Ω, P(Ω)), alors ω ∈ Ω et {ω} est
un événement, puisque c’est un élément de la tribu choisie P(Ω). Cet événement {ω} est alors appelé événement
élémentaire. Un événement élémentaire est donc un élément de T ne contenant qu’une issue (ensemblistement,
c’est un singleton).
• Un événement A est dit réalisé si l’issue ω de l’expérience est dans A.
• L’événement Ω est toujours réalisé et appelé l’événement certain. C’est la partie de Ω contenant toutes les issues.
L’ensemble vide n’est jamais réalisé, il est appelé l’événement impossible. C’est la partie de Ω ne contenant
aucune issue.
• L’événement contraire A d’un événement A est, ensemblistement, le complémentaire A = Ω \ A.
• L’événement « A et B » est la partie de Ω contenant les issues qui sont dans A et dans B ; ensemblistement,
c’est A ∩ B. L’événement « A ou B » est la partie de Ω contenant les issues qui sont dans A ou dans B ;
ensemblistement, c’est A ∪ B.
• Les événements A et B sont dits incompatibles s’ils ne peuvent être réalisés en même temps, c’est-à-dire si « A
et B » est l’événement impossible, ce qui, ensemblistement, se traduit par A ∩ B = ∅, ou encore par le fait que
les parties A et B sont disjointes.
• On dit que l’événement A implique l’événement B lorsque A ⊂ B.
• Lorsque (An )n∈N est une suite d’événements de T :
[
An est l’événement constitué des éléments de Ω appartenant à au moins un des An .
n∈N
\
An est l’événement constitué des éléments de Ω appartenant à tous les An .
n∈N
On résume les correspondances entre vocabulaires probabiliste et ensembliste dans le tableau ci-après.
Langage probabiliste Langage ensembliste
Univers Ω Ensemble Ω
Issue Élément
Tribu Sous-ensemble T de P(Ω) vérifiant. . .
Événement Partie de Ω appartenant à T
Événement élémentaire Singleton appartenant à T
Événement impossible ∅
Événement certain Ensemble Ω tout entier
Événément contraire Complémentaire
Événements incompatibles Parties disjointes appartenant à T .
Événement « A et B » Partie A ∩ B
Événement « A ou B » Partie A ∪ B

15.1.3 Probabilités sur un univers au plus dénombrable


Définition 15.7 : probabilité

Fénelon Sainte-Marie – La Plaine-Monceau 175/244 31 août 2022


15.1. ESPACE PROBABILISÉ MP 2022-23

1. Soit (Ω, T ) un espace probabilisable.


On appelle probabilité sur (Ω, T ) une application P : T → [0, 1] telle que :
(a) P(Ω) = 1.
(b) Pour toute suite (An )n∈N d’événements deux à deux incompatibles, la série de terme général P(An ) converge
et !
[ +∞
X
P An = P(An ).
n∈N n=0

Cette propriété est appelée la σ-additivité.


2. On appelle espace probabilisé un triplet (Ω, T , P) où T est une tribu sur l’univers Ω et P une probabilité sur
l’espace probabilisable (Ω, T ).

Remarque 15.8 :
1. Pour une suite finie d’événements (A0 , A1 , . . . , An ) deux à deux incompatibles, on a encore
n
! n
[ X
P Ak = P(Ak ).
k=0 k=0

Il suffit pour le voir de compléter la suite finie en une suite dénombrable, en posant Ak = ∅ pour tout k > n,
puis d’appliquer la σ-additivité.
2. Pour toute suite dénombrable (An )n∈N d’éléments de T deux à deux incompatibles, la convergence de la série
de terme général P(An ) est claire.
! En effet, il s’agit d’une série à termes positifs dont les sommes partielles Sn
[n
sont égales à Sn = P Ak et donc sont majorées par 1.
k=0
3. Si les événements ne sont pas deux à deux incompatibles, la série de terme général P(An ) peut diverger. C’est le
cas par exemple lorsqu’on considère une suite d’événements dont tous les termes sont égaux à un événement de
probabilité non nulle.
4. De la remarque précédente, il résulte que si P est une probabilité sur un espace probabilisable (Ω, P(Ω)), où
Ω = {xn , n ∈ N} est un univers dénombrable, il ne peut pas y avoir équiprobabilité des événements élémentaires
{xn }. En effet, s’il y avait équiprobabilité, on aurait P({xn }) = p > 0 pour tout n ∈ N et donc
P
P ({xn })
+∞
X
divergerait, ce qui est absurde, puisque par σ-additivité : P ({xn }) = P(Ω) = 1 !
n=0

15.1.4 Probabilités discrètes


Remarque 15.9 :
Nous avons vu en Sup que sur un univers fini Ω = {x1 , . . . , xn } il suffit de connaître la probabilité des événements
élémentaires P({xk }) pour déterminer la probabilité d’un événement quelconque :
[
P(A) = P({xk }).
k/xk ∈A

Cette propriété se généralise au cas d’un espace probabilisé infini, lorsqu’il est doté d’une distribution de probabilités
discrète.
Définition 15.10 : distribution de probabilités discrète
Lorsque Ω est un ensemble, on appelle distribution de probabilités discrète sur Ω une famille sommable (pω )ω∈Ω
de réels positifs indexée par Ω et de somme 1 : X
pω = 1.
ω∈Ω

Fénelon Sainte-Marie – La Plaine-Monceau 176/244 31 août 2022


CHAPITRE 15. PROBABILITÉS SUR UN UNIVERS AU PLUS DÉNOMBRABLE MP 2022-23

On appelle support de cette distribution l’ensemble des éléments ω ∈ Ω tels que pω > 0.
Proposition 15.11 : support d’une distribution de probabilités discrète
Le support d’une distribution de probabilités discrète est au plus dénombrable.

Remarque 15.12 :
L’ensemble Ω, lui, n’est pas nécessairement au plus dénombrable, car on ne sait rien de l’ensemble Ω \ S, qui est
l’ensemble des éléments de Ω tels que pω = 0.
Proposition 15.13 : espace probabilisé discret
Soit Ω un ensemble et (pω )ω∈Ω une distribution de probabilités discrète sur Ω. Alors l’application P définie sur
P(Ω) par : X
∀A ∈ P(Ω), P(A) = pω
ω∈A

est une probabilité sur l’espace probabilisable (Ω, P(Ω)).

Pour tout ω ∈ Ω, le réel pω est la probabilité de l’événement élémentaire {ω}. Il suffit donc de connaître la
probabilité de tous les événements élémentaires pour déterminer celle d’un événement quelconque.
Remarque 15.14 :
Si ω n’appartient pas au support de la distribution, alors pω = 0, c’est-à-dire que l’événement {ω} est négligeable.
Dans la pratique, on peut écarter ces éléments et se ramener à l’univers S, qui est au plus dénombrable.
Exemple 15.15 :
Sur Ω = N muni de la tribu P(N), on peut définir pour tout p ∈]0, 1[ une probabilité P unique telle que pour tout
n ∈ N, P({n}) = p(1 − p)n , car la suite (p(1 − p)n )n∈N est géométrique de somme 1. La probabilité d’un événement A
quelconque sera donnée par : X
P(A) = p(1 − p)n .
n∈A

Cette probabilité sera utilisée dans l’étude de la loi géométrique (chapitre 16 « variables aléatoires »).

15.1.5 Propriétés des probabilités


Les propriétés ci-dessous, établies en première année dans le cas où Ω est fini, sont encore valables pour un univers
au plus dénombrable, et les démonstrations peuvent être reprises.
Proposition 15.16 : propriétés élémentaires des probabilités
Soit (Ω, T , P) un espace probabilisé. Alors :
1. Pour tout A ∈ T , P(A) = 1 − P(A).
2. Croissance de la probabilité : pour tout (A, B) ∈ T 2 tel que A ⊂ B, P(A) ≤ P(B).
3. Pour tout (A, B) ∈ T 2 tel que A ⊂ B, P(B \ A) = P(B) − P(A).
4. Pour tout (A, B) ∈ T 2 , P(A ∪ B) = P(A) + P(B) − P(A ∩ B).

D’après la définition d’une probabilité, on peut calculer la probabilité d’une réunion dénombrable d’événements
deux à deux incompatibles. La propriété ci-dessous permet de calculer la probabilité d’une réunion dénombrable d’une
suite croissante d’événements :
Théorème 15.17 : théorème de la limite monotone
Soit (Ω, T , P) un espace probabilisé.
1. Soit (An )n∈N une suite croissante d’événements (au sens où An ⊂ An+1 pour tout entier n ∈ N). Alors :
+∞
!
[
P An = lim P(An ).
n→+∞
n=0

Fénelon Sainte-Marie – La Plaine-Monceau 177/244 31 août 2022


15.1. ESPACE PROBABILISÉ MP 2022-23

2. Soit (An )n∈N une suite décroissante d’événements (au sens où An+1 ⊂ An pour tout entier n ∈ N). Alors :
+∞
!
\
P An = lim P(An ).
n→+∞
n=0

Remarque 15.18 :
Attention, erreur classique : la suite doit vraiment être monotone !
Exemple 15.19 :
On lance une infinité de fois une pièce équilibrée et on considère l’événement A : « obtenir Pile à tous les lancers ».
Afin de déterminer la probabilité de A, on introduit les événements An : « les n premiers lancers donnent Pile ». Ainsi :
+∞
\
A = An
n=1

où la suite (An )n∈N∗ est une suite décroissante d’événements. On obtient facilement que
1
P(An ) = .
2n
On déduit donc que :
P(A) = lim P(An ) = 0.
n→+∞

Il n’existe pas de formule permettant de calculer la probabilité d’une réunion dénombrable d’événements quel-
conques analogue à celle du crible pour la réunion finie. On peut néanmoins majorer cette probabilité :
Proposition 15.20 : inégalité de Boole
Soit (Ω, T , P) un espace probabilisé. Soit (An )n∈N une suite d’événements telle que la série de terme général P(An )
converge. Alors : !
+∞
[ +∞
X
P An ≤ P(An ).
n=0 n=0

On dit que P vérifie la propriété de sous-additivité.

15.1.6 Événements négligeables, événements presque sûrs


Définition 15.21 : événement négligeable, événement presque sûr
Soit (Ω, T , P) un espace probabilisé.
• Un événement A est dit négligeable lorsque P(A) = 0.
• Un événement A est dit presque sûr lorsque P(A) = 1.

Proposition 15.22 : propriétés des événements négligeables et des éléments presque sûrs
Soit (Ω, T , P) un espace probabilisé.
1. Une réunion au plus dénombrable d’événements négligeables est un événement négligeable :
+∞
!
[
(∀n, P(An ) = 0) =⇒ P An = 0.
n=0

2. Une intersection au plus dénombrable d’événements presque sûrs est un événement presque sûr :
+∞
!
\
(∀n, P(Bn ) = 1) =⇒ P Bn = 1.
n=0

Fénelon Sainte-Marie – La Plaine-Monceau 178/244 31 août 2022


CHAPITRE 15. PROBABILITÉS SUR UN UNIVERS AU PLUS DÉNOMBRABLE MP 2022-23

3. L’intersection d’un événement quelconque avec un événement négligeable est un événement négligeable.
La réunion avec un événement négligeable ne change pas la probabilité.
En d’autres termes :  
P(A) = 0 =⇒ P(A ∩ B) = 0 ∧ P(A ∪ B) = P(B) .

4. La réunion d’un événement quelconque avec un événement presque sûr est un événement presque sûr.
L’intersection avec un événement presque sûr ne change pas la probabilité.
En d’autres termes :  
P(A) = 1 =⇒ P(A ∩ B) = P(B) ∧ P(A ∪ B) = 1 .

Exemple 15.23 :
1. Petite digression au pays des probabilités continues. . . Considérons l’expérience consistant à tirer un nombre réel
au hasard. Quelle est la probabilité de tirer un nombre rationnel ? Un nombre irrationnel
[ ?
La probabilité d’obtenir un rationnel choisi à l’avance q est alors nulle. Or Q = {q} est une réunion dénom-
q∈Q
brable, donc la probabilité de tirer un rationnel est nulle d’après le premier point de la proposition précédente.
On en déduit que la probabilité de tirer un irrationnel est égale à 1.
2. Un système d’événements (Ai )i∈I (au plus dénombrable) est dit quasi-complet lorsque :
!
[ [
(a) P Ai = 1 (au lieu de Ai = Ω pour un SCE).
i∈I i∈I
(b) Pour tout (i, j) ∈ I 2 , si i 6= j alors Ai ∩ Aj = ∅.
Un système complet d’événements est donc quasi-complet. X
Soit donc un système quasi-complet et A un événement. Démontrons que P(A) = P(A ∩ Ai ). On remarque
i∈I
+∞
X
au passage que la formule que nous allons démontrer implique avec A = Ω : P(Ai ) = 1.
i=0
[
L’événement Ai étant presque-sûr, il vient
i∈I
! !
[ [
P(A) = P A ∩ Ai = P A ∩ Ai .
i∈I i∈I

Or les Ai sont incompatibles, donc les A ∩ Ai le sont a fortiori. Par conséquent


! +∞
[ X
P(A) = P Ai ∩ A = P(A ∩ Ai ).
i∈N i=0

15.2 Conditionnement
Dans ce paragraphe, nous allons généraliser la notion de probabilité conditionnelle vue en Sup dans le cas des
univers finis, au cas des univers au plus dénombrables.

15.2.1 Probabilité conditionnelle


Proposition 15.24 : définition de la probabilité sachant A
Soit (Ω, T , P) un espace probabilisé et A ∈ T un événement de probabilité non nulle. Alors l’application :

PA : T −→ [0, 1]
P(A ∩ B)
B 7−→
P(A)

Fénelon Sainte-Marie – La Plaine-Monceau 179/244 31 août 2022


15.2. CONDITIONNEMENT MP 2022-23

est une probabilité.

Définition 15.25 : probabilité conditionnelle


La probabilité construite dans la proposition précédente est appelée probabilité conditionnellement à A ou égale-
ment probabilité sachant A. On note usuellement P(B|A) = PA (B) la probabilité de l’événement B sachant A.
Le triplet (Ω, T , PA ) est un espace probabilisé.
De cette définition découle la formule des probabilités composées :
Proposition 15.26 : formule des probabilités composées
Soit (Ω, T , P) un espace probabilisé au plus dénombrable et (Ak )1≤k≤n une suite d’événements telle que
n
!
\
P Ak > 0.
k=1

Alors :
!  
n
\ n
Y i−1
\
P Ak = P Ai | Aj 
k=1 i=1 j=1

= P(A1 ) × P(A2 |A1 ) × P(A3 |A1 ∩ A2 ) × · · · × P(An |A1 ∩ · · · ∩ An−1 )


\
(car = Ω et P(X|Ω) = P(X)).

Exemple 15.27 :
On considère une urne contenant 6 boules blanches et 4 noires. On tire une à une et sans remise trois boules.
On s’intéresse à l’événement A = « obtenir une boule blanche puis deux noires ». On introduit les événements B1 =
« obtenir une boule blanche au premier tirage », N2 = « obtenir une boule noire au second tirage » et N3 = « obtenir
une boule noire au dernier tirage ». Ainsi :
6 4 3 1
P(A) = P(B1 ∩ N2 ∩ N3 ) = P(B1 )PB1 (N2 )PB1 ∩N2 (N3 ) = × × = .
10 9 8 10

15.2.2 Formule des probabilités totales


La formule des probabilités totales, vue en Sup dans le cas d’un univers fini, permet de calculer la probabilité d’un
événement dépendant d’autres événements. Nous allons la généraliser au cas d’un univers au plus dénombrable.
Proposition 15.28 : formule des probabilités totales, pour un SCE
Soit (Ω, T , P) un espace probabilisé. Soit (An )n∈N un système complet d’événements de probabilités non nulles.
Alors, pour tout B ∈ T :
+∞
X +∞
X +∞
X
P(B) = P(B ∩ An ) = PAn (B)P(An ) = P(B|An )P(An ).
n=0 n=0 n=0

Remarque 15.29 :
1. Dans la formule précédente, on peut s’affranchir de la condition « événements de probabilités non nulles » en
adoptant la convention P(B|An )P(An ) = 0 lorsque P(An ) = 0.
2. La formule reste valable dans le cas d’une suite (An )n∈N set formant un système quasi-complet d’événements
+∞
X +∞
[
(événements deux à deux incompatibles tels que P(An ) = 1 au lieu de Ai = Ω).
n=0 i=0

Fénelon Sainte-Marie – La Plaine-Monceau 180/244 31 août 2022


CHAPITRE 15. PROBABILITÉS SUR UN UNIVERS AU PLUS DÉNOMBRABLE MP 2022-23

Exemple 15.30 :
Reprenons l’exemple 15.27 précédent, considérant une urne contenant 6B4N . Déterminons la probabilité de l’évé-
nement A = « obtenir une boule noire au second tirage », en introduisant le système complet d’événements constitué
de B1 et N1 = B 1 , où B1 est l’événement « obtenir une boule blanche au premier tirage ». Ainsi :

6 4 4 3 2
P(A) = P(B1 )PB1 (A) + P(N1 )PN1 (A) = × + × = .
10 9 10 9 5

Corollaire 15.31 : formule des probabilités conditionnelles totales


Soit (Ω, T , P) un espace probabilisé, A ∈ T et (An )n∈N une partition de A composée d’événements de probabilités
non nulles. Alors, pour tout B ∈ T :
+∞
X
P(B|A) = P(B|An )P(An |A).
n=0

15.2.3 Formule de Bayes


Corollaire de la formule des probabilités totales :
Proposition 15.32 : formule de Bayes
Soit (Ω, T , P) un espace probabilisé. Soit (An )n∈N un système complet d’événements de probabilités non nulles.
Alors, pour tout B ∈ T de probabilité non nulle :

PAi (B)P(Ai )
∀i ∈ N, PB (Ai ) = +∞
.
X
PAn (B)P(An )
n=0

Remarque 15.33 :
Cette formule permet de calculer la probabilité d’événements Ai sachant B, alors que c’est l’événement B qui
dépend des événements Ai .
En d’autres termes la formule de Bayes permet de remontrer dans le temps !
Exemple 15.34 :
1
On considère 100 dés, dont 25 sont pipés au sens où la probabilité d’obtenir 6 est . On lance un dé choisi au
2
hasard et on obtient 6. Quelle est la probabilité de l’événement A = « le dé lancé est pipé » ?

15.3 Indépendance d’événements


15.3.1 Indépendance de deux événements
On généralise là encore les notions de première année vues dans le cas d’un univers fini à un univers dénombrable.
Intuitivement, deux événements sont indépendants lorsque la réalisation de l’un n’interfère pas sur la réalisation de
l’autre.
Définition 15.35 : Événements indépendants
Soit (Ω, T , P) un espace probabilisé.
1. Deux événements A et B de T sont dits indépendants lorsque P(A ∩ B) = P(A)P(B).
2. Les événements A1 , . . . , An de T sont indépendants deux à deux lorsque, pour tout (i, j) ∈ [[1, N ]]2 , si i 6= j
alors Ai et Aj sont indépendants.

Fénelon Sainte-Marie – La Plaine-Monceau 181/244 31 août 2022


15.3. INDÉPENDANCE D’ÉVÉNEMENTS MP 2022-23

De ces définitions découlent les propriétés suivantes. Les démonstrations de Sup peuvent ici être reprises.
Proposition 15.36 : propriétés des événements indépendants
Soit (Ω, T , P) un espace probabilisé, A ∈ T tel que P(A) > 0 et B ∈ T . Alors :
1. Les événements A et B sont indépendants si et seulement si PA (B) = P(B).
2. Si A et B sont des événements indépendants alors les événements A et B sont indépendants, ainsi que les
événements A et B.

15.3.2 Indépendance d’une suite d’événements


Définition 15.37 : suite d’événements mutuellement indépendants
Soit (Ω, T , P) un espace probabilisé. Une suite au plus dénombrable d’événements (An )n∈I , avec I ⊂ N, est une
suite d’événements mutuellement indépendants lorsque, pour tout sous-ensemble fini J ⊂ I :
 
\ Y
P Aj  = P(Aj ).
j∈J j∈J

Ainsi trois événements A1 , A2 et A3 sont mutuellement indépendants lorsque les quatre égalités ci-dessous sont
satisfaites :

P(A1 ∩ A2 ) = P(A1 )P(A2 ), P(A1 ∩ A3 ) = P(A1 )P(A3 ), P(A2 ∩ A3 ) = P(A2 )P(A3 )

et
P(A1 ∩ A2 ∩ A3 ) = P(A1 )P(A2 )P(A3 ).
Pour une suite finie de n ≥ 2 événements distincts, le nombre d’égalités à vérifier est égal à :
     
n n n
+ + ··· + = (1 + 1)n − n − 1.
2 3 n

Proposition 15.38 : propriétés immédiates des suites d’événements mutuellement indépendants


1. Des événements mutuellement indépendants sont indépendants deux à deux (réciproque fausse).
2. Soit (A1 , . . . , An ) ∈ T n une famille de n événements mutuellement indépendants. Alors les événements A1 et
\n
Ak sont indépendants.
k=2
3. Soit (A1 , . . . , An ) ∈ T n une
! famille de n événements mutuellement indépendants. Alors pour toute partie I ⊂
\
[[1, n]] telle que P Ak > 0 :
k∈I
! !
\ \
∀i ∈
/ I, P Ai Ak = P(Ai ) et ∀i ∈ I, P Ai Ak = 1.

k∈I k∈I

Remarque 15.39 :
L’indépendance deux à deux n’entraîne pas l’indépendance mutuelle. Il suffit de considérer l’expérience aléatoire
suivante : on lance deux dés équilibrés et soit A l’événement « le premier dé donne un nombre pair », B l’événement « le
second dé donne un nombre impair » et C l’événement « les deux dés donnent des numéros de même parité ». Alors, en
1 1
considérant la probabilité uniforme naturelle, il vient P(A) = P(B) = P(C) = , P(A ∩ B) = P(A ∩ C) = P(C ∩ B) =
2 4
mais P(A ∩ B ∩ C) = 0 6= P(A)P(B)P(C).
Proposition 15.40 : probabilité de l’intersection d’événements mutuellement indépendants

Fénelon Sainte-Marie – La Plaine-Monceau 182/244 31 août 2022


CHAPITRE 15. PROBABILITÉS SUR UN UNIVERS AU PLUS DÉNOMBRABLE MP 2022-23

Soit (Ω, T , P) un espace probabilisé, et (An )n∈N une suite d’événements mutuellement indépendants. Alors
+∞
! n
\ Y
P An = lim P(Ak ).
n→+∞
n=0 k=0

Proposition 15.41 : une CNS pour que des événements soient mutuellement indépendants
Soit (Ω, T , P) un espace probabilisé. Alors : une suite (An )n∈N d’événements est une suite d’événements mutuelle-
ment indépendants si et seulement si pour tout entier n, les événements A0 , . . . , An sont mutuellement indépendants.

Proposition 15.42 : suite d’événements mutuellement indépendants et complémentaires


Soit (Ω, T , P) un espace probabilisé et (An )n∈I (I ⊂ N) une suite d’événements mutuellement indépendants.
Alors toute suite (Bn )n∈I avec Bn ∈ {An , An } est une suite d’événements mutuellement indépendants.

EPCC : exercices 101, 105, 107.

The end – chapitre 15

Fénelon Sainte-Marie – La Plaine-Monceau 183/244 31 août 2022


15.3. INDÉPENDANCE D’ÉVÉNEMENTS MP 2022-23

Fénelon Sainte-Marie – La Plaine-Monceau 184/244 31 août 2022


Chapitre 16

Variables aléatoires

En Sup, nous avons étudié les variables aléatoires X associées à des probabilités P sur un univers fini Ω, et pour
lequel la tribu considérée était toujours P(Ω). Ceci nous a permis de définir la probabilité que la variable aléatoire X
prenne ses valeurs dans une partie A, à savoir P(X ∈ A).
En Spé, nous nous plaçons dans le cas d’une univers pas forcément fini soit au plus dénombrable (VA discrète), soit
non dénombrable, et pour une tribu T pouvant être différente de P(Ω). Étant donné que P([X = x]) = P(X −1 ({x})),
il nous faudra une condition sur les images réciproques X −1 ({x}) de la variable aléatoire X afin de pouvoir calculer
la probabilité P([X = x]).
En L3 nous étudierons les variables aléatoires continues, c’est-à-dire associées à des probabilités sur un univers
continu (par exemple R).
Nous travaillons désormais sur un univers Ω au plus dénombrable, constitué de tous les résultats possibles d’une
expérience. Cet univers sera muni d’une tribu T .
Dans tout ce chapitre, nous considérerons également un ensemble E.

16.1 Variables aléatoires


16.1.1 Définitions et premières propriétés
Définition 16.1 : variable aléatoire
Une variable aléatoire discrète définie sur Ω et à valeurs dans E est une application X : Ω → E telle que :
1. L’ensemble X(Ω) est au plus dénombrable.
2. Pour tout x ∈ X(Ω), l’image réciproque (X = x) = [X = x] = X −1 ({x}) = {ω ∈ Ω / X(ω) = x} de {x} par X
est un événement.
En particulier :
• Lorsque E ⊂ R, on dit que X est une variable aléatoire réelle.
• Lorsque E = R2 (respectivement Rk avec k ≥ 2), on dit que X est un couple de variables aléatoires réelles
(respectivement vecteur aléatoire réel).

Remarque 16.2 :
1. En probabilités, on utilise la notation absolument pas rigoureuse suivante : l’image réciproque par X d’un élément
x de E est noté [X = x] ou (X = x). Ceci signifie

[X = x] = (X = x) = X −1 ({x}) = {ω ∈ Ω / X(ω) = x},

c’est-à-dire l’ensemble des éléments ω tels que X(ω) = x.


2. Pour une variable aléatoire X, on notera souvent

X(Ω) = {xk / k ∈ K}, où K ⊂ N.

185
16.1. VARIABLES ALÉATOIRES MP 2022-23

3. La définition d’une variable aléatoire ne dépend pas d’une quelconque probabilité P, mais seulement de l’espace
probabilisable (Ω, T ).
4. En Sup l’ensemble Ω est fini, ainsi X(Ω) est fini donc au plus dénombrable. En outre chaque [X = x] = X −1 ({x})
est également fini.
Par conséquent les variables aléatoires vues en Sup sont également des variables aléatoires discrètes.
5. Attention ! Une application Ω → E quelconque avec Ω fini n’est pas toujours une variable aléatoire. Il faut que
chaque [X = x] soit un événement !
Considérons npar exemple deux o
lancers successifs d’un pièce et Ω = {P P, F F, P F, F P }. On définit une tribu en
posant T = ∅, Ω, {P P }, {P P } : ceci contient Ω, c’est stable par complémentaire et par réunion dénombrable.
Soit X : Ω → R l’application qui associe à chaque résultat le nombre de Piles obtenu : ce n’est pas une variable
aléatoire car l’ensemble [X = 1] = X −1 ({1}) = {P F, F P } des résultats de Ω ayant un seul Pile n’est pas un
élément de T .

Dans ce qui suit, toutes les variables aléatoires sont supposées discrètes.
Proposition 16.3 : propriétés des variables aléatoires
Soit X : Ω → E une VAD. On pose X(Ω) = {xk / k ∈ K} où K ⊂ N. Alors :
1. Pour toute partie A ⊂ E de E, l’image réciproque de A par X, notée [X ∈ A], est un événement.
2. Pour tout A ⊂ E, pour toute suite (Ai )i∈I de parties de E, on a :
" # " #
[ [ \ \
[X ∈ A] = [X ∈ A], X∈ Ai = [X ∈ Ai ], X∈ Ai = [X ∈ Ai ],
i∈I i∈I i∈I i∈I

[X ∈ ∅] = ∅, [X ∈ E] = Ω.
 
3. La famille d’événements [X = xk ] forme un système complet d’événements.
k∈K

Remarque 16.4 :
Ces propriétés permettent de donner une CNS pour que X : Ω → R (c’est-à-dire pour E = R) soit une VAD :
• X(Ω) est au plus dénombrable.
• Pour tout intervalle I de R, on a (X ∈ I) ∈ T .
En effet si X est une VAD c’est une application directe de la proposition.
Réciproquement, supposons que X vérifie les deux propriétés ci-dessus. Soit x ∈ R et I = [a, b] un segment
contenant x. Alors :
[X = x] = [X ∈ [a, x] ∩ [x, b]] = [X ∈ [a, x]] ∩ [X ∈ [x, b]] ∈ T .

Définition 16.5 : événements [X ≥ x], etc.


Soit X : Ω → R une variable aléatoire réelle. On définit alors des événements en posant :
• [X ≥ x] = X −1 ([x, +∞[) et [X > x] = X −1 (]x, +∞[).
• [X ≤ x] = X −1 (] − ∞, x]) et [X < x] = X −1 (] − ∞, x[).

Proposition 16.6 : variable aléatoire indicatrice


Soit A un événement et χA = 1IA : Ω → {0, 1} la fonction indicatrice ou caractéristique de A, définie par χA (ω) = 1
si ω ∈ A et 0 sinon.
Alors χA est une variable aléatoire réelle discrète. On l’appelle variable aléatoire indicatrice.

Afin de parler d’espérance et de variance, nous avons besoin du carré d’une variable aléatoire réelle. Voici la
proposition qui nous le permettra :
Proposition 16.7 : fonction d’une variable aléatoire

Fénelon Sainte-Marie – La Plaine-Monceau 186/244 31 août 2022


CHAPITRE 16. VARIABLES ALÉATOIRES MP 2022-23

Soit X : Ω → E une variable aléatoire discrète. Considérons une fonction f : X(Ω) → F .


Alors l’application f ◦ X : Ω → F définie par (f ◦ X)(ω) = f (X(ω)) est une variable aléatoire discrète.
On la note usuellement f (X).

Cette proposition permettra de définir l’espérance et la variance. Elle permet aussi de vérifier que les composantes
d’un vecteur aléatoire sont bien des variables aléatoires :
Corollaire 16.8 : si (X1 , X2 ) vecteur aléatoire discret réel alors X1 et X2 VAD réelles
Soit X : Ω → R2 un vecteur aléatoire discret réel. Notons p1 et p2 les projections canoniques de R2 dans R,
c’est-à-dire définies par p1 (x) = x1 et p2 (x) = x2 , pour x = (x1 , x2 ).
Notons X1 = p1 (X) et X2 = p2 (X). Alors X1 et X2 sont des variables aléatoires discrètes réelles définies sur Ω.

Réciproquement, prouvons que deux variables aléatoires discrètes X1 et X2 donnent lieu à un vecteur aléatoire
discret (X1 , X2 ) :
Proposition 16.9 : si X1 et X2 VAD réelles alors (X1 , X2 ) vecteur aléatoire discret
Soit X1 et X2 deux variables aléatoires discrètes réelles. Définissons X = (X1 , X2 ) : Ω → R2 par X(ω) =
(X1 (ω), X2 (ω)). Alors X est un vecteur aléatoire discret réel.

Proposition 16.10 : min, max et combinaisons linéaires de VAD


Soit X et Y deux variables aléatoires discrètes réelles définies sur Ω.
1. On définit min(X, Y ) : Ω → R et max (X, Y ) : Ω → R par :

∀ω ∈ Ω, min(X, Y )(ω) = min{X(ω), Y (ω)}, max (X, Y )(ω) = max {X(ω), Y (ω)}.

Alors min(X, Y ) et max (X, Y ) sont des variables aléatoires discrètes réelles.
2. Pour tout (λ, µ) ∈ R2 , on définit λX + µY par :

∀ω ∈ Ω, (λX + µY )(ω) = λX(ω) + µY (ω).

Alors λX + µY est une variable aléatoire discrète réelle.

Remarque 16.11 :
Les résultats pour des vecteurs aléatoires à valeurs dans R2 peuvent être étendus à des vecteurs aléatoires à valeurs
dans Rk , k ≥ 2.

16.1.2 Loi de probabilité d’une variable aléatoire


Nous avons défini les variables aléatoires et les probabilités. Lions maintenant ces deux notions.
Proposition 16.12 : loi de probabilité d’une variable aléatoire
Soit (Ω, T , P) un espace probabilisé.
Soit X : Ω → E une variable aléatoire discrète.
L’ensemble A = P(X(Ω)) est une tribu sur l’ensemble dénombrable X(Ω).
On définit une application PX : A → [0, 1] par :

∀A ∈ A, PX (A) = P([X ∈ A]).

Alors cette application PX est une probabilité sur (X(Ω), A).

Définition 16.13 : loi de probabilité d’une VA


La probabilité PX est appelée loi de probabilité de X.
Deux variables aléatoires discrètes X et Y , définies sur Ω et à valeurs dans E, sont dites équiréparties lorsqu’elles
ont même loi, c’est-à-dire PX = PY . On notera ceci X ∼ Y .
Proposition 16.14 : caractérisation de la loi PX d’une variable aléatoire X

Fénelon Sainte-Marie – La Plaine-Monceau 187/244 31 août 2022


16.1. VARIABLES ALÉATOIRES MP 2022-23

Soit (Ω, T , P) un espace probabilisé.


Soit X : Ω → E une variable aléatoire discrète.
Alors la loi PX de X est entièrement déterminée par la donnée de :
• X(Ω) = {xk / k ∈ K}, où K ⊂ N.
• PX ({xk }) = P([X = xk ]), pour tout k ∈ K.
La probabilité PX ({xk }) est usuellement notée PX (xk ).

On en déduit :
Proposition 16.15 : sommabilité de (P([X = xk ]))k∈K
Soit (Ω, T , P) un espace probabilisé.
Soit X : Ω → E une variable aléatoire
 discrète. Notons X(Ω) = {xk / k ∈ K} pour K ⊂ N.
Alors la famille P([X = xk ]) est sommable de somme 1.
k∈K

Remarque 16.16 :
Attention, deux variables aléatoires peuvent avoir la même loi sans être égales. En d’autres termes PX = PY mais
X 6= Y .
Exemple 16.17 :
Considérons une variable aléatoire X à valeurs dans E = {−1, 0, 1} et de loi donnée par

P([X = −1]) = P([X = 0]) = P([X = 1]).

Posons Y = −X.
Démontrer que PX = PY mais que X 6= Y .

Conformément au programme officiel, nous admettrons le résultat suivant, qui donne une sorte de réciproque à la
proposition précédente :
P
Proposition 16.18 : construction d’une probabilité à l’aide de (pk )k telle que k∈K pk = 1
Soit (Ω, T ) un espace probabilisable.
Soit X : Ω → E une variable aléatoire discrète. NotonsX X(Ω) = {xk / k ∈ K}, pour K ⊂ N, les xk étant distincts.
Si (pk )k∈K est une suite de réels positifs vérifiant pk = 1. Alors il existe une probabilité P sur (Ω, T ) telle que
k∈K
P([X = xk ]) = pk pour tout k ∈ K.
Lemme 16.19 : lim P(X ≥ n) = 0
n→+∞
Soit X une VARD sur un espace probabilisé, telle que X(Ω) = N. Alors lim P([X ≥ n]) = 0.
n→+∞

16.1.3 Fonction de répartition d’une variable aléatoire


On rappelle la :
Définition 16.20 : fonction de répartition d’une VAD
Soit (Ω, T , P) un espace probabilisé au plus dénombrable. Soit X : Ω → R une variable aléatoire discrète réelle.
On appelle fonction de répartition de X la fonction FX : R → [0, 1], définie par

∀x ∈ R, FX (x) = P([X ≤ x]).

Proposition 16.21 : propriétés de la fonction de répartition


Soit (Ω, T , P) un espace probabilisé au plus dénombrable. Soit X : Ω → R une variable aléatoire discrète. On note
FX : R → [0, 1] la fonction de répartition de X. Alors :
1. ∀x ∈ R, 0 ≤ FX (x) ≤ 1.

Fénelon Sainte-Marie – La Plaine-Monceau 188/244 31 août 2022


CHAPITRE 16. VARIABLES ALÉATOIRES MP 2022-23

2. La fonction FX est croissante sur R.


3. lim FX (x) = 0 et lim FX (x) = 1.
x→−∞ x→+∞
4. La fonction FX est continue à droite en tout point de R (démonstration hors-programme).
Plus précisément : la fonction FX est continue sur R, sauf en un nombre au plus dénombrable de points (xi )1≤i≤n
ou (xi )i∈N , en lesquels FX est seulement continue à droite :

∀i, lim F (x) < FX (xi ) = lim FX (x).


x→x−
i x→x+
i

Exemple 16.22 :
On considère l’expérience aléatoire qui consiste à lancer successivement trois pièces de monnaie équilibrées et on
s’intéresse au résultat Pile ou Face obtenu sur chaque pièce. L’univers associé à cet expérience aléatoire est

Ω = {P P P, P P F, P F P, P F F, F P P, F P F, F F P, F F F }.

On note X la variable aléatoire qui à un résultat de ce lancer associe le nombre de « Pile » obtenus.
Déterminer la loi de probabilité de X et sa fonction de répartition.

Remarque 16.23 :
La connaissance de la fonction de répartition permet de calculer la probabilité de tout intervalle :
• P(X ∈] − ∞, x]) = P([X ≤ x]) = FX (x).
• P(X ∈]x, +∞[) = P([X > x]) = 1 − P([X ≤ x]) = 1 − FX (x).
• P(X ∈]x, y]) = FX (y) − FX (x).
• P(X ∈] − ∞, x[) = P([X < x]) = FX (x− ).
• P(X ∈]x, y[) = P([x < X < y]) = FX (y− ) − FX (x).
• P(X ∈ [x, y[) = P([x < X < y]) = FX (y− ) − FX (x− ).
• P(X ∈ [x, y]) = P([x ≤ X ≤ y]) = FX (y) − FX (x− ).

16.2 Couples de variables aléatoires


16.2.1 Lois conjointes et marginales
On sait déjà que X = (X1 , X2 ) est un couple aléatoire discret réel si et seulement si X1 et X2 sont des variables
aléatoires discrètes réelles (⇐ corollaire 16.8, ⇒ proposition 16.9). Examinons ce qu’il en est pour les lois de probabilités,
plus précisément :
• Si la loi PX d’un couple X = (X1 , X2 ) est connue, alors peut-on déterminer les lois PX1 et PX2 des deux variables
aléatoires X1 et X2 ?
• Si les lois PX1 et PX2 de X1 et X2 sont connues, alors peut-on déterminer la loi du couple X = (X1 , X2 ) ? Et
sinon sous quelles conditions ?
La réponse à la première question est positive, mais ce n’est pas le cas pour la seconde.
Définition 16.24 : loi conjointe de deux VAD
On appelle loi conjointe de X1 et X2 la loi P(X1 ,X2 ) . On rappelle que d’après la proposition 16.14, cette loi est
entièrement déterminée par :
• X(Ω) ⊂ {(x1 , x2 ) / x1 ∈ X1 (Ω), x2 ∈ X2 (Ω)} = X1 (Ω) × X2 (Ω).
• Les P([X = (x1 , x2 )]) = P([X1 = x1 ] ∩ [X2 = x2 ]), pour tous x1 ∈ X1 (Ω) et x2 ∈ X2 (Ω). Cette probabilité est
notée PX (x1 , x2 ).

Remarque 16.25 :

Fénelon Sainte-Marie – La Plaine-Monceau 189/244 31 août 2022


16.2. COUPLES DE VARIABLES ALÉATOIRES MP 2022-23

1. Nous avons déjà démontré que PX est une probabilité.


2. Nous verrons que la seule connaissance de PX1 et PX2 ne permet pas de déterminer ces P([X1 = x1 ] ∩ [X2 = x2 ]).

Proposition 16.26 : lois marginales (ou P(X,Y ) donne PX et PY )


Soit Z = (X, Y ) un couple aléatoire discret réel.
Notons Z(Ω) = {(xi , yj ) / i ∈ I, j ∈ J}, où I et J sont deux parties au plus dénombrables de N. Alors :
1. La loi de probabilité PX de la variable aléatoire discrète réelle X est déterminée à partir de la loi P(X,Y ) du
couple (X, Y ) par :
• X(Ω) = {xi / i ∈ I}.
X  
• P([X = xi ]) = P [(X, Y ) = (xi , yj )] , pour tout i ∈ I.
j∈J

2. La loi de probabilité PY de la variable aléatoire discrète réelle Y est déterminée à partir de la loi P(X,Y ) du
couple (X, Y ) par :
• Y (Ω) = {yj / j ∈ J}.
X  
• P([Y = yj ]) = P [(X, Y ) = (xi , yj )] , pour tout j ∈ J.
i∈I

La loi conjointe de deux variables aléatoires discrète se visualise à l’aide d’un tableau (éventuellement infini dé-
nombrable). Pour toutes variables aléatoires discrètes réelles X et Y :

y1 ··· yk ··· Loi de X


x1 P(X,Y ) (x1 , y1 ) ··· P(X,Y ) (x1 , yk ) ··· PX (x1 )
.. ..
. .
xn P(X,Y ) (xn , y1 ) · · · P(X,Y ) (xn , yk ) · · · PX (xn )
.. ..
. .
Loi de Y PY (y1 ) ··· PY (yk ) ··· 1

Le n-ième élément de la dernière colonne, soit PX (xn ), s’obtient en additionnant les termes de la n-ième ligne. De
même pour la k-ième colonne.
Définition 16.27 : lois marginales d’un couple (X, Y )
Les lois PX et PY de X et Y sont appelées lois marginales du couple (X, Y ).
Proposition 16.28 : loi conditionnelle
Soit X et Y deux variables aléatoires discrètes réelles sur (Ω, T , P).
Considérons x ∈ R tel que l’événement (X = x) soit de probabilité non nulle. Notons A = P(Y (Ω)), ensemble des
parties de Y (Ω).
Alors l’application
A = P(Y (Ω)) −→ [0, 1], A 7−→ P(X=x) ([Y ∈ A])
est une probabilité sur (Y (Ω), P(Y (Ω))).

Définition 16.29 : loi conditionnelle


La probabilité A 7→ P(X=x) (Y ∈ A) définie à la proposition précédente est appelée loi conditionnelle de Y sachant
l’événement (X = x).

16.2.2 Variables aléatoires indépendantes


Rappelons que l’objectif est d’examiner le lien entre P(X,Y ) et les lois marginales PX et PY . Nous avons vu à la
proposition 16.26 que l’on pouvait obtenir les lois PX et PY à partir de P(X,Y ) .

Fénelon Sainte-Marie – La Plaine-Monceau 190/244 31 août 2022


CHAPITRE 16. VARIABLES ALÉATOIRES MP 2022-23

Nous allons établir une réciproque partielle. Plus précisément, nous allons déterminer la loi conjointe P(X,Y ) de
(X, Y ) en fonction des lois PX et PY lorsque X et Y seront indépendantes au sens défini ci-dessous.
Définition 16.30 : indépendance d’un couple de variables aléatoires
Deux variables aléatoires X et Y définies sur (Ω, T , P) à valeurs dans E sont dites indépendantes lorsque pour
toutes parties A et B de E, les événements (X ∈ A) et (Y ∈ B) sont indépendants, c’est-à-dire

P (X ∈ A) ∩ (Y ∈ B) = P(X ∈ A) × P(Y ∈ B).

On écrit alors X ⊥
⊥Y.
Proposition 16.31 : caractérisation par les distributions de probabilités
Deux variables aléatoires X et Y sont indépendantes si et seulement si la distribution de probabilités du couple
(X, Y ) est le produit des distributions de probabilités de X et de Y : ∀(a, b) ∈ E 2 , P (X, Y ) = (a, b) = P(X =


a)P(Y = b).

On en déduit que :
Proposition 16.32 : produit de lois marginales
La loi conjointe P(X1 ,X2 ) du couple X = (X1 , X2 ) de deux variables aléatoires indépendantes X1 et X2 est égale
au produit des lois marginales :

∀(x1 , x2 ) ∈ X(Ω) = (X1 , X2 )(Ω), P(X1 ,X2 ) (x1 , x2 ) = PX1 (x1 )PX2 (x2 ).

Remarque 16.33 :
• Si P(X1 ,X2 ) est connue alors PX1 et PX2 sont connues (proposition 16.26).
• Si PX1 et PX2 sont connues et si X1 et X2 sont indépendantes, alors P(X1 ,X2 ) est connue (proposition 16.32).

Proposition 16.34 : fonctions de variables aléatoires indépendantes


Soit X et Y deux variables aléatoires définies sur (Ω, T , P) à valeurs dans un ensemble E, f et g deux fonctions de
E dans un ensemble F .
Si X et Y sont indépendantes, alors f (X) et g(Y ) le sont aussi :

X⊥
⊥Y =⇒ f (X) ⊥
⊥ g(Y ).

Ces notions peuvent être étendues au cas d’une famille finie de variables aléatoires :
Définition 16.35 : famille finie de variables aléatoires indépendantes
Les variables aléatoires X1 , . . . , Xn définies sur (Ω, T , P) à valeurs dans E, sont dites mutuellement indépendantes
lorsque, pour tout n-uplet (A1 , . . . , An ) de parties de E, les événements (X1 ∈ A1 ), . . . , (Xn ∈ An ) sont mutuellement
indépendants, c’est-à-dire :
n
\ Yn

P (Xi ∈ Ai ) = P(Xi ∈ Ai ).
i=1 i=1

On dit aussi que la famille (X1 , . . . , Xn ) est indépendante.


Remarque 16.36 :
L’indépendance mutuelle implique l’indépendance deux à deux, mais la réciproque est fausse.
Comme dans le cas de deux variables, on peut se ramener aux distributions de probabilités : une famille finie
(X1 , . . . , Xn ) est indépendante si et seulement si la distribution de probabilités du n-uplet (X1 , . . . , Xn ) est le produit
des distributions de probabilités des Xi . De plus, pour toutes fonctions f1 , . . . , fn de E dans F : si la famille
(X1 , . . . , Xn ) est indépendante, alors il en est de même de la famille f1 (X1 ), . . . , fn (Xn ) .


Fénelon Sainte-Marie – La Plaine-Monceau 191/244 31 août 2022


16.2. COUPLES DE VARIABLES ALÉATOIRES MP 2022-23

16.2.3 Famille quelconque de variables aléatoires indépendantes


Définition 16.37 : famille quelconque de variables aléatoires indépendantes
Une famille quelconque (Xi )i∈I de variables aléatoires définies sur (Ω, T , P) est dite indépendante lorsque pour
toute partie finie J de I, la sous-famille (Xj )j∈J est indépendante.
Si I = N, alors on parle de suite de variables aléatoires indépendantes.
Proposition 16.38 : caractérisation d’une suite de variables aléatoires indépendantes
Soit (Xi )i∈N une suite de variables aléatoires. Cette suite est une suite de variables aléatoires indépendantes si et
seulement si, pour tout entier n ≥ 1, les variables aléatoires (Xi )0≤i≤n sont indépendantes.

Proposition 16.39 : une CNS d’indépendance de variables aléatoires de Bernoulli


Soit (Xi )i∈N une suite de variables aléatoires de Bernoulli (X à valeurs dans {0, 1}).
Alors : les variables aléatoires (Xi )i∈N sont indépendantes si et seulement si les événements (Xi = 1), i ∈ I, sont
indépendants.

Exemple 16.40 :
Revenons sur un exemple du chapitre 15 formulé en termes de variables aléatoires de Bernoulli.
On lance deux dés et on introduit les trois variables aléatoires de Bernoulli X1 , X2 , X3 définies par : [X1 = 1] si le
premier dé donne un résultat pair ; [X2 = 1] si le second dé donne un résultat pair ; [X3 = 1] si la somme des numéros
des deux dés est paire.
Vérifier que les trois événements [X1 = 1], [X2 = 1] et [X3 = 1] sont deux à deux indépendants mais pas
mutuellement indépendants.

Théorème 16.41 : lemme des coalitions


Soit X1 , . . . , Xn n variables aléatoires discrètes réelles indépendantes.
Alors toute fonction de X1 , . . . , Xk est indépendante de toute fonction de Xk+1 , . . . , Xn .
Plus précisément, supposons que X1 , . . . , Xn , sont définies sur Ω et à valeurs dans E, mutuellement indépendantes
et soit F un ensemble quelconque. Pour tout m ∈ [[1, n − 1]], soit f une application de E m dans F et g une application
de E n−m dans F . Alors les variables aléatoires Y1 = f (X1 , . . . , Xm ) et Y2 = g(Xm+1 , . . . , Xn ) sont indépendantes.

On peut généraliser ce résultat en envisageant n’importe quelle partition des indices de 1 à n : pour tous entiers
0 < m1 < m2 < · · · < mk (où mk = n) et toutes fonctions f1 , f2 , . . . , fk , les variables aléatoires Y1 = f1 (X1 , . . . , Xm1 ),
Y2 = f2 (Xm1 +1 , . . . , Xm2 ), . . . , Yk = fk (Xmk−1 +1 , . . . , Xmk ) sont indépendantes.

16.2.4 Expériences aléatoires indépendantes


Étant donné une suite de lois de probabilités donnée, le problème est de savoir s’il existe toujours un espace
probabilisé (Ω, T , P) et une suite de variables aléatoires indépendantes (Xn )n∈N admettant ces lois. Le théorème
suivant, que le programme officiel nous demande d’admettre sans démonstration, répond par l’affirmative à cette
question.
Théorème 16.42 : suite d’épreuves indépendantes d’une expérience aléatoire
Soit E un ensemble et (pn )n∈N une suite de distributions de probabilités sur E. Alors il existe un espace probabilisé
(Ω, T , P) et une suite de variables aléatoires indépendantes (Xn )n∈N définies sur cet espace, à valeurs dans E, telle
que pour tout n ∈ N la loi de probabilité de Xn soit pn .
Néanmoins ce n’est pas trop dans l’esprit de la Prépa de parachuter un énoncé sans au moins une esquisse de
démonstration. . . Voici le début de la théorie menant à la démonstration de ce théorème.

Considérations heuristiques

On dit généralement que deux expériences aléatoires sont indépendantes quand il n’y a aucun lien de causalité
entre elles. Par exemple :

Fénelon Sainte-Marie – La Plaine-Monceau 192/244 31 août 2022


CHAPITRE 16. VARIABLES ALÉATOIRES MP 2022-23

1. On lance un dé (expérience E1 ) puis on lance une pièce de monnaie (expérience E2 ). Il est clair que les expériences
E1 et E2 sont indépendantes car il n’y a aucune raison pour que le résultat de E1 influe d’une façon ou d’une
autre sur celui de E2 et inversement.
2. On lance un dé (expérience E1 ) puis on relance le dé une deuxième fois dans les mêmes conditions (expérience
E2 ). Ici aussi E1 et E2 sont indépendantes.
Soient donc E1 et E2 des expériences aléatoires indépendantes, A1 un événement relatif à E1 et A2 un événement
relatif à E2 . On est en droit de postuler l’indépendance des événements A1 et A2 .
Plus généralement, quand n événements A1 , . . . , An sont relatifs respectivement à des expériences aléatoires
indépendantes E1 , . . . , En , on postulera l’indépendance de ces événements et le fait que

P(A1 ∩ · · · ∩ An ) = P(A1 ) · · · P(An ).

Mais un problème mathématique subsiste : de quel espace probabilisé (Ω, T, P) les Ai sont-ils des événements et quelle
est la probabilité P ?
Des questions analogues se posent lorsqu’on enchaîne une infinité dénombrable de fois des expériences aléatoires
indépendantes, par exemple lorsqu’on répète une infinité de fois une même expérience.
Pour répondre à ces questions nous allons maintenant définir les notions nécessaires à la modélisation d’un tel
problème.

Produit fini d’espaces probabilisés


Soient (Ωi , Ti , Pi ) des espaces probabilisés. Considérons le produit cartésien

Ω = Ω1 × Ω2 × · · · × Ωn .

Définition 16.43 : tribu produit (produit fini)


1. Les sous-ensembles de Ω de la forme A1 × · · · × An où, pour tout i ∈ [[1, n]] Ai ∈ Ti , s’appellent pavés mesurables
de Ω.
2. La tribu T sur Ω engendrée 1 par les pavés mesurables s’appelle la tribu produit des tribus Ti et on la note

T = T 1 × · · · × Tn .

Exemple 16.44 :
Considérons deux espaces probabilisables (Ωi , Ti ) pour i ∈ {1, 2}, munis chacun d’une tribu : Ti = {∅, Ωi , Ai , Ai }.
Décrire les 16 pavés mesurables. Déterminer ensuite la tribu produit.

Le théorème permettant de définir une probabilité sur cette nouvelle tribu produit est admis par le programme :
Théorème 16.45 : probabilité produit
Il existe une unique probabilité P sur la tribu produit T telle que pour tout pavé mesurable A = A1 × · · · × An
n
Y
P(A) = Pi (Ai ).
i=1

Cette probabilité s’appelle la probabilité produit des probabilités Pi et on la note

P = P1 ⊗ · · · ⊗ Pn .

Définition 16.46 : espace probabilisé produit (produit fini)


1. i.e. la plus petite tribu de parties de Ω qui existe contenant les pavés mesurables puisque c’est l’intersection de toutes les tribus de
Ω qui contiennent lesdits pavés.

Fénelon Sainte-Marie – La Plaine-Monceau 193/244 31 août 2022


16.2. COUPLES DE VARIABLES ALÉATOIRES MP 2022-23

L’espace (Ω, T , P), où Ω = Ω1 ×· · ·×Ωn , T = T1 ×· · ·×Tn et P = P1 ⊗· · ·⊗Pn , s’appelle l’espace probabilisé produit
des espaces probabilisés (Ωi , Ti , Pi ), i ∈ [[1, n]].
La notion d’espace produit permet de modéliser correctement la notion d’expériences aléatoires indépendantes
introduite plus haut.
Considérons en effet n expériences aléatoires Ei , i ∈ [[1, n]] indépendantes (au sens donné en début de sous-section)
et supposons que Ei est modélisée par un espace probabilisé (Ωi , Ti , Pi ). Soit E l’expérience aléatoire « E1 puis E2 puis
. . . puis En » consistant en la succession des diverses expériences indépendantes Ei .
On modélise alors l’expérience E par l’espace probabilisé produit (Ω, T, P) des espaces probabilisés (Ωi , Ti , Pi ).
Remarque 16.47 :
Avec les notations précédentes, soit Ai ∈ Ti un événement relatif à la i-ème expérience. Il s’identifie naturellement
à l’événement
Ãi = Ω1 × · · · × Ωi−1 × Ai × Ωi+1 × · · · × Ωn

de la tribu produit T . Ces événements sont indépendants dans l’espace produit puisque
  n
Y n
Y  
P Ã1 ∩ Ã2 ∩ · · · ∩ Ãn = P(A1 × A2 × · · · × An ) = Pi (Ai ) = P Ãi .
i=1 i=1

On a donc bien construit un espace probabilisé dans lequel les événements associés à des expériences aléatoires
indépendantes sont naturellement vus comme des événements mutuellement indépendants.
Voyons maintenant le cas d’un produit infini d’espaces probabilisés, dans un contexte restreint.

Exemple de produit infini d’espaces probabilisés

Il n’est pas possible de généraliser la notion d’espace probabilisé produit définie ci-dessus au cas d’une infinité
dénombrable (Ωi , Ti , Pi ), i ∈ N, d’espaces probabilisés quelconques.
On peut toujours généraliser la notion de tribu produit mais c’est la probabilité produit qui pose problème si on
ne fait pas certaines hypothèses sur la structure des espaces Ωi et des tribus Ti . Ceci nécessiterait de développer des
notions qui dépassent le cadre de ce cours.
Nous allons donc seulement considérer un cas particulier très important dans la pratique : soit E un ensemble
fini, P(E) la tribu de toutes les parties de E et P une probabilité sur P(E). Le triplet (E, P(E), P) modélisant une
expérience aléatoire E a un nombre fini d’issues. Considérons le produit cartésien
+∞
Y ∗
Ω = E × E × ··· × E × ··· = E = EN
i=1

d’une infinité dénombrable de copies de l’ensemble E. L’ensemble Ω est l’ensemble des suites infinies (xn )n∈N∗ d’élé-
ments de E.
Définition 16.48 : tribu cylindrique
+∞
Y
1. On appelle ensembles cylindriques ou plus simplement cylindres les sous-ensembles de Ω de la forme C = Ai ,
i=1
tels que Ai ⊂ E et Ai = E à partir d’un certain rang :

C = A1 × · · · × An C × E × E × · · · × E × · · ·

2. On appelle tribu cylindrique la tribu sur Ω engendrée par les cylindres. On la notera T .

Le théorème suivant, admis par le programme, permet de définir une probabilité sur T vérifiant les conditions
souhaitées.
Théorème 16.49 : une probabilité sur la tribu cylindrique

Fénelon Sainte-Marie – La Plaine-Monceau 194/244 31 août 2022


CHAPITRE 16. VARIABLES ALÉATOIRES MP 2022-23

Il existe une unique probabilité P sur la tribu cylindrique T telle que, pour tout cylindre de la forme C =
A1 × · · · × AnC × E × · · · , on ait
nC
Y
P(C) = P(Ai ).
i=1

Remarque 16.50 :
Comme dans le cas d’un produit fini d’espaces probabilisés, on voit que des événements relatifs à des coordonnées
différentes, sont des événements indépendants pour la probabilité P.
Ce cadre convient à l’étude d’une infinité d’expériences indépendantes. L’expérience aléatoire consistant en une
infinité de répétitions indépendantes de l’expérience aléatoire E représentée par (E, P(E), P) est en effet modélisée par
l’espace probabilisé (Ω, T , P).
Exemple 16.51 :
1. On lance une infinité de fois une pièce de monnaie équilibrée. Ici, E = {P, F }, et P est la probabilité uniforme.
Le théorème assure donc que l’on peut définir un espace probabilisé (Ω, T , P) où Ω est l’ensemble des suites à
valeurs dans {P, F }.
Par ailleurs la probabilité d’obtenir une suite donnée de Piles ou Faces aux n0 > 0 premiers lancers et n’importe
1
quel résultat à partir du rang n0 + 1, est égale à n0 .
2
Pour tout n ∈ N∗ , au n-ième lancer, on peut également introduire la variable aléatoire de Bernoulli Xn (égale à
1 si l’on obtient Pile et 0 sinon). On définit ainsi une suite (Xn )n∈N∗ de variables aléatoires telles que :
n0
!
Y 1
P [Xk = xk ] = n0 .
2
k=1

pour tout n0 > 0 et toute suite (xk )k∈[[1,n0 ]] de {0, 1}n0 .


2. Temps d’attente du premier succès.
On considère une expérience aléatoire à deux issues : S(=succès) et E(=échec), avec P(S) = p (donc P(E) = 1−p).
On répète de manière indépendante l’expérience aléatoire jusqu’au premier succès.

(a) Calculer la probabilité d’obtenir le premier succès à la k-ième tentative (événement noté Ak ) (k ≥ 1).
(b) Préciser l’espace probabilisé dans lequel on peut modéliser le jeu et montrer que l’événement Ak de la
question 1) est un événement cylindrique.
(c) Quelle est la probabilité que le succès n’arrive jamais ?

16.3 Espérance
16.3.1 Définitions et premières propriétés
En Sup, nous avons défini pour une variable aléatoire X réelle et prenant pour valeurs x1 , . . . , xn , l’espérance de
X grâce à la formule :
Xn Xn
E(X) = xi PX (xi ) = xi P([X = xi ]).
i=1 i=1

Nous allons généraliser cette notion aux variables aléatoires réelles. La variable aléatoire X prend désormais un
nombre quelconque de valeurs (fini, dénombrable, ou non dénombrable). On la suppose pour le moment et pour plus
de commodité à valeurs positives : X(Ω) = {xk/ k ∈ N} avec xk ≥ 0 pour tout k. L’espérance de X est alors par
définition la somme (finie ou non) de la famille xk P([X = xk ]) .
k∈N
Définition 16.52 : espérance d’une variable aléatoire

Fénelon Sainte-Marie – La Plaine-Monceau 195/244 31 août 2022


16.3. ESPÉRANCE MP 2022-23

 
Soit X une variable aléatoire réelle. On dit que X est d’espérance finie lorsque la famille xP (X = x) est
x∈X(Ω)
X
sommable. Sa somme E(X) = xP (X = x) est appelée espérance de X.
x∈X(Ω)
On notera L1 l’ensemble des variables aléatoires réelles admettant une espérance. L’écriture « X ∈ L1 » signifie
que X admet une espérance.
 
Lorsque la famille xP(X = x) n’est pas sommable (mais quand même à termes positifs), on dit parfois
x∈X(Ω)
que X admet une espérance infinie.
Remarque 16.53 :

• Une variable aléatoire prenant un nombre fini de valeurs admet toujours une espérance.
• Une variable aléatoire prenant un nombre dénombrable de valeurs n’admet pas toujours une espérance !

Exemple 16.54 :
Déterminer l’espérance de X, si elle existe, dans chacun des trois cas suivants :
1. On lance deux dés et on note X la variable aléatoire égale à la somme des numéros apparaissant sur les deux
dés.
2. Soit X une variable aléatoire prenant les valeurs n ∈ N∗ avec les probabilités :

1
P([X = n]) = .
n(n + 1)

3. Soit une variable aléatoire X prenant les valeurs n ∈ Z∗ avec les probabilités :

1
P(X = n) = .
2|n|(|n| + 1)

Lemme 16.55 : espérance d’une variable aléatoire indicatrice


Soit 1IA la variable aléatoire indicatrice de l’événement A.
Alors 1IA admet une espérance et E(1IA ) = P(A).

Proposition 16.56 : espérance de VAR équiréparties (PX = PY ⇒ E(X) = E(Y ))


Deux variables aléatoires réelles équiréparties admettant une espérance ont la même espérance (finie ou infinie).
En d’autres termes : soit X et Y sont deux variables aléatoires réelles telles que X(Ω) = Y (Ω0 ). On suppose que
X et Y ont même loi de probabilité (PX = PY ). Alors E(X) = E(Y ).

Proposition 16.57 : espérance d’une variable aléatoire à valeurs entières


+∞
X
Pour toute variable aléatoire X à valeurs dans N admettant une espérance finie : E(X) = P(X ≥ n).
n=1

Définition 16.58 : VA centrée


Une variable aléatoire réelle admettant une espérance nulle est dite centrée.
Remarque 16.59 :
Une variable aléatoire X constante de valeur k admet une espérance, de valeur k !

16.3.2 Encore des propriétés de l’espérance


Théorème 16.60 : théorème de transfert
Soit X une variable aléatoire et f une fonction définie sur X(Ω) et à valeurs réelles.

Fénelon Sainte-Marie – La Plaine-Monceau 196/244 31 août 2022


CHAPITRE 16. VARIABLES ALÉATOIRES MP 2022-23

 
Alors : la variable aléatoire f (X) a une espérance finie si et seulement si la famille f (x)P(X = x) est
x∈X(Ω)
sommable. Dans ce cas : X
E(f (X)) = f (x)P(X = x).
x∈X(Ω)

Remarque 16.61 :
1. Le théorème de transfert nous donne une démonstration très courte de la linéarité de l’espérance. En effet il
vient λX + µY = f ◦ (X, Y ) où f (x, y) = λx + µy et X, Y sont deux variables aléatoires, donc sous réserve
d’existence :
X  
E(λX + µY ) = E(f (X, Y )) = (λx + µy)P (X, Y ) = (x, y)
(x,y)
X
= (λx + µy)P([X = x] ∩ [Y = y])
(x,y)
X X
= λ xP([X = x] ∩ [Y = y]) + µ yP([X = x] ∩ [Y = y])
(x,y) (x,y)
X X X X
= λ x P([X = x] ∩ [Y = y]) + µ y P([X = x] ∩ [Y = y])
x y y x
X X
= λ xP ([X = x]) + µ yP([Y = y]) (FPT)
x y
= λE(X) + µE(Y ).

2. Ce théorème prouve par la même occasion qu’il n’est pas nécessaire de déterminer la loi de f (X) pour calculer
l’espérance de f (X) : on n’a besoin que de connaître la loi de X et la fonction f .

Exemple 16.62 :
1 2 2
Soit X une variable aléatoire ne prenant que les valeurs −1, 0 et 1 avec les probabilités , et .
9 9 3
Alors X 2 a pour espérance (en posant f (x) = x2 ) :
1 2 2 7
E(X 2 ) = f (−1)P(X = −1) + f (0)P(X = 0) + f (1)P(X = 1) = 1 × +0× +1× = .
9 9 3 9

La propriété de linéarité de l’espérance vue en Sup se généralise :


Théorème 16.63 : linéarité de l’espérance
1. L’ensemble L1 des variables aléatoires de Ω dans R et d’espérance finie est un espace vectoriel.
2. L’application espérance E : L1 → R, qui associe à une variable aléatoire son espérance, est une forme linéaire.

Définition 16.64 : variable aléatoire centrée associée à une VA


Soit X une variable aléatoire réelle admettant une espérance finie. Alors E(X − E(X)) = 0.
La variable aléatoire discrète réelle X − E(X) est appelée variable centrée associée à X.
Proposition 16.65 : positivité et croissance de l’espérance
1. L’application espérance E est positive : si X ∈ L1 et X(Ω) ⊂ R+ , alors E(X) ≥ 0.
2. L’application espérance est croissante : si (X, Y ) ∈ (L1 )2 et X ≤ Y alors E(X) ≤ E(Y ).

Exemple 16.66 :
On lance deux dés. On note X et Y le minimum et le maximum obtenus sur les faces des deux dés. On a ainsi
X ≤ Y et donc E(X) ≤ E(Y ).

Fénelon Sainte-Marie – La Plaine-Monceau 197/244 31 août 2022


16.3. ESPÉRANCE MP 2022-23

La propriété suivante sera utile lors de l’étude de la variance d’une somme :


Proposition 16.67 : toute VA absolument majorée par une VA à espérance a une espérance
Soit X et Y deux variables aléatoires réelles. On suppose que Y admet une espérance finie et que 0 ≤ X ≤ Y .
Alors X a une espérance finie.

Proposition 16.68 : inégalité de Markov


Soit X une variable aléatoire réelle positive admettant une espérance finie. Alors pour tout a > 0 :
E(X)
P([X ≥ a]) ≤ .
a

Proposition 16.69 : espérance d’un produit de VADR indépendantes


Soit X et Y deux variables aléatoires réelles. On suppose que X et Y sont indépendantes et admettent chacune
une espérance finie.
Alors la variable aléatoire XY admet une espérance finie et :
E(XY ) = E(X)E(Y ).

Remarque 16.70 :
La réciproque de cette proposition est fausse. Il se peut E(XY ) = E(X)E(Y ) sans que X et Y soient indépendantes.

Exemple 16.71 :
1
Considérons X la variable aléatoire de loi uniforme sur {−1, 0, 1} (P(X = −1) = P(X = 0) = P(X = 1) = ) et
3
Y = X 2 . Démontrer que E(XY ) = E(X)E(Y ) avec X et Y non indépendantes.

Généralisons au produit de n variables aléatoires indépendantes :


Proposition 16.72 : espérance d’un produit de variables aléatoires indépendantes
Soit X1 , . . . , Xn des variables aléatoires réelles.
Supposons qu’elles sont mutuellement indépendantes et qu’elles admettent chacune une espérance finie.
Alors la variable aléatoire Yn = X1 · · · Xn admet une espérance finie et :
n
! n
Y Y
E Xi = E(Xi ).
i=1 i=1

Remarque 16.73 :
Attention, il ne suffit pas que les variables aléatoires soient seulement indépendantes deux à deux.
Exemple 16.74 :
Revenons sur l’exemple 16.40. On considère un lancer de deux dés et les variables X, Y , Z de Bernoulli définies
par : (X = 1) lorsque le premier dé donne un résultat pair ; (Y = 1) lorsque le second dé donne un résultat pair ;
(Z = 1) lorsque la somme des résultats des deux dés donne un résultat pair. Les variables aléatoires X, Y et Z sont
1 1
indépendantes deux à deux, mais E(XY Z) = et E(X)E(Y )E(Z) = .
4 8
1. Il est clair que X et Y sont indépendantes.
2. Prouvons que X et Z sont indépendantes.
1 1 1
D’une part P(X = i)P(Z = j) = × = . D’autre part, comme déjà vu, l’événement [X = 1] ∩ [Z = 1] n’est
 2 2 4  1
réalisé que pour P P , donc P [X = 1] ∩ [Z = 1] = .
4
Puisque X et Z sont des variables de Bernoulli, ceci suffit à prouver leur indépendance (d’après la proposi-
tion 16.39).

Fénelon Sainte-Marie – La Plaine-Monceau 198/244 31 août 2022


CHAPITRE 16. VARIABLES ALÉATOIRES MP 2022-23

3. De même Y et Z sont indépendantes.


4. Calcul des espérances :

XY Z(P P ) = 1 × 1 × 1 = 1, XY Z(P I) = 1 × 0 × 0 = 0,
XY Z(IP ) = 0 × 1 × 0 = 0, XY Z(II) = 0 × 0 × 1 = 0,

donc X 1
E(XY Z) = xP(XY Z = x) = 1 × P(XY Z = 1) + 0 × P(XY Z = 0) = ,
4
x∈{0,1}

1
alors que E(X)E(Y )E(Z) = .
8

16.3.3 Moments
Définition 16.75 : moment d’ordre m (hors programme)
Soit X une variable aléatoire réelle et m ∈ N∗ . Si X m admet une espérance finie, on dit que X admet un
moment d’ordre m, et ce moment d’ordre m est E(X m ).
Remarque 16.76 :
1. Dire que X admet un moment d’ordre 1 signifie donc que X admet tout simplement une espérance !
2. Lorsque X admet un moment d’ordre 2 nul, alors P(X = 0) = 1 c’est-à-dire X = 0 presque sûrement.
X
En effet E(X 2 ) = x2 P(X = x). Si E(X 2 ) = 0 alors pour tout x 6= 0 il vient P(X = x) = 0. Or
x∈X(Ω)
 
(X = x) forme un SCE, donc P(X = 0) = 1.
x∈X(Ω)

On désigne par L2 l’ensemble des variables aléatoires X telles que X 2 est d’espérance finie.
Proposition 16.77 : E(X 2 ) est finie ⇒ E(X) est finie, ou encore L2 ⊂ L1
Soit X une variable aléatoire réelle admettant un moment d’ordre deux. Alors X admet une espérance finie.

Remarque 16.78 :
Cette propriété peut facilement être généralisée : l’existence d’un moment d’ordre m entraîne les existences des
moments d’ordre n ≤ m. Ceci repose sur l’inégalité xn−1 ≤ xn + 1.
En d’autres termes L1 ⊃ L2 ⊃ · · · ⊃ Ln .
Théorème 16.79 : inégalité de Cauchy-Schwarz
Soit X et Y deux variables aléatoires dans L2 .
Alors XY ∈ L1 et E(XY )2 ≤ E(X 2 )E(Y 2 ).
Par ailleurs l’égalité est obtenue si et seulement si X et Y sont presque partout colinéaires, c’est-à-dire colinéaires
sauf éventuellement sur un ensemble négligeable.
Enfin l’application (X, Y ) 7→ E(XY ) est une forme bilinéaire symétrique positive sur L2 × L2 .

On déduit de cette proposition le résultat suivant :


Proposition 16.80 : l’espace L2
L’ensemble L2 est un sous-espace vectoriel de l’espace vectoriel L1 .

On a défini l’espérance, qui est une moyenne des valeurs prises par une variable aléatoire X, pondérée par les
probabilités. On définit maintenant une quantité permettant de mesurer l’écart autour de cette moyenne, c’est-à-dire
l’écart autour de l’espérance.
Définition 16.81 : variance
Soit X une variable aléatoire réelle élément de L2 . On définit alors la variance de X, notée V (X), par :
 
V (X) = E (X − E(X))2

Fénelon Sainte-Marie – La Plaine-Monceau 199/244 31 août 2022


16.3. ESPÉRANCE MP 2022-23

et l’écart-type de X par : p
σ(X) = V (X).

Remarque 16.82 :
1. Une variable aléatoire ne prenant qu’un nombre fini de valeurs admet toujours une espérance, des moments à
tout ordre et donc une variance.
2. La définition de la variance a un sens.
En effet X étant dans L2 est également dans L1 , ainsi en posant m = E(X) : la variable aléatoire (X − m)2 =
X 2 − 2mX + m2 admet bien une espérance.

Proposition 16.83 : formule de König-Huygens


Soit X une variable aléatoire réelle et élément de L2 . Alors :
1. Formule de König-Huygens : V (X) = E(X 2 ) − E(X)2 .
2. Pour tous réels a et b, σ(aX + b) = |a|σ(X) et V (aX + b) = a2 V (X).

Définition 16.84 : variable réduite, variable centrée réduite


Soit X une variable aléatoire réelle et élément de L2 et d’écart-type σ(X) > 0.
1
1. La variable aléatoire X a alors un écart-type égal à 1.
σ(X)
Elle est appelée variable réduite associée à X.
X − E(X)
2. La variable aléatoire a une espérance nulle et un écart-type égal à 1.
σ(X)
Elle est appelée variable centrée réduite associée à X.

Remarque 16.85 :
Si X est une variable aléatoire réelle admettant un écart-type nul, alors X est presque sûrement égale à une variable
aléatoire constante : P(X = E(X)) = 1.   
En effet si σ(X) = 0 alors E (X − E(X))2 = 0 donc P (X − E(X))2 = 0 = 1 c’est-à-dire P(X = E(X)) = 1.

Théorème 16.86 : inégalité de Bienaymé-Tchebychev


Soit X une variable aléatoire réelle et élément de L2 . Alors :
V (X)
∀ε > 0, P(|X − E(X)| ≥ ε) ≤ .
ε2

Remarque 16.87 :
La quantité P(|X − E(X)| ≥ ε) est la probabilité que X prenne des valeurs dont la distance à E(X) est supérieure
ou égale à ε. Cette probabilité est d’autant plus faible que ε est grand et que V (X) est petit (la variance mesure la
dispersion des valeurs prises par X).
Définition 16.88 : covariance
Soit X et Y deux variables aléatoires réelles et éléments de L2 .
On appelle covariance de X et de Y le nombre réel
 
cov(X, Y ) = E (X − E(X))(Y − E(Y )) ,

qui existe puisque X, Y et XY admettent de fait une espérance (cf. proposition 16.77 et théorème 16.79).
Proposition 16.89 : existence de la covariance
Soit X et Y deux variables aléatoires réelles et éléments de L2 .

Fénelon Sainte-Marie – La Plaine-Monceau 200/244 31 août 2022


CHAPITRE 16. VARIABLES ALÉATOIRES MP 2022-23

Alors la covariance de X et de Y existe et on a :

cov(X, Y ) = E(XY ) − E(X)E(Y ).

La définition de la covariance et de la linéarité de l’espérance permettent d’obtenir les règles de calcul ci-dessous :
Proposition 16.90 : propriétés de la covariance
Soit X , X 0 , Y et Y 0 quatre variables aléatoires réelles et éléments de L2 . Fixons a, b, c, d quatre réels. Alors :
1. cov(Y, X) = cov(X, Y ).
2. cov(X, X) = V (X).
3. cov(aX + b, cY + d) = ac cov(X, Y ).
4. cov(aX + bX 0 , cY + dY 0 ) = ac cov(X, Y ) + bc cov(X 0 , Y ) + ad cov(X, Y 0 ) + bd cov(X 0 , Y 0 ).

Remarque 16.91 :
La covariance est donc une forme bilinéaire symétrique positive sur l’espace vectoriel des variables aléatoires réelles
admettant un moment d’ordre deux.
Proposition 16.92 : deux variables aléatoires indépendantes sont de covariance nulle
Soit X et Y deux variables aléatoires réelles.
Si X et Y sont indépendantes et éléments de L2 , alors cov(X, Y ) = 0.

Remarque 16.93 :
La contraposée de cette proposition est souvent utilisée : si cov(X, Y ) 6= 0 alors X et Y ne sont pas indépendantes.
Attention : si cov(X, Y ) = 0, on ne peut rien conclure quant à l’indépendance de X et Y .
Définition 16.94 : VA non corrélées
Soit X et Y deux variables aléatoires admettant une covariance nulle.
On dit alors que les variables X et Y sont non corrélées.
Proposition 16.95 : variance de la somme
Soit X et Y deux variables aléatoires réelles. Si elles sont dans L2 , alors :
1. La variable aléatoire X + Y a un moment d’ordre deux et V (X + Y ) = V (X) + V (Y ) + 2 cov(X, Y ).
2. Si X et Y sont indépendantes, alors V (X + Y ) = V (X) + V (Y ).

Ce résultat se généralise par récurrence sans difficulté.


Proposition 16.96 : variance d’une somme de variables aléatoires
Soit X1 , . . . , Xn des variables aléatoires réelles.
On suppose qu’elles sont toutes dans L2 . Alors :
1. La variable X1 + · · · + Xn admet une variance et :
n
X X
V (X1 + · · · + Xn ) = V (Xi ) + 2 cov(Xi , Xj ).
i=1 1≤i<j≤n

2. Si les variables X1 , . . . , Xn sont deux à deux indépendantes (pas besoin qu’elles soient mutuellement indépen-
dantes), alors :
n
X
V (X1 + · · · + Xn ) = V (Xi ).
i=1

Remarque 16.97 :
Cette propriété implique que la variance d’une somme de variables aléatoires (réelles et admettant toutes un
moment d’ordre deux) est la somme des variances dès que les variables aléatoires sont deux à deux non corrélées.

Fénelon Sainte-Marie – La Plaine-Monceau 201/244 31 août 2022


16.4. LOI FAIBLE DES GRANDS NOMBRES MP 2022-23

16.4 Loi faible des grands nombres


Théorème 16.98 : loi faible des grands nombres
Soit (Xn )n∈N∗ une suite de variables aléatoires réelles deux à deux indépendantes.
On suppose que :
1. Elles sont toutes dans L2 .
2. Elles sont toutes de même loi de probabilités : ∀(i, j), PXi = PXj .
n
X
On note m l’espérance commune à toutes ces variables aléatoires Xn et Sn = Xi . Alors :
i=1
 
Sn
∀ε > 0, lim P
− m ≥ ε = 0.

n→+∞ n
 
Sn
On dit que la suite converge en probabilité vers la variable constante égale à m.
n n

Remarque 16.99 :
L’inégalité démontrée sous les hypothèses précédentes :
σ2
 
Sn
P − m ≥ ε ≤

n nε2
est importante et souvent utilisée en exercice, donc il convient de savoir la retrouver.
Exemple 16.100 :
On considère une suite d’épreuves indépendantes.
Fixons un événement A, de probabilité p. On note Xn la variable de Bernoulli égale à 1 lorsque A est réalisé à la
n-ième épreuve. Les variables (Xn )n∈N∗ sont indépendantes et de même loi, d’espérance p. La fréquence, notée Fn ,
Sn
de réalisation de l’événement A au cours des n premières épreuves est égale à la variable aléatoire . D’après la loi
n
faible des grands nombres :
∀ε > 0, lim P(|Fn − p| ≥ ε) = 0.
n→+∞

Ainsi, la fréquence tend en probabilité vers p, ce qui semble naturel.

16.5 Fonctions génératrices


Définition 16.101 : fonction génératrice
Soit X une variable aléatoire à valeurs dans N. On définit la fonction génératrice GX de X par :
+∞
X
GX (t) = E(tX ) = P([X = k])tk
k=0

pour les valeurs réelles de t telles que la variable aléatoire tX admet une espérance finie.
Remarque 16.102 :
L’application tX , à t réel fixé, est une variable aléatoire réelle dont l’espérance est obtenue en utilisant le théorème
de transfert.
Proposition 16.103 : propriétés de la série génératrice d’une variable aléatoire
Soit X une variable aléatoire à valeurs dans N. Alors :
1. Le rayon R de convergence de la série entière GX est supérieur ou égal à 1.
2. Soit k ∈ N. Alors :
(k)
GX (0)
P([X = k]) = .
k!

Fénelon Sainte-Marie – La Plaine-Monceau 202/244 31 août 2022


CHAPITRE 16. VARIABLES ALÉATOIRES MP 2022-23

3. Si R > 1, alors X admet un moment d’ordre k pour tout k ∈ N∗ et :


 
(k)
G0X (1) = E(X), G00X (1) = E(X(X − 1)), GX (1) = E X(X − 1) · · · (X − k + 1) .

Dans ce cas V (X) = G00X (1) + G0X (1) − G0X (1)2 .

Remarque 16.104 :
Grâce à la proposition précédente, on déduit que deux variables aléatoires ayant des fonctions génératrices égales
sur un intervalle ouvert centré en 0 sont équiréparties : GX = GY ⇒ PX = PY . Elles ne sont pas pour autant égales !

Dans le cas où l’on suppose seulement R ≥ 1, les propriétés sur les séries entières vont permettre de généraliser la
proposition précédente.
Proposition 16.105 : fonction génératrice, espérance et variance
Soit X une variable aléatoire à valeurs dans N. Alors :
1. La variable aléatoire X admet une espérance finie si et seulement si la série entière GX est dérivable en 1.
Dans ce cas : G0X (1) = E(X).
2. La variable aléatoire X admet un moment d’ordre deux si et seulement si GX est deux fois dérivable en 1.
Dans ce cas G00X (1) = E(X(X − 1)) et V (X) = G00X (1) + G0X (1) − G0X (1)2 .

Remarque 16.106 :
On peut généraliser ce résultat et montrer, pour tout entier n, que X admet un moment d’ordre n si et seulement
si GX admet une dérivée n-ième à gauche en 1. Dans ce cas :
 
(n)
E X(X − 1) · · · (X − n + 1) = GX (1).

Proposition 16.107 : fonction génératrice et somme


1. Soit X et Y deux variables aléatoires à valeurs dans N et indépendantes. Alors, pour tout t ∈] − 1, 1[ :

GX+Y (t) = GX (t)GY (t).

2. Soit n variables aléatoires X1 , . . . , Xn à valeurs dans N et mutuellement indépendantes.


Alors, sur l’intervalle ] − 1, 1[ :
Yn
GPni=1 Xi = GXi .
i=1

16.6 Lois usuelles


16.6.1 Loi de Bernoulli
Définition 16.108 : loi de Bernoulli
On dit qu’une variable aléatoire X suit une loi de Bernoulli de paramètre p, lorsque X ne prend que deux valeurs,
1 avec probabilité p et 0 avec probabilité 1 − p.
On a alors X(Ω) = {0, 1} et P([X = 1]) = p, P([X = 0]) = 1 − p.
On la note X ,→ B(p).
Proposition 16.109 : espérance, variance et fonction génératrice d’une loi binomiale
Soit X ,→ B(p). Alors E(X) = p, V (X) = p(1 − p), GX (t) = (1 − p) + tp.

Fénelon Sainte-Marie – La Plaine-Monceau 203/244 31 août 2022


16.6. LOIS USUELLES MP 2022-23

16.6.2 Loi binomiale


Définition 16.110 : loi binomiale
On dit qu’une variable aléatoire X suit une loi binomiale de paramètres (n, p), lorsque X représente le nombre de
succès au cours de n expériences de Bernoulli indépendantes
  et toutes de paramètre p.
n k
On a alors X(Ω) = [[0, n]] et P([X = k]) = p (1 − p)n−k .
k
On la note X ,→ B(n, p).
Proposition 16.111 : espérance, variance et fonction génératrice d’une loi binomiale
Soit X ,→ B(n, p). Alors E(X) = np, V (X) = np(1 − p), GX (t) = (q + pt)n .

16.6.3 Loi géométrique


Épreuve-type : on répète des épreuves de Bernoulli identiques et mutuellement indépendantes, jusqu’à l’apparition
du premier succès.
On s’intéresse à la variable X égale au rang du premier succès, c’est-à-dire au nombre d’épreuves nécessaires à la
réalisation du premier succès.
Remarque 16.112 :
Pour la loi binomiale, le nombre d’épreuves est connu. Ici, ce n’est pas le cas !
Définition 16.113 : loi géométrique
On dit que la variable aléatoire X suit une loi géométrique de paramètre p ∈]0, 1[ lorsque :
1. X(Ω) = N∗ .
2. P([X = k]) = p(1 − p)k−1 pour tout entier k > 0.
On note X ,→ G(p) et on pose q = 1 − p.
Remarque 16.114 :
1
On vérifie que cette définition a un sens, car la série géométrique de raison 1 − q est de somme .
p
Exemple 16.115 :
On lance une infinité de fois un dé jusqu’à l’obtention du premier 6. On note X la variable aléatoire égale au
1
nombre de lancers obtenus. Cette variable aléatoire X suit une loi géométrique de paramètre .
6
Proposition 16.116 : espérance, variance et fonction génératrice d’une loi géométrique
1 q pt 1
Soit X ,→ G(p). Alors E(X) = , V (X) = 2 , GX (t) = si |t| < .
p p 1 − qt q

Remarque 16.117 :
Intuitivement, l’expression de l’espérance peut se comprendre par le fait que, pour n épreuves, le nombre de succès
est approximativement np (n lancers, chacun ayant p comme probabilité de réussite) et que, pour obtenir le premier
n
succès, il faut s’attendre à effectuer épreuves.
np
Proposition 16.118 : absence de mémoire de la loi géométrique
La loi géométrique est la seule loi de probabilité à valeurs dans N∗ et vérifiant :

PX>n (X > n + m) = P(X > m) pour tous entiers m, n.

Remarque 16.119 :
Cette propriété se traduit en disant que la loi géométrique est sans mémoire : le nombre d’épreuves à répéter
jusqu’à l’obtention d’un premier succès est le même quel que soit le nombre d’épreuves effectuées auparavant.

Fénelon Sainte-Marie – La Plaine-Monceau 204/244 31 août 2022


CHAPITRE 16. VARIABLES ALÉATOIRES MP 2022-23

En considérant l’épreuve-type, l’égalité PX>n (X > n + m) = P(X > m) peut se traduire par « la probabilité qu’il
n’y ait pas encore eu de succès à l’instant n + m, sachant qu’il n’y en avait pas eu avant l’instant n, est égale à la
probabilité qu’il n’y ait pas eu de succès à l’instant m ».

16.6.4 Loi de Poisson


Définition 16.120 : loi de Poisson
On dit qu’une variable aléatoire X suit la loi de Poisson de paramètre λ > 0 lorsque :
1. X(Ω) = N.
λk
2. P([X = k]) = e−λ pour tout entier k.
k!
On note X ,→ P(λ).
Remarque 16.121 :
λk
est à termes positifs et de somme 1.
Cette définition a bien un sens, car la série de terme général e−λ
k!
Proposition 16.122 : espérance, variance et fonction génératrice d’une loi de Poisson
Soit X une variable aléatoire qui suit la loi de Poisson P(λ).
Alors E(X) = λ, V (X) = λ, GX (t) = eλ(t−1) .

Remarque 16.123 :
Soit X une variable aléatoire de loi de Poisson P(λ).
1. Alors X prend des valeurs assez petites, car la probabilité P([X = k]) est petite pour k grand.
Ceci justifie le fait que la loi de Poisson est souvent appelée « loi des événements rares ».
2. Nous avons effleuré en Terminale (sous la dénomination d’intervalle de fluctuation) le comportement asympto-
tique d’une suite de lois binomiales. Approfondissons la question :

Proposition 16.124 : approximation d’une limite de loi binomiale par une loi de Poisson
Soit (Xn )n∈N une suite de variables aléatoires telle que pour tout n, Xn suit une loi binomiale de paramètres
(n, pn ) : Xn ,→ B(n, pn ).
On suppose que lorsque n tend vers l’infini le produit n · pn des paramètres tend vers une limite λ > 0. Alors :

λk
∀k ∈ N, lim P(Xn = k) = e−λ .
n→+∞ k!

Remarque 16.125 :
Avec les notations de la proposition.
Soit X une variable aléatoire suivant une loi de Poisson de paramètre λ.
Alors lim E(Xn ) = lim npn = λ = E(X) et lim V (Xn ) = lim npn (1 − pn ) = λ = V (X).
n→+∞ n→+∞ n→+∞ n→+∞

Cette approximation d’une suite de lois binomiales par une loi de Poisson est très utile, car les lois de Poisson sont
plus facilement manipulables.
Remarque 16.126 :
Soit Xn une loi binomiale B(n, pn ). La variable aléatoire Xn représente le nombre de succès au cours de n expériences
de Bernoulli indépendantes de paramètres respectifs pn .
Or lim npn = λ donc la suite (pn )n tend vers 0 et ainsi la probabilité du succès des expériences de Bernoulli
n→+∞
tend vers 0.
En pratique, l’usage est de considérer l’approximation d’une loi binomiale B(n, p) par une loi de Poisson comme
valable dès que n > 20, p ≤ 0, 1 et np ≤ 5.
Exemple 16.127 :

Fénelon Sainte-Marie – La Plaine-Monceau 205/244 31 août 2022


16.6. LOIS USUELLES MP 2022-23

Supposons que la probabilité de gagner au tiercé soit de 10−3 . Quelle est la loi de probabilité du nombre de succès
d’une personne qui joue 100 fois (parfaitement au hasard, sans chercher à connaître les chevaux) ? Comparer avec une
loi de Poisson.
La variable aléatoire X représentant le nombre de succès suit la loi binomiale B(n, p) avec n = 100, p = 10−3 .
D’où :
100 999100−k
 
P1 (X = k) = .
k 1000100
Cette loi est difficile à calculer. On peut l’approcher par une loi de Poisson de paramètre λ = np = 10−1 . D’où :

10−k
P2 (X = k) = e−0,1 .
k!
Le calcul est beaucoup plus simple. Comparons les résultats, à l’aide d’une calculatrice :

k 0 1 2 3
P1 (k) 0, 90479 0, 09057 0, 00449 0, 000147
P2 (k) 0, 90484 0, 09048 0, 00452 0, 000151

L’approximation est excellente !


Proposition 16.128 : 1 poisson + 1 poisson = 1 poisson
Soit X et Y deux variables aléatoires indépendantes suivant des lois de Poisson de paramètres respectifs λ et µ.
Alors X + Y suit une loi de Poisson de paramètre λ + µ.

Remarque 16.129 :
Lorsque X et Y sont deux variables aléatoires réelles à valeurs dans N, la loi de la variable Z = X + Y , à valeurs
également dans N, s’obtient de la même manière que dans la démonstration ci-dessus, en écrivant :
k
X
P(Z = k) = P([X = i] ∩ [Y = k − i])
i=0

et donc la loi de Z se détermine naturellement à l’aide de la loi du couple (X, Y ).

EPCC : exercices 95, 96, 97, 98, 99, 100, 102, 103, 104, 106, 108, 109, 110, 111.

The end – chapitre 16

Fénelon Sainte-Marie – La Plaine-Monceau 206/244 31 août 2022


Chapitre 17

Convexité

Ce chapitre rappelle les principaux résultats vus en Sup.


Dans ce chapitre E est un R-espace vectoriel : le corps de base n’est pas quelconque.
Encore plus que dans les autres chapitres, il est recommandé de s’appuyer sur des dessins !

17.1 Sous-espaces affines


17.1.1 Définitions et propriétés élémentaires
Définition 17.1 : sous-espace affine
Une partie F de E est un sous-espace affine de E lorsqu’il existe un vecteur A ∈ E et un sous-espace vectoriel F
de E tels que
F = A + F = {A + u ; u ∈ F } = {v ∈ E ; ∃u ∈ F/v = A + u}.
Le sous-espace vectoriel F s’appelle alors la direction de F. On dit que F passe par A. Les éléments de F s’appellent
les vecteurs et les éléments de F sont appelés les points.
Exemple 17.2 :
1. Dans le plan usuel. Soit (a, b) ∈ R2 \ {(0, 0)}. L’ensemble D d’équation ax + by = c (c ∈ R) est un sous-espace
affine de R2 appelé droite affine, de direction la droite vectorielle D : ax + by = 0.
2. Dans l’espace usuel. Soit (a, b, c) ∈ R3 \ {(0, 0, 0)}. L’ensemble P d’équation ax + by + cz = d (d ∈ R) est un
sous-espace affine de R3 appelé plan affine, de direction le plan vectoriel P : ax + by + cz = 0.
3. Tout sous-espace vectoriel est un sous-espace affine de direction lui-même et passant par l’origine.
4. Dans l’espace usuel. Soit (a, b, c) et (a0 , b0 , c0 ) dans R3 \ {(0, 0, 0)} tels que (a, b, c) et (a0 , b0 , c0 ) ne soient pas
proportionnels. Alors l’ensemble

D = {(x, y, z) ∈ R3 ; ax + by + cz = d ∧ a0 x + b0 y + c0 z = d0 }

est un sous-espace affine de R3 appelé droite affine, de direction la droite vectorielle

D = {(x, y, z) ∈ R3 ; ax + by + cz = 0 ∧ a0 x + b0 y + c0 z = 0}.

5. Les singletons sont des sous-espaces affines de E : {A} = A + {0E }.


6. Les solutions d’une équation différentielle linéaire d’ordre 1, ou linéaire d’ordre 2 à coefficients constants et avec
second membre du type « polynôme×exponentielle » forment un sous-espace affine, de direction l’espace vectoriel
des solutions de l’équation différentielle homogène associée. En effet : solution générale = solution particulière
+ solution générale de l’ESSM associée.

Remarque 17.3 :

207
17.1. SOUS-ESPACES AFFINES MP 2022-23

1. Une bonne partie de cette section repose sur l’ambigüité suivante : en fait les vecteurs sont des points, et
réciproquement !
2. L’ensemble vide n’est pas un sous-espace affine.
−−→
3. Lorsque B et C sont dans F on note BC pour C −B ; c’est un vecteur de F . (En effet si B = A+ −
→ et C = A+ −
u1

u 2

→ −

avec (u1 , u2 ) ∈ F 2 alors C − B = A + u2 − (A + u1 ) = u2 − u1 ∈ F .)
4. Par convention les lettres minuscules désignent les vecteurs de F et les lettres majuscules les points de F.
5. Lorsqu’on considère le point 0E on le note souvent O.

Proposition 17.4 : propriétés élémentaires


−−→ → −
1. AB = 0 si et seulement si A = B.
−−→ −−→
2. BA = −AB.
−−→ −
3. B = A + → −
x si et seulement si AB = →x.
3 − −→ −→ −−→
4. Relation de Chasles : ∀(A, B, C) ∈ E , AB = AC + CB.

Proposition 17.5 : propriétés un peu moins élémentaires


1. La direction d’un sous-espace affine est unique.
2. Soit F un sous-espace affine dirigé par le sous-espace vectoriel F . Alors on peut écrire F = A0 +F pour n’importe
quel point A0 de F.
−−→
3. Soit F un sous-espace affine de E. Si A ∈ F alors on obtient la direction F par F = {AM ; M ∈ F}.

Proposition 17.6 : caractérisation des SEA


Une partie F de E est un sous-espace affine si et seulement s’il existe un sous-espace vectoriel F tel que :
−−→
(i) ∀(M, N ) ∈ F 2 , M N ∈ F .
(ii) ∀M ∈ F, ∀u ∈ F , M + u ∈ F.

17.1.2 Translations
Définition 17.7 : translation
Soit →
−u ∈ E. On appelle translation de vecteur →

u l’application t→ →
− 7 →
u : E → E, x →


x +→

u.
On note T l’ensemble des translations de E.
Proposition 17.8 : propriétés immédiates
1. t→
− = IdE .
0
2. Pour tout (→

u,→

v ) ∈ E 2 on a : t→
u ◦ t→
− v = t→
− − v.
u +→



3. Pour tout u ∈ E l’application t→
−u est bijective de réciproque t−→
u.

Corollaire 17.9 : structure de l’ensemble des translations


(T , ◦) est un groupe isomorphe à (E, +) par l’application t : →

u.
u 7→ t→

Proposition 17.10 : si → −u ∈ F alors →



u +F =F
Tout sous-espace vectoriel F de E est invariant par translation t→ →

u où u ∈ F .

Proposition 17.11 : F = A + F pour tout A ∈ F


Un sous-espace affine et sa direction sont images l’un de l’autre par une translation.

Fénelon Sainte-Marie – La Plaine-Monceau 208/244 31 août 2022


CHAPITRE 17. CONVEXITÉ MP 2022-23

17.1.3 Intersection et paralléllisme


Proposition 17.12 : intersection de SEA
L’intersection de deux sous-espaces affines F et G de E, de directions respectives F et G, est soit vide soit un
sous-espace affine de direction F ∩ G.

Exemple 17.13 :
Dans l’espace usuel l’intersection d’une droite et d’un plan, de deux droites, de deux plans, est soit vide, soit un
singleton, soit une droite, soit un plan.
Définition 17.14 : parallélisme
Soit F1 et F2 deux sous-espaces affines de E de directions respectives F1 et F2 .
1. On dit que F1 est parallèle à F2 lorsque F1 ⊂ F2 .
2. On dit que F1 et F2 sont parallèles lorsque F1 = F2 .

Exemple 17.15 :
1. Une droite peut être parallèle à un plan, mais un plan ne peut pas être parallèle à une droite.
2. Tout sous-espace affine et sa direction sont parallèles (exemple des droites du plan).
3. Les plans affines d’équation x + y + z = 10 et 2x + 2y + 2z = 3 sont parallèles car ils ont pour direction commune
le plan vectoriel d’équation x + y + z = 0.

Proposition 17.16 : une CNS de parallélisme de SEA


Deux sous-espaces affines F1 et F2 sont parallèles si et seulement si ils sont images l’un de l’autre par une translation.

Proposition 17.17 : encore intersection de SEA


Soit F1 et F2 deux sous-espaces affines de E. Si F1 est parallèle à F2 alors F1 ∩ F2 est soit vide, soit égal à F1 .

Corollaire 17.18 : parallélisme de SEA


Deux sous-espaces affines parallèles sont soit disjoints, soit confondus.

17.2 Ensembles convexes


Comme auparavant E est un espace vectoriel normé réel.
Définition 17.19 : segment
Soit (x, y) ∈ E 2 . Le segment [x, y] est l’ensemble :

[x, y] = {tx + (1 − t)y / t ∈ [0, 1]}.

Remarque 17.20 :
Si E = R, on retrouve la définition usuelle d’un segment.
Définition 17.21 : partie convexe
Une partie C de E est convexe lorsqu’elle contient tous les segments d’extrémités dans C :

∀(x, y) ∈ C 2 , [x, y] ⊂ C.

Exemple 17.22 :

Fénelon Sainte-Marie – La Plaine-Monceau 209/244 31 août 2022


17.3. FONCTIONS CONVEXES MP 2022-23

1. Une très jolie démonstration utilisant la propriété de la borne supérieure dans R et un examen de (neuf) cas
permet de démontrer que : les ensembles convexes de R sont les intervalles de R.
2. Les espaces vectoriels et les espaces affines sont convexes.
3. Les boules (ouvertes ou fermées) sont convexes.
4. Les sphères ne sont pas convexes.
5. Les bananes ne sont pas convexes.
Les points 2. à 4. sont de bons exercices !
Proposition 17.23 : intersection de convexes
L’intersection d’une famille de parties convexes est convexe.

Remarque 17.24 :
La réunion d’ensembles convexes n’est pas convexe en général.
Considérer par exemple [1, 2] ∪ [3, 4], non-convexe alors que [1, 2] et [3, 4] le sont.

17.3 Fonctions convexes


17.3.1 Définition et interprétation géométrique
Définition 17.25 : fonction convexe
Soit f : I → R.
1. On dit que f est convexe lorsque :

∀(x1 , x2 ) ∈ I 2 , ∀α ∈ [0, 1], f (αx1 + (1 − α)x2 ) ≤ αf (x1 ) + (1 − α)f (x2 ).

2. Lorsque −f est convexe, on dit que f est concave.

Remarque 17.26 :
Ceci signifie que tous les points de l’arc « M1 M2 » sont situés sous la corde [M1 M2 ] :

Exemple 17.27 :
Les fonctions affines, la fonction carré x 7→ x2 , la fonction x 7→ |x|.

17.3.2 Caractérisation géométrique de la convexité


Soit f : I → R.
Proposition 17.28 : caractérisation de la convexité par l’épigraphe
L’application f est convexe si et seulement si son épigraphe E = {(x, y) ∈ I × R ; y ≥ f (x)} est un ensemble
convexe du plan : ∀(M, N ) ∈ E 2 , [M N ] ⊂ E.

Proposition 17.29 : caractérisation de la convexité par le taux d’accroissement

Fénelon Sainte-Marie – La Plaine-Monceau 210/244 31 août 2022


CHAPITRE 17. CONVEXITÉ MP 2022-23

La fonction f est convexe sur I si et seulement si les taux d’accroissements sont croissants :
f (x) − f (y) f (x) − f (z) f (y) − f (z)
∀(x, y, z) ∈ I 3 , x < y < z =⇒ ≤ ≤ .
x−y x−z y−z

Corollaire 17.30 : caractérisation de la concavité par le taux d’accroissement


La fonction f est concave sur I si et seulement si :
f (x) − f (y) f (x) − f (z) f (y) − f (z)
∀(x, y, z) ∈ I 3 , x < y < z =⇒ ≥ ≥ .
x−y x−z y−z

Corollaire 17.31 : fonction convexe et concave


f (x) − f (y)
La fonction f est convexe et concave sur I si et seulement si la fonction (x, y) 7→ est constante sur
x−y
I × I, c’est-à-dire si et seulement si f est une fonction affine.

17.3.3 Caractérisation des fonctions convexes dérivables


Proposition 17.32 : caractérisation de la convexité par la croissance de la dérivée
Soit f : I → R continue sur I et dérivable sur l’intérieur de I. Alors : f est convexe si et seulement si f 0 est
croissante.

Corollaire 17.33 : caractérisation de la concavité par la décroissance de la dérivée


Soit f : I → R dérivable. Alors : f est concave si et seulement si f 0 est décroissante.
Exemple 17.34 :
ln est concave sur R∗+ et exp est convexe sur R.
Corollaire 17.35 : caractérisation de la convexité par la positivité de la dérivée seconde
Soit f : I → R deux fois dérivable. Alors :
1. La fonction f est convexe sur I si et seulement si f 00 ≥ 0 sur I.
2. La fonction f est concave sur I si et seulement si f 00 ≤ 0 sur I.

17.3.4 Position de la courbe par rapport à la tangente


Proposition 17.36 : caractérisation de la convexité par la position courbe/tangente
Soit f : I → R continue sur I et dérivable sur l’intérieur de I. Alors : f est convexe sur I si et seulement si son
graphe est situé au-dessus de chacune de ses tangentes, c’est-à-dire :

∀a ∈ I , ∀x ∈ I, f (x) ≥ f (a) + (x − a)f 0 (a).

Exemple 17.37 :
∀x ∈ R, ex ≥ 1 + x et ∀x > −1, ln(1 + x) ≤ x.

17.4 Applications : inégalités de convexité


17.4.1 L’inégalité de Jensen ou de convexité
Théorème 17.38 : inégalité de Jensen ou de convexité

Fénelon Sainte-Marie – La Plaine-Monceau 211/244 31 août 2022


17.4. APPLICATIONS : INÉGALITÉS DE CONVEXITÉ MP 2022-23

Soit n ≥ 2 et f : I → R une fonction convexe. Alors :


n n
! n
X X X
∀(λ1 , . . . , λn ) ∈ Rn+ , λi = 1, ∀(x1 , . . . , xn ) ∈ I ,n
f λi xi ≤ λi f (xi ).
i=1 i=1 i=1

De cette inégalité découlent de multiples autres fournissant autant d’exercices d’oraux. . . Nous verrons des illustra-
tions dans la sous-section suivante.

17.4.2 Comparaison des moyennes arithmétique, géométrique et quadratique


Corollaire 17.39 : comparaison des moyennes v géométrique et arithmétique
u n n
Y 1X
Pour tout (x1 , . . . , xn ) ∈ (R∗+ )n , on a t xi .
u
n
xi ≤
i=1
n i=1
Autrement dit, la moyenne géométrique est inférieure ou égale à la moyenne arithmétique.

Corollaire 17.40 : comparaison des moyennes arithmétique et quadratique


n n
!1/2
1 X 1 X
Pour tous (x1 , . . . , xn ) ∈ Rn+ , on a xi ≤ x 2
.
n i=1 n i=1 i
Autrement dit, la moyenne arithmétique est inférieure ou égale à la moyenne quadratique.

Exemple 17.41 :
1. Démontrer que : ∀(a, b, c) ∈ R3+ , a3 + b3 + c3 ≥ 3abc.
Inégalité arithmético-géométrique avec (x1 , x2 , x3 ) = (a3 , b3 , c3 ).
2. Démontrer que : ∀(a, b, c) ∈ R3+ , (a + b + c)3 ≥ 27abc.
Inégalité arithmético-géométrique avec (x1 , x2 , x3 ) = (a, b, c) puis élevée au cube.
√ n+1
3. Démontrer que : ∀n ∈ N∗ , n n! ≤ .
2
Inégalité arithmético-géométrique avec (x1 , . . . , xn ) = (1, . . . , n).

17.4.3 Inégalité de Hölder


Lemme 17.42 : inégalité classique
1 1 xp yq
Pour tous (x, y) ∈ (R∗+ )2 et (p, q) ∈]1, +∞[ avec + = 1, on a xy ≤ + .
p q p q

Théorème 17.43 : inégalité de Hölder


1 1
Soit (a1 , . . . , an ) ∈ (R∗+ )n , (b1 , . . . , bn ) ∈ (R∗+ )n , (p, q) ∈]1, +∞[2 avec + = 1. Alors :
p q
n n
!1/p n
!1/q
X X X
ai bi ≤ api bqi .
i=1 i=1 i=1

Remarque 17.44 :
Lorsque p = q = 2, on retrouve l’inégalité de Cauchy-Schwarz pour le produit scalaire usuel dans Rn :
n n
!1/2 n
!1/2
X X X
ai bi ≤ a2i b2i .
i=1 i=1 i=1

Fénelon Sainte-Marie – La Plaine-Monceau 212/244 31 août 2022


CHAPITRE 17. CONVEXITÉ MP 2022-23

17.4.4 Inégalité de Minkowski


Théorème 17.45 : inégalité de Minkowski
Soit p ≥ 1, (a1 , . . . , an ) ∈ Rn+ , (b1 , . . . , bn ) ∈ Rn+ . Alors :
n
!p n
!p n
!p
1/p 1/p
X X X
1/p
ai + bi ≤ (ai + bi ) .
i=1 i=1 i=1

Corollaire 17.46 : les normes k · k p


n
!1/p
X
Soit p ≥ 1. Alors l’application k · k p : (x1 , . . . , xn ) 7→ p
|xi | est une norme sur Rn .
i=1

EPCC : exercices 34, 45.

The end – chapitre 17

Fénelon Sainte-Marie – La Plaine-Monceau 213/244 31 août 2022


17.4. APPLICATIONS : INÉGALITÉS DE CONVEXITÉ MP 2022-23

Fénelon Sainte-Marie – La Plaine-Monceau 214/244 31 août 2022


Chapitre 18

Équations différentielles linéaires

18.1 Équations différentielles linéaires d’ordre 1


18.1.1 Notations
Soit I un intervalle de R et E un espace vectoriel normé de dimension finie sur R ou C. On considère :
• une application a continue de I dans L(E) :

a : I → L(E)
t 7→ a(t)

• une application x dérivable de I dans E :

x : I → E
t 7 → x(t)

• une application b continue de I dans E :


b : I → E
t 7 → b(t)
On désigne par a x l’application de I dans E :

I → E
t 7→ a(t) (x(t))

Définition 18.1 : EDL1


L’équation x0 = a x + b est appelée équation différentielle linéaire du premier ordre.
Une solution de cette équation est une application x dérivable de I dans E, telle que :

∀t ∈ I x0 (t) = a(t) (x(t)) + b(t).

En choisissant une base de E, on peut représenter l’équation matriciellement par :

∀t ∈ I X 0 (t) = A(t)X(t) + B(t)

où A(t) est la matrice (carrée) représentant l’endomorphisme a(t), et B(t) la matrice (unicolonne) représentant le
vecteur b(t).
Remarque 18.2 :
cas particulier des équations scalaires

215
18.1. ÉQUATIONS DIFFÉRENTIELLES LINÉAIRES D’ORDRE 1 MP 2022-23

Si E = K, l’équation différentielle est une équation scalaire. Vous l’avez étudiée en Première Année. Les solutions
sont les fonctions de la forme :
x(t) = x1 (t) + Ceα(t)

où α est une primitive sur I de la fonction a, C une constante, et x1 une solution particulière que l’on peut obtenir
par la méthode de la variation de la constante, c’est-à-dire sous la forme C(t)eα(t) où C est cette fois une fonction
dérivable.
Exemple 18.3 :
 1
 x0 = y + 1

t
Résoudre le système différentiel : , où x et y sont deux fonctions dérivables sur R∗+ .
1
 y0 = x + 1

t

18.1.2 Structure de l’ensemble des solutions


Définition 18.4 : ESSM / équation homogène
On appelle équation sans second membre ou équation homogène associée à l’équation x0 = a x + b, l’équation
0
x = a x.
L’ensemble des solutions de cette équation est le noyau de l’application linéaire u : x 7→ x0 −a x : c’est un sous-espace
vectoriel de l’espace vectoriel des fonctions dérivables de I dans E, usuellement noté E0 .
Si l’équation x0 = a x + b possède au moins une solution x1 , alors :
1. Pour toute autre solution x2 , x2 − x1 est solution de l’équation homogène.
2. Pour toute solution ξ de l’équation homogène, x1 + ξ est solution de l’équation complète.
Il en résulte que l’ensemble des solutions est l’ensemble des fonctions somme de x1 (solution particulière) et d’une solu-
tion quelconque de l’équation homogène. Il s’agit d’un sous-espace affine de l’espace vectoriel des fonctions dérivables
de I dans E, de direction Ker u. On le note usuellement E.

18.1.3 Problème de Cauchy


Définition 18.5 : problème de Cauchy
Le problème de Cauchy concernant l’équation différentielle x0 = a x + b sur I est l’existence et l’unicité d’une
solution vérifiant une condition initiale du type x(t0 ) = x0 avec t0 ∈ I.
Proposition 18.6 : forme intégrale du problème de Cauchy
Une fonction x, continue sur I, est solution du problème de Cauchy constitué de l’équation différentielle x0 (t) =
a(t)(x(t)) + b(t) et de la condition initiale x(t0 ) = x0 si et seulement si :
Z t  
∀t ∈ I, x(t) = x0 + a(u) x(u) + b(u) du.
t0

La solution d’un problème de Cauchy est donnée par le théorème suivant, que nous admettrons :
Théorème 18.7 : théorème de Cauchy-Lipschitz linéaire
Soit E un espace vectoriel normé de dimension finie, I un intervalle de R, a une application continue de I dans
L(E), b une application continue de I dans E. Pour tout (t0 , x0 ) ∈ I × E, il existe une et une seule solution sur I de
l’équation différentielle x0 = a x + b vérifiant la condition initiale x(t0 ) = x0 .
On peut en déduire la dimension de l’espace des solutions sur un intervalle :
Corollaire 18.8 : dimension de l’espace des solutions de x0 = ax
Soit E un espace vectoriel normé de dimension finie, I un intervalle de R, a une application continue de I dans
L(E), E0 l’espace vectoriel des solutions de l’équation homogène x0 = a x.

Fénelon Sainte-Marie – La Plaine-Monceau 216/244 31 août 2022


CHAPITRE 18. ÉQUATIONS DIFFÉRENTIELLES LINÉAIRES MP 2022-23

Alors pour tout t0 ∈ I, l’application de E0 dans E qui à f associe f (t0 ) est un isomorphisme. Il en résulte que
dim E0 = dim E.

Remarque 18.9 :
Attention : Ce résultat n’est valable que sur un intervalle. L’espace des solutions sur une réunion d’intervalles
peut être de dimension supérieure à celle de E. Par exemple, l’espace des solutions sur R∗ de l’équation x0 = 0 est de
dimension 2 : x(t) = C1 sur ] − ∞, 0[ et x(t) = C2 sur ]0, +∞[.

18.2 Résolution de l’équation homogène x0 (t) = a(t)(x(t))


Il n’y a pas de méthode systématique pour trouver des solutions de l’équation homogène. On peut chercher des
solutions évidentes, ou sous une forme donnée (polynôme, exponentielle, somme d’une série entière, etc.).

18.2.1 Système fondamental de solutions ; wronskien


Soit E un espace vectoriel normé de dimension n, I un intervalle de R, a une application continue de I dans L(E).
On sait que l’espace vectoriel E0 des solutions de l’équation homogène x0 = a x est de dimension n.
Définition 18.10 : système fondamental des solutions
On appelle système fondamental de solutions toute base de l’espace vectoriel E0 des solutions de l’équation homo-
gène.

Si (x1 , . . . , xn ) est un système fondamental de solutions, alors toute solution de l’équation x0 = a x est combinaison
linéaire de (x1 , . . . , xn ) :
E0 = Vect(x1 , . . . , xn ).

Si B est une base de E, alors on peut représenter le système fondamental par la matrice :

F (t) = MatB (x1 (t), . . . , xn (t)).

Il n’y a hélas pas de méthode systématique pour trouver un système fondamental de solutions. On peut chercher des
solutions évidentes, ou sous une forme donnée (polynôme, exponentielle, etc, comme déjà expliqué).
On peut en revanche vérifier qu’une famille donnée de n solutions est bien un système fondamental :
Définition 18.11 : wronskien d’une famille de solutions
Pour toute famille (x1 , . . . , xn ) de solutions de l’équation homogène, on appelle wronskien relativement à une base
B de E, l’application W de I dans K définie par :

∀t ∈ I, W(t) = det F (t) = det (x1 (t), . . . , xn (t)) .


B

Théorème 18.12 : CNS pour qu’une famille de solutions soit un SFS


Soit E un espace vectoriel normé de dimension n muni d’une base B, I un intervalle de R, a une application
continue de I dans L(E), et (x1 , . . . , xn ) une famille de n solutions de l’équation homogène x0 = a x.
Alors les trois propositions suivantes sont équivalentes :

• (x1 , . . . , xn ) est un système fondamental de solutions ;


• ∀t ∈ I W(t) 6= 0 ;
• ∃t0 ∈ I W(t0 ) 6= 0.

Fénelon Sainte-Marie – La Plaine-Monceau 217/244 31 août 2022


18.2. RÉSOLUTION DE L’ÉQUATION HOMOGÈNE X 0 (T ) = A(T )(X(T )) MP 2022-23

18.2.2 Recherche d’une solution sous forme de série entière


Remarque 18.13 :
+∞
X +∞
Pour chercher une solution somme d’une série entière x(t) = an tn , on dérive : x0 (t) = nan tn−1 . À l’aide de
P
n=0 n=1
+∞
X
réindexations, on réunit les termes de même degré. L’équation homogène se ramène à une égalité du type bn tn = 0
n=0
et on annule tous les coefficients : pour tout n ∈ N, bn = 0. On obtient un système d’où l’on déduit une relation de
récurrence sur les coefficients (an )n de la série entière cherchée. Ce calcul n’est jamais difficile, mais demande beaucoup
d’attention, notamment dans les réindexations. Vérifiez bien que les premiers termes des sommes restent inchangés.
Exemple 18.14 :
Soit le système différentiel : (
x0 = ty
x .
y0 =
t
Cherchons des solutions développables en série entière à l’origine, de rayon de convergence R. Posons :
+∞
X +∞
X
∀t ∈] − R, R[, x(t) = an tn , y(t) = bn tn .
n=0 n=0

On a alors :  +∞
X +∞
X
n−1
0
(n + 1)an+1 tn

x (t) = na t =

n



n=1 n=0
∀t ∈] − R, R[, +∞ +∞ .
 X X
n−1
y 0
(t) = nb t = (n + 1)bn+1 tn

n



n=1 n=0

Le système différentiel donne donc :


 +∞ +∞ +∞
X X X
n n+1
bn−1 tn

(n + 1)a t = b t =

n+1 n



n=0 n=0 n=1
∀t ∈] − R, R[, +∞ +∞ +∞ .
 X
n
X
n−1 a0 X
(n + 1)b t = a t = + an+1 tn

n+1 n



n=0 n=0
t n=0

D’où a0 = a1 = 0 et pour tout n ≥ 1, (n + 1)an+1 = bn−1 ; nbn = an .


Par une récurrence immédiate, on en déduit que tous les termes de rang impair des suites (an )n et (bn )n sont nuls.
a2p
De plus, pour tout p ≥ 1, (2p + 2)a2p+2 = b2p = , d’où :
2p
a2p−2
∀p ≥ 2, a2p = .
(2p)(2p − 2)
Par une nouvelle récurrence :
1 a2p 1
∀p ≥ 2, a2p = a2 ; b2p = = a2 .
4p−1 p(p − 1)!2 2p 2 · 4p−1 pp!2
En définitive, l’ensemble des !
solutions développables en série entière du système différentiel est la droite vectorielle
x1
engendrée par le vecteur , où :
y1
 +∞
 X t2p

 x 1 (t) =

 4 p(p − 1)!2
p−1
p=1
∀t ∈] − R, R[, +∞
 X t2p
y (t) =

1

2 · 4p−1 pp!2


p=1

Fénelon Sainte-Marie – La Plaine-Monceau 218/244 31 août 2022


CHAPITRE 18. ÉQUATIONS DIFFÉRENTIELLES LINÉAIRES MP 2022-23

On vérifie a posteriori à l’aide du critère de d’Alembert que ces séries entières ont un rayon de convergence infini.
Aussi, ces solutions sont-elles définies sur R.
Attention
! : comme l’ensemble
! des solutions du système est un espace vectoriel de dimension 2, il existe une
! solution
!
x2 x1 x1 x2
, non colinéaire à et qui n’est pas développable en série entière à l’origine. Une solution α +β
y2 y1 y1 y2
n’est développable en série entière que si β = 0.

18.2.3 Cas où la matrice A(t) est diagonalisable dans une base fixe
Supposons que la matrice A(t) est diagonalisable dans une base indépendante de t : il existe une matrice diagonale
D(t) et une matrice inversible P (indépendante de t) telles que :

∀t ∈ I, A(t) = P D(t)P −1 .

L’équation différentielle homogène s’écrit donc : X 0 (t) = P D(t)P −1 X(t). Posons U (t) = P −1 X(t) ; on a alors U 0 (t) =
P −1 X 0 (t) (grâce au fait que P est constante). Le vecteur U (t) est solution de l’équation différentielle : U 0 (t) = D(t)U (t),
qui se ramène à un système de n équations scalaires :

0
 u1 (t) = d1 (t)u1 (t)

···
 0

un (t) = dn (t)un (t)

Exemple 18.15 :
Résoudre le système : (
x0 (t) = (t − 2) x(t) − (t − 1) y(t)
y 0 (t) = 2(t − 1) x(t) − (2t − 1) y(t)
! !
x0 0
Tracer les solutions qui passent en t0 = 0 par le point = où y0 ∈ [[−5, 5]].
y0 y0

18.3 Résolution de l’éq. complète : méthode de variation des constantes


Lemme 18.16 : décomposition des fonctions selon un SFS
Soit (x1 , . . . , xn ) un système fondamental de solutions de l’équation homogène x0 = a x.
Alors toute fonction y dérivable de I dans E (pas forcément solution de l’EDL x0 = ax !) s’écrit de façon unique
sous la forme :
Xn
y(t) = ci (t)xi (t)
i=1

où (c1 , . . . , cn ) est une famille de fonctions dérivables de I dans K.


Matriciellement, on peut écrire : Y = F C, où F est lamatrice représentant 
la famille fondamentale de solutions et

C la matrice-colonne des fonctions (ci )i∈[[1,n]] : F (t) =  x1 (t) · · · xn (t) .


 

Théorème 18.17 : variation des constantes


Soit (1) X 0 = AX + B une équation différentielle linéaire (représentée matriciellement dans une base B de E),
et F (t) la matrice représentant un système fondamental de solutions de l’équation homogène X 0 = A X. La fonction
X = F C est solution de (1) si et seulement si : C 0 = F −1 B.

Ce résultat permet d’obtenir les fonctions c0i , d’où les fonctions ci à une constante près (les mêmes constantes
qui permettent de décrire l’ensemble des solutions de l’équation homogène). Deux méthodes : ou bien on oublie ces

Fénelon Sainte-Marie – La Plaine-Monceau 219/244 31 août 2022


18.4. ÉQUATIONS LINÉAIRES À COEFFICIENTS CONSTANTS MP 2022-23

constantes pour écrire une solution particulière, et on ajoute ensuite l’ensemble des solutions de l’équation homogène ;
ou bien on tient compte de ces constantes d’intégration et on obtient directement l’ensemble des solutions.
Exemple 18.18 :
Résoudre le système différentiel :

 x0 (t) = x(t) − y(t) + t

t
 y 0 (t) = x(t) + y(t) + t

t
! !
x1 (t) t cos t
On remarquera que le système homogène a deux solutions évidentes : t 7→ = et t 7→
y1 (t) t sin t
! !
x2 (t) −t sin t
= .
y2 (t) t cos t

18.4 Équations linéaires à coefficients constants


18.4.1 Étude de l’équation x0 = ax où a ∈ L(E)
Définition 18.19 : EDL à coefficients constants
L’équation différentielle x0 = ax est dite à coefficients constants si a est un endomorphisme de E indépendant de
la variable t. Une solution sur R de cette équation est une application dérivable de R dans E telle que :

∀t ∈ R, x0 (t) = a (x(t)) .

En choisissant une base de E, on peut représenter l’équation matriciellement par :

∀t ∈ I, X 0 (t) = AX(t)

où A est la matrice (carrée) représentant l’endomorphisme a.


Théorème 18.20 : SFS de x0 = ax à l’aide de exp(ta)
Soit E un espace vectoriel normé de dimension n, et a un endomorphisme de E.
1. Pour tout vecteur u de E, la fonction x définie par x(t) = exp(ta)(u) est solution de l’équation différentielle
x0 = a x.
2. Si B est une base de E, alors la famille représentée dans la base B par la matrice F (t) = exp(tA) est un système
fondamental de solutions.

Exemple 18.21 : (
x0 (t) = x(t) cos θ − y(t) sin θ
Résoudre le système pour θ ∈ R fixé.
y 0 (t) = x(t) sin θ + y(t) cos θ

18.4.2 Équation x0 (t) = ax(t) + b(t) où a ∈ L(E)


Connaissant un système fondamental de solutions de l’équation homogène (obtenu avec exp(ta)), on peut trouver
une solution particulière par la méthode de variation des constantes. On cherche une telle solution sous la forme :
n
X
x(t) = ci (t) exp(ta)(ei )
i=1

Fénelon Sainte-Marie – La Plaine-Monceau 220/244 31 août 2022


CHAPITRE 18. ÉQUATIONS DIFFÉRENTIELLES LINÉAIRES MP 2022-23

où (e1 , . . . , en ) est une base de E.


En reportant dans l’équation différentielle, on obtient :
n
X
c0i (t) exp(ta)(ei ) = b(t)
i=1

Comme exp(ta) est un endomorphisme, ceci équivaut à :


n
!
X
exp(ta) c0i (t) ei = b(t).
i=1

L’endomorphisme exp(ta) est inversible et son inverse est exp(−ta), d’où :


n
X
c0i (t) ei = exp(−ta) b(t)

i=1

On obtient les fonctions ci en intégrant ces relations.


Exemple 18.22 : (
x0 (t) = x(t) cos θ − y(t) sin θ + cos(t sin θ)
Résoudre le système
y 0 (t) = x(t) sin θ + y(t) cos θ + sin(t sin θ)

18.4.3 Cas d’un endomorphisme diagonalisable


Le calcul de l’exponentielle de l’endomorphisme a est nettement simplifié dans le cas où celui-ci est diagonalisable.
Dans une base de vecteurs propres de a, les matrices de a et exp(ta) sont de la forme :
   
λ1 eλ1 t
 ..   .. 
A =   .  exp(tA) = 
  . 

λn t
λn e

Un système fondamental de solutions de l’équation homogène est donc constitué des fonctions t 7→ eλi t ei , où (e1 , . . . , en )
est la base de vecteurs propres. L’ensemble des solutions de l’équation homogène est l’ensemble des fonctions x de la
forme :
X n
x(t) = ci eλi t ei .
i=1

18.5 Équations linéaires scalaires d’ordre 1 ou 2


18.5.1 Équation scalaire du premier ordre
Revenons sur le cas où E = K (R ou C) étudié en Première Année. Considérons l’équation différentielle a(t)x0 +
b(t)x = c(t), où a, b, c sont des fonctions continues sur un intervalle I de R à valeurs dans K.
b(t) c(t)
Sur un intervalle I où la fonction a ne s’annule pas, l’équation peut s’écrire : x0 = − x+ . L’ensemble des
a(t) a(t) Z 
b(t)
solutions de l’équation homogène est le sous-espace vectoriel de dimension 1 engendré par la fonction exp − dt .
a(t)
On obtient une solution particulière par la méthode de variation de la constante, c’est-à-dire sous la forme
Z 
b(t)
x(t) = C(t) exp − dt ,
a(t)
Z 
b(t) c(t)
où C est une fonction dérivable. On obtient : C (t) exp
0
− dt = , d’où C(t) puis x(t). L’ensemble des
a(t) a(t)
solutions de l’équation est l’ensemble des fonctions somme d’une solution particulière et d’une solution quelconque de
l’équation homogène. Il s’agit d’un espace affine de dimension 1.

Fénelon Sainte-Marie – La Plaine-Monceau 221/244 31 août 2022


18.5. ÉQUATIONS LINÉAIRES SCALAIRES D’ORDRE 1 OU 2 MP 2022-23

Dans le cas général, il faut résoudre l’équation sur chaque intervalle où la fonction a ne s’annule pas. L’espace
des solutions sur la réunion de p intervalles disjoints est alors de dimension p. Dans certains cas, certaines solutions
peuvent être prolongées par continuité et dérivabilité en un point t0 où a(t0 ) = 0, ce qui permet de « recoller » des
solutions de part et d’autre de t0 . La dimension de l’espace des solutions peut en être abaissée.
Exemple 18.23 :
Résoudre l’équation différentielle : x0 sin t − x cos t = sin3 t.

18.5.2 Équation scalaire du second ordre


Considérons à présent une équation linéaire du second ordre :

a(t)x00 + b(t)x0 + c(t)x = d(t)

où a, b, c, d sont des fonctions continues sur un intervalle I de R à valeurs dans K.


Attention : La méthode de l’équation caractéristique vue en Première Année ne s’applique que si les fonctions a, b, c
sont constantes !
Sur un intervalle I où la fonction a ne s’annule pas, l’équation s’écrit :

b(t) 0 c(t) d(t)


x00 = − x − x+
a(t) a(t) a(t)

b(t) c(t) d(t)


soit, en posant α(t) = − , β(t) = − et γ(t) = :
a(t) a(t) a(t)

x00 = α(t)x0 + β(t)x + γ(t).

Matriciellement, on peut écrire : ! ! ! !


x0 0 1 x 0
= +
x00 β(t) α(t) x0 γ(t)
soit :
X0 = A X + B
! ! !
x 0 1 0
avec X = , A= et B = .
x0 β(t) α(t) γ(t)
On est donc ramené à une équation différentielle linéaire du premier ordre dans K2 . Les résultats obtenus pour ce
type d’équation s’appliquent :
• L’ensemble des solutions sur I est un espace affine de dimension 2.
• Une famille (x1 , x2 ) de solutions
de l’équation
homogène est un système fondamental de solutions si et seulement
x (t) x (t)
1 2
si le wronskien : W(t) = 0 est non nul en tout point de I (il suffit qu’il le soit en au moins un

x1 (t) x02 (t)
point).
• Le théorème de Cauchy-Lipschitz linéaire s’applique : pour tout t0 ∈ I, il existe une solution et une seule sur I
vérifiant une condition initiale du type : ! !
x(t0 ) x0
=
x0 (t0 ) x00

Exemple 18.24 :
Considérons l’équation différentielle : t2 x00 − 2tx0 + 2x = 2t2 . Chercher des solutions de l’équation homogène sur
R∗ sous la forme t 7→ tn avec n ∈ N. En déduire l’ensemble des solutions de l’équation.

Fénelon Sainte-Marie – La Plaine-Monceau 222/244 31 août 2022


CHAPITRE 18. ÉQUATIONS DIFFÉRENTIELLES LINÉAIRES MP 2022-23

18.5.3 Cas où l’on connaît une solution de l’équation homogène (méthode d’abaisse-
ment de l’ordre)
Considérons l’équation différentielle :

a(t)x00 + b(t)x0 + c(t)x = d(t)

Supposons connue une solution x0 de l’équation homogène sur un intervalle I où la fonction a ne s’annule pas. On
peut chercher une solution quelconque de l’équation complète sous la forme : x(t) = z(t)x0 (t). On a alors :

 x(t) = z(t)x0 (t)

x0 (t) = z 0 (t)x0 (t) + z(t)x00 (t)
 00
x (t) = z 00 (t)x0 (t) + 2z 0 (t)x00 (t) + z(t)x000 (t)

D’où :
a(t)x00 (t) + b(t)x0 (t) + c(t)x(t) =
a(t)x0 (t)z 00 (t) + (2a(t)x00 (t) + b(t)x0 (t)) z 0 (t) + (a(t)x000 (t) + b(t)x00 (t) + c(t)x0 (t)) z(t)
Comme a(t)x000 (t) + b(t)x00 (t) + c(t)x0 (t) = 0, l’équation différentielle devient :

a(t)x0 (t)z 00 (t) + (2a(t)x00 (t) + b(t)x0 (t)) z 0 (t) = d(t).

C’est une équation scalaire du premier ordre pour la fonction z 0 .


Exemple 18.25 :
Résoudre l’équation différentielle (t − 1)x00 + tx0 + x = 1, en cherchant une solution de l’équation homogène sous
la forme t 7→ eαt .

EPCC : exercices 31, 32, 42, 74, 75.

The end – chapitre 18

Fénelon Sainte-Marie – La Plaine-Monceau 223/244 31 août 2022


18.5. ÉQUATIONS LINÉAIRES SCALAIRES D’ORDRE 1 OU 2 MP 2022-23

Fénelon Sainte-Marie – La Plaine-Monceau 224/244 31 août 2022


Chapitre 19

Calcul différentiel

Dans tout le chapitre : soit E et F deux espaces vectoriels normés réels de dimension finie, et f une fonction définie
sur un ouvert U de E à valeurs dans F .

19.1 Applications différentiables


19.1.1 Différentielle
Définition 19.1 : application différentiable
On dit que f est différentiable en un point a de U lorsqu’il existe une application linéaire La ∈ L(E, F ) telle que :

f (x) = f (a) + La (x − a) + o(x − a).


x→a
On remarque en particulier que La (x − a) −→ 0 et donc f est continue en a.
Proposition 19.2 : unicité de la différentielle (si elle existe)
Si f est différentiable en a, alors il existe une unique application linéaire La telle que f (x) = f (a) + La (x − a) +
o(x − a).

Définition 19.3 : différentielle d’une application différentiable, développement limité


L’application linéaire La est appelée différentielle de f en a et notée dfa ou df (a), c’est un élément de L(E, F ).
Pour tout h tel que a + h ∈ U , il vient :

f (a + h) = f (a) + dfa (h) + o(h).

C’est un développement limité d’ordre 1 de f en a.


Remarque 19.4 :
Usuellement, pour a fixé on recherche une application linéaire La ∈ L(E, F ) telle que f (a+h)−f (a) = La (h)+o(h).

Exemple 19.5 :
Déterminer un développement limité à l’ordre 1 de l’application f : Mn (R) → Mn (R) définie par f (M ) = M 2 .

Remarque 19.6 :
1. Insistons sur le fait qu’une fonction différentiable en a est automatiquement continue en a.
2. Bien entendu, si une application différentiable sur un ouvert est constante alors sa différentielle est nulle.

Proposition 19.7 : différentielle des fonctions d’une seule variable


Soit f : U → F une fonction définie sur un ouvert U de R, et a ∈ U .

225
19.1. APPLICATIONS DIFFÉRENTIABLES MP 2022-23

Alors : f est différentiable en a si et seulement si elle est dérivable en a. Dans ce cas dfa : R → F , t 7→ t × f 0 (a),
et en particulier dfa (1) = f 0 (a).

19.1.2 Dérivée selon un vecteur


Soit f une fonction de E dans F définie sur un ouvert U , et a un point de U . Soit u un vecteur non nul de E, et t
un réel tel que a + tu ∈ U .
Définition 19.8 : dérivée selon un vecteur
On dit que f admet une dérivée selon le vecteur u au point a lorsque la fonction t 7→ f (a + tu), définie d’un
voisinage de 0R à valeurs dans F , est dérivable en 0.
Le vecteur dérivé correspondant est appelé la dérivée de f suivant le vecteur u, et noté Du f (a) :

f (a + tu) − f (a)
lim = Du f (a).
t→0 t

Théorème 19.9 : différentiabilité ⇒ existence de dérivées selon tout vecteur


Soit f une fonction de E dans F définie sur un ouvert U , et a un point de U .
Si f est différentiable en a, alors pour tout vecteur u de E la fonction f admet une dérivée selon u et :

Du f (a) = dfa (u).

Remarque 19.10 :
La réciproque est fausse : une fonction peut admettre une dérivée selon n’importe quel vecteur sans pour autant
être différentiable (voir exercices).

19.1.3 Dérivées partielles


Soit f une fonction de E dans F définie sur un ouvert U , et a un point de U . Soit (e1 , . . . , en ) une base de E.
Définition 19.11 : dérivées partielles
On appelle dérivées partielles de f ses dérivées suivant les vecteurs e1 , . . . , en (si elles existent). La i-ième dérivée
∂f
partielle est notée Di f (a) ou (a).
∂xi

f (a + tei ) − f (a) ∂f th. 19.9


∀i ∈ [[1, n]], Di f (a) = lim = (a) = Dei f (a) = df (a)(ei ).
t→0 t ∂xi

∂f
Ceci nous donne une application = D ei f : U → F .
∂xi
Théorème 19.12 : expression de la différentielle à l’aide des dérivées partielles
Soit f une fonction de E dans F définie sur un ouvert U , et a un point de U .
Si f est différentiable en a, alors pour toute base (e1 , . . . , en ) de E, f admet des dérivées partielles et f est continue.
n
De plus, pour tout vecteur u = ui ei de E, la dérivée de f en a selon u est donnée par :
P
i=1

n n
X X ∂f
Du f (a) = dfa (u) = ui Di f (a) = ui a.
i=1 i=1
∂xi

Fénelon Sainte-Marie – La Plaine-Monceau 226/244 31 août 2022


CHAPITRE 19. CALCUL DIFFÉRENTIEL MP 2022-23

Fixons (ei )i une base orthonormée de E. Notons (dxi )i = (pi )i sa base duale, c’est-à-dire telle que dxi (ej ) = δi,j
(symbole de Kronecker). Il vient dxi (u) = ui , d’où :
n n
X X ∂f
dfa = Di f (a) dxi = (a) dxi .
i=1 i=1
∂xi

Par exemple, pour une fonction de trois variables x, y, z :

∂f ∂f ∂f
dfa = (a) dx + (a) dy + (a) dz.
∂x ∂y ∂z

∂f
Par ailleurs, gardons toujours à l’esprit que dans le cas général (a) = Dei f (a).
∂xi

19.1.4 Matrice jacobienne, jacobien


Soit f une fonction de E dans F , différentiable sur un ouvert U de E ; soit B = (e1 , . . . , ep ) une base de E et
B 0 = (e01 , . . . , e0n ) une base de F .
Rappelons que d f (a) ∈ L(E, F ).
Définition 19.13 : matrice jacobienne
On appelle matrice jacobienne de f en un point a de U relativement aux bases B et B 0 la matrice de la différentielle
de f en a dans ces bases : Jf (a) = [dfa ]BB0 .

Si f = (fj )j∈[[1,n]] , c’est-à-dire :


p p
! n
!
X X X
f xi ei = fj xi ei e0j .
i=1 j=1 i=1

Ainsi f : U → F avec F de dimension n et fj : U → R. Remarquons que dfa : E → F donc dfa (e1 ) =


n
X ∂f ∂f
(a)dxi (e1 ) = (a) et ainsi la matrice jacobienne de f en a est :
i=1
∂xi ∂x1
∂f1 ∂f1 ∂f1
 
 ∂x1 (a) ∂x2 (a) · · · ∂xp (a) 
 
 ∂f2 ∂f2 ∂f2 
 ∂x1 (a) ∂x2 (a) · · · ∂xp (a) 
 
Jf (a) =   ∈ Mn,p (R), avec p = dim(E) et n = dim(F ).
.. .. .. ..

. . . .

 
 
 
 ∂fn ∂fn ∂fn 
(a) (a) · · · (a)
∂x1 ∂x2 ∂xp
Définition 19.14 : jacobien
Lorsque E = F , la matrice jacobienne de f est carrée ; on appelle alors jacobien le déterminant de la matrice
jacobienne. On le note :
D(f1 , . . . , fn )
(a) = det Jf (a).
D(x1 , . . . , xn )

19.2 Opérations sur les applications différentiables


Fixons E et F deux espace vectoriels normés de dimension finie.

19.2.1 Outils : continuité d’applications linéaires ou bilinéaires


Rappelons les deux résultats suivants, déjà énoncés et prouvés dans le chapitre 4 (topologie) :
Lemme 19.15 : continuité des applications linéaires

Fénelon Sainte-Marie – La Plaine-Monceau 227/244 31 août 2022


19.2. OPÉRATIONS SUR LES APPLICATIONS DIFFÉRENTIABLES MP 2022-23

1. Une application linéaire est continue si et seulement si elle est lipschitzienne.


En d’autres termes : une application f ∈ L(E, F ) est continue si et seulement si il existe une constante M > 0
telle que pour tout x ∈ E, kf (x)kF ≤ M kxkE .
2. Toute application linéaire de source un espace de dimension finie, est continue.
En d’autres termes : si f ∈ L(E, F ) avec E de dimension finie, alors f est continue.

Lemme 19.16 : continuité des applications bilinéaires


Soit E, F , G trois espaces vectoriels normés et f une application bilinéaire de E × F dans G. Alors :
1. L’application f est continue sur E × F si et seulement si :

∃K ∈ R, ∀(x, y) ∈ E × F, kf (x, y)kG ≤ K kxkE · kykF .

2. Si E et F sont de dimension finie, alors toute application bilinéaire de E × F dans G est continue.

19.2.2 Combinaison linéaire, composition avec application bilinéaire


Proposition 19.17 : combinaison linéaire, composition avec app. bilin.
1. L’ensemble des applications de U dans F , différentiables sur U , est un R-espace vectoriel et, avec des notations
évidentes :
d(λf + µg) = λdf + µdg.

2. Soit B : F 2 → G une application bilinéaire à valeurs dans un R-espace vectoriel G, et f , g deux applications
définies et différentiables sur U , à valeurs dans F .
Alors B(f, g) est différentiable sur U et

d(B(f, g)) = B(f, dg) + B(df, g).

19.2.3 Composition d’applications différentiables


Théorème 19.18 : composition d’applications différentiables
Soit E, F , G trois espaces vectoriels normés réels de dimension finie, et considérons :
• f une fonction de E dans F différentiable sur un ouvert U de E.
• g une fonction de F dans G différentiable sur un ouvert V de F tel que f (U ) ⊂ V .
Alors g ◦ f est différentiable sur U , et pour tout a ∈ U :

d(g ◦ f )a = dgf (a) ◦ dfa .

Théorème 19.19 : interprétation matricielle : « règle de la chaîne »


Supposons E = Rm , F = Rp , G = Rn , f différentiable d’un ouvert U de E et g différentiable d’un ouvert V
contenant f (U ) à valeurs dans G. Notons F = g ◦ f .
Alors la matrice jacobienne de g ◦ f en a est le produit des matrices jacobiennes de g en b = f (a) et de f en a.
Plus précisément, en notant F = g ◦ f , a = (a1 , . . . , am ), b = f (a) = (x1 (a), . . . , xp (a)), de sorte que F (a) = g(b),
on a :
p
∂F X ∂g ∂xk
∀j ∈ [[1, m]], (a) = (b) × (a).
∂aj ∂xk ∂aj
k=1

Exemple 19.20 :

Fénelon Sainte-Marie – La Plaine-Monceau 228/244 31 août 2022


CHAPITRE 19. CALCUL DIFFÉRENTIEL MP 2022-23

passage en coordonnées polaires


Soit f une fonction de R2 dans R, de classe C 1 sur un ouvert U de R2 . On pose :

∀(x, y) ∈ U, f (x, y) = F (ρ, θ)

avec : x = ρ cos θ, y = ρ sin θ. On a : F = f ◦ ϕ, où ϕ(ρ, θ) = (ρ cos θ, ρ sin θ). D’où J(F ) = J(f ◦ ϕ) = J(f ) × J(ϕ)
c’est-à-dire :
∂x ∂x
 
      !
∂F ∂F ∂f ∂f  ∂ρ ∂θ  ∂f ∂f cos θ −ρ sin θ
=  ∂y ∂y  =
∂ρ ∂θ ∂x ∂y ∂x ∂y sin θ ρ cos θ
∂ρ ∂θ
soit :
∂F ∂f ∂f


 = cos θ + sin θ
∂ρ ∂x ∂y
∂F ∂f ∂f

 = − ρ sin θ + ρ cos θ
∂θ ∂x ∂y

Nous aurons besoin du résultat suivant pour définir la circulation d’un champ de vecteurs le long d’un arc :
Proposition 19.21 : dérivée le long d’un arc
Fixons E et F deux espaces vectoriels euclidiens. Soit (I, γ) un arc paramétré de classe C 1 sur un intervalle I de
R et à valeurs dans un ouvert U de E. Considérons f une fonction différentiable sur U et à valeurs dans F .
Alors la fonction f ◦ γ : I → U → F est dérivable sur I et :

∀t ∈ I, (f ◦ γ)0 (t) = dfγ(t) (γ 0 (t)).

19.3 Fonctions de classe C 1


19.3.1 Définition et premières propriétés
Soit f une fonction de E dans F définie sur un ouvert U de E.
Définition 19.22 : fonction continûment différentiable ou de classe C 1
On dit que f est continûment différentiable sur U , ou de classe C 1 sur U , lorsque f est différentiable sur U et
l’application d f : U 7→ L(E, F ), a 7→ d fa est continue sur U .
Théorème 19.23 : CNS pour qu’une application soit de classe C 1
Soit f une fonction de E dans F définie sur un ouvert U de E.
Alors : l’application f est de classe C 1 sur U si et seulement si dans une base b de E, f admet pour chaque variable
une dérivée partielle continue sur U
Dans ce cas, dans toute base de E, f admet pour chaque variable une dérivée partielle continue sur U .
Conformément au programme, ce théorème sera admis sans démonstration.
Remarque 19.24 :
Une fonction peut être différentiable sans que ses dérivées partielles (ou sa différentielle) soient continues.
Exemple 19.25 :  
1
Étudier le comportement en 0 de f définie par f (x) = x2 sin si x 6= 0 et f (0) = 0.
x
x→0
La fonction f est de classe C 1 sur R∗ . Elle est continue en 0 puisque pour tout x 6= 0 : |f (x)| ≤ x2 −→ 0. De plus,
pour tout x 6= 0 :  
f (x) − f (0) 1 x→0
= x sin −→ 0,
x−0 x

Fénelon Sainte-Marie – La Plaine-Monceau 229/244 31 août 2022


19.3. FONCTIONS DE CLASSE C 1 MP 2022-23

donc f est dérivable en 0 et f 0 (0) = 0. Mais hélas, pour tout x 6= 0 :


   
0 1 1
f (x) = 2x sin − cos
x x
n’admet pas de limite quand x 6= 0, ce qui permet d’affirmer que f n’est pas de classe C 1 sur R.
Proposition 19.26 : différentielle d’une application linéaire
Soit g = f|U la restriction d’une application linéaire f ∈ L(E, F ) à un ouvert U de E.
Alors f|U est de classe C 1 sur U et pour tout a ∈ U , dga = f .

19.3.2 Opérations sur les fonctions de classe C 1


Proposition 19.27 : combinaison linéaire, composition par une application bilinéaire, d’applications de
classe C 1
Soit E, F et G trois espaces vectoriels euclidiens et U un ouvert de E.
1. L’ensemble des fonctions de classe C 1 sur U à valeurs dans F est un espace vectoriel noté C 1 (U, F ).
2. La composition d’applications de classe C 1 est de classe C 1 .
3. Pour toute application bilinéaire B de F 2 dans G, pour toutes fonctions f et g de classe C 1 sur U à valeurs dans
F , la fonction B(f, g) est de classe C 1 sur U .

19.3.3 Circulation d’une forme différentielle sur un arc paramétré


On travaillera dans cette sous-section avec E = R2 pour une plus grande lisibilité, mais tout est transposable à
E = Rn sans difficulté.
Définition 19.28 : forme différentielle
On appelle forme différentielle sur un ouvert U de E toute application U de U dans le dual E ∗ .
Soit b = (e1 , . . . , en ) une base de E. La base duale de b sera notée b∗ = (dx1 , . . . , dxn ).
Pour tout x de U , la forme linéaire ω(x) sur E peut se décomposer sur la base b∗ :

ω(x) = P1 (x) dx1 + · · · + Pn (x) dxn .


n
X
La forme différentielle sera notée : ω = Pi dxi .
i=1
Définition 19.29 : forme différentielle de classe C k
La forme différentielle U est dite de classe C k sur U si chacune des applications x 7→ Pi (x) est de classe C k sur U .
On note Ωk (U ) l’ensemble des formes différentielles de classe C k sur U . C’est un R-espace vectoriel.
Définition 19.30 : champ de vecteurs
L’espace E étant de plus est euclidien (c’est-à-dire muni d’un produit scalaire et pas seulement d’une norme), alors
Xn
on peut associer à une forme différentielle un champ de vecteurs : à tout point x = xi ei de U , on fait correspondre
i=1
n
X
un vecteur V (x) de E en posant V (x) = Pi (x)ei , tel que pour tout h ∈ E : ω(x)(h) = (V (x)|h).
i=1

Considérons Γ = ([a, b], γ) un arc paramétré de classe C 1 (avec γ à valeurs dans U ), orienté et dont tous les points
sont réguliers.
Définition 19.31 : intégrale curviligne
Z b  
L’intégrale ω(γ(t)) γ 0 (t) dt est appelée intégrale curviligne ou circulation de la forme différentielle U le long
I a
de γ, notée ω(γ)dγ.
Γ

Fénelon Sainte-Marie – La Plaine-Monceau 230/244 31 août 2022


CHAPITRE 19. CALCUL DIFFÉRENTIEL MP 2022-23

Remarque 19.32 :
Z b
1. En fait l’intégrale ω(γ(t)) · γ 0 (t)dt ne dépend pas du paramétrage ([a, b], γ) de l’arc Γ.
a
C’est un résultat hors-programme assez technique à démontrer.
2. Cet outil est utile en Physique.
I
Méthode : pour calculer l’intégrale curviligne U avec ω = P dx + Qdy, on choisira un paramétrage de
( Γ
x = x(t)
Γ. Par exemple en dimension 2 : , et on calculera :
y = y(t)
Z b
P x(t), y(t) x0 (t) + Q x(t), y(t) y 0 (t) dt.
  
I =
a

Exemple 19.33 : 
 x(t) = cos t

Soit C le cercle de R paramétré par γ(t) :
3
y(t) = sin t avec t ∈ [0, 2π]. Calculer la circulation sur C de la

z(t) = 0

 
y x
forme différentielle U définie par ω(x, y, z) = − 2 , , 0 .
x + y 2 x2 + y 2
Remarque 19.34 :
xdy − ydx xdy − ydx
Z
ω(γ) · dγ = 2 2
donc on écrira aussi 2 2
= 2π.
x +y C x +y
Théorème 19.35 : intégrale curviligne de d f
Soit ω = df une forme différentielle sur un ouvert U dérivant de la fonction f : U → R différentiable sur U .
Alors l’intégrale curviligne sur un arc Γ = ([a, b], γ) ne dépend que des extrémités A = γ(a), B = γ(b) (et pas du
trajet parcouru) : Z
df = f (B) − f (A).
Γ

En particulier l’intégrale curviligne de df sur un arc fermé est nulle.

Corollaire 19.36 : (de la prop. 19.21) caractérisation des fonctions différentiables constantes
Soit U un ouvert connexe par arcs de classe C 1 de E, et f une application de classe C 1 sur U et à valeurs dans R.
Alors : f est constante sur U si et seulement si sa différentielle sur U est nulle.

Remarque 19.37 :
1. Attention, il faut que U soit connexe par arcs ! Pensez à f = χR+ restreinte à R∗ , valant 1 sur R∗+ et 0 sur R∗− :
sa différentielle est nulle mais f n’est pas constante pour autant.
2. Si U est un ouvert quelconque, alors : une fonction de classe C 1 dont la différentielle sur U est nulle est constante
sur chaque composante connexe par arcs de classe C 1 de U .
3. On rappelle que si U est convexe alors U est étoilée par rapport à un de ses points, d’où U est connexe par arcs
de classe C 1 .

19.4 Cas des fonctions numériques (à valeurs réelles, i.e. F = R)


19.4.1 Algèbre C 1 (U )
Si F = R, l’espace vectoriel C 1 (U, R) possède de plus une structure d’anneau, donc de R-algèbre, notée C 1 (U ).

Fénelon Sainte-Marie – La Plaine-Monceau 231/244 31 août 2022


19.5. VECTEURS TANGENTS À UNE PARTIE DE E MP 2022-23

19.4.2 Gradient d’une fonction de classe C 1 de U dans R


Lorsque E est euclidien, la différentielle dfa en un point a de U d’une fonction f de C 1 (U ) est une forme linéaire sur
E. Il existe donc, d’après le théorème 14.4, un unique vecteur de E, noté gradfa ou ∇f (a), et appelé gradient de f en a,
tel que :
∀v ∈ E, dfa (v) = (gradfa |v).
Le développement limité d’ordre 1 de f en a s’écrit alors :
f (a + h) = f (a) + (gradfa |h) + o(h).
Dans une base orthonormale B = (e1 , . . . , ep ) de E :
p
X ∂f
gradfa = (a) ei .
i=1
∂xi

Afin d’examiner l’expression du gradient en coordonnées polaires, détaillons les dérivées partielles en coordonnées
polaires :
Proposition 19.38 : dérivées partielles en coordonnées polaires
Nous avons :
∂ ∂ sin θ ∂ ∂ ∂ cos θ ∂
= cos θ − et = sin θ + .
∂x ∂r r ∂θ ∂y ∂r r ∂θ

Proposition 19.39 : gradient en coordonnées polaires


Soit f ∈ C 1 (U, R) où U est un ouvert de R2 . En notant f (x, y) = F (r, θ), on a :
∂F 1 ∂F
∇fa = u(θ) + v(θ).
∂r r ∂θ

19.5 Vecteurs tangents à une partie de E


Dans cette section, E désigne un espace vectoriel euclidien.

19.5.1 Vecteurs tangents


Définition 19.40 : vecteur tangent à une partie X de E
Soit X une partie de E et x un point de X. Un vecteur v de E est dit tangent à X en x lorsqu’il existe un voisinage
V de 0 dans R et un arc γ défini sur V , à valeurs dans X, dérivable en 0 et tel que γ(0) = x, γ 0 (0) = v.
L’ensemble des vecteurs tangents à X en x est noté Tx (X) ou Tx X.
Remarque 19.41 :


Soit X un espace affine et X sa direction (ou espace vectoriel sous-jacent). Rappelons que :


• Si x ∈ X et v ∈ X alors x + v ∈ X.


• Si x et y sont dans X alors x − y ∈ X .

Exemple 19.42 :

− →

1. Soit X un sous-espace affine de E, de direction X . Démontrons que Tx X = X . Fixons x ∈ X.


• Rappelons que si a et b sont dans l’espace affine X, alors a − b est dans l’espace vectoriel sous-jacent X .
Cet espace étant de dimension finie, il est fermé.
γ(t) − x
Considérons un arc γ de X dérivable en 0, il vient γ 0 (0) = limt→0 Or γ(t) et x sont dans X et X

− t
est fermé car de dimension finie), γ 0 (0) ∈ X .


Par conséquent Tx (X) ⊂ X .

Fénelon Sainte-Marie – La Plaine-Monceau 232/244 31 août 2022


CHAPITRE 19. CALCUL DIFFÉRENTIEL MP 2022-23



• Soit v un vecteur de X . L’arc γ défini sur R par γ : t 7→ x + tv est à valeurs dans X et vérifie γ(0) = x et


γ 0 (0) = v, donc v ∈ Tx (X). Par conséquent X ⊂ Tx (X).


En définitive, comme annoncé Tx (X) = X .
2. Soit E un espace euclidien de dimension n et S la sphère de centre O et de rayon R > 0. Soit x un vecteur de
S. Démontrons que Tx S est l’hyperplan vectoriel {x}⊥ .
• Soit v un vecteur tangent à S en x.
Il existe un arc γ défini sur V ∈ V(0), à valeurs dans S, dérivable en 0, tel que γ(0) = x et γ 0 (0) = v.
Pour tout t ∈ V , kγ(t)k2 = R2 , d’où, en dérivant en 0 : (γ 0 (0)|γ(0)) = 0. Ainsi (v|x) = 0. Le vecteur v est
orthogonal à x. Donc Tx (S) ⊂ {x}⊥ .
Puisque x 6= 0, l’espace {x}⊥ est un hyperplan.
• Réciproquement, soit v non nul un vecteur orthogonal à S en x. L’intersection de S et du plan Vect(x, v)
est un cercle de ce plan, support d’un arc dérivable γ tel que γ(0) = x et γ 0 (0) = v. Par conséquent v est
bien dans Tx S.
De plus, bien sûr, le vecteur nul est tangent à S en x. Donc {x}⊥ ⊂ Tx (S).
En définitive, comme annoncé Tx (S) est l’hyperplan vectoriel {x}⊥ .
L’hyperplan affine P = x + {x}⊥ passant par x et orthogonal à {x} est appelé hyperplan tangent à la sphère S
en x.

19.5.2 Hyperplan tangent à un ensemble


Proposition 19.43 : vecteurs tangents à l’ensemble des zéros d’une fonction
Soit g une fonction différentiable sur un ouvert U de E à valeurs réelles. Considérons l’ensemble X = g −1 ({0}) des
zéros de g. Soit x un point de X où la différentielle de g est non nulle : dg(x) 6= 0.
Alors un vecteur de E est tangent à X en x si et seulement si il appartient au noyau de la forme linéaire dg(x) :

si X = g −1 ({0}) alors Tx X = Ker (dg(x)).

Remarque 19.44 :
Si E est euclidien, alors Ker (dg(x)) = (∇g(x))⊥ . Par conséquent un vecteur est tangent à X en x si et seulement
si il est orthogonal au gradient de g en x.
De façon appliquée, voici comment déterminer l’hyperplan H = Tm0 (X) tangent à une surface X définie par
g(x) = 0 en un point m0 . On commence par calculer ∇g(m0 ). Alors une équation de H est (∇g(m0 )) · (x − m0 ) = 0.
Dans la pratique :
Corollaire 19.45 : droite tangent à une courbe plane définie par g(x, y) = 0
Une équation de la tangente au point m0 (x0 , y0 ) à une courbe plane définie par g(x, y) = 0 est :

∂g ∂g
TM0 : (X − x0 ) (x0 , y0 ) + (Y − y0 ) (x0 , y0 ) = 0.
∂x ∂y

Exemple 19.46 :
Déterminer la tangente au point (0, 1) à la courbe C d’équation :

x3 − x2 y + 2x2 + y 2 x − y 3 + 2y 2 − 1 = 0.

Corollaire 19.47 : plan tangent à pour une surface de R3 définie par g(x, y, z) = 0

Fénelon Sainte-Marie – La Plaine-Monceau 233/244 31 août 2022


19.6. OPTIMISATION MP 2022-23

Une équation du plan tangent au point m0 (x0 , y0 , z0 ) à la surface de R3 définie par g(x, y, z) = 0 est :

∂g ∂g ∂g
(X − x0 ) (x0 , y0 , z0 ) + (Y − y0 ) (x0 , y0 , z0 ) + (Z − z0 ) (x0 , y0 , z0 ) = 0.
∂x ∂y ∂z

Exemple 19.48 :
Cherchons le plan tangent à la surface d’équation x3 + y 3 + z 3 = 1 au point m0 (x0 , y0 , z0 ).

Corollaire 19.49 : dans R3 , plan tangent à une surface d’équation z = f (x, y)


Soit f une fonction différentiable sur un ouvert U de R2 à valeurs réelles. Soit S le graphe de f , c’est-à-dire la
surface de R3 d’équation z = f (x, y). Alors l’ensemble des vecteurs tangents à S en un point m0 = (x0 , y0 , z0 ) est le
plan vectoriel Π de vecteur normal :
 
∂f ∂f
n = (x0 , y0 ), (x0 , y0 ), −1 ,
∂x ∂y

autrement dit :    
∂f ∂f
Π = Vect 1, 0, (x0 , y0 ) , 0, 1, (x0 , y0 ) .
∂x ∂y
Le plan affine P passant par m0 de direction Π est appelé plan tangent à S en m0 .

Exemple 19.50 :
Considérons la surface S d’équation z = x2 + y 2 + 1. Déterminer le plan tangent à S en un point m0 = (x0 , y0 , z0 ).
p

19.6 Optimisation
Dans cette section, toutes les fonctions sont à valeurs réelles.

19.6.1 Extrema d’une fonction de classe C 1 de U dans R


Soit E un espace vectoriel réel de dimension finie, et f une fonction définie sur un ouvert U de E à valeurs réelles.
Soit a ∈ U .
Définition 19.51 : extrema d’une fonction de plusieurs variables
1. On dit que f présente un maximum (respectivement un minimum) local en a lorsque

∃r > 0, ∀x ∈ U ∩ B(a, r) f (x) ≤ f (a) (resp. f (x) ≥ f (a)).

2. On dit que f présente un maximum (respectivement un minimum) global en a lorsque

∀x ∈ U, f (x) ≤ f (a) (resp. f (x) ≥ f (a)).

3. Lorsque f présente un minimum ou un maximum local (respectivement global) en a, on dit que f présente un
extremum local (respectivement global) en a.

Théorème 19.52 : si extremum alors annulation de la différentielle


Si une fonction de classe C 1 sur un ouvert U de E présente un extremum local en un point a de U , alors la
différentielle de f en a est nulle : dfa = 0.

Remarque 19.53 :
Erreur classique ! La réciproque est fausse : dfa peut s’annuler en un point a sans que f admette un extremum
local en a.

Fénelon Sainte-Marie – La Plaine-Monceau 234/244 31 août 2022


CHAPITRE 19. CALCUL DIFFÉRENTIEL MP 2022-23

Quand bien même chaque application partielle présenterait un extremum local (même tous de même sens), il n’en
serait pas nécessairement de même pour f .
Exemple 19.54 :
Pour f (x, y) = y(y − x2 ), on a df(x,y) (h, k) = −2xyh + (2y − x2 )k. En particulier pour tout (h, k) ∈ R2 \ {(0, 0)},
on a df(0,0) (h, k) = 0.

Définition 19.55 : point critique


Un point a où dfa = 0 est appelé point critique.
Remarque 19.56 :
1. Le théorème indique seulement qu’il faut chercher les éventuels extrema locaux parmi les points critiques.
2. La condition dfa = 0 équivaut à ∇fa = 0 : les points critiques sont ceux où le vecteur gradient s’annule.

Remarque 19.57 :
Attention ! Bien vérifier que U est ouvert.
Exemple 19.58 : (
U = B(0, r) → R
La fonction f : présente un maximum local et même global en chaque point de la
(x, y) 7→ x2 + y 2
sphère de rayon r mais les dérivées partielles ne s’y annulent pas !
Méthode pour la recherche des points de A où f présente un extremum local
1. On se place sur un ouvert où f est de classe C 1 (éventuellement, on coupe l’ensemble considéré en frontière ∪
intérieur).
2. On cherche les points de l’ouvert où le gradient s’annule. Par définition, ces points sont appelés les points critiques.
3. Parmi les points critiques déterminés précédemment, on cherche ceux pour lesquels f présente effectivement un
extremum.
Exemple 19.59 :
Déterminer les éventuels extrema sur R2 de la fonction f : (x, y) 7→ 5x2 + 2y 2 − 2xy − 2x − 8y.

19.6.2 Extremum sous contrainte


Proposition 19.60 : extremum local d’une restriction de f
Soit f une fonction numérique définie sur un ouvert U de E et X une partie de U .
Si la restriction de f à X admet un extremum local en a et si f est différentiable en a, alors df (a) s’annule pour
tout vecteur tangent à X en a.

Exemple 19.61 :
Dans l’exemple précédent, à savoir optimiser f (x, y) = 5x2 + 2y 2 − 2xy − 2x − 8y, cherchons si la restriction de f
à la droite D d’équation y + x = 3 admet un extremum local. Ici la droite est dirigée par (1, −1) donc T(x,3−x) D =
Vect(1, −1) = D. Or : !
10x − 2y − 2
∇f (x, y) =
4y − 2x − 8
donc      
df (x, 3 − x) (1, −1) = (4x3 − 4(2 − x) − 4(2 − x)3 − 4x = 24(x − 1)2 .
 
2 7
Le seul extremum local possible est au point , . Comme la fonction f admet un minimum local en ce point, il
3 3
en est de même de la restriction de f à D, c’est cohérent.
Théorème 19.62 : optimisation sous une contrainte

Fénelon Sainte-Marie – La Plaine-Monceau 235/244 31 août 2022


19.7. DÉRIVÉES PARTIELLES D’ORDRE SUPÉRIEUR MP 2022-23

Soit f et g deux fonctions numériques définies sur un ouvert U de E.


Considérons X = g −1 − {0}) l’ensemble des zéros de g et a un élément de X. Si g est différentiable en a avec
dg(a) 6= 0 et si la restriction de f à X admet un extremum local en a, alors df (a) est colinéaire à dg(a).

Remarque 19.63 :
Si E est un espace euclidien, alors sous les mêmes conditions en un point a où la restriction de f à X admet un
extremum local, les gradients de f et de g sont colinéaires :
∃λ ∈ R, ∇f (a) = λ∇g(a).

Dans la pratique, on se sert de ce théorème pour chercher les extrema locaux d’une fonction f sous une contrainte
représentée par l’annulation d’une fonction g.
Exemple 19.64 :
Pour une quantité de métal donnée, chercher le volume maximal d’une casserole.

19.7 Dérivées partielles d’ordre supérieur


19.7.1 Théorème de Schwarz
Soit E et F deux espaces vectoriels normés réels de dimension finie, et f une fonction définie sur un ouvert U de
E à valeurs dans F . E est rapporté à une base B = (ei )i∈[[1,p]] . On suppose que f possède une i-ième dérivée partielle
∂f
Di f ou . Cette dernière peut elle-même possèder une j-ième dérivée partielle :
∂xi
∂2f
 
∂ ∂f
Dj,i f = Dj (Di f ) ou
2
=
∂xj ∂xi ∂xj ∂xi
appelée dérivée partielle seconde de f par rapport aux variables xi , xj .
On peut ainsi définir, lorsque c’est possible, des dérivées partielles troisièmes, quatrièmes, . . ., d’ordre k.
Théorème 19.65 : théorème de Schwarz
Soit f une fonction de E dans F admettant sur un ouvert U de E des dérivées partielles secondes Dj,i 2
f et Di,j
2
f.
Alors en tout point a de U où ces deux fonctions sont continues, elles prennent la même valeur :
∂2f ∂2f
2
Dj,i 2
f (a) = Di,j f (a) c’est-à-dire (a) = (a).
∂xj ∂xi ∂xi ∂xj

Conformément au programme, nous admettrons ce théorème sans démonstration.

19.7.2 Algèbre C k (U )
Définition 19.66 : fonction de classe C k
La fonction f est dite de classe C k sur U si elle admet en tout point de U toutes ses dérivées partielles d’ordre k
et qu’elles sont continues sur U .
Elle est dite de classe C ∞ sur U si elle admet en tout point de U toutes ses dérivées partielles à tout ordre.
Proposition 19.67 : structure de C k (U, F ) et de C k (U )
Soit k ∈ N ∪ {∞}. Alors :
1. L’ensemble des fonctions de classe C k de U dans F est un espace vectoriel, noté C k (U, F ).
2. Si F = R, alors l’espace vectoriel C k (U, R) possède de plus une structure d’anneau, donc de R-algèbre, notée
C k (U ).
3. La composition d’applications de classe C k est de classe C k .

Ces résultats nous aideront pour résoudre des équations aux dérivées partielles, cf. les TD.

Fénelon Sainte-Marie – La Plaine-Monceau 236/244 31 août 2022


CHAPITRE 19. CALCUL DIFFÉRENTIEL MP 2022-23

19.7.3 Exemples d’équations aux dérivées partielles


Méthode pour résoudre une équation aux dérivées partielles :
1. Si un changement de variable est suggéré, suivre l’indication !
2. Si aucun changement de variable n’est suggéré, et si aucune méthode de résolution évidente ne saute aux yeux,
alors on passe aux coordonnées polaires.
Exemple 19.68 :
Trouver toutes les applications f : R2 → R telles que

∂2f
∀(x, y) ∈ R2 , = 0.
∂x∂y

Exemple 19.69 :
équation des cordes vibrantes –
Considérons une corde tendue et soumise à une force, par exemple une corde de guitare écartée de sa position
d’équilibre puis relâchée. On suppose la corde horizontale à l’équilibre.
Un point de la corde dont la position à l’équilibre est (x, 0) se trouve à l’instant t en (x, z(x, t)) et l’équation
∂2z 1 ∂2z
régissant la déformation de la corde s’écrit : − = 0, où c > 0 est une constante dépendant de la masse
∂x2 c2 ∂t2
linéique de la corde et de la force avec laquelle elle est tendue.

Résoudre cette équation aux dérivées partielles en cherchant toutes les applications z sous la forme d’une application
de classe C 2 de R2 dans R, à l’aide du changement de variables défini par X = x + ct, Y = x − ct.

19.8 Optimisation : étude au second ordre


Nous allons voir ici que pour une fonction de classe C 2 sur un ouvert U de Rn , à valeurs réelles, la caractérisation
des extrema locaux parmi les points critiques se ramène à un calcul très simple.

19.8.1 Matrice hessienne


Définition 19.70 : matrice hessienne de f en a
Soit f une fonction de classe C 2 sur un ouvert U de Rn , à valeurs réelles. On appelle matrice hessienne de f en un
point a de U la matrice
 2 
∂ f
Hf (a) = (a) .
∂xi ∂xj (i,j)∈[[1,n]]2

Remarque 19.71 :
D’après le théorème de Schwarz 19.65), la matrice hessienne de f en a est symétrique.

Fénelon Sainte-Marie – La Plaine-Monceau 237/244 31 août 2022


19.8. OPTIMISATION : ÉTUDE AU SECOND ORDRE MP 2022-23

19.8.2 Formule de Taylor-Young à l’ordre 2


Proposition 19.72 : formule de Taylor-Young à l’ordre 2 de f en a
Soit f une fonction de classe C 2 sur un ouvert U de Rn , à valeurs réelles et a ∈ U . Alors :

h→0 1
f (a + h) = f (a) + (∇f (a)|h) + (Hf (a) · h|h) + o(khk2 ).
2

Nous admettrons ce théorème sans démonstration.


Remarque 19.73 :
Si l’on identifie le vecteur h à une matrice colonne h ∈ Mn,1 (R), alors on peut écrire la formule de Taylor-Young
sous forme matricielle :
h→0 1
f (a + h) = f (a) + t∇f (a) · h + th · Hf (a) · h + o(khk2 ).
2

19.8.3 Application à la recherche d’extrema locaux


Proposition 19.74 : condition nécessaire d’extremum local
Soit f une fonction de classe C 2 sur un ouvert U de Rn , à valeurs réelles.
Si f admet un minimum (resp. maximum) local en un point a de U , alors a est un point critique de f et la matrice
Hf (a) (resp. −Hf (a)) est symétrique positive.

Attention, la réciproque n’est toujours pas vérifiée. Une condition supplémentaire doit être demandée à la matrice
Hf (a) pour cela :
Proposition 19.75 : condition suffisante d’extremum local
Soit f une fonction de classe C 2 sur un ouvert U de Rn , à valeurs réelles.
Si a est un point critique de f et si la matrice Hf (a) (resp. −Hf (a)) est définie positive, alors f admet un minimum
(resp. maximum) local strict en a.

19.8.4 Cas n = 2
!
r s
Dans le cas où n = 2, on utilise souvent la notation de Monge : Hf (a) = . Comme Hf (a) est symétrique
s t
réelle, elle possède deux valeurs propres réelles λ1 et λ2 . On sait que :
(
λ1 + λ2 = tr (Hf (a)) = r + t;
λ1 λ2 = det(Hf (a)) = rt − s2 .

La matrice Hf (a) est symétrique positive (resp. définie positive) si et seulement si λ1 et λ2 sont toutes deux positives
(resp. strictement positives), c’est-à-dire si et seulement si rt − s2 ≥ 0 (resp. > 0) et r + t ≥ 0 (resp. > 0). On en
déduit la proposition suivante :
Proposition 19.76 : extremum local d’une fonction de classe C 2 de R2 dans R
Soit f une fonction de classe C 2 sur un ouvert U de R2 , à valeurs réelles. Posons :

∂2f ∂2f ∂2f


r = (a, b), s = (a, b) et t = (a, b).
∂x2 ∂x∂y ∂y 2

Si (a, b) est un point critique de f tel que rt − s2 > 0, alors f présente un extremum local strict au point (a, b). Il
s’agit d’un minimum local si r + t > 0 et d’un maximum local si r + t < 0.
Exemple 19.77 :

Fénelon Sainte-Marie – La Plaine-Monceau 238/244 31 août 2022


CHAPITRE 19. CALCUL DIFFÉRENTIEL MP 2022-23

Chercher les extrema locaux de la fonction f définie sur R2 par :

f (x, y) = (x2 + 2y − 4)ex+y .

Le gradient de f au point (x, y) est :


!
(x2 + 2x + 2y − 4)ex+y
∇f (x, y) = .
(x2 + 2y − 2)ex+y

Les points critiques de f sont les points (x, y) tels que x2 + 2x + 2y − 4 = 0 et x2 + 2y − 2 = 0, c’est-à-dire
 par
2 − x2

1 1
soustraction 2x − 2 = 0, d’où x = 1, puis y = = . La fonction f possède donc un seul point critique : 1, .
2 2 2
Déterminons la matrice hessienne de f en ce point :

∂2f



2
(x, y) = (x2 + 4x + 2y − 2)ex+y
∂x


 ∂2f

(x, y) = (x2 + 2x + 2y − 2)ex+y
 ∂x∂y
∂2f


(x, y) = (x2 + 2y)ex+y



∂y 2
 
1
D’où, au point 1, :
2 !
  3 3
1 4e 2 2e 2
Hf 1, = 3 3 .
2 2e 2 2e 2
Remarquons que :
    
1 1
• det Hf 1, = 4e > 0, donc Hf 1,
3
∈ Sn++ (R) : la fonction f admet un extremum local strict en
  2 2
1
1, .
2
  
1 3
• tr Hf 1, = 6e 2 > 0 : il s’agit donc d’un minimum local strict.
2
 
3 3
La valeur de ce minimum est f 1, = −2e 2 .
2
Remarque 19.78 :
1. Si rt − s2 < 0 alors f n’admet pas en (a, b) d’extremum, mais un point col (ou point selle).
2. Si rt − s2 = 0 alors on ne peut pas conclure quant à l’existence d’un extremum. Il faudrait pousser le dévelop-
pement limité plus loin !

EPCC : 33, 52, 56, 57, 58.

The end – chapitre 19

Fénelon Sainte-Marie – La Plaine-Monceau 239/244 31 août 2022


19.8. OPTIMISATION : ÉTUDE AU SECOND ORDRE MP 2022-23

Fénelon Sainte-Marie – La Plaine-Monceau 240/244 31 août 2022


Chapitre 20

Compacité et connexité par arcs

Soit E un espace vectoriel normé sur K (R ou C).

20.1 Compacité
20.1.1 Théorème de Bolzano-Weierstrass
Théorème 20.1 : Bolzano-Weierstrass
Toute suite bornée d’un espace vectoriel normé de dimension finie possède une valeur d’adhérence.

20.1.2 Parties compactes


Définition 20.2 : partie compacte
Une partie de E est dite compacte lorsque de toute suite d’éléments de A on peut extraire une suite qui converge
et le fait dans A.
Proposition 20.3 : propriétés des parties compactes
1. Une intersection de parties compactes est compacte.
2. Une réunion finie de parties compactes est compacte.
3. Toute partie fermée d’une partie compacte est compacte.
4. Tout produit fini de parties compactes est compact.

Théorème 20.4 : compact ⇒ fermé borné


Soit E un espace vectoriel normé. Toute partie compacte de E est fermée et bornée.

Proposition 20.5 : CNS de convergence d’une suite d’éléments d’un compact


Une suite d’éléments d’une partie compacte est convergente si et seulement si elle admet une seule valeur d’adhé-
rence.

20.1.3 Parties compactes d’un espace vectoriel normé de dimension finie


Théorème 20.6 : en dimension finie : compact ⇐⇒ fermé borné
Si E est un espace vectoriel normé de dimension finie, alors une partie de E est compacte si et seulement si elle
est fermée et bornée.

Exemple 20.7 :

241
20.1. COMPACITÉ MP 2022-23

• Un segment [a, b] est un intervalle compact de R.


• L’ensemble des nombres complexes de module 1 est une partie compacte de C.
• La boule unité fermée de Rn ou Cn est compacte.
• Une ellipse est une partie compacte de R2 .

Remarque 20.8 :
Si E est de dimension infinie alors une partie fermée bornée n’est pas nécessairement compacte. Considérons par
Xn
exemple K[X] muni de la norme définie pour P = ak X k par kP k = max k |ak |.
k=0

• L’ensemble des monômes unitaires A = {X n ; n ∈ N} est fermé car si une suite de tels monômes converge, alors
elle est stationnaire donc sa limite est dans A.
• L’ensemble A est borné car kX n k = 1 pour tout n.
• Mais A n’est pas compact car de la suite (X n )n∈N∗ on ne peut extraire aucune suite convergente.

Proposition 20.9 : Tout SEV de dimension finie est fermé


Dans un espace vectoriel normé, tout sous-espace vectoriel de dimension finie est fermé.

Proposition 20.10 : CNS de convergence d’une suite bornée en dimension finie


Une suite bornée d’un espace de dimension finie est convergente si et seulement si elle admet une seule valeur
d’adhérence.

20.1.4 Image d’une partie compacte par une application continue


Théorème 20.11 : l’image continue d’un compact est un compact
Soit E et F deux espaces vectoriels normés et f une application d’une partie A de E dans F . Si f est continue
alors l’image de toute partie compacte incluse dans A est une partie compacte de F .
En d’autres termes l’image continue d’un compact est un compact.

Corollaire 20.12 : fonction continue sur un compact et à valeurs réelles


Soit E un espace vectoriel normé. Toute application continue sur un compact de E à valeurs dans R est bornée et
atteint ses bornes.

Remarque 20.13 :
En particulier si K est un segment de R, on retrouve un théorème vu en Première Année : toute application
continue sur un segment est bornée, et atteint ses bornes.
Plus généralement :
Corollaire 20.14 : application continue sur un compact et à valeurs vectorielles
Soit E et F deux espaces vectoriels normés. Toute application continue sur un compact de E et à valeurs dans F
est bornée, et la borne supérieure de sa norme est atteinte.

20.1.5 Théorème de Heine


On peut généraliser le théorème de Heine vu en Première Année :
Théorème 20.15 : Heine
Soit E et F deux espaces vectoriels normés. Toute application continue sur un compact K de E et à valeurs dans
F est uniformément continue sur K.

Fénelon Sainte-Marie – La Plaine-Monceau 242/244 31 août 2022


CHAPITRE 20. COMPACITÉ ET CONNEXITÉ PAR ARCS MP 2022-23

20.2 Notions de connexité par arcs


On veut généraliser à une partie d’un espace vectoriel normé la notion d’intervalle de R, c’est-à-dire de partie où
l’on peut joindre un point à un autre sans quitter la partie.

20.2.1 Parties convexes


Soit E un espace vectoriel normé.
Définition 20.16 : partie convexe
1. Pour (x, y) ∈ E 2 , on appelle segment l’ensemble :

[x, y] = {tx + (1 − t)y ; t ∈ [0, 1]}.

2. Une partie A de E est dite convexe lorsque pour tous points x et y de A, le segment [x, y] est inclus dans A.

Exemple 20.17 :
1. Un sous-espace vectoriel est convexe.
2. Une boule ouverte ou fermée est convexe.
3. Les parties convexes de R sont les intervalles.
4. Les bananes ne sont pas convexes.
5. L’ensemble C privé d’un ensemble A non vide n’est pas convexe.

Nous avons étudié plus en détail cette notion de convexité en Sup.

20.2.2 Partie étoilée


Soit E un espace vectoriel normé.
Définition 20.18 : partie étoilée
Une partie A de E est dite étoilée lorsqu’il existe un point a de A tel que pour tout x de A, le segment [a, x] est
inclus dans A.
Exemple 20.19 :
1. Une partie est convexe si et seulement si elle est étoilée par rapport à chacun de ses points.
2. Le plan privé d’une demi-droite est étoilé.
3. Les parties étoilées de R sont les intervalles.
4. L’espace privé d’une droite n’est pas étoilé.

20.2.3 Parties connexes par arcs


Soit E un espace vectoriel normé et A une partie de E.
Définition 20.20 : chemin
On appelle chemin de A toute application continue γ de [0, 1] dans A, et arc l’ensemble des points de A atteints :
γ([0, 1]). Les points γ(0) et γ(1) sont appelés extrémités de l’arc.
Proposition 20.21 : une relation d’équivalence
On définit une relation d’équivalence sur A en posant « aRb lorsqu’il existe un chemin continu de a vers b ».

Définition 20.22 : connexité par arcs


1. Les classes d’équivalence de cette relation d’équivalence sont appelées les composantes connexes par arcs de A.

Fénelon Sainte-Marie – La Plaine-Monceau 243/244 31 août 2022


20.2. NOTIONS DE CONNEXITÉ PAR ARCS MP 2022-23

2. Une partie A de E est dite connexe par arcs lorsqu’elle n’admet qu’une seule composante connexe par arcs. En
d’autres termes : pour tous points a et b de A, il existe un arc d’extrémités a et b inclus dans A.

Exemple 20.23 :
1. Une sphère est connexe par arcs.
2. Important : les parties de R connexes par arcs sont les intervalles.
3. L’ensemble C∗ est une partie de C connexe par arcs.
4. L’ensemble R∗ admet deux composantes connexes par arcs, à savoir R∗+ et R∗− .
C’est ce qui permet d’orienter un espace vectoriel réel, mais pas un espace vectoriel complexe.
5. Une partie étoilée par rapport à un de ses points est connexe par arcs.
6. Une partie convexe est connexe par arcs.
7. L’ensemble Z n’est pas connexe par arcs. Chacun de ses points est une composante connexe par arcs : on dit que
Z est totalement discontinu.
8. Une couronne est connexe par arcs.

20.2.4 Image continue d’une partie connexe par arcs


Théorème 20.24 : l’image continue d’une partie cpa est cpa
Soit E et F deux espaces vectoriels normés et f une application d’une partie A de E dans F .
Si f est continue, alors l’image d’une partie connexe par arcs de A est connexe par arcs dans F .
En d’autres termes l’image continue d’un ensemble connexe par arcs est connexe par arcs.

Corollaire 20.25 : théorème des valeurs intermédiaires


Soit E un espace vectoriel normé et f une application d’une partie A de E dans R. Si f est continue alors l’image
d’une partie connexe par arcs de A est un intervalle de R.
En d’autres termes si f atteint sur une partie connexe par arcs deux valeurs réelles c et d alors elle atteint sur cette
partie toute valeur intermédiaire entre c et d.
Remarque 20.26 :
Ce résultat généralise le théorème des valeurs intermédiaires vu en Première Année pour les fonctions continues
sur un intervalle de R.

EPCC : 13, 58 bis.

The end – chapitre 20

Fénelon Sainte-Marie – La Plaine-Monceau 244/244 31 août 2022

Vous aimerez peut-être aussi