Vous êtes sur la page 1sur 230

Table des matières

1 Structures algébriques usuelles 11


1.1 Loi de composition interne (rappels de MPSI) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.1.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.1.2 Associativité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.1.3 Commutativité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.1.4 Élément neutre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.1.5 Élément régulier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.1.6 Élément symétrisable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.1.7 Distributivité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.1.8 Notations additive et multiplicative . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.2 Structure de groupe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.2.1 Structure de groupe (rappels de MPSI) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.2.2 Sous-groupe (rappels de MPSI) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.2.3 Intersection de groupes, groupe engendré par une partie . . . . . . . . . . . . . . . . . . . . . . 16
1.2.4 Les sous-groupes du groupe (Z, +) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.3 Morphisme de groupes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.3.1 Définition et premières propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.3.2 Noyau et image d’un morphisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.3.3 Isomorphisme de groupes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.3.4 Exemple fondamental : le groupe symétrique (rappels de MPSI) . . . . . . . . . . . . . . . . . 18
1.4 Groupe monogène, groupe cyclique, le groupe Z/nZ . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.4.1 Relation d’équivalence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.4.2 Congruence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.4.3 Le groupe quotient Z/nZ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.4.4 Éléments générateurs du groupe (Z/nZ, +) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.4.5 Produit des groupes (Z/nZ, +) et (Z/pZ, +) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.4.6 Ordre d’un élément dans un groupe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

2 Anneaux, corps, algèbres 25


2.1 Structures d’anneau, de corps . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.1.1 Définition d’un anneau et exemples fondamentaux (rappel de MPSI) . . . . . . . . . . . . . . . 25
2.1.2 Règles de calcul dans un anneau (rappel de MPSI), éléments inversibles . . . . . . . . . . . . . 25
2.1.3 Sous-anneau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.1.4 Produit d’anneaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.1.5 Morphisme d’anneaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.1.6 Intégrité, corps (rappel de MPSI) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.2 Idéal d’un anneau commutatif . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.2.1 Définition et premières propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.2.2 Idéaux de Z . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.3 L’anneau Z/nZ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31

1
TABLE DES MATIÈRES MP 2020-21

2.3.1 Multiplication dans Z/nZ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31


2.3.2 Éléments inversibles de l’anneau Z/nZ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.3.3 Calcul de l’indicatrice d’Euler d’un entier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.4 Anneau des polynômes à une indéterminée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.4.1 Idéaux de K[X] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.4.2 PGCD et PPCM de polynômes, polynômes premiers entre eux . . . . . . . . . . . . . . . . . . 33
2.4.3 Irréductibles de K[X] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.5 Structure d’algèbre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35

3 Espaces vectoriels normés 37


3.1 Normes et distances . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
3.1.1 Définition d’une norme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
3.1.2 Distance associée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.1.3 Norme euclidienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.1.4 Partie bornée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3.1.5 Applications lipschitziennes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.1.6 Produit d’une famille finie d’EVN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.2 Suites d’éléments d’un EVN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.2.1 Convergence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.2.2 Normes équivalentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.2.3 Suites extraites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.3 Comparaison des suites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3.3.1 Domination . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3.3.2 Négligeabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3.3.3 Équivalence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44

4 Topologie 45
4.1 Notions topologiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.1.1 Voisinages . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.1.2 Ouverts et fermés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.1.3 Adhérence d’une partie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
4.1.4 Caractérisation séquentielle de l’adhérence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
4.1.5 Intérieur d’une partie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
4.1.6 Liens entre adhérence et intérieur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
4.1.7 Frontière d’une partie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
4.1.8 Topologie induite sur une partie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
4.2 Étude locale d’une application . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
4.2.1 Limite en un point . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
4.2.2 Opérations sur les limites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
4.2.3 Caractérisation séquentielle de l’existence d’une limite d’une fonction . . . . . . . . . . . . . . . 51
4.2.4 Relations de comparaison . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
4.2.5 Applications continues . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
4.2.6 Image réciproque d’un ouvert ou d’un fermé par une application continue . . . . . . . . . . . . 52
4.2.7 Homéomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.2.8 Continuité uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.3 Applications linéaires continues, bilinéaires continues . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
4.3.1 Caractérisation des applications linéaires continues . . . . . . . . . . . . . . . . . . . . . . . . . 54
4.3.2 Caractérisation de la continuité d’une application bilinéaire . . . . . . . . . . . . . . . . . . . . 55
4.3.3 Norme d’une application linéaire continue – HORS-PROGRAMME . . . . . . . . . . . . . . . 55
4.3.4 Algèbre normée unitaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56

Fénelon Sainte-Marie – La Plaine-Monceau 2/230 28 août 2020


TABLE DES MATIÈRES MP 2020-21

5 Éléments propres 57
5.1 Sous-espaces stables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
5.1.1 Matrices semblables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
5.1.2 Sous-espace vectoriel stable par un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . 57
5.1.3 Caractérisation matricielle de la stabilité d’un SEV . . . . . . . . . . . . . . . . . . . . . . . . . 57
5.1.4 Endomorphisme diagonalisable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
5.1.5 Endomorphisme trigonalisable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
5.2 Polynômes d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
5.2.1 Morphisme P 7→ P (u) ; noyau et image de ce morphisme . . . . . . . . . . . . . . . . . . . . . . 59
5.2.2 Polynôme caractéristique d’un endomorphisme d’un EV de dimension finie . . . . . . . . . . . 61
5.2.3 Théorème de décomposition des noyaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
5.3 Éléments propres d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
5.3.1 Valeurs propres et vecteurs propres d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . 62
5.3.2 Sous-espaces propres associés à des valeurs propres distinctes . . . . . . . . . . . . . . . . . . . 63
5.3.3 Valeurs propres et polynômes annulateurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
5.3.4 Polynôme caractéristique et sous-espaces stables . . . . . . . . . . . . . . . . . . . . . . . . . . 64
5.3.5 Théorème de Cayley-Hamilton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64

6 Séries de nombres réels ou de vecteurs 67


6.1 Séries réelles ou vectorielles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
6.1.1 Définition d’une série — rappels de MPSI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
6.1.2 Une condition nécessaire de convergence d’une série — rappels de MPSI . . . . . . . . . . . . . 68
6.1.3 Séries absolument convergentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
6.1.4 Espaces `1 (E), `2 (C) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
6.1.5 Application des séries absolument convergentes : la série géométrique . . . . . . . . . . . . . . . 69
6.1.6 Application des séries absolument convergentes : la série exponentielle . . . . . . . . . . . . . . 70
6.1.7 Cas des séries réelles alternées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
6.2 Encore une application des séries AC : produit de Cauchy de suites . . . . . . . . . . . . . . . . . . . . 72
6.2.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
6.2.2 Convergence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
6.3 Compléments sur les séries réelles à termes positifs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
6.3.1 Majoration des sommes partielles d’une série à termes réels positifs — rappel de MPSI . . . . . 73
6.3.2 Comparaison d’une série à termes positifs à une intégrale — rappel de MPSI . . . . . . . . . . 74
6.3.3 Règle de d’Alembert pour les séries réelles à termes positifs . . . . . . . . . . . . . . . . . . . . 74
6.3.4 Sommation des relations de comparaison, pour les séries réelles à termes positifs . . . . . . . . 75
6.3.5 Application de la sommation des relations de comparaison : formule de Stirling . . . . . . . . . 76

7 Réduction des endomorphismes en dimension finie 77


7.1 Diagonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
7.1.1 Définition d’un endomorphisme diagonalisable . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
7.1.2 Caractérisation de la diagonalisabilité par la dimension des sous-espaces propres . . . . . . . . 77
7.1.3 Caractérisation par le polynôme minimal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
7.1.4 Matrice carrée diagonalisable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
7.2 Trigonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
7.2.1 Définition d’un endomorphisme trigonalisable . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
7.2.2 Caractérisation de la trigonalisabilité par le polynôme minimal ou le polynôme caractéristique . 79
7.2.3 Matrice carrée trigonalisable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
7.3 Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
7.3.1 Commutant d’un endomorphisme ou d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . 80
7.3.2 Puissances d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
7.3.3 Suites récurrentes linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80

Fénelon Sainte-Marie – La Plaine-Monceau 3/230 28 août 2020


TABLE DES MATIÈRES MP 2020-21

7.3.4 Équations algébriques d’inconnues matricielles . . . . . . . . . . . . . . . . . . . . . . . . . . . 81


7.3.5 Déterminant et trace des puissances d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . 81
7.4 Trigonalisation à l’aide des sous-espaces caractéristiques . . . . . . . . . . . . . . . . . . . . . . . . . . 81
7.4.1 Endomorphismes nilpotents, matrices nilpotentes . . . . . . . . . . . . . . . . . . . . . . . . . 81
7.4.2 Espaces caractéristiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82

8 Familles sommables de nombres réels ou complexes 85


8.1 Dénombrabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
8.1.1 Ensembles dénombrables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
8.1.2 Produit cartésien d’ensembles dénombrables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
8.1.3 Réunion d’ensembles dénombrables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
8.1.4 Cas de l’ensemble R . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
8.2 Familles sommables de nombres réels ou complexes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
8.2.1 Familles sommables de nombres réels positifs . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
8.2.2 Familles sommables de nombres réels ou complexes . . . . . . . . . . . . . . . . . . . . . . . . . 88
8.2.3 Permutation des termes d’une série absolument convergente . . . . . . . . . . . . . . . . . . . . 88
8.2.4 Sommation par paquets de nombres réels ou complexes . . . . . . . . . . . . . . . . . . . . . . 89
8.3 Séries doubles (I = N × N) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
8.3.1 Interversion des sommations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
8.3.2 Sommation triangulaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
8.3.3 Retour sur le produit de Cauchy de deux séries absolument convergentes . . . . . . . . . . . . . 91

9 suites et séries de fonctions 93


9.1 Convergence d’une suite de fonctions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
9.1.1 Convergence simple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
9.1.2 Convergence uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
9.1.3 Convergence uniforme sur tout compact . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
9.1.4 Limite uniforme d’une suite de fonctions bornées . . . . . . . . . . . . . . . . . . . . . . . . . . 95
9.1.5 Limite uniforme d’une suite de fonctions continues . . . . . . . . . . . . . . . . . . . . . . . . . 95
9.2 Convergence d’une série de fonctions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
9.2.1 Convergence uniforme d’une série de fonctions . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
9.2.2 Convergence normale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
9.2.3 Lien entre convergence normale et convergence uniforme . . . . . . . . . . . . . . . . . . . . . . 97
9.3 Extension aux fonctions vectorielles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
9.3.1 Suites et séries de fonctions à valeurs dans un espace vectoriel normé de dimension finie . . . . 97
9.3.2 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
9.4 Approximation des fonctions d’une variable réelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
9.4.1 Fonctions en escalier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
9.4.2 Fonctions continues par morceaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
9.4.3 Approximation uniforme des fonctions continues par morceaux par des fonctions en escalier . . 99
9.4.4 Approximation uniforme des fonctions continues par des fonctions affines par morceaux . . . . 100
9.4.5 Approximation uniforme des fonctions continues par des fonctions polynomiales . . . . . . . . . 100

10 Fonctions vectorielles d’une variable réelle 101


10.1 Dérivation des fonctions vectorielles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
10.1.1 Dérivée en un point . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
10.1.2 Dérivée globale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
10.1.3 Applications de classe C 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
10.1.4 Opérations sur les fonctions dérivables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
10.1.5 Théorèmes généraux pour les fonctions à valeurs réelles — rappels de MPSI . . . . . . . . . . . 103
10.1.6 Dérivées d’ordres supérieurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105

Fénelon Sainte-Marie – La Plaine-Monceau 4/230 28 août 2020


TABLE DES MATIÈRES MP 2020-21

10.2 Intégration sur un segment . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105


10.2.1 Intégrale d’une fonction continue par morceaux sur un segment . . . . . . . . . . . . . . . . . . 105
10.2.2 Premières propriétés de l’intégrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
10.2.3 Primitives d’une fonction continue . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
10.2.4 Intégration et développements limités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
10.2.5 Intégration par parties et applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
10.2.6 Norme de la convergence en moyenne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
10.2.7 Échange limite-intégrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
10.2.8 Norme de la convergence en moyenne quadratique . . . . . . . . . . . . . . . . . . . . . . . . . 112
10.3 Primitives et dérivées des suites et séries de fonctions . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
10.3.1 Primitivation de la limite d’une suite de fonctions qui converge uniformément . . . . . . . . . . 113
10.3.2 Primitivation d’une série de fonctions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
10.3.3 Dérivation de la limite d’une suite de fonctions . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
10.3.4 Dérivation terme à terme d’une série de fonctions . . . . . . . . . . . . . . . . . . . . . . . . . . 113
10.3.5 Extension aux suites et séries de fonctions de classe C k . . . . . . . . . . . . . . . . . . . . . . . 114
10.4 Arcs paramétrés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
10.4.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
10.4.2 Point régulier, tangente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
10.4.3 Exemple d’étude complète . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117

11 Séries entières 119


11.1 Définition et convergence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
11.1.1 Série entière . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
11.1.2 Lemme d’Abel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
11.1.3 Rayon de convergence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
11.1.4 Règle de d’Alembert pour les séries entières . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
11.2 Opérations sur les séries entières . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
11.2.1 Somme de deux séries entières . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
11.2.2 Produit de Cauchy de deux séries entières . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
11.2.3 Exemple de la fonction exponentielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
11.3 Étude sur le disque ouvert de convergence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
11.3.1 Convergence normale sur tout disque fermé du disque de convergence . . . . . . . . . . . . . . 123
11.3.2 Continuité de la somme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
11.4 Série entière d’une variable réelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
11.4.1 Dérivation terme à terme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
11.4.2 Intégration terme à terme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
11.5 Développement en série entière . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
11.5.1 Fonction développable en série entière . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
11.5.2 Développements en série entière usuels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125

12 Intégration sur un intervalle quelconque 127


12.1 Intégrales impropres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
12.1.1 Intégrales impropres sur un intervalle semi-ouvert . . . . . . . . . . . . . . . . . . . . . . . . . . 127
12.1.2 Intégrales impropres sur un intervalle ouvert . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
12.1.3 Une propriété séquentielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
12.2 Intégration sur un intervalle quelconque . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
12.2.1 Fonctions intégrables positives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
12.2.2 Critères d’intégrabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
12.2.3 Exemples de référence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
12.2.4 Propriétés de l’intégrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
12.2.5 Fonctions intégrables complexes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131

Fénelon Sainte-Marie – La Plaine-Monceau 5/230 28 août 2020


TABLE DES MATIÈRES MP 2020-21

12.2.6 Changement de variable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131


12.3 Convergence en moyenne, en moyenne quadratique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
12.3.1 Norme de la convergence en moyenne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
12.3.2 Norme de la convergence en moyenne quadratique . . . . . . . . . . . . . . . . . . . . . . . . . 132
12.3.3 Lien entre les deux normes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
12.4 Suites et séries de fonctions intégrables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
12.4.1 Théorème de convergence dominée (intégration terme à terme d’une suite de fonctions) . . . . 134
12.4.2 Intégration terme à terme d’une série de fonctions . . . . . . . . . . . . . . . . . . . . . . . . . 135
12.5 Intégrales dépendant d’un paramètre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
12.5.1 Continuité sous le signe somme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
12.5.2 Dérivation sous le signe somme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
12.5.3 Application : la fonction Γ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137

13 Espaces préhilbertiens réels 139


13.1 Formes bilinéaires — rappels de MPSI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139
13.1.1 Formes bilinéaires symétriques — rappels de MPSI . . . . . . . . . . . . . . . . . . . . . . . . . 139
13.1.2 Expression matricielle en dimension finie — rappels de MPSI . . . . . . . . . . . . . . . . . . . 139
13.1.3 Formes bilinéaires symétriques positives, définies positives — rappels de MPSI . . . . . . . . . 140
13.2 Espace préhilbertien réel — rappels de MPSI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
13.2.1 Produit scalaire — définition et exemples — rappels de MPSI . . . . . . . . . . . . . . . . . . . 140
13.2.2 Deux théorèmes — rappels de MPSI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
13.2.3 Propriétés des normes et produits scalaires — rappels de MPSI . . . . . . . . . . . . . . . . . . 141
13.3 Orthogonalité — rappels de MPSI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
13.3.1 Vecteurs orthogonaux — rappels de MPSI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
13.3.2 Sous-espaces orthogonaux — rappels de MPSI . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
13.3.3 Supplémentaire orthogonal — rappels de MPSI . . . . . . . . . . . . . . . . . . . . . . . . . . . 144
13.3.4 Familles orthogonales, orthonormales — rappels de MPSI . . . . . . . . . . . . . . . . . . . . . 145
13.4 Projection orthogonale, distance à un SEV de dimension finie — rappels de MPSI . . . . . . . . . . . 145
13.4.1 Définition et exemple — rappels de MPSI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
13.4.2 Expression d’une projection (sur un SEV de dim. finie) dans une BON — rappels de MPSI . . 146
13.4.3 Distance d’un point à un sous-espace de dimension finie — rappels de MPSI . . . . . . . . . . 147
13.5 Espaces euclidiens — rappels de MPSI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148
13.5.1 Bases orthonormales — rappels de MPSI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148
13.5.2 Orthonormalisation de Gram-Schmidt – rappels de MPSI . . . . . . . . . . . . . . . . . . . . . 149
13.6 Suites totales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
13.6.1 Définition et premières propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
13.6.2 Suites orthonormales totales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150
13.6.3 Polynômes orthogonaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150

14 Automorphismes autoadjoints, endomorphismes symétriques 153


14.1 Automorphismes orthogonaux et matrices orthogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . 153
14.1.1 Automorphismes orthogonaux — rappels de MPSI . . . . . . . . . . . . . . . . . . . . . . . . . 153
14.1.2 Matrices orthogonales — rappels de MPSI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154
14.1.3 Changement de base orthonormale — rappels de MPSI . . . . . . . . . . . . . . . . . . . . . . 155
14.1.4 Automorphismes orthogonaux, déterminant (et spectre) — rappels de MPSI . . . . . . . . . . 155
14.1.5 Générateurs du groupe orthogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
14.2 Automorphismes orthogonaux du plan — rappels de MPSI . . . . . . . . . . . . . . . . . . . . . . . . 156
14.2.1 Étude de O2 (R) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
14.2.2 Étude de SO2 (R) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157
14.2.3 Étude de SO(E) pour E e.v.e. de dimension 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . 157
14.2.4 Réflexions vectorielles du plan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157

Fénelon Sainte-Marie – La Plaine-Monceau 6/230 28 août 2020


TABLE DES MATIÈRES MP 2020-21

14.3 Automorphismes orthogonaux de l’espace . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158


14.3.1 Étude de SO(E), E e.v.e. de dimension 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158
14.3.2 Angle d’une rotation de l’espace autour d’un axe orienté . . . . . . . . . . . . . . . . . . . . . . 158
14.3.3 Méthode pratique d’étude d’un automorphisme orthogonal en dimension 3 . . . . . . . . . . . . 158
14.3.4 Réduction des éléments de O(E) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159
14.4 Endomorphismes symétriques (ou auto-adjoints) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160
14.4.1 Définition, premières propriétés et exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160
14.4.2 Réduction des endomorphismes symétriques dans une base orthonormale . . . . . . . . . . . . 160
14.4.3 Endomorphismes symétriques positifs, définis posifits (hors-programme) . . . . . . . . . . . . . 161

15 Probabilités sur un univers au plus dénombrable 163


15.1 Espace probabilisé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163
15.1.1 Définitions et premières propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163
15.1.2 Lexique des probabilités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165
15.1.3 Probabilités sur un univers au plus dénombrable . . . . . . . . . . . . . . . . . . . . . . . . . . 165
15.1.4 Propriétés des probabilités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167
15.1.5 Événements négligeables, événements presque sûrs . . . . . . . . . . . . . . . . . . . . . . . . . 168
15.2 Conditionnement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169
15.2.1 Probabilité conditionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169
15.2.2 Formule des probabilités totales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170
15.2.3 Formule de Bayes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171
15.3 Indépendance d’événements . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171
15.3.1 Indépendance de deux événements . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171
15.3.2 Indépendance d’une suite d’événements . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171

16 Variables aléatoires discrètes 173


16.1 Variables aléatoires discrètes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173
16.1.1 Définitions et premières propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173
16.1.2 Loi de probabilité d’une variable aléatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175
16.1.3 Fonction de répartition d’une variable aléatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . 176
16.2 Couples de variables aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177
16.2.1 Lois conjointes et marginales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177
16.2.2 Variables aléatoires indépendantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178
16.2.3 Expériences aléatoires indépendantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 180
16.3 Espérance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183
16.3.1 Définitions et premières propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183
16.3.2 Encore des propriétés de l’espérance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184
16.3.3 Moments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186
16.4 Loi faible des grands nombres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189
16.5 Fonctions génératrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 190
16.6 Lois usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191
16.6.1 Loi binomiale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191
16.6.2 Loi géométrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191
16.6.3 Loi de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 192

17 Convexité 195
17.1 Sous-espaces affines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195
17.1.1 Définitions et propriétés élémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195
17.1.2 Translations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 196
17.1.3 Intersection et paralléllisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 197
17.2 Barycentre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 197

Fénelon Sainte-Marie – La Plaine-Monceau 7/230 28 août 2020


TABLE DES MATIÈRES MP 2020-21

17.2.1 Barycentre d’un système de points pondérés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 197


17.2.2 Propriétés du barycentre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199
17.3 Ensembles convexes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199
17.4 Fonctions convexes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 200
17.4.1 Définition et interprétation géométrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 200
17.4.2 Caractérisation géométrique de la convexité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201
17.4.3 Caractérisation des fonctions convexes dérivables . . . . . . . . . . . . . . . . . . . . . . . . . . 201
17.4.4 Position de la courbe par rapport à la tangente . . . . . . . . . . . . . . . . . . . . . . . . . . . 201
17.5 Applications : inégalités de convexité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 202
17.5.1 L’inégalité de Jensen ou de convexité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 202
17.5.2 Comparaison des moyennes arithmétique, géométrique et quadratique . . . . . . . . . . . . . . 202
17.5.3 Inégalité de Hölder . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 202
17.5.4 Inégalité de Minkowski . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203

18 Équations différentielles linéaires 205


18.1 Équations différentielles linéaires d’ordre 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205
18.1.1 Notations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205
18.1.2 Structure de l’ensemble des solutions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 206
18.1.3 Problème de Cauchy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 206
18.1.4 Système fondamental de solutions ; wronskien . . . . . . . . . . . . . . . . . . . . . . . . . . . . 207
18.1.5 Cas où la matrice A(t) est diagonalisable dans une base fixe . . . . . . . . . . . . . . . . . . . . 207
18.1.6 Méthode de variation des constantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208
18.2 Équations linéaires à coefficients constants . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208
18.2.1 Étude de l’équation x0 = ax où a ∈ L(E) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208
18.2.2 Équation x0 (t) = ax(t) + b(t) où a ∈ L(E) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 209
18.2.3 Cas d’un endomorphisme diagonalisable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 209
18.3 Équations linéaires scalaires d’ordre 1 ou 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 210
18.3.1 Équation scalaire du premier ordre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 210
18.3.2 Équation scalaire du second ordre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 210
18.3.3 Cas où l’on connaît une solution de l’équation homogène (méthode d’abaissement de l’ordre) . 211

19 Calcul différentiel 213


19.1 Applications différentiables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213
19.1.1 Différentielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213
19.1.2 Dérivée selon un vecteur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 214
19.1.3 Dérivées partielles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 214
19.1.4 Matrice jacobienne, jacobien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215
19.2 Opérations sur les applications différentiables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215
19.2.1 Outils : continuité d’applications linéaires ou bilinéaires . . . . . . . . . . . . . . . . . . . . . . 215
19.2.2 Combinaison linéaire, composition avec application bilinéaire . . . . . . . . . . . . . . . . . . . 216
19.2.3 Composition d’applications différentiables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 216
19.3 Fonctions de classe C 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 217
19.3.1 Définition et premières propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 217
19.3.2 Opérations sur les fonctions de classe C 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 218
19.3.3 Circulation d’une forme différentielle sur un arc paramétré . . . . . . . . . . . . . . . . . . . . . 218
19.4 Cas des fonctions numériques (à valeurs réelles, i.e. F = R) . . . . . . . . . . . . . . . . . . . . . . . . 219
19.4.1 Algèbre C 1 (U ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 219
19.4.2 Gradient d’une fonction de classe C 1 de U dans R . . . . . . . . . . . . . . . . . . . . . . . . . 220
19.4.3 Extrema d’une fonction de classe C 1 de U dans R . . . . . . . . . . . . . . . . . . . . . . . . . . 220
19.5 Dérivées partielles d’ordre supérieur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221
19.5.1 Théorème de Schwarz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221

Fénelon Sainte-Marie – La Plaine-Monceau 8/230 28 août 2020


TABLE DES MATIÈRES MP 2020-21

19.5.2 Algèbre C k (U ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 222


19.5.3 Exemples d’équations aux dérivées partielles . . . . . . . . . . . . . . . . . . . . . . . . . . . . 222
19.6 Tangentes aux courbes, plans tangents aux surfaces . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 223
19.6.1 Tangente à une courbe plane définie par une équation implicite F (x, y) = 0 . . . . . . . . . . . 223
19.6.2 Plan tangent à une surface paramétrée par x(u, v), y(u, v), z(u, v) . . . . . . . . . . . . . . . . 223
19.6.3 Plan tangent à une surface définie par une équation implicite F (x, y, z) = 0 . . . . . . . . . . . 224

20 Compacité et connexité par arcs 227


20.1 Compacité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227
20.1.1 Théorème de Bolzano-Weierstrass . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227
20.1.2 Parties compactes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227
20.1.3 Parties compactes d’un espace vectoriel normé de dimension finie . . . . . . . . . . . . . . . . . 227
20.1.4 Image d’une partie compacte par une application continue . . . . . . . . . . . . . . . . . . . . . 228
20.1.5 Théorème de Heine . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 228
20.2 Notions de connexité par arcs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 228
20.2.1 Parties convexes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 229
20.2.2 Partie étoilée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 229
20.2.3 Parties connexes par arcs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 229
20.2.4 Image continue d’une partie connexe par arcs . . . . . . . . . . . . . . . . . . . . . . . . . . . . 230

Fénelon Sainte-Marie – La Plaine-Monceau 9/230 28 août 2020


TABLE DES MATIÈRES MP 2020-21

Fénelon Sainte-Marie – La Plaine-Monceau 10/230 28 août 2020


Chapitre 1

Structures algébriques usuelles

Dans tout le chapitre, E désigne un ensemble non vide.

1.1 Loi de composition interne (rappels de MPSI)


1.1.1 Définitions
Définition 1.1 : loi de composition interne
On appelle loi de composition interne (LCI) dans E toute application de E × E dans E. On la note en général
∗ : E × E → E, (x, y) 7→ x ∗ y.
Exemple 1.2 :
1. L’addition (x, y) 7→ x + y est une LCI dans N.
2. La soustraction (x, y) 7→ x − y n’est pas une LCI dans N, par contre c’en est une dans Z.

Définition 1.3 : partie stable pour une LCI


Une partie A de l’ensemble E est dite stable par la LCI ∗ si : ∀(x, y) ∈ A2 , x ∗ y ∈ A.
Lorsque A est stable par ∗, on appelle LCI induite sur A la restriction de l’application ∗ : E × E → E en ∗ :
A × A → A.
Désormais, on suppose que E est muni d’une LCI ∗.

1.1.2 Associativité
Définition 1.4 : LCI associative
La LCI ∗ est associative lorsque : ∀(x, y, z) ∈ E 3 , (x ∗ y) ∗ z = x ∗ (y ∗ z).
Conséquence :
Lorsque ∗ est associative, l’écriture x ∗ y ∗ z a un sens, elle n’est plus ambigüe. De même pour x1 ∗ · · · ∗ xn = ∗ni=1xi.
Exemple 1.5 :
1. L’application ∪ : P(E)2 → P(E), (X, Y ) 7→ X ∪ Y , est une LCI associative.
En effet ∀(X, Y, Z) ∈ P(E)3 , (X ∪ Y ) ∪ Z = X ∪ (Y ∪ Z).
x+y
2. L’application ∗ : Q2 → Q, (x, y) 7→ , est une LCI non associative car, pour (x, y, z) ∈ Q3 :
2
x+y
(x ∗ y) + z 2 +z x + y + 2z x + (y ∗ z) x + y+z
2 2x + y + z
(x ∗ y) ∗ z = = = , x ∗ (y ∗ z) = = = .
2 2 4 2 2 4

11
1.1. LOI DE COMPOSITION INTERNE (RAPPELS DE MPSI) MP 2020-21

1.1.3 Commutativité
Définition 1.6 : LCI commutative
La LCI ∗ est commutative lorsque : ∀(x, y) ∈ E 2 , x ∗ y = y ∗ x.
Exemple 1.7 :
1. L’application ∩ : P(E)2 → P(E), (X, Y ) 7→ X ∩ Y , est une LCI commutative.
2. La soustraction dans Z est une LCI non commutative.

1.1.4 Élément neutre


Définition 1.8 : élément neutre pour une LCI
On dit que la LCI ∗ admet :
1. un élément neutre à gauche lorsque : ∃e ∈ E, ∀x ∈ E, e ∗ x = x ;
2. un élément neutre à droite lorsque : ∃e ∈ E, ∀x ∈ E, x ∗ e = x ;
3. un élément neutre lorsque : ∃e ∈ E, ∀x ∈ E, e ∗ x = x ∗ e = x.

Exemple 1.9 :
1. 0 est élément neutre pour la LCI + dans Z.
2. Pour la LCI ∗ : N2 → N, (x, y) 7→ y :
• tout élément x de N est neutre à gauche car ∀y ∈ N, x ∗ y = y ;
• aucun élément y de N n’est neutre à droite, car x ∗ y = x n’est vrai que pour x = y mais pas pour tout x.
3. Pour la LCI ÷ : (R∗ )2 → R∗ , (x, y) 7→ x/y, il n’y a pas de neutre à gauche et 1 est l’unique neutre à droite.

Théorème 1.10 : unicité du neutre pour une LCI


Soit E un ensemble muni d’une LCI.
1. Si e est neutre à gauche et e0 est neutre à droite, alors e = e0 .
2. En particulier si une LCI admet un élément neutre e, alors celui-ci est unique.

1.1.5 Élément régulier


Définition 1.11 : éléments réguliers pour une LCI
Soit a ∈ E.
1. On dit que a est régulier (ou simplifiable) à droite lorsque : ∀(x, y) ∈ E 2 , (x ∗ a = y ∗ a) ⇒ x = y.
2. On dit que a est régulier (ou simplifiable) à gauche lorsque : ∀(x, y) ∈ E 2 , (a ∗ x = a ∗ y) ⇒ x = y.
3. On dit que a est régulier (ou simplifiable) lorsque a est régulier à droite et à gauche.

Exemple 1.12 :
1. Reprenons la LCI ∗ sur N définie par x ∗ y = y. Soit a ∈ N.
• Éléments réguliers à gauche.
Soit (x, y) ∈ N2 tel que a ∗ x = a ∗ y ; alors par définition de ∗ on a x = y. Ainsi tout élément a de N est
régulier à gauche pour ∗.
• Éléments réguliers à droite.
Soit (x, y) ∈ N2 tel que x ∗ a = y ∗ a ; alors par définition de ∗ on a x ∗ a = y ∗ a = a mais ceci n’implique
pas que x = x0 (par exemple si on fixe a priori x 6= x0 ). Donc aucun élément a de N n’est régulier à droite
pour ∗.

Fénelon Sainte-Marie – La Plaine-Monceau 12/230 28 août 2020


CHAPITRE 1. STRUCTURES ALGÉBRIQUES USUELLES MP 2020-21

2. La multiplication R2 → R, (x, y) 7→ xy, est une LCI commutative et associative. Elle admet pour éléments
réguliers tous les réels non nuls car :

∀a ∈ R∗ , ∀(x, y) ∈ R2 , (ax = ay ⇒ x = y) ∧ (xa = ya ⇒ x = y).

1.1.6 Élément symétrisable


Dans cette sous-section on suppose que E est muni d’une LCI ∗ admettant un élément neutre e.
Définition 1.13 : éléments symétrisables pour une LCI
Un élément x de E est symétrisable ou inversible pour la LCI ∗ lorsqu’il existe au moins un élément x0 de E tel
que x ∗ x0 = e et x0 ∗ x = e.
Un tel x0 , lorsqu’il existe, est appelé un symétrique ou inverse de x.
Théorème 1.14 : unicité du symétrique
Soit E un ensemble muni d’une LCI associative et admettant un élément neutre.
Alors le symétrique d’un élément symétrisable est unique.
Ainsi le symétrique d’un élément x peut être noté x−1 sans ambigüité.

1
Attention : L’écriture x−1 ne signifie pas inverse au sens des nombres réels ; ainsi n’a en général aucun sens !
x
Remarque 1.15 :
On peut aussi définir les éléments symétrisables à gauche (x ∗ x0 = e) ou à droite (x0 ∗ x = e).
Exemple 1.16 :

1. Pour la LCI définie par x ∗ y = x + y dans Z, l’élément neutre est 0 et tout élément est symétrisable d’inverse
son opposé : ∀x ∈ Z, x + (−x) = (−x) + x = 0.
p
2. Sur R+ considérons la LCI ∗ définie par x ∗ y = x2 + y 2 .
(a) La loi ∗ est commutative.
(b) La loi ∗ est associative car pour tout (x, y, z) ∈ R3+ :
p p
(x ∗ y) ∗ z = (x ∗ y)2 + z 2 = x2 + y 2 + z 2 ,
p p
x ∗ (y ∗ z) = x2 + (y ∗ z)2 = x2 + y 2 + z 2 .

(c) La loi ∗ admet 0 pour élément neutre. Soit en effet a dans R+ ; alors :
p
∀x ∈ R+ , x ∗ a = x ⇐⇒ ∀x ∈ R+ , x2 + a2 = x ⇐⇒ ∀x ∈ R+ , x2 + a2 = x2 ⇐⇒ a = 0.

(d) Tout élément est régulier pour ∗. Soit en effet a ∈ R+ et (x, x0 ) ∈ R2+ . Alors :
p p
a ∗ x = a ∗ x0 ⇒ a2 + x2 = a2 + x02 ⇒ a2 + x2 = a2 + x02 ⇒ x2 = x02 ⇒ x = x0 .

(e) Le
√ seul élément symétrisable est 0 et son inverse est 0. Soit en effet (x, x0 ) ∈ R2+ tel que x ∗ x0 = 0 ; alors
2 02 0
x + x = 0 donc x = x = 0.

Proposition 1.17 : symétrique d’un produit


Soit E un ensemble muni d’une LCI associative avec élément neutre.
Si x et y sont symétrisables d’inverses x0 et y 0 respectivement, alors x ∗ y est symétrisable et son symétrique (x ∗ y)0
vérifie (x ∗ y)0 = y 0 ∗ x0 .

Fénelon Sainte-Marie – La Plaine-Monceau 13/230 28 août 2020


1.2. STRUCTURE DE GROUPE MP 2020-21

1.1.7 Distributivité
On considère deux LCI ∗ et > (« truc ») sur E.
Définition 1.18 : LCI distributive
1. On dit que > est distributive à gauche (resp. à droite) sur ∗ (ou par rapport à ∗) lorsque :

∀(x, y, z) ∈ E 3 , x>(y ∗ z) = (x>y) ∗ (x>z) (resp. (x ∗ y)>z = (x>z) ∗ (y>z)).

2. On dit que > est distributive sur ∗ lorsque > est distributive à gauche et à droite sur ∗.

Exemple 1.19 :
1. La multiplication est distributive par rapport à l’addition dans C.
2. La loi ∪ est distributive par rapport à ∩ dans P(E) et la loi ∩ est distributive par rapport à ∪ dans P(E). En
effet pour tout (A, B, C) ∈ P(E)3 on a A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C) et A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C).

1.1.8 Notations additive et multiplicative


Il est fréquent d’utiliser la notation multiplicative pour une LCI associative et la notation additive pour une LCI
associative et commutative.

Notation générale Notation multiplicative Notation additive


Associativité a ∗ (b ∗ c) = (a ∗ b) ∗ c a(bc) = (ab)c a ∗ (b ∗ c) = (a ∗ b) ∗ c
Commutativité a∗b=b∗a ab = ba a+b=b+a
Neutre a∗e=e∗a=a a×1=1×a=a a+0=0+a=a
1 1
Symétrique a ∗ a0 = a0 ∗ a = e a× = ×a=1 a + (−a) = (−a) + a = 0
a a
n
Itéré a ∗ ··· ∗ a = a a × · · · × a = an a + · · · + a = na
Yn X n
Groupement a1 ∗ · · · ∗ an = Fni=1 ai ai ai
i=1 i=1

Attention : on a bien an am = an+m pour tout (m, n) ∈ Z2 , mais par contre l’égalité am bm = (ab)m n’est vraie
que lorsque a et b commutent !

1.2 Structure de groupe


1.2.1 Structure de groupe (rappels de MPSI)
Définition 1.20 : structure de groupe
On appelle groupe un ensemble G muni d’une LCI ∗ associative, avec élément neutre et telle que tout élément est
symétrisable pour ∗ (moyen mnémotechnique : ANIS). On le note (G, ∗). Le neutre est souvent noté eG ou 1G ou 0G ,
voire e ou 1 ou 0 s’il n’y a pas ambigüité.
Si de plus la loi est commutative le groupe est dit abélien ou commutatif.
Exemple 1.21 :
1. Les couples (Z, +) et (C, +) sont des groupes abéliens, mais pas (N, +).
2. Le couple (C∗ , ×) est un groupe abélien.
3. L’ensemble des bijections de E dans E est un groupe non abélien pour la loi de composition usuelle.

Remarque 1.22 :
premières propriétés

Fénelon Sainte-Marie – La Plaine-Monceau 14/230 28 août 2020


CHAPITRE 1. STRUCTURES ALGÉBRIQUES USUELLES MP 2020-21

1. Un groupe est nécessairement non-vide : il contient au moins son élément neutre !


2. On a bien sûr unicité de l’élément neutre et du symétrique.
3. Tout élément d’un groupe est régulier. En effet :
∀(a, x, y) ∈ G3 , a ∗ x = a ∗ y ⇒ a−1 ∗ (a ∗ x) = a−1 ∗ (a ∗ y) ⇒ (a−1 ∗ a) ∗ x = (a−1 ∗ a) ∗ y ⇒ x = y.

4. Si deux éléments x et y vérifient x ∗ y = e alors x et y sont inverses l’un de l’autre.


Première démonstration : si x ∗ y = e et x ∗ x−1 = e alors par régularité de x on obtient y = x−1 .
Seconde démonstration : x ∗ y = e ⇒ (x ∗ y) ∗ x = e ∗ x ⇒ (x ∗ y) ∗ x = x ∗ e ⇒ x ∗ (y ∗ x) = x ∗ e ⇒ y ∗ x = e.
5. En particulier (x−1 )−1 = x.

Théorème 1.23 : le groupe produit


Soit (G, >) et (H, ⊥) deux groupes. Soit ∗ la LCI définie sur G × H par : ∀(g1 , g2 , h1 , h2 ) ∈ G2 × H 2 , (g1 , h1 ) ∗
(g2 , h2 ) = (g1 >g2 , h1 ⊥h2 ).
Alors (G × H, ∗) est un groupe appelé groupe produit.

Remarque 1.24 :
On définit sans détour le produit d’un nombre fini de groupes.

1.2.2 Sous-groupe (rappels de MPSI)


Définition 1.25 : sous-groupe
Soit (G, ∗) un groupe. Une partie H de G est un sous-groupe de (G, ∗) lorsque :
1. H 6= ∅.
2. La partie H est stable pour la loi ∗ : ∀(h1 , h2 ) ∈ H 2 , h1 ∗ h2 ∈ H.
3. La partie H est stable par prise d’inverse : ∀h ∈ H, h−1 ∈ H.

Théorème 1.26 : caractérisation d’un sous-groupe


Soit (G, ∗) un groupe. Une partie H de G est un sous-groupe de G si et seulement si :
(i) eG ∈ H.
(ii) ∀(x, y) ∈ H 2 , x ∗ y −1 ∈ H.

Définition 1.27 : loi induite d’un sous-groupe


Si la partie H est un sous-groupe de (G, ∗) alors, puisque cette partie est stable pour ∗ on peut définir la restriction
∗|H×H : H × H → H de cette loi à H et on l’appelle loi induite par ∗ sur H.
Muni de cette loi induite (H, ∗|H×H ) = (H, ∗) est un groupe.
Remarque 1.28 :
En général pour démontrer qu’un ensemble a une structure de groupe on essaie de prouver que c’est un sous-groupe
d’un groupe connu. Il n’y a ainsi que deux ou trois conditions à vérifier ((i) et (ii) ou 1., 2. et 3.) au lieu de quatre
(ANIS) !
Exemple 1.29 :
1. L’ensemble U des nombres complexes de module 1 est un groupe, car c’est un sous-groupe de (C∗ , ·). En effet :
(i) 1 ∈ U.
0
z |z 0 |
(ii) ∀(z, z 0 ) ∈ U2 , |z 0 z −1 | = = = 1 donc z 0 z −1 ∈ U.
z |z|
2. L’ensemble des isométries du plan (applications conservant les distances) est un sous-groupe de l’ensemble des
bijections du plan, pour la loi de composition usuelle.
3. Le groupe orthogonal d’un espace vectoriel euclidien E, défini par O(E) = {f ∈ L(E) ; ∀x ∈ E, kf (x)k = kxk},
est un groupe pour la loi de composition usuelle.

Fénelon Sainte-Marie – La Plaine-Monceau 15/230 28 août 2020


1.3. MORPHISME DE GROUPES MP 2020-21

1.2.3 Intersection de groupes, groupe engendré par une partie


Théorème 1.30 : intersection de sous-groupes
L’intersection de sous-groupes est un sous-groupe.

Remarque 1.31 :
Attention, la réunion de sous-groupes (même de seulement deux) n’est pas en général un sous-groupe. Voir exercices.

Définition 1.32 : sous-groupe engendré par une partie


Soit (G, ∗) un groupe et A une partie de G. L’intersection de tous les sous-groupes de G contenant A est un
sous-groupe de G, appelé sous-groupe engendré par A et noté hAi.
Proposition 1.33 : caractérisation du sous-groupe engendré par A
Soit (G, ∗) un groupe et A une partie de G. Alors hAi est, au sens de l’inclusion, le plus petit sous-groupe de G
contenant A.

Proposition 1.34 : description du sous-groupe engendré par une partie


Soit (G, ∗) un groupe et A une partie de G.
1. h∅i = {eG }.
2. Si A est non-vide alors

x ∈ G ; ∃n ∈ N∗ , ∃(α1 , . . . , αn ) ∈ (A ∪ A−1 )n , x = α1 ∗ · · · ∗ αn .

hAi =

En d’autres termes hAi est l’ensemble des éléments de G qui sont des produits finis d’éléments de A ou d’inverses
d’éléments de A.

Définition 1.35 : groupe monogène


1. Un groupe (G, ∗) est monogène lorsqu’il est engendré par un seul de ses éléments. En d’autres termes, il existe
g ∈ G tel que G = h{g}i. On note souvent G = hgi.
Dans ce cas tout élément g ∈ G tel que G = hgi est appelé générateur de G.
2. Un groupe est dit cyclique lorsqu’il est monogène et fini.

Exemple 1.36 :
1. (Z, +) est monogène, engendré par 1 ou −1.
2. ({±1}, ×) est cyclique, engendré par −1.
3. L’ensemble (Z/nZ, +) des classes modulo n est un groupe cyclique, engendré par la classe de n’importe quel
entier premier à n. Nous reviendrons à cet exemple au paragraphe 1.4.

1.2.4 Les sous-groupes du groupe (Z, +)


Théorème 1.37 : les sous-groupes de (Z, +)
Pour n ∈ Z, l’ensemble nZ des multiples de n est un sous-groupe de (Z, +). De plus, tout sous-groupe de (Z, +)
est de cette forme.

1.3 Morphisme de groupes


1.3.1 Définition et premières propriétés
Définition 1.38 : morphisme
Soit E et F deux ensembles munis de structures (lois).

Fénelon Sainte-Marie – La Plaine-Monceau 16/230 28 août 2020


CHAPITRE 1. STRUCTURES ALGÉBRIQUES USUELLES MP 2020-21

1. Un morphisme entre E et F est une application f : E → F respectant les structures, c’est-à-dire compatible
avec les lois de E et F .
2. Un endomorphisme de E est un morphisme de E vers E.

Remarque 1.39 :
Cette notion de morphisme sera étendue aux morphismes de groupes, d’anneaux, de corps, d’espaces vectoriels,
d’espaces topologiques. . . C’est une notion incontournable en mathématiques !
Définition 1.40 : morphisme de groupes
1. Un morphisme de groupes est un morphisme entre deux groupes. Plus précisément un morphisme entre les
groupes (G, ∗) et (H, >) est une application f : G → H telle que : ∀(x, y) ∈ G2 , f (x ∗ y) = f (x)>f (y).
On note en général f : (G, ∗) → (H, >) un morphisme entre (G, ∗) et (H, >).
2. De même notion d’endomorphisme de groupe.

Exemple 1.41 :
1. f : (R, +) → (R∗+ , ×), x 7→ ex , est un morphisme de groupes (abéliens).
2. g : (C, +) → (C, +), z 7→ z̄, est un morphisme de groupes (abéliens).
3. Le déterminant det : (GLn (R), ×) 7→ (R∗ , ×) est un morphisme de groupes. (Attention Mn (R) n’est pas un
groupe pour × !)

Proposition 1.42 : image du neutre, de l’inverse, par un morphisme de groupes


Soit (G, ∗) et (H, >) deux groupes de neutres respectifs eG et eH . Soit f : G → H un morphisme de groupes.
Alors :
1. f (eG ) = eH .
2. ∀x ∈ G, f (x)−1 = f (x−1 ).

Proposition 1.43 : composition de morphismes de groupes


La composition de morphismes de groupes est un morphisme de groupes.

1.3.2 Noyau et image d’un morphisme


Proposition 1.44 : image directe et image réciproque de sous-groupes par un morphisme
L’image directe et l’image réciproque de sous-groupes par un morphisme de groupes sont des sous-groupes.
Plus précisément soit f : (G, ∗) → (H, >) un morphisme de groupes, et G0 et H 0 des sous-groupes de G et H
respectivement. Alors f (G0 ) est un sous-groupe de H et f −1 (H 0 ) est un sous-groupe de G.

Définition 1.45 : noyau et image d’un morphisme


Soit f : (G, ∗) → (H, >) un morphisme de groupes.
1. On appelle noyau de f , noté Ker (f ), l’ensemble des antécédents par f de eH dans G :

Ker (f ) = f −1 ({eH }) = {x ∈ G ; f (x) = eH }.

C’est d’après la proposition précédente un sous-groupe de G.


2. On appelle image de f , noté Im (f ), l’ensemble des images par f des éléments de G :

Im (f ) = f (G) = {y ∈ H ; ∃x ∈ G, y = f (x)}.

C’est d’après la proposition précédente un sous-groupe de H.

Exemple 1.46 :

Fénelon Sainte-Marie – La Plaine-Monceau 17/230 28 août 2020


1.3. MORPHISME DE GROUPES MP 2020-21

1. Considérons l’application trace tr : (Mn (R), +) → (R, +), réalisant un morphisme de groupes additifs.
Son noyau Ker ( tr ) = sln (R) est constitué des matrices de trace nulle.
2. Considérons l’application déterminant det : (GLn (R), ×) → (R∗ , ×), réalisant un morphisme de groupes multi-
plicatifs.
Son noyau Ker (det) = SLn (R) est constitué des matrices de déterminant 1, il est appelé groupe spécial linéaire.
3. Considérons la restriction det|O(E) du déterminant au groupe orthogonal O(E) d’un espace vectoriel eucli-
dien E (défini dans l’exemple 1.29). On définit SO(E) = Ker (det|O(E) ) = {f ∈ O(E) ; det(f ) = 1}, appelé
groupe spécial orthogonal de E ; c’est alors un sous-groupe de O(E).
4. La signature ε est un morphisme du groupe Sn des permutations sur l’ensemble {1, . . . , n} muni de la composition
à valeurs dans ({±1}, ×). Son noyau {σ ∈ Sn ; ε(σ) = 1} est de fait un sous-groupe de Sn , appelé groupe alterné.

Attention : un noyau n’est jamais vide ! En effet il contient toujours au moins eG .


Théorème 1.47 : caractérisation des morphismes injectifs/surjectifs
Soit f : (G, ∗) → (H, >) un morphisme de groupes.
1. f est injective si et seulement si Ker (f ) = {eG }.
2. f est surjective si et seulement si Im (f ) = H.

1.3.3 Isomorphisme de groupes


Définition 1.48 : isomorphisme, automorphismes de groupes
Soit (G, ∗) et (H, >) deux groupes.
1. Un isomorphisme de groupes entre G et H est un morphisme de groupes bijectif entre G et H.
2. Un automorphisme de groupe de G est un endomorphisme de G bijectif.

Exemple 1.49 :
Les groupes (R∗+ , ×) et (R, +) sont isomorphes via ln.
Théorème 1.50 : réciproque d’un isomorphisme de groupes
La bijection réciproque d’un isomorphisme de groupes est elle-même un isomorphisme de groupes.

1.3.4 Exemple fondamental : le groupe symétrique (rappels de MPSI)


Soit E un ensemble de cardinal n ∈ N∗ . Rappelons qu’une permutation de E est une bijection de E dans E.
L’ensemble des permutations de E est noté SE ou Bij(E). L’ensemble E étant de cardinal n, li est en bijection avec
[[1, n]] donc il est équivalent d’étudier l’ensemble Sn des permutations de [[1, n]].
On représente usuellement une permutation par la liste des éléments de [[1, n]] en-dessous de laquelle on indique
l’image de chaque élément.
Exemple 1.51 : !
1 2 3 4 5 6
La notation σ = désigne l’application σ telle que σ(1) = 3, σ(2) = 2, σ(3) = 1, σ(4) = 6,
3 2 1 6 4 5
σ(5) = 4 et σ(6) = 5.
Proposition 1.52 : le groupe des permutations
L’ensemble Sn est un groupe pour la composition, non abélien dès que n ≥ 3.

L’ordre de la permutation σ est le plus petit entier naturel k non nul tel que σ k = Id.
Supposons n ≥ 2. On appelle transposition une permutation qui échange deux éléments distincts et qui laisse les
autres invariants. On la note usuellement (i j). Une transposition est d’ordre 2, elle est son propre inverse : c’est une
involution.

Fénelon Sainte-Marie – La Plaine-Monceau 18/230 28 août 2020


CHAPITRE 1. STRUCTURES ALGÉBRIQUES USUELLES MP 2020-21

Théorème 1.53 : les transpositions engendrent le groupe symétrique


Pour n ≥ 2, toute permutation de [[1, n]] est un produit de transpositions.
Remarque 1.54 :
Il n’y a pas unicité de la décomposition en produit de transpositions. Pire, le nombre de transpositions nécessaires
n’est pas constant ! Par contre nous verrons que la parité de ce nombre de transpositions est caractéristique de la
permutation.
σ(i) − σ(j)
Une inversion de la signature σ est une paire {i, j} d’éléments de [[1, n]] telle que < 0, c’est-à-dire telle
i−j
que σ(i) et σ(j) sont rangés dans l’ordre inverse de celui de i et j.
Exemple 1.55 : !
1 2 3 4
Les inversions de la permutation sont {1, 4}, {2, 3}, {2, 4}, {3, 4}.
2 4 3 1
On dit qu’une permutation est paire ou impaire selon que son nombre d’inversions est pair ou impair. Pour
représenter la parité d’une permutation σ, on définit sa signature : ε(σ) = (−1)i(σ) , où i(σ) est le nombre d’inversions
de σ. La signature d’une permutation paire est +1, celle d’une permutation impaire est −1. On définit ainsi une
application ε : Sn → {−1, 1}n , σ 7→ ε(σ). On démontre alors le résultat suivant :
Théorème 1.56 : la signature est un morphisme de groupes
La signature est un morphisme de groupes ε : (Sn , ◦) → ({±1}, ×). En d’autres termes la signature d’un produit
de permutations est égale au produit de leurs signatures.
Ce résultat a de multiples applications :
Proposition 1.57 : propriétés des permutations

• La composée de deux permutations de même parité est paire. La composition de deux permutations de parités
différentes est impaire.
• Une permutation et son inverse ont même signature.
• L’ensemble des permutations paires est le noyau du morphisme ε.
C’est un sous-groupe de Sn , appelé groupe alterné, noté An .
• Une transposition est une permutation impaire, de signature −1.
• Le produit de k transpositions est de signature (−1)k .
• La décomposition en produit de transpositions peut être utilisée pour déterminer la signature d’une permutation.

Un cycle est une permutation c de [[1, n]] telle qu’il existe (a1 , . . . , ak ) ∈ [[1, n]]k telle que :
• Pour tout i ∈ [[1, k − 1]], c(ai ) = ai+1 .
• c(ak ) = a1 .
• La permutation c laisse invariants les entiers autres que les ai : pour tout j ∈ [[1, n]] \ {a1 , . . . , ak }, c(j) = j.
Ce cycle sera noté c = (a1 a2 · · · ak ). L’entier k est la longueur du cycle c. L’ensemble {a1 , . . . , ak } est le support du
cycle. On démontre enfin que :
Proposition 1.58 : signature d’un cycle
La signature d’un cycle de longueur k est (−1)k−1 . En d’autres termes un cycle de longueur paire est une permu-
tation impaire et un cycle de longueur impaire est une permutation paire.

1.4 Groupe monogène, groupe cyclique, le groupe Z/nZ


Nous développons l’exemple 1.36.

Fénelon Sainte-Marie – La Plaine-Monceau 19/230 28 août 2020


1.4. GROUPE MONOGÈNE, GROUPE CYCLIQUE, LE GROUPE Z/N Z MP 2020-21

1.4.1 Relation d’équivalence


Définition 1.59 : relation d’équivalence
1. On appelle relation d’équivalence dans un ensemble E une relation binaire R dans E qui est :
• réflexive : ∀x ∈ E, xRx ;
• symétrique : ∀(x, y) ∈ E 2 , xRy ⇒ yRx ;
3
• transitive : ∀(x, y, z) ∈ E , (xRy ∧ yRz) ⇒ xRz.
2. On appelle classe d’équivalence d’un élément l’ensemble des éléments qui sont en relation avec lui :

cl x = cl(x) = x = {y ∈ E ; xRy}.

On appelle représentant de la classe cl(x) tout élément y tel que y ∈ cl(x).

Exemple 1.60 :
Le parallélisme de droites, l’égalité d’objets, sont deux relations d’équivalence.
Proposition 1.61 : classes d’équivalences et partition d’un ensemble
1. Les classes d’équivalence forment une partition de l’ensemble :
• Aucune classe n’est vide : cl(x) 6= ∅ puisque x ∈ cl(x).
• Deux classes distinctes sont disjointes : si cl(x) 6= cl(y) alors cl(x) ∩ cl(y) = ∅ (démonstration par contrapo-
sée).
De façon équivalente : deux classes sont soit disjointes, soit confondues.
[
• La réunion de toutes les classes est égales à E : pour tout x ∈ E, on a x ∈ cl(x) donc x ∈ cl(y).
y∈E

2. Réciproquement, toute partition définit une relation d’équivalence : « appartenir à la même partie de la parti-
tion » .

Application :
Théorème 1.62 : Lagrange
Dans un groupe fini, le cardinal d’un sous-groupe divise le cardinal du groupe.

1.4.2 Congruence
Soit n ∈ N.
Définition 1.63 : entiers congrus
Deux entiers relatifs a et b sont dits congrus modulo n lorsque a − b ∈ nZ. On écrit a ≡ b [n] ou a = b mod n.
Proposition 1.64 : la relation de congruence modulo n
La relation de congruence modulo n est une relation d’équivalence.

Remarquons que si n > 0, alors a et b sont congrus modulo n si et seulement si ils ont le même reste dans la
division euclidienne par n. Il y a donc exactement n classes d’équivalence.
Définition 1.65 : l’ensemble Z/nZ
L’ensemble des classes d’équivalence modulo n est par définition :

Z/nZ = {cl(0), cl(1), . . . , cl(n − 1)}.

Fénelon Sainte-Marie – La Plaine-Monceau 20/230 28 août 2020


CHAPITRE 1. STRUCTURES ALGÉBRIQUES USUELLES MP 2020-21

1.4.3 Le groupe quotient Z/nZ


La relation de congruence modulo n est clairement compatible avec l’addition, c’est-à-dire que a ≡ b [n] et a0 ≡ b0 [n]
implique a + a0 ≡ b + b0 [n].
Définissons une addition dans Z/nZ de la façon suivante. Soit A et B deux éléments de Z/nZ. Choisissons a et b deux
représentants de ces classes, c’est-à-dire (a, b) ∈ Z2 tel que A = cl(a) et B = cl(b). On définit alors A + B = cl(a + b).
Proposition 1.66 : l’addition sur Z/nZ
Cette définition ne dépend pas des représentants choisis dans les deux classes.

Ceci nous permet d’affirmer que nous avons bien défini une loi de composition interne sur Z/nZ.
Théorème 1.67 : le groupe quotient (Z/nZ, +)
L’ensemble Z/nZ est un groupe abélien pour la loi + définie par cl(a) + cl(b) = cl(a + b).

Exemple 1.68 :
La table de Z/4Z est la suivante :
+ 0 1 2 3
0 0 1 2 3
1 1 2 3 0
2 2 3 0 1
3 3 0 1 2

Proposition 1.69 : la surjection canonique Z → Z/nZ


L’application cl : a 7→ cl(a) est un morphisme surjectif de (Z, +) dans (Z/nZ, +), appelé surjection canonique.
Le noyau de la surjection canonique est cl(0), c’est-à-dire nZ.

1.4.4 Éléments générateurs du groupe (Z/nZ, +)


Théorème 1.70 : les générateurs du groupe (Z/nZ, +)
Les générateurs du groupe (Z/nZ, +) sont les classes cl(k) où k est un entier premier avec n.

Application : racines n-ièmes primitives de l’unité.

1.4.5 Produit des groupes (Z/nZ, +) et (Z/pZ, +)


Théorème 1.71 : produit des groupes Z/nZ et Z/pZ
Soit (n, p) ∈ N2 . Si n et p sont premiers entre eux, alors les groupes Z/nZ × Z/pZ et Z/npZ sont isomorphes.

Corollaire 1.72 : théorème chinois (rappel de MPSI)


Si n et p sont premiers entre eux, alors le système de congruences :
(
x ≡ a [n]
x ≡ b [p]

admet au moins une solution c dans Z. L’ensemble des solutions est la classe de c modulo np.

Corollaire 1.73 : théorème chinois généralisé (rappel de MPSI)


Le théorème chinois se généralise à un système de r équations. Considérons des nombres ni et ai , pour 1 ≤ i ≤ r.
Supposons que d’une part les ni sont premiers entre eux, et d’autre part que pgcd(ai , ni ) = 1 pour tout i.
Alors le système de congruences ai x ≡ bi [ni ] admet au moins une solution c dans Z. L’ensemble des solutions est
Yr
la classe de c modulo ni .
i=1

Fénelon Sainte-Marie – La Plaine-Monceau 21/230 28 août 2020


1.4. GROUPE MONOGÈNE, GROUPE CYCLIQUE, LE GROUPE Z/N Z MP 2020-21

Méthode :
1. On commence à se ramener à x ≡ ci [ni ] (possible car ai est inversible modulo ni ). Ceci se fait à la main ou avec
l’algorithme d’Euclide.
Y
2. On pose Mi = nj puis on résout Mi yi = 1 [ni ] (à la main ou algo d’Euclide).
j6=i
r
X
3. On pose enfin x = ci Mi yi .
i=1
Exemple 1.74
( :
2x = 1 [3]
Résoudre . On obtient x = 11.
5x = 3 [4]

1.4.6 Ordre d’un élément dans un groupe


L’objectif de cette sous-section est de déterminer tous les groupes monogènes, finis ou infinis, puis de définir l’ordre
d’un élément.
Soit G un groupe et a un élément de G. L’application

Z −→ G, k 7−→ ak

(en notation multiplicative) ou k 7→ ka (en notation additive) est un morphisme de groupes.


On a déjà vu que son image est le sous-groupe engendré par a, noté hai ; c’est l’ensemble des éléments de G de la
forme ak (ou ka en notation additive). Considérons désormais le morphisme restreint à l’arrivée

Z −→ hai, k 7−→ ak ,

il est donc surjectif. Le noyau de ce morphisme est un sous-groupe de Z, donc de la forme nZ d’après le théorème 1.37.
Deux cas peuvent se produire :
• Si n = 0, alors le morphisme est aussi injectif. Le groupe hai est ainsi isomorphe à Z.
• Si n > 0, alors ak = e équivaut à k ∈ nZ : ainsi n est le plus petit entier strictement positif tel que an = e. Le
sous-groupe engendré par a est par conséquent : hai = {e, a, a2 , · · · , an−1 }, ou hai = {0, a, 2a, · · · , (n − 1)a} en
notation additive. Il est de fait isomorphe à Z/nZ.
L’entier n est appelé ordre de l’élément a.
Définition 1.75 : ordre d’un élément d’une groupe
Le plus petit entier naturel non nul n tel que an = e (s’il existe) est appelé ordre de a, noté o(a). C’est l’ordre du
groupe engendré par a.
On dit aussi que a est fini d’ordre n.
Nous venons de démontrer la :
Proposition 1.76 : description des groupes monogènes
1. Tout groupe monogène infini est isomorphe à Z.
2. Tout groupe monogène fini (on dit cyclique) d’ordre n est isomorphe à Z/nZ.

Exemple 1.77 :
Le groupe Un = {z ∈ C ; z n = 1} est engendré par e2iπ/n ; il est d’ordre n, donc isomorphe à Z/nZ.
Remarque 1.78 :
On vient de prouver au passage que si un élément a est fini d’ordre n, alors pour tout entier k : ak = 1G si et
seulement si n divise k.
On déduit de cette remarque et du théorème 1.62 le :
Théorème 1.79 : ordre d’un élément et cardinal du groupe

Fénelon Sainte-Marie – La Plaine-Monceau 22/230 28 août 2020


CHAPITRE 1. STRUCTURES ALGÉBRIQUES USUELLES MP 2020-21

L’ordre d’un élément d’un groupe fini divise le cardinal du groupe.

EPCC : aucun !

The end – chapitre 1

Fénelon Sainte-Marie – La Plaine-Monceau 23/230 28 août 2020


1.4. GROUPE MONOGÈNE, GROUPE CYCLIQUE, LE GROUPE Z/N Z MP 2020-21

Fénelon Sainte-Marie – La Plaine-Monceau 24/230 28 août 2020


Chapitre 2

Anneaux, corps, algèbres

2.1 Structures d’anneau, de corps


2.1.1 Définition d’un anneau et exemples fondamentaux (rappel de MPSI)
Définition 2.1 : structure d’anneau
Soit A un ensemble muni de deux LCI notées + et ×. On dit que (A, +, ×) est un anneau lorsque :
1. (A, +) est un groupe abélien ; son neutre est noté 0A .
2. La loi × est associative.
3. La loi × est distributive par rapport à la loi +.
4. La loi × admet un élément neutre, noté 1A et appelé élément unité de A.
Si de plus la loi × est commutative on dit que (A, +, ×) est un anneau commutatif.
Moyen mnémotechnique : CANIS + DANI.
Remarque 2.2 :
Dans un anneau (A, +, ×) on note −x le symétrique de x pour +.
Attention : a priori un élément n’a pas de symétrique pour ×, donc la notation x−1 n’a pas de sens en général.
Exemple 2.3 :
1. (Z, +, ×) est un anneau commutatif unitaire.
2. (RR , +, ×) est un anneau commutatif unitaire, d’unité la fonction constante de valeur 1.
3. Mn (R) est un anneau unitaire, non commutatif si n > 1.
4. (2Z, +, ×) est un anneau commutatif non unitaire.
( ! )
a b
5. ; (a, b) ∈ Z2 est un anneau non unitaire et non commutatif.
0 0

2.1.2 Règles de calcul dans un anneau (rappel de MPSI), éléments inversibles


Proposition 2.4 : règles de calcul dans un anneau (rappel de MPSI)
Soit (A, +, ×) un anneau.
1. 0A est un élément absorbant : ∀a ∈ A, a × 0A = 0A × a = 0A .
2. ∀a ∈ A, (−1A ) × a = a × (−1A ) = −a.
3. ∀(a, b) ∈ A2 , (−a) × b = a × (−b) = −ab.
4. ∀(a, b, c) ∈ A3 , (a − b) × c = ac − bc ∧ c(a − b) = ca − cb.

25
2.1. STRUCTURES D’ANNEAU, DE CORPS MP 2020-21

Notations : dans un anneau (A, +, ×) on note pour a ∈ A et n ∈ N :



 |a + a +
 · · · + a si n 6= 0
{z }
1. na = n fois .

 0A si n = 0
2. (−n)a = n(−a) = (−a) + · · · + (−a) si n 6= 0.
| {z }
n fois

 |a × a ×

{z
· · · × a si n 6= 0
}
3. an = n fois .

 1A si n = 0
Attention ! a−n n’a pas de sens si a n’est pas inversible pour ×.
Théorème 2.5 : binôme de Newton (rappel de MPSI)
Dans un anneau (A, +, ×), lorsque deux éléments a et b commutent on a la formule suivante :
n  
X n
∀n ∈ N, (a + b)n = ak bn−k .
k
k=0

Théorème 2.6 : formules de factorisation (rappel de MPSI)


Soit (A, +, ×) un anneau.
1. ∀a ∈ A, ∀n ∈ N, ! !
n−1
X n−1
X
n k k
1−a = (1 − a) a = a (1 − a).
k=0 k=0

2. ∀a ∈ A, ∀p ∈ N,
2p 2p
! !
X X
1 + a2p+1 = (1 + a) (−a)k = (−a)k (1 + a).
k=0 k=0

3. ∀a ∈ A, ∀n ∈ N∗ , ∀(b1 , . . . , bn ) ∈ An ,
n n
! n n
!
X X X X
abi = a bi ∧ bi a = bi a.
i=1 i=1 i=1 i=1

2
4. ∀(n, p) ∈ (N∗ ) , ∀(a1 , . . . , an ) ∈ An , ∀(b1 , . . . , bp ) ∈ Ap ,
  ! 
p p
n n
! n n
X X X X X X
 ai bj  = ai bj = ai  bj  .
i=1 j=1 j=1 i=1 i=1 j=1

5. Formule de Bernoulli. Si ab = ba alors :


n−1
!
X
∗ n n n−1 n−2 n−2 n−1 k n−k−1

∀n ∈ N , a −b = (a − b) a +a b + · · · + ab +b = (a − b) a b .
k=0

Proposition 2.7 : éléments inversibles d’un anneau


L’ensemble des éléments inversibles d’un anneau est un groupe pour le produit.
En d’autres termes : si A est un anneau alors, en notant U(A) l’ensemble de ses éléments inversibles, le couple
(U(A), ×) est un groupe.

Définition 2.8 : éléments associés


Deux éléments d’un anneau sont associés lorsqu’ils sont égaux à multiplication près par un inversible.

Fénelon Sainte-Marie – La Plaine-Monceau 26/230 28 août 2020


CHAPITRE 2. ANNEAUX, CORPS, ALGÈBRES MP 2020-21

Exemple 2.9 :
• Les inversibles de Z étant 1 et −1, on en déduit que tout entier est associé à un entier naturel et un seul.
• Les inversibles de Z[i] étant 1, −1, i et −i, on en déduit que 1 + 2i et i − 2 sont associés.
• Les inversibles de K[X] étant les éléments non-nuls de K, on en déduit que tout polynôme est associé à un
polynôme unitaire et un seul.

2.1.3 Sous-anneau
Définition 2.10 : sous-anneau
On considère un anneau (A, +, ×) et une sous-partie A0 de A. On dit que la partie A0 est un sous-anneau de A
lorsque :
1. (A0 , +) est un sous-groupe de (A, +).
2. La partie A0 est stable pour la loi × : ∀(a, b) ∈ A02 , ab ∈ A0 .
3. L’élément unité de A est dans A0 : 1A ∈ A0 .

Théorème 2.11 : caractérisation d’un sous-anneau


Soit (A, +, ×, 1A ) un anneau unitaire. Une partie A0 de A est un sous-anneau de A si et seulement si :
(i) 1A ∈ A0 .
(ii) ∀(a, b) ∈ A02 , a − b ∈ A0 .
(iii) ∀(a, b) ∈ A02 , a × b ∈ A0 .

Exemple 2.12 :
1. L’ensemble Z est un sous-anneau de R.
2. L’ensemble Z[i] est un sous-anneau de C, appelé anneau des entiers de Gauss.
3. L’ensemble des application continues de R dans R est un sous-anneau de l’anneau des applications de R dans R.
4. L’ensemble des suites bornées, l’ensemble des suites périodiques, sont des sous-anneaux de RN .

2.1.4 Produit d’anneaux


Théorème 2.13 : produit de deux anneaux
Soit (A, +A , ×A , 1A ) et (B, +B , ×B , 1B ) deux anneaux unitaires. On définit deux lois de composition interne + et
× sur A × B en posant :

∀(a1 , a2 ) ∈ A2 , ∀(b1 , b2 ) ∈ B 2 , (a1 , b1 ) + (a2 , b2 ) = (a1 +A a2 , b1 +B b2 ), (a1 , b1 ) × (a2 , b2 ) = (a1 ×A a2 , b1 ×B b2 ).

Alors (A × B, +, ×, (1A , 1B )) est un annueau unitaire. appelé anneau produit.

On effectue de même le produit d’un nombre fini d’anneaux.

2.1.5 Morphisme d’anneaux


Définition 2.14 : morphisme d’anneaux
Soit (A, +, ×) et (B, +, ×) deux anneaux.
1. Un morphisme d’anneaux est une application f : A → B respectant les structures d’anneaux, c’est-à-dire véri-
fiant :
∀(a, b) ∈ A2 , f (a + b) = f (a) + f (b) ∧ f (a × b) = f (a) × f (b).
Lorsque A = B, on parle d’endomorphisme de l’anneau A.

Fénelon Sainte-Marie – La Plaine-Monceau 27/230 28 août 2020


2.1. STRUCTURES D’ANNEAU, DE CORPS MP 2020-21

2. Un morphisme d’anneaux bijectif est appelé isomorphisme d’anneaux.


Lorsque A = B, on parle d’automorphisme de l’anneau A.

Exemple 2.15 :
Si a est un élément inversible de l’anneau A, alors l’application ϕa : x 7→ axa−1 est un automorphisme d’anneau
de A, appelé automorphisme intérieur. Sa bijection réciproque est ϕa−1 .
Proposition 2.16 : image directe et image réciproque de sous-anneaux par un morphisme
L’image directe et l’image réciproque de sous-anneaux par un morphisme d’anneaux sont des sous-sous-anneaux.
Plus précisément soit f : A → B un morphisme d’anneaux, et A0 et B 0 des sous-anneaux de A et B respectivement.
Alors f (A0 ) est un sous-anneau de B et f −1 (B 0 ) est un sous-anneau de A.

Définition 2.17 : noyau et image d’un morphisme d’anneaux


Soit f : A → B un morphisme d’anneaux.
1. On appelle noyau de f , noté Ker (f ), l’ensemble des antécédents par f de 0B dans A :

Ker (f ) = f −1 ({0B }) = {x ∈ A ; f (x) = 0B }.

C’est d’après la proposition précédente un sous-anneau de A.


2. On appelle image de f , noté Im (f ), l’ensemble des images par f des éléments de A :

Im (f ) = f (A) = {y ∈ B ; ∃x ∈ A, y = f (x)}.

C’est d’après la proposition précédente un sous-anneau de B.

Attention : un noyau n’est jamais vide ! En effet il contient toujours au moins 0A .


Théorème 2.18 : caractérisation des morphismes injectifs/surjectifs
Soit f : A → B un morphisme d’anneaux.
1. f est injective si et seulement si Ker (f ) = {0A }.
2. f est surjective si et seulement si Im (f ) = B.

Théorème 2.19 : réciproque d’un isomorphisme d’anneaux


La bijection réciproque d’un isomorphisme d’anneaux est elle-même un isomorphisme d’anneaux.

2.1.6 Intégrité, corps (rappel de MPSI)


Définition 2.20 : diviseurs de zéro, anneau intègre
Soit (A, +, ×) un anneau.
1. Lorsqu’il existe des éléments a et b de A non-nuls tels que ab = 0A , on dit que a et b sont des diviseurs de zéro.
2. L’anneau A est intègre lorsque :
(a) A 6= {0A }.
(b) × est commutative.
(c) Il n’y a pas de diviseur de zéro : ∀(a, b) ∈ A2 , ab = 0 =⇒ (a = 0) ∨ (b = 0).
Ceci équivaut à : si a 6= 0 et b 6= 0 alors ab 6= 0.

Exemple 2.21 :
1. (Z, +, ×) est un anneau intègre.
2. Dans l’anneau (RR , +, ×) il y a des diviseurs de zéro. En effet les fonctions f = 1[−2,−1] et g = 1[1,2] , indicatrices
de [−2, −1] et [1, 2] respectivement, sont non-nulles mais de produit nul.

Fénelon Sainte-Marie – La Plaine-Monceau 28/230 28 août 2020


CHAPITRE 2. ANNEAUX, CORPS, ALGÈBRES MP 2020-21

! ! !
0 1 0 1 0 0
3. M2 (R) admet des diviseurs de zéro : × = . On généralise sans problème à
0 0 0 0 0 0
Mn (R).

Définition 2.22 : structure de corps


Un ensemble K muni de deux LCI + et × est un corps lorsque :
1. (K, +, ×) est un anneau.
2. 0K 6= 1K .
3. Tout élément de K \ {0} admet un inverse pour × dans K.
Si de plus la loi × est commutative alors le corps (K, +, ×) est commutatif.
Théorème 2.23 : caractérisation d’un corps
L’ensemble K muni de deux LCI + et × est un corps si et seulement si :
(i) Le couple (K, +) est un groupe abélien.
(ii) Le couple (K \ {0K }, ×) est un groupe abélien.
(iii) La loi × est distributive par rapport à la loi +.

Exemple 2.24 :
• Les ensembles C, R, Q pour les lois + et × usuelles sont des corps commutatifs.
• Z est un anneau commutatif unitaire intègre, mais ce n’est pas un corps car par exemple 2 n’a pas de symétrique
pour × (i.e. n’admet pas d’inverse).
• K[X] n’est pas un corps car un polynôme non constant n’a pas d’inverse dans K[X].

Remarque 2.25 :
1. Dans la suite, tous les corps qui interviendront seront commutatifs.
2. Tout corps commutatif est un anneau intègre. La réciproque est fausse : (Z, +, ×) est intègre mais pas un corps.

Définition 2.26 : sous-corps


Soit (K, +, ×) un corps et L une partie de K. On dit que L est un sous-corps de K lorsque :
1. L est un sous-anneau de K.
2. ∀x ∈ L \ {0K }, x−1 ∈ L.
Ou encore :
(i) ∀(x, y) ∈ L2 , x − y ∈ L.
(ii) ∀(x, y) ∈ L2 , xy ∈ L.
(iii) 1K ∈ L.
(iv) ∀x ∈ L \ {0K }, x−1 ∈ L.

Exemple 2.27 :
• Q est un sous-corps de R, qui est un sous-corps de C (pour les lois + et × usuelles).
√ √
• L’ensemble Q[ 2] = {a + b 2 ; (a, b) ∈ Q2 } est un sous-corps de R.

Remarque 2.28 :
1. Tout sous-corps L d’un corps K est un corps pour les lois induites. Les neutres de L pour + et × sont ceux de
K.
2. Le plus petit sous-corps de C est Q.
En effet soit k un sous-corps de C. Alors 1 ∈ k, donc Z ⊂ k d’après (i), puis Q ⊂ k d’après (ii) et (iv).

Proposition 2.29 : anneau intègre fini


Tout anneau intègre fini est un corps.

Fénelon Sainte-Marie – La Plaine-Monceau 29/230 28 août 2020


2.2. IDÉAL D’UN ANNEAU COMMUTATIF MP 2020-21

2.2 Idéal d’un anneau commutatif


2.2.1 Définition et premières propriétés
Soit (A, +, ×) un anneau commutatif.
Définition 2.30 : structure d’idéal
On appelle idéal de A une partie I de A telle que :
• (I, +) est un sous-groupe de (A, +) ;
• I est stable par la multiplication par un élément quelconque de A : ∀x ∈ I, ∀a ∈ A, ax ∈ I.

Exemple 2.31 :
L’ensemble 2Z des entiers pairs est un idéal de l’anneau Z des entiers.
Plus généralement, les nZ sont des idéaux de l’anneau Z. Nous verrons dans le théorème 2.36 qu’il n’y en a pas
d’autre.
Proposition 2.32 : images directe et réciproque d’un idéal par un morphisme d’anneaux
Soit f un morphisme d’anneaux de A dans A0 (A et A0 anneaux commutatifs).
1. L’image directe d’un idéal de A est un idéal du sous-anneau f (A).
2. L’image réciproque d’un idéal de A0 est un idéal de A. En particulier Ker f est un idéal de A.

Remarque 2.33 :
Pourquoi anneau commutatif ?
Sinon, on parle d’idéal à gauche (∀i ∈ I, ∀a ∈ A, ia ∈ I) ou d’idéal à droite ∀i ∈ I, ∀a ∈ A, ai ∈ I).
Définition 2.34 : idéal engendré par un élément
L’ensemble xA = {xa ; a ∈ A} des multiples d’un élément x de A est un idéal, appelé idéal engendré par x. On
peut aussi le noter (x).
Remarque 2.35 :
La relation « divise » se ramène à une inclusion des idéaux engendrés : x divise y si et seulement si (y) ⊂ (x).

2.2.2 Idéaux de Z
Théorème 2.36 : idéaux de Z
Les idéaux de l’anneau Z sont les nZ, pour n ∈ Z (on dit que l’anneau Z est principal).

Étant donné deux entiers a et b, l’idéal engendré par {a, b} est :

aZ + bZ = {au + bv ; (u, v) ∈ Z2 }

Définition 2.37 : PGCD d’élément de Z


L’unique générateur positif de l’idéal aZ + bZ est appelé plus grand commun diviseur (PGCD) de a et b et noté
a ∧ b ou PGCD(a, b) :
aZ + bZ = (a ∧ b)Z.

Autrement dit l’ensemble des entiers de la forme au + bv est l’ensemble des multiples de a ∧ b.
En particulier :
Théorème 2.38 : Bézout
PGCD(a, b) = 1 si et seulement si : ∃(u, v) ∈ Z2 , au + bv = 1.
On a vu en Première Année les corollaires de ce théorème :

Fénelon Sainte-Marie – La Plaine-Monceau 30/230 28 août 2020


CHAPITRE 2. ANNEAUX, CORPS, ALGÈBRES MP 2020-21

• (Lemme de Gauss) Si un entier divise le produit de deux entiers, et s’il est premier avec l’un, alors il divise
l’autre :
( a | bc et pgcd(a, b) = 1 ) =⇒ a | c.

• Si un entier est divisible par les éléments d’une famille d’entiers premiers entre eux deux à deux, alors il est
divisible par leur produit :

(∀i ∈ [[1, n]], ai |b) et (∀(i, j) ∈ [[1, n]]2 , i 6= j ⇒ pgcd(ai , aj ) = 1) =⇒ a1 × · · · × an |b.

• Si un entier est premier avec les éléments d’une famille d’entiers, il est premier avec leur produit :

(∀i ∈ [[1, n]], pgcd(a, bi ) = 1) =⇒ pgcd(a, b1 × · · · × bn ) = 1.

• Si deux entiers sont premiers entre eux, il en est de même de toutes puissances de ces deux entiers :

pgcd(a, b) = 1 =⇒ ∀(n, m) ∈ N2 , pgcd(an , bm ) = 1.

Définition 2.39 : PPCM d’éléments de Z


Soit (a, b) ∈ Z2 . Le générateur positif de l’idéal aZ ∩ bZ est appelé plus petit commun multiple (PPCM) de a et b :

aZ ∩ bZ = (a ∨ b)Z = ppcm(a, b)Z.

Proposition 2.40 : lien entre pgcd et ppcm (rappel de MPSI)


Soit (a, b) ∈ Z2 . Alors pgcd(a, b) × ppcm(a, b) = |a| × |b|.

2.3 L’anneau Z/nZ


2.3.1 Multiplication dans Z/nZ
La relation de congruence modulo n est compatible avec la multiplication, c’est-à-dire que a ≡ b [n] et a0 ≡ b0 [n]
implique aa0 ≡ bb0 [n].
Définissons un produit dans Z/nZ de la façon suivante. Soit A et B deux éléments de Z/nZ. Choisissons a et b
deux représentants de ces classes, c’est-à-dire (a, b) ∈ Z2 tel que A = cl(a) et B = cl(b). On définit alors : AB = cl(ab).
Proposition 2.41 : le produit sur Z/nZ
Cette définition ne dépend pas des représentants choisis dans les deux classes.

Ceci nous permet d’affirmer que nous avons bien défini une loi de composition interne sur Z/nZ. Ceci est la base
de la démonstration du :
Théorème 2.42 : l’anneau quotient Z/nZ
L’ensemble (Z/nZ, +, ×) muni des lois cl(a) + cl(b) = cl(a + b) et cl(a) × cl(b) = cl((ab) est un anneau commutatif
unitaire.

Exemple 2.43 :
La table de multiplication de Z/4Z est la suivante :

× 0 1 2 3
0 0 0 0 0
1 0 1 2 3
2 0 2 0 2
3 0 3 2 1

Fénelon Sainte-Marie – La Plaine-Monceau 31/230 28 août 2020


2.3. L’ANNEAU Z/N Z MP 2020-21

On constate que Z/4Z n’est pas intègre : 2 × 2 = 0. Les éléments inversibles sont 1 et 3, ils sont leurs propres inverses.

On remarque alors que la surjection canonique a 7→ cl(a) de Z dans Z/nZ est un morphisme d’anneaux surjectif.
Théorème 2.44 : produit des anneaux Z/nZ et Z/pZ
Soit (n, p) ∈ N2 . Si n et p sont premiers entre eux, alors les anneaux Z/nZ × Z/pZ et Z/(np)Z sont isomorphes.

2.3.2 Éléments inversibles de l’anneau Z/nZ


Théorème 2.45 : éléments inversibles de l’anneau Z/nZ
L’élément cl(k) est inversible dans Z/nZ pour × si et seulement si k est premier avec n.

Remarque 2.46 :
Le calcul de l’inverse d’une classe dans Z/nZ se ramène à l’algorithme d’Euclide. Déterminons par exemple l’inverse
de 5 dans Z/14Z. On a 14 = 5 × 2 + 4 et 5 = 4 × 1 + 1 donc 1 = 5 − 4 = 5 − (14 − 5 × 2) = 5 × 3 + (−1) × 14. Par
−1
conséquent 5 = 3 dans Z/14Z.
Remarque 2.47 :
D’après la proposition 2.7, l’ensemble (U(Z/nZ), ×) des inversibles pour × de l’anneau Z/nZ est un groupe.
Définition 2.48 : fonction indicatrice d’Euler
On appelle fonction indicatrice d’Euler la fonction ϕ : N → N qui à n associe le nombre ϕ(n) d’entiers de l’intervalle
[[1, n]] premiers avec n.
D’après le théorème précédent ϕ(n) est le cardinal du groupe des éléments inversibles de l’anneau (Z/nZ, +, ×).
En particulier ϕ(p) = p − 1 si p est premier .
Corollaire 2.49 : un théorème d’Euler
ϕ(n)
Pour tout entier k premier avec n, on a k = 1.
En particulier, pour tout entier relatif x premier avec n, on a xϕ(n)+1 ≡ x mod n.

Corollaire 2.50 : CNS pour que Z/nZ soit un corps


L’anneau Z/nZ est un corps si et seulement si n est premier.

Corollaire 2.51 : petit théorème de Fermat


Si p est un nombre premier, alors pour tout entier relatif x : xp ≡ x mod p.

2.3.3 Calcul de l’indicatrice d’Euler d’un entier


Théorème 2.52 : calcul de l’indicatrice d’Euler
Si n et m sont des entiers relatifs premiers entre eux, alors ϕ(nm) = ϕ(n)ϕ(m).

Pour connaître l’indicatrice d’Euler d’un entier n, il suffit donc de calculer celle des puissances de nombres premiers
figurant dans la décomposition de n.
Si p est un nombre premier, alors les entiers de [[1, pk ]] premiers avec pk sont ceux qui sont premiers avec p, c’est-
à-dire tous ceux qui ne sont pas des multiples de p. Il y a ainsi exactement pk−1 éléments non inversibles modulo p
dans [[1, pk ]] (car multiples de p), à savoir : 1 × p, 2 × p, . . . , pk−1 × p. Par conséquent :

ϕ(pk ) = pk − pk−1 = pk−1 (p − 1).


k
On en déduit que si n se décompose en produit de facteurs premiers sous la forme n = pk11 pk22 · · · pq q , alors son
indicatrice d’Euler est donnée par :

ϕ(n) = pk11 −1 (p1 − 1)p2k2 −1 (p2 − 1) · · · pkq q −1 (pk − 1).

Fénelon Sainte-Marie – La Plaine-Monceau 32/230 28 août 2020


CHAPITRE 2. ANNEAUX, CORPS, ALGÈBRES MP 2020-21

2.4 Anneau des polynômes à une indéterminée


2.4.1 Idéaux de K[X]
Théorème 2.53 : les idéaux de K[X]
Les idéaux de l’anneau K[X] sont monogènes : pour tout idéal I de K[X], il existe un polynôme P tel que I = (P ).
(On dit que K[X] est principal).

2.4.2 PGCD et PPCM de polynômes, polynômes premiers entre eux


Soit P et Q deux polynômes de K[X]. L’ideal (P ) + (Q) engendré par {P, Q} est :

(P ) + (Q) = {U P + V Q ; (U, V ) ∈ K[X]2 }.

D’après le théorème 2.53, cet idéal admet un unique générateur unitaire.


Définition 2.54 : PGCD d’éléments de K[X]
L’unique générateur unitaire de l’idéal (P ) + (Q) est appelé plus grand commun diviseur (PGCD) de P et Q et
noté pgcd(P, Q) ou P ∧ Q :  
(P ) + (Q) = pgcd(P, Q) .

Autrement dit, l’ensemble des polynômes de la forme U P + V Q est l’ensemble des multiples du polynôme pgcd(P, Q).

En particulier :
Théorème 2.55 : Bézout
On a : pgcd(P, Q) = 1 si et seulement si ∃(U, V ) ∈ K[X]2 , U P + V Q = 1.
On a vu en MPSI les corollaires de ce théorème :
• (Lemme de Gauss) Si un polynôme divise le produit de deux polynômes, et s’il est premier avec l’un, alors il
divise l’autre :
( P | QR ∧ pgcd(P, Q) = 1 ) =⇒ P | R.

• Si P est divisible par les éléments d’une famille de polynômes premiers entre eux deux à deux, alors il est divisible
par leur produit :

( ∀i ∈ [[1, n]] Pi | P ) ∧ ( ∀(i, j) ∈ [[1, n]]2 i 6= j ⇒ pgcd(Pi , Pj ) = 1 ) =⇒ P1 × · · · × Pn | P.

• Si P est premier avec les éléments d’une famille de polynômes, alors il est premier avec leur produit :

( ∀i ∈ [[1, n]] pgcd(P, Pi ) = 1 ) =⇒ pgcd(P, P1 × · · · × Pn ) = 1.

• Si deux polynômes sont premiers entre eux, alors il en est de même des puissances de ces deux polynômes :

pgcd(P, Q) = 1 =⇒ ∀(n, m) ∈ N2 , pgcd(P n , Qm ) = 1.

Remarque 2.56 :
La recherche d’un couple (U0 , V0 ) solution de AU + BV = 1 s’effectue à l’aide de l’algorithme d’Euclide. Pour
déterminer ensuite tous les couples possibles, il faut encore travailler !
Supposons en effet que (U, V ) est une autre solution. Il vient AU0 + BB0 = 1 et AU + BV = 1 donc par différence
A(U − U0 ) + B(V − V0 ) = 0, ce qui implique A(U − U0 ) = −B(V − V0 ). Or A et B sont premiers entre eux, donc
A divise V − V0 . Il existe ainsi un polynôme R tel que V − V0 = AR. On remplace cette dernière égalité dans
A(U − U − 0) = −B(V − V0 ) pour obtenir A(U − U0 ) = −BAR puis U − U0 = −BR.
Les solutions de AU + BV = 1 sont finalement de la forme (U0 − BR, V0 + AR), pour R ∈ K[X].
Exemple 2.57 :

Fénelon Sainte-Marie – La Plaine-Monceau 33/230 28 août 2020


2.4. ANNEAU DES POLYNÔMES À UNE INDÉTERMINÉE MP 2020-21

Posons A = X 3 + X 2 et B = X 2 + 1. Alors X 3 + X 2 = (X 2 + 1)(X + 1) − X − 1 et X 2 + 1 = (−X − 1)(−X + 1) + 2


donc

2 = X 2 + 1 − (1 − X)(−X − 1) = X 2 + 1 − (1 − X)(X 3 + X 2 − (X 2 + 1)(X + 1))


= (X 2 + 1)(1 − (1 − X)(X + 1)) + (X 3 + X 2 )(X − 1) = (X 2 + 1)(2 − X 2 ) + (X 3 + X 2 )(X − 1).

Ceci nous donne U0 = X − 1 et V0 = 2 − X 2 , puis U = X − 1 − (X 2 + 1)R et V = 2 − X 2 + (X 3 + X 2 )R pour


R ∈ K[X].
Définition 2.58 : PPCM d’éléments de K[X]
Soit (P, Q) ∈ K[X]2 . L’unique générateur unitaire de l’idéal (P ) ∩ (Q) est appelé plus petit commun multiple de
P et Q, noté ppcm(P, Q) ou P ∨ Q :
(P ) ∩ (Q) = (ppcm(P, Q)).

Proposition 2.59 : lien entre pgcd et ppcm, version K[X]


Soit deux polynômes unitaires P et Q dans K[X]. Alors pgcd(P, Q) × ppcm(P, Q) = P × Q.

2.4.3 Irréductibles de K[X]


Définition 2.60 : éléments irréductible d’un anneau
Un polynôme non constant est dit irréductible lorsque ses seuls diviseurs sont les scalaires et lui-même.
Remarque 2.61 :
Attention, cette notion dépend du corps considéré. Ainsi X 2 + 1 est irréductible sur R[X] mais pas sur C[X].
Lemme 2.62 :
Tout polynôme non constant admet au moins un diviseur irréductible.

Théorème 2.63 : décomposition d’un polynôme comme produit d’irréductibles


Tout polynôme non constant se décompose comme produit de facteurs irréductibles. La décomposition est unique,
sauf à changer un facteur en un facteur associé ou à modifier l’ordre des facteurs.
On peut affirmer de façon équivalente que tout polynôme non constant se décompose de façon unique comme le
produit d’un scalaire par un produit de polynômes unitaires irréductibles.

Rappelons les irréductibles de C[X] puis de R[X]. Le théorème suivant, parfois appelé théorème fondamental de
l’algèbre, règle le cas de C[X] :
Théorème 2.64 : D’Alembert-Gauss, ou TH fondamental de l’algèbre (rappel de MPSI)
Tout polynôme non constant de C[X] possède au moins une racine.
Ce théorème admet de multiples démonstrations, toutes nécessitant des outils que nous n’avons pas le temps de
développer. Ces démonstrations sont donc officiellement hors-programme.
Corollaire 2.65 : irréductibles de C[X] (rappel de MPSI)
1. Les seuls polynômes irréductibles de C[X] sont les polynômes de degré 1.
2. Tout polynôme de C[X] de degré n ≥ 0 possède exactement n racines complexes, comptées avec leur ordre de
multiplicité.

Remarque 2.66 :
Le cas réel est trompeur : ce n’est pas parce qu’un polynôme à coefficients réels n’admet aucune racine réelle qu’il
est irréductible ! Par exemple
√ √
X 4 + 1 = (X 2 + 1)2 − 2X 2 = (X 2 − 2X + 1)(X 2 + 2X + 1).

Fénelon Sainte-Marie – La Plaine-Monceau 34/230 28 août 2020


CHAPITRE 2. ANNEAUX, CORPS, ALGÈBRES MP 2020-21

Corollaire 2.67 : irréductibles de R[X] (rappel de MPSI)


Les seuls polynômes irréductibles de R[X] sont
— les polynômes de degré 1 ;
— les polynômes de degré 2 à discriminant strictement négatif.

Rappelons enfin deux propriétés fort utiles démontrées en MPSI :


Lemme 2.68 : deux propriétés des polynômes réels (rappel de MPSI)
1. Tout polynôme de R[X] de degré impair admet au moins une racine réelle.
2. Si z ∈ C est une racine d’un polynôme réel P , alors z est aussi une racine de P .

2.5 Structure d’algèbre


Définition 2.69 : structure d’algèbre
Un ensemble A muni de deux lois de composition internes + : A × A → A et × : A × A → A, et d’une loi
· : K × A → A externe de domaine d’opérateurs K, est une K-algèbre (unitaire) lorsque :
1. (A, +, ×) est un anneau (unitaire).
2. (A, +, ·) est un K-espace vectoriel.
3. Les lois × et · sont compatibles : ∀(a, b) ∈ K2 , ∀(x, y) ∈ A2 , (a · x) × (b · y) = (ab) · (x × y).
On note usuellement (A, +, ×, ·).
Exemple 2.70 :
Les ensembles suivants sont des K-algèbres usuelles :

(K[X], +, ×, ·), (L(E), +, ◦, ·), (Mn (K), +, ×, ·), (F(X, K), +, ×, ·),

où E est un K-espace vectoriel et X un ensemble non vide.


Définition 2.71 : sous-algèbre
Un ensemble B est une sous-K-algèbre d’une algèbre A lorsque B est un sous-anneau et un sous-espace vectoriel
de A.
Exemple 2.72 :
1. L’ensemble des matrices triangulaires supérieures d’ordre n est une sous-algèbre de l’algèbre Mn (K).
2. L’ensemble des applications de classe C ∞ de R dans R est une sous-algèbre de RR .

Définition 2.73 : morphisme d’algèbres


Soit A et A0 deux K-algèbres. Une application f : A → A0 est un morphisme de K-algèbres lorsque f est un
morphisme d’anneaux et d’espaces vectoriels.
Exemple 2.74 :
1. Fixons a ∈ K. L’application eva : K[X] → K, P 7→ P (a), est un morphisme de la K-algèbre (K[X], +, ×, ·) dans
la K-algèbre (K, +, ·, ·).
2. Soit E un K-espace vectoriel et g ∈ GL(E) fixé. L’application ϕg : L(E) → L(E), h 7→ g ◦ h ◦ g −1 , est appelée
automorphisme intérieur associé à g.
On vérifie sans détour que ϕg est un endomorphisme de la K-algèbre (L(E), +◦, ·).

EPCC : exercices 66, 86, 94.

The end – chapitre 2

Fénelon Sainte-Marie – La Plaine-Monceau 35/230 28 août 2020


2.5. STRUCTURE D’ALGÈBRE MP 2020-21

Fénelon Sainte-Marie – La Plaine-Monceau 36/230 28 août 2020


Chapitre 3

Espaces vectoriels normés

Dans tout ce chapitre, K désigne exclusivement R ou C.

3.1 Normes et distances


3.1.1 Définition d’une norme
Définition 3.1 : norme
Soit E un K-espace vectoriel. On appelle norme sur E toute application N : E → R vérifiant :
1. Positivité : ∀x ∈ E, N (x) ≥ 0.
2. Axiome de séparation : ∀x ∈ E, N (x) = 0 ⇒ x = 0.
3. Homogénéité : ∀x ∈ E, ∀λ ∈ K, N (λx) = |λ|N (x).
4. Inégalité triangulaire : ∀(x, y) ∈ E 2 , N (x + y) ≤ N (x) + N (y).

Définition 3.2 : espace vectoriel normé


1. Lorsque E est un espace vectoriel muni d’une norme N , le couple (E, N ) s’appelle un espace vectoriel normé.
2. Lorsque (E, N ) est un espace vectoriel normé, un vecteur de E est dit unitaire lorsque sa norme vaut 1.

Exemple 3.3 :
Fondamentaux.
1. Dans Kn , pour x = (x1 , . . . , xn ) posons :

n n
! 12
X X
N1 (x) = |xi |, N2 (x) = |xi |2 , N∞ (x) = max i∈[[1,n]] |xi |.
i=1 i=1

Alors N1 , N2 et N∞ sont des normes sur Kn .


La norme N2 est appelée norme euclidienne (ou hermitienne si K = C) associée au produit scalaire (x, y) 7→
Xn
x̄i yi .
i=1
2. Dans C([a, b], R), pour une fonction f posons :
! 21
Z b Z b
2
N1 (f ) = |f (t)| dt, N2 (f ) = f (t) dt , N∞ (f ) = sup |f (t)|.
a a t∈[a,b]

Alors N1 , N2 et N∞ sont des normes sur C([a, b], R).

37
3.1. NORMES ET DISTANCES MP 2020-21

Z b
La norme N2 est appelée norme euclidienne associée au produit scalaire (f, g) 7→ f (t)g(t) dt, ou encore
a
norme de la convergence en moyenne quadratique.
La norme N1 est appelée norme de la convergence en moyenne.
La norme N∞ est appelée norme de la convergence uniforme.

3.1.2 Distance associée


Soit E un espace vectoriel normé.
Définition 3.4 : distance associée à une norme
Si k · k est une norme sur E, on appelle distance associée à k · k l’application d : E × E → R, (x, y) 7→ ky − xk.
La distance associée à une norme euclidienne (respectivement hermitienne) est appelée distance euclidienne (resp.
hermitienne) (voir paragraphe 3.1.3).
Une telle application vérifie les propriétés suivantes.
Proposition 3.5 : propriétés d’une distance
1. ∀(x, y) ∈ E 2 , d(x, y) ≥ 0.
2. ∀(x, y) ∈ E 2 , d(x, y) = 0 ⇐⇒ x = y.
3. ∀(x, y) ∈ E 2 , d(x, y) = d(y, x).
3
4. ∀(x, y, z) ∈ E , d(x, z) ≤ d(x, y) + d(y, z).

Définition 3.6 : espace métrique


Un ensemble E muni d’une distance, c’est-à-dire muni d’une application d : E × E → R vérifiant les propriétés
ci-dessus, est appelé un espace métrique.
Remarque 3.7 :
1. Un espace vectoriel normé est donc un cas particulier d’espace métrique.
2. Il existe des distances, c’est-à-dire des applications vérifiant les quatre propriétés précédentes, qui ne proviennent
pas d’une norme.
Par exemple, la distance discrète d définie sur n’importe quel ensemble par d(x, y) = 1 si x 6= y et d(x, x) = 0.

Définition 3.8 : distance d’un point à une partie non vide


Soit (E, d) un espace métrique. Étant donné une partie A de E et x un élément de E, on appelle distance de x à A
la borne inférieure des distances de x à tous les éléments de A (attention : cette borne n’est pas nécessairement
atteinte) :
d(x, A) = inf d(x, a).
a∈A

3.1.3 Norme euclidienne


Nous avons vu que dans certains cas, la norme est euclidienne (ou hermitienne si K = C), c’est-à-dire associée à
un produit scalaire.
Définition 3.9 : produit scalaire hermitien
Si E est un C-espace vectoriel, on appelle produit scalaire hermitien sur E une application ϕ de E × E dans C
sesquilinéaire, hermitienne et définie positive, c’est-à-dire :
1. ϕ est linéaire à droite : ∀(x, y, y 0 ) ∈ E 3 , ∀(α, β) ∈ C2 , ϕ(x, αy + βy 0 ) = αϕ(x, y) + βϕ(x, y 0 ).
2. ϕ est hermitienne : ∀(x, y) ∈ E 2 , ϕ(y, x) = ϕ(x, y).
3. ϕ est positive : ∀x ∈ E, ϕ(x, x) ≥ 0 (on a ϕ(x, x) ∈ R puisque ϕ(x, x) = ϕ(x, x) d’après la symétrie hermitienne).

Fénelon Sainte-Marie – La Plaine-Monceau 38/230 28 août 2020


CHAPITRE 3. ESPACES VECTORIELS NORMÉS MP 2020-21

4. ϕ est définie : ∀x ∈ E, ϕ(x, x) = 0 ⇒ x = 0.

Proposition 3.10 : inégalité de Cauchy-Schwarz, cas complexe


Soit E un C-espace vectoriel muni d’un produit scalaire hermitien noté ( · | · ). Alors :
2
∀(x, y) ∈ E 2 , |(x|y)| ≤ (x|x)(y|y),

et cette inégalité est une égalité si et seulement si (x, y) est une famille liée.

On en déduit que :
Théorème 3.11 : norme (hermitienne) associée à un produit scalaire
Soit ( · | · ) un produit scalaire sur un K-espace vectoriel E (K étant R ou C)).
p
Alors l’application k · k définie par kxk = (x|x) est une norme, appelée norme hermitienne associée au produit
scalaire.
Elle vérifie en particulier l’inégalité de Minkowski (conséquence de l’inégalité de Cauchy-Schwarz) :

∀(x, y) ∈ E 2 kx + yk ≤ kxk + kyk.

Remarque 3.12 :
Notons que pour tout x ∈ E : kxk = sup |(x|y)|.
kyk≤1

3.1.4 Partie bornée


Soit (E, N = k · k) un espace vectoriel normé. Soit a ∈ E et r ∈ R+ .
Définition 3.13 : boule ouverte, fermée, unité

1. On appelle boule fermée de centre a et de rayon r de E l’ensemble


B(a, r) = {u ∈ E; ku − ak ≤ r} (orange avec son écorce).
Lorsque r = 1 et a = 0, on parle de boule unité fermée.
2. On appelle boule ouverte de centre a et de rayon r de E l’ensemble
B(a, r) = {u ∈ E; ku − ak < r} (orange sans son écorce).
Lorsque r = 1 et a = 0, on parle de boule unité ouverte.
3. On appelle sphère de centre a et de rayon r de E l’ensemble
S(a, r) = {u ∈ E; ku − ak = r} (écorce de l’orange).
Lorsque r = 1 et a = 0, on parle de sphère unité.

Définition 3.14 : partie bornée


Une partie A de E est dite bornée lorsqu’il existe une boule la contenant.
Remarque 3.15 :

1. Il est équivalent de considérer une boule ouverte ou fermée, de centre a ou 0E .


2. Une partie A de E est bornée si et seulement si : ∃r ∈ R+ , ∀u ∈ A, kuk ≤ r.

Exemple 3.16 :

1. B(a, r) est bornée par kak + r. De même pour la boule ouverte et la sphère.
2. Dans (R2 , N∞ ), le pavé [a, b] × [c, d] est borné par max (|a|, |b|, |c|, |d|).

Fénelon Sainte-Marie – La Plaine-Monceau 39/230 28 août 2020


3.2. SUITES D’ÉLÉMENTS D’UN EVN MP 2020-21

Définition 3.17 : application bornée


Une application d’un ensemble X quelconque dans E est dite bornée lorsque l’ensemble {f (x); x ∈ X} est borné.

Notation : On note B(X, E) l’ensemble des applications bornées de X dans E.


Remarque 3.18 :
L’ensemble B(X, E) est un K-espace vectoriel, et l’application :

B(X, E) −→ R, f 7−→ sup kf (x)k


x∈X

est une norme sur B(X, E), notée k · k ∞ et appelée la norme infinie.

3.1.5 Applications lipschitziennes


Soit E et F deux espaces vectoriels normés et I un intervalle de R. Considérons une partie A de E.
Définition 3.19 : application lipschitzienne
Une application f : A → F est dite (k-)lipschitzienne sur A lorsqu’il existe k ∈ R+ tel que : ∀(x, y) ∈ A2 ,
kf (x) − f (y)kF ≤ k kx − ykE .
On note Lipk (A, F ) l’ensemble des applications k-lipschitziennes de A dans F et Lip(A, F ) l’ensemble des applica-
tions lipschitziennes.
Exemple 3.20 :
1. Les applications x 7→ kxk et x 7→ d(x, A) sont 1-lipschitziennes de E dans R.
2. Une fonction dérivable sur un intervalle I de R, dont la dérivée sur I est majorée en valeur absolue par k, est
k-lipschitzienne d’après le théorème des accroissements finis.

Proposition 3.21 : composition d’applications lipschitziennes


La composée de deux applications lipschitziennes est lipschitzienne.

3.1.6 Produit d’une famille finie d’EVN


Soit E1 , . . . , En des espaces vectoriels normés, munis respectivement des normes k · kE1 , . . . , k · kEn . L’espace
vectoriel produit E1 × E2 × · · · × En peut être muni de la norme N définie par :

∀x = (x1 , . . . , xn ) ∈ E1 × E2 × · · · × En , N (x) = sup kxi kEi .


i∈[[1,n]]

Notons que toute projection


pi
E1 × E2 × · · · × En −→ Ei
x 7−→ xi
est 1-lipschitzienne.

3.2 Suites d’éléments d’un EVN


3.2.1 Convergence
Soit E un espace vectoriel normé.
Définition 3.22 : suite convergente
Une suite (xn )n d’éléments de E est dite convergente lorsque :

∃` ∈ E, ∀ε > 0, ∃n0 ∈ N, ∀n ≥ n0 kxn − `k ≤ ε.

Fénelon Sainte-Marie – La Plaine-Monceau 40/230 28 août 2020


CHAPITRE 3. ESPACES VECTORIELS NORMÉS MP 2020-21

Comme pour les suites réelles, on montre facilement l’unicité de ` lorsqu’il existe. On l’appelle limite de la suite.
Proposition 3.23 : propriétés immédiates
1. Toute suite convergente est bornée.
2. L’ensemble des suites bornées de E est un K-espace vectoriel noté `∞ (E), et l’application :

`∞ (E) −→ R
u 7−→ sup kun k
n∈N

est une norme sur `∞ (E), notée k · k ∞.


3. L’ensemble des suites convergentes est un sous-espace vectoriel de `∞ (E), et l’application qui à une suite fait
correspondre sa limite est linéaire.

Remarque 3.24 :
Il est très important de noter que la définition de la convergence est liée à la norme de E. S’il existe plusieurs
normes sur E, une même suite peut converger pour une norme et diverger pour une autre.
Exemple 3.25 :
Considérons la suite de fonctions (fn )n définies sur [0, 1] par fn (t) = tn .
Z 1
1
• kfn k1 = |tn |dt = : la suite (fn )n converge vers la fonction nulle pour la norme k · k 1 (convergence en
0 n + 1
moyenne).
• kfn k∞ = sup tn = 1 : la suite (fn )n ne converge pas vers la fonction nulle (ni vers aucune autre) pour la norme
t∈[0,1]
k · k ∞.

Proposition 3.26 : convergence d’une suite dans un produit d’EVN


Une suite d’éléments d’un espace vectoriel normé produit converge si et seulement si chacune des suites composantes
converge.

3.2.2 Normes équivalentes


Théorème 3.27 : comparaison de normes et convergence de suites
Soit E un K-espace vectoriel et N , N 0 deux normes sur E. Alors les deux propositions suivantes sont équivalentes :
1. ∃α > 0, ∀x ∈ E, N 0 (x) ≤ αN (x).
2. Toute suite d’éléments de E qui converge vers 0 pour la norme N converge aussi vers 0 pour la norme N 0 .

Définition 3.28 : normes équivalentes


Soit N et N 0 deux normes sur un espace vectoriel E. On dit que N et N 0 sont équivalentes lorsque :
2
∃(α, β) ∈ R∗+ , αN ≤ N 0 ≤ βN.

Il résulte immédiatement du théorème la


Proposition 3.29 : équivalence de normes et convergence de suites
Deux normes sont équivalentes si et seulement si toute suite qui converge pour l’une converge pour l’autre (avec la
même limite).
Remarque 3.30 :
On peut caractériser deux normes équivalentes N et N 0 en disant que toute N -boule contient une N 0 -boule et
réciproquement.

Fénelon Sainte-Marie – La Plaine-Monceau 41/230 28 août 2020


3.2. SUITES D’ÉLÉMENTS D’UN EVN MP 2020-21

Conformément au programme, nous admettrons le théorème suivant sans démonstration :


Théorème 3.31 : équivalence des normes en dimension finie
Dans un espace vectoriel de dimension finie, toutes les normes sont équivalentes.
La démonstration fait appel à la notion de compacité qui sera étudiée plus tard. C’est pourquoi dans beaucoup de
cours ce théorème ne figure qu’à partir de ce point. Puisque nous sommes autorisés à l’admettre, autant en profiter
dès à présent. . .
Exemple 3.32 :
1. Dans Kn , les normes k · k 1, k · k 2 et k · k ∞ sont équivalentes. Pour tout x ∈ Kn :

kxk∞ ≤ kxk1 ≤ nkxk∞



kxk∞ ≤ kxk2 ≤ nkxk∞
1 √
kxk1 ≤ kxk2 ≤ nkxk1 .
n
2. Dans C([0, 1], R) au contraire, il existe des normes qui ne sont pas équivalentes. Posons :
s
Z 1 Z 1
∀f ∈ C([0, 1], R), kf k1 = |f (t)|dt, kf k2 = f (t)2 dt, kf k∞ = sup |f |.
0 0 [0,1]

Alors les normes k · k 1, k · k 2 et k · k ∞ ne sont pas équivalentes.


En effet, on a déjà : Z 1
∀f ∈ C([0, 1], R) kf k1 = |f (t)|dt ≤ sup |f | = kf k∞ .
0 [0,1]

On montre de même que pour tout f ∈ C([0, 1], R), kf k2 ≤ kf k∞ .


De plus, l’inégalité de Cauchy-Schwarz prouve que pour tout f ∈ C([0, 1], R), kf k1 ≤ kf k2 . On a donc :

k · k 1 ≤ k · k 2 ≤ k · k ∞.

Cependant, pour fn (t) = tn :


1 1
kfn k1 = ; kfn k2 = √ ; kfn k∞ = 1.
n+1 2n + 1

kfn k2 kfn k∞
Les quotients et ne sont pas majorés : les trois normes ne sont pas équivalentes deux à deux.
kfn k1 kfn k2

Il faut donc distinguer la convergence d’une suite de fonctions suivant la norme utilisée :
• la convergence pour la norme k · k 1 s’appelle convergence en moyenne ;
• la convergence pour la norme k · k 2 s’appelle convergence en moyenne quadratique ;
• la convergence pour la norme k · k ∞ s’appelle convergence uniforme.
La convergence uniforme implique la convergence en moyenne quadratique, qui implique la convergence en moyenne,
mais les réciproques sont fausses.

3.2.3 Suites extraites


Soit (xn )n une suite d’éléments de l’espace vectoriel normé E.
Définition 3.33 : suite extraite
On appelle suite extraite de (xn )n une suite de la forme (xϕ(n) ) où ϕ est une application strictement croissante de
N dans N.
On démontre par récurrence que pour tout n ∈ N, ϕ(n) ≥ n (voir cours de première année).
Comme pour les suites réelles, on montre sans détour que :
Proposition 3.34 : propriétés des suites extraites

Fénelon Sainte-Marie – La Plaine-Monceau 42/230 28 août 2020


CHAPITRE 3. ESPACES VECTORIELS NORMÉS MP 2020-21

1. Toute suite extraite d’une suite convergente converge vers la même limite.
2. Si une suite admet deux suites extraites qui convergent vers des limites différentes, alors la suite initiale ne
converge pas.
3. Si par exemple (x2n )n et (x2n+1 )n convergent vers `, alors (xn )n converge vers `.

Définition 3.35 : valeur d’adhérence d’une suite


Un élément a de E est appelé valeur d’adhérence de la suite (xn )n s’il existe une suite extraite de (xn )n qui converge
vers a.
Proposition 3.36 : caractérisation de l’adhérence
L’élément a est une valeur d’adhérence de (xn )n si et seulement si pour tout n0 ∈ N, toute boule de centre a
contient au moins un terme de la suite de rang supérieur ou égal à n0 .
Au contraire, a n’est pas une valeur d’adhérence de (xn )n si et seulement s’il existe n0 ∈ N et une boule de centre
a ne contenant aucun terme de la suite de rang supérieur ou égal à n0 .

Remarque 3.37 :
Si la suite (xn )n converge vers `, alors ` est l’unique valeur d’adhérence de (xn )n .
Il en résulte qu’une suite ayant au moins deux valeurs d’adhérence distinctes est divergente.
Exemple 3.38  : π 
La suite cos n est divergente.
3 n
Remarque 3.39 :
Si E = R ou C, on sait d’après le théorème de Bolzano-Weierstrass que toute suite bornée possède au moins une
valeur d’adhérence. On peut montrer alors que si cette valeur d’adhérence est unique, la suite est convergente. Mais
cette propriété n’est pas vraie dans un espace vectoriel normé quelconque.

3.3 Comparaison des suites


Soit (xn )n une suite d’éléments de l’espace vectoriel normé E, et (αn )n une suite d’éléments du corps K.

3.3.1 Domination
Définition 3.40 : suite dominée par une autre
La suite (xn )n est dite dominée par la suite (αn )n lorsque :

∃M ∈ R, ∃n0 ∈ N, ∀n ≥ n0 kxn k ≤ M |αn |.

On écrit : xn = O(αn ).
Remarque 3.41 :  
1
Si la suite (αn )n ne s’annule pas à partir d’un certain rang xn = O(αn ) signifie que la suite xn est bornée
αn
dans E.

3.3.2 Négligeabilité
Définition 3.42 : suite négligeable devant une autre
La suite (xn )n est dite négligeable devant la suite (αn )n lorsque :

∀ε > 0, ∃n0 ∈ N, ∀n ≥ n0 kxn k ≤ ε |αn |.

On écrit : xn = o(αn ).

Fénelon Sainte-Marie – La Plaine-Monceau 43/230 28 août 2020


3.3. COMPARAISON DES SUITES MP 2020-21

Remarque 3.43 :  
1
Si la suite (αn )n ne s’annule pas à partir d’un certain rang, xn = o(αn ) signifie que la suite xn converge vers
αn
0E .

3.3.3 Équivalence
Soit (xn )n et (yn )n deux suites d’éléments de E.
Définition 3.44 : suites équivalentes
On dit que (xn )n est équivalente à (yn )n si la différence (xn − yn )n est négligeable devant (kyn k)n :

∀ε > 0, ∃n0 ∈ N, ∀n ≥ n0 kxn − yn k ≤ ε kyn k .

On écrit : xn ∼ yn .
On peut montrer qu’il s’agit d’une relation d’équivalence. La symétrie permet de dire « les suites (xn )n et (yn )n
sont équivalentes ».
Proposition 3.45 : suites équivalentes
1. Si deux suites sont équivalentes et si l’une d’elles converge vers `, alors l’autre converge aussi vers `.
2. La suite (xn )n est équivalente à la suite constante (`)n , avec ` 6= 0E , si et seulement si (xn )n converge vers `.

Remarque 3.46 :
Attention : xn ∼ 0E signifie que la suite (xn )n est stationnaire nulle !

EPCC : aucun !

The end – chapitre 3

Fénelon Sainte-Marie – La Plaine-Monceau 44/230 28 août 2020


Chapitre 4

Topologie

Dans tout le chapitre E désigne un espace vectoriel normé et A une partie de E.

4.1 Notions topologiques


4.1.1 Voisinages
Soit E un espace vectoriel normé.
Définition 4.1 : voisinage d’un point
On appelle voisinage d’un point x de E toute partie V de E qui contient une boule ouverte de centre x (rappelons
qu’une boule a un rayon strictement positif).
On note VE (x) ou V(x) la collection de tous les voisinages de x dans E ; ainsi V ∈ VE (x) signifie que :

∃r > 0 / ∀y ∈ E, ky − xk < r ⇒ y ∈ V.

Proposition 4.2 : propriétés immédiates des voisinages


1. Tout voisinage de x contient x.
2. Une boule ouverte de centre x est un voisinage de x.
3. Une boule fermée de centre x est un voisinage de x.
4. Toute partie contenant un voisinage de x est un voisinage de x.
5. La réunion d’une famille quelconque de voisinages de x est un voisinage de x.
6. L’intersection d’une famille finie de voisinages de x est un voisinage de x.

Il est à noter que :


Théorème 4.3 : normes équivalentes et voisinages
Deux normes équivalentes définissent les mêmes voisinages.
En particulier, en dimension finie la notion de voisinage est indépendante de la norme.

4.1.2 Ouverts et fermés


Définition 4.4 : partie ouverte
On appelle ouvert de E une partie de E qui est un voisinage de chacun de ses points. Autrement dit O est un
ouvert si et seulement si pour tout x ∈ O, il existe une boule ouverte de centre x de rayon strictement positif incluse
dans O.

45
4.1. NOTIONS TOPOLOGIQUES MP 2020-21

En d’autres termes :
∀x ∈ O, ∃r > 0 / ∀y ∈ E, ky − xk < r ⇒ y ∈ O.

Proposition 4.5 : propriétés immédiates des ouverts


1. ∅ est ouvert (toute proposition commençant par ∀x ∈ ∅ . . .).
2. E est ouvert.
3. Toute boule ouverte est ouverte (sic !).
4. la réunion d’une famille quelconque d’ouverts est ouverte.
5. l’intersection d’une famille finie d’ouverts est ouverte.

Définition 4.6 : parties fermées


On appelle fermé le complémentaire dans E d’un ouvert. Autrement dit F est fermé si et seulement si pour tout
x 6∈ F il existe une boule ouverte de centre x ne rencontrant pas F. En d’autres termes :
 
∀x ∈ E, x 6∈ F =⇒ ∃r > 0/∀y ∈ E, ky − xk < r ⇒ y 6∈ F .

Proposition 4.7 : propriétés immédiates des fermés


1. ∅ est fermé.
2. E est fermé.
3. Tout singleton {x} est fermé.
4. Toute boule fermée est fermée (ouf !).
5. L’intersection d’une famille quelconque de fermés est fermée.
6. La réunion d’une famille finie de fermés est fermée.

Proposition 4.8 : normes équivalentes et ouverts/fermés


Deux normes équivalentes définissent les mêmes ouverts et donc, par passage au complémentaire, les mêmes fermés.
En particulier, en dimension finie les notions d’ouvert et de fermé sont indépendantes de la norme.

4.1.3 Adhérence d’une partie


Définition 4.9 : point adhérent à un ensemble
Soit A une partie de E. Un point x de E est dit adhérent à A si tout voisinage de x rencontre A. En d’autres
termes :
∀V ∈ V(x) V ∩ A 6= ∅.
L’ensemble des éléments de E adhérents à A est appelé adhérence de A et noté A.
Proposition 4.10 : caractérisation de l’adhérence d’un ensemble
Un point x est adhérent à A si et seulement si toute boule ouverte de centre x contient au moins un élément de A.
En d’autres termes x est adhérent à A si et seulement si :

∀ε > 0 ∃a ∈ A ka − xk < ε.

Remarque 4.11 :

Fénelon Sainte-Marie – La Plaine-Monceau 46/230 28 août 2020


CHAPITRE 4. TOPOLOGIE MP 2020-21

1. Un point x est adhérent à A si et seulement si sa distance à A est nulle : d(x, A) = 0.


2. Tout élément de A est adhérent à A : A ⊂ A. La réciproque est fausse : par exemple dans C le point d’affixe 1
est adhérent à la boule unité ouverte (de centre 0 de rayon 1), mais ne lui appartient pas.

Définition 4.12 : point d’accumulation, point isolé


Soit A une partie de E et x ∈ E (x pas forcément dans A).
1. Si tout voisinage de x rencontre A en au moins un autre point que x, on dit que x est un point d’accumulation
de A :
∀V ∈ VE (x), (V \ {x}) ∩ A 6= ∅.

2. Si au contraire il existe un voisinage de x qui ne rencontre A qu’au point x, on dit que x est un point isolé de
A:
∃V ∈ VE (x), V ∩ A = {x}.

Exemple 4.13 :
1. Le point du plan d’affixe 1 est un point adhérent à la boule unité ouverte.
2. Tous les points de Z sont des points isolés de Z.
3. Pour l’ensemble A = {a} (singleton), le point a est adhérent à A ; ce point a est un point isolé de A ; mais a
n’est pas un point d’accumulation de A.

Remarque 4.14 :
1. Un point adhérent à A qui ne lui appartient pas est nécessairement un point d’accumulation.
2. Un point isolé appartient nécessairement à A.

Définition 4.15 : partie dense


On dit qu’une partie A est dense dans une partie B si A = B.
Exemple 4.16 :
Q est dense dans R : tout réel est adhérent à Q.
Théorème 4.17 : caractérisation de l’adhérence
Soit E un espace vectoriel normé. Pour toute partie A de E, l’adhérence A de A est le plus petit fermé de E
contenant A.

Corollaire 4.18 : autre caractérisation de l’adhérence


L’adhérence A de A est l’intersection de la famille des fermés contenant A.

Corollaire 4.19 : caractérisation du caractère fermé d’un ensemble


Une partie A est fermée si et seulement si elle contient tous ses points adhérents : A = A.

4.1.4 Caractérisation séquentielle de l’adhérence


Théorème 4.20 : caractérisation séquentielle de l’adhérence
Soit A une partie d’un espace vectoriel normé E.
Un point x ∈ E est adhérent à A si et seulement s’il existe une suite (an )n d’éléments de A qui converge vers x.

L’adhérence A est donc l’ensemble des limites des suites convergentes d’éléments de A. Plus généralement A est
l’ensemble des valeurs d’adhérence des suites d’éléments de A.
Corollaire 4.21 : autre caractérisation séquentielle du caractère fermé
Une partie A d’un espace vectoriel normé est fermée si et seulement si elle contient les limites de toutes ses suites
convergentes.

Fénelon Sainte-Marie – La Plaine-Monceau 47/230 28 août 2020


4.1. NOTIONS TOPOLOGIQUES MP 2020-21

On en déduit :
Exemple 4.22 :
Un sous-espace vectoriel de dimension finie d’un espace vectoriel normé est fermé.

4.1.5 Intérieur d’une partie


Définition 4.23 : point intérieur à un ensemble
Un point x de E est dit intérieur à A lorsque A est un voisinage de x, autrement dit lorsqu’il existe une boule
ouverte de centre x contenue dans A :

∃ε > 0 ∀y ∈ E, ky − xk < ε ⇒ y ∈ A.

L’ensemble des éléments de E intérieurs à A est appelé intérieur de A et noté A.
Remarque 4.24 :
◦ ◦
1. Bien sûr, tout élément de A est élément de A : A ⊂ A.
2. La réciproque est fausse : par exemple dans C le point d’affixe 1 est élément de la boule unité fermée mais ne
lui est pas intérieur.

Théorème 4.25 : caractérisation de l’intérieur ◦


Soit E un espace vectoriel normé. Pour toute partie A de E, l’intérieur A est le plus grand ouvert de E contenu
dans A.

4.1.6 Liens entre adhérence et intérieur


Théorème 4.26 : lien entre intérieur et adhérence
Soit A une partie d’un espace vectoriel normé E.

_
1. Le complémentaire de l’adhérence de A est l’intérieur du complémentaire de A : {E A ={E A.

2. Le complémentaire de l’intérieur de A est l’adhérence du complémentaire de A : {E A= {E A.

4.1.7 Frontière d’une partie


Définition 4.27 : frontière d’uen partie
On appelle point frontière de A un point adhérent à A qui n’est pas intérieur à A. L’ensemble des points frontières
est appelé frontière de A :

Fr(A) = A\ A = A ∩ {E A.

Remarque 4.28 :
1. La frontière de A est l’intersection de deux fermés, c’est donc un fermé.
2. La frontière de A est aussi la frontière du complémentaire de A.

Exemple 4.29 :
La frontière de la boule unité fermée du plan complexe est le cercle unité fermé. Plus généralement la frontière
d’une boule (ouverte ou fermée) est la sphère qui lui est associée.

Fénelon Sainte-Marie – La Plaine-Monceau 48/230 28 août 2020


CHAPITRE 4. TOPOLOGIE MP 2020-21

4.1.8 Topologie induite sur une partie


Définition 4.30 : voisinage relatif à une partie
1. Soit a un élément de A. On appelle voisinage de a relatif à A l’intersection de A avec un voisinage de a.
2. La notion de voisinage relatif peut être étendue à un élément adhérent à A : pour a ∈ A, un voisinage relatif à A
est l’intersection de A avec un voisinage de a.

Exemple 4.31 :
Le segment [0, 1] est un voisinage de 0 relatif à R+ .
Définition 4.32 : ouvert/fermé relatif à une partie
On appelle ouvert relatif de A l’intersection de A avec un ouvert de E, et fermé relatif de A l’intersection de A
avec un fermé de E.
Remarque 4.33 :
1. Un fermé relatif de A est le complémentaire dans A d’un ouvert relatif de A.
2. Attention : un ouvert relatif de A n’est pas nécessairement un ouvert de E. Par exemple ]0, 1[ est un ouvert
relatif de R, mais ce n’est pas un ouvert de C.
3. Attention : un fermé relatif de A n’est pas nécessairement un fermé de E. Par exemple ]0, 12 ] est un fermé relatif
de ]0, 1[, mais ce n’est pas un fermé de R.

4.2 Étude locale d’une application


4.2.1 Limite en un point
Soit E et F deux espaces vectoriels normés, A une partie de E, et f une application de A dans F . Soit a un point
adhérent à A et ` un point de F .
Définition 4.34 : limite d’une fonction en un point
On dit que f admet pour limite ` au point a lorsque pour tout voisinage V de `, il existe un voisinage de a relatif
à A dont l’image est contenue dans V :

∀V ∈ VF (`), ∃W ∈ VE (a) / f (W ∩ A) ⊂ V.

En d’autres termes :
∀ε > 0, ∃α > 0, ∀x ∈ A, kx − ak ≤ α ⇒ kf (x) − `k ≤ ε.

Proposition 4.35 : unicité de la limite d’une fonction


Le vecteur ` (s’il existe) est unique. On l’appelle la limite de la fonction f au point a et on le note lim f ou lim f (x).
a x→a

Remarque 4.36 :
Le vecteur ` est adhérent à f (A).
Remarque 4.37 :
La définition faisant intervenir des voisinages peut s’étendre au cas des applications possédant une limite en ±∞
lorsque E = R, ou une limite infinie lorsque F = R.
Il convient pour cela d’appeler voisinage de +∞ toute partie de R contenant au moins un intervalle de la forme
[d, +∞[, et de même voisinage de −∞ toute partie de R contenant au moins un intervalle de la forme [−∞, d].
Ainsi lim f (x) = −∞ signifie :
x→+∞

∀c ∈ R ∃d ∈ R ∀x ∈ A x ≥ d ⇒ f (x) ≤ c.

Fénelon Sainte-Marie – La Plaine-Monceau 49/230 28 août 2020


4.2. ÉTUDE LOCALE D’UNE APPLICATION MP 2020-21

Définition 4.38 : limite d’une fonction selon une partie


Si P est une partie de A, on dit que f admet la limite ` au point a selon P lorsque la restriction de f à P possède
la limite ` au point a.
Exemple 4.39 :
1. La fonction x 7→ E(−x2 ) admet la limite −1 au point 0, selon R∗ .
2. La fonction indicatrice de Q admet en 0 la limite 1 selon Q et la limite 0 selon R \ Q.

Définition 4.40 : continuité d’une fonction en un point


Si a appartient à A et si f admet une limite en a, alors cette limite est nécessairement f (a). On dit dans ce cas
que que f est continue en a (exercice !).
Remarque 4.41 :
1. Si a n’appartient pas à A, alors f admet une limite en a si et seulement si elle est prolongeable par continuité
en a, c’est-à-dire si la fonction définie sur A ∪ {a} égale à f sur A et telle que f (a) = lim f , est continue en a.
a
2. Si deux normes sont équivalentes, alors elles définissent les mêmes limites et les mêmes fonctions continues. En
dimension finie par exemple, les notions de limite et de continuité sont indépendantes de la norme.

4.2.2 Opérations sur les limites


La limite d’une composée d’applications donne accès à tous les autres cas :
Lemme 4.42 : limite et produit d’espaces
Soit E et F1 , . . . , Fp des espaces vectoriels normés. On pose F = F1 × · · · × Fp . Si pour tout i ∈ [[1, p]], fi est une
application d’une partie A de E dans Fi , on considère l’application f de A dans F définie par f (x) = (f1 (x), . . . , fp (x)).
Alors : f admet en un point a de A la limite ` = (`1 , . . . , `p ) si et seulement si pour tout i ∈ [[1, p]], fi admet en a
la limite `i .
Théorème 4.43 : Composition des limites
Soit E, F , G trois espaces vectoriels normés. Considérons f une application d’une partie A de E dans F et g une
application de f (A) dans G.
Si f admet pour limite b en un point a adhérent à A, et si g admet pour limite c au point b, alors g ◦ f admet pour
limite c au point a.

Corollaire 4.44 : linéarité de la limite


Soit E, F deux espaces vectoriels normés. Considérons f et g deux applications d’une partie A de E dans F
admettant des limites en un point a adhérent à A. Alors :

∀(α, β) ∈ K2 lim(αf + βg) = α lim f + β lim g.


a a a

Corollaire 4.45 : produit de limites


Soit E, F deux espaces vectoriels normés. Considérons f une application d’une partie A de E dans F , et u une
application de A dans K, toutes les deux admettant des limites en un point a adhérent à A. Alors :

lim (u × f ) = lim u × lim f.


a a a

Corollaire 4.46 : structure de l’ensemble des applications continues


1. L’ensemble des applications de A dans F qui admettent une limite en a est un K-espace vectoriel.

Fénelon Sainte-Marie – La Plaine-Monceau 50/230 28 août 2020


CHAPITRE 4. TOPOLOGIE MP 2020-21

2. En particulier si a ∈ A, alors l’ensemble des applications de A dans F continues en a est un K-espace vectoriel.
3. Si F = K, alors les deux ensembles ci-dessus sont même des K-algèbres.

4.2.3 Caractérisation séquentielle de l’existence d’une limite d’une fonction


Théorème 4.47 : caractérisation séquentielle de l’existence d’une limite d’une fonction
Soit E, F deux espaces vectoriels normés, f une application d’une partie A de E dans F , et a un point adhérent
à A.
Alors : f admet une limite en a si et seulement si pour toute suite (un )n d’éléments de A convergeant vers a, la
suite (f (un ))n est convergente.

On en déduit une caractérisation séquentielle de la continuité :


Corollaire 4.48 : caractérisation séquentielle de la continuité
Soit E, F deux espaces vectoriels normés, f une application d’une partie A de E dans F , et a un point de A. Alors
f est continue en a si et seulement si pour toute suite (un )n d’éléments de A convergeant vers a, la suite (f (un ))n
converge vers f (a).

4.2.4 Relations de comparaison


Soit E et F deux espaces vectoriels normés, A une partie de E, a un point adhérent à A. Considérons une application
f de A dans F et une application ϕ de A dans K.
Définition 4.49 : domination, négligeabilité, équivalence de fonctions
1. On dit que f est dominée par ϕ au point a lorsque :

∃M ∈ R ∃V ∈ V(a) ∀x ∈ V ∩ A kf (x)k ≤ M |ϕ(x)|.

On écrit : f = O(ϕ).
2. On dit que f est négligeable devant ϕ au point a lorsque :

∀ε > 0 ∈ R ∃V ∈ V(a) ∀x ∈ V ∩ A kf (x)k ≤ ε |ϕ(x)|.

On écrit : f = o(ϕ).
3. Soit g une autre application de A dans F . On dit que f est équivalente à g au point a lorsque f −g est négligeable
devant kgk :
∀ε > 0 ∃V ∈ V(a) ∀x ∈ V ∩ A kf (x) − g(x)k ≤ ε kg(x)k .
On écrit : f ∼ g.

Proposition 4.50 : relations de comparaison


1
1. Si ϕ ne s’annule pas au voisinage de a, alors f = O(ϕ) signifie que la fonction f est bornée au voisinage de a.
ϕ
1
2. Si ϕ ne s’annule pas au voisinage de a, alors f = o(ϕ) signifie que la fonction f admet la limite 0 au point a.
ϕ
3. La relation d’équivalence de fonctions est une relation d’équivalence (RST). La symétrie permet de dire « les
fonctions f et g sont équivalentes ».

Remarque 4.51 :
1. Si deux fonctions sont équivalentes en a et si l’une d’elles admet pour limite ` au point a, alors l’autre admet
aussi la limite ` au point a.
Réciproque fausse : deux fonctions de limite nulle ne sont pas forcément équivalentes.
Par exemple f (x) = x et g(x) = x2 en x = 0.

Fénelon Sainte-Marie – La Plaine-Monceau 51/230 28 août 2020


4.2. ÉTUDE LOCALE D’UNE APPLICATION MP 2020-21

2. La fonction f est équivalente à la fonction constante `, avec ` 6= 0F , si et seulement si f admet la limite ` au


point a.
3. Attention : f ∼ 0F signifie que la fonction f est identiquement nulle sur un voisinage de a, ce qui est rarement
le cas.

4.2.5 Applications continues


Soit E et F deux espaces vectoriels normés et A une partie de E.
Définition 4.52 : application continue sur une partie

1. Une application f : A → F est dite continue lorsqu’elle est continue en tout point de A.
2. Si B est une partie de A, alors on dit que f est continue sur B si sa restriction à B est continue (en tout point
de B).

Remarque 4.53 :
Attention : cette définition n’est pas universellement adoptée et certains auteurs veulent que f elle-même soit
continue en tout point de B. Il nous semble pourtant normal de dire que la fonction partie entière est continue sur
[0, 1[ (où elle est constante !), bien que non continue en 0. . . Il sera cependant prudent d’être très explicite sur ce genre
de question.
Proposition 4.54 : structure de l’ensemble des applications continues
L’ensemble des applications continues de A dans F est un espace vectoriel, noté C(A, F ). Si F = K il s’agit même
d’une K-algèbre, simplement notée C(A).
Il résulte du théorème de composition des limites que la composée de deux applications continues est continue.
Exemple 4.55 :
L’application identité R → R est bien entendu continue.
Le corollaire 4.45 permet d’affirmer par produit que les applications puissances x 7→ xn sont continues.
r
Encore le corollaire 4.45 permet d’affirmer que les applications multinomiales (x1 , . . . , xp ) 7→ xr11 · · · xpp sont conti-
nues.
Enfin le corollaire 4.44 permet d’affirmer par linéarité que les applications polynomiales
N
X
(x1 , . . . , xp ) 7→ ai1 ,...,ip xr11 · · · xrpp
i1 ,...,ip =0

sont continues.
Théorème 4.56 : applications continues qui coïncident sur une partie dense
Soit E et F deux espaces vectoriels normés et A une partie de E. Deux applications continues de A dans F qui
coïncident sur une partie B dense dans A sont égales.

4.2.6 Image réciproque d’un ouvert ou d’un fermé par une application continue
Théorème 4.57 : caractérisation de la continuité par l’image réciproque d’un ouvert ou d’un fermé
Soit E et F deux espaces vectoriels normés et f une application d’une partie A de E dans F . Les trois propriétés
suivantes sont équivalentes :
(i) f est continue.
(ii) L’image réciproque de tout fermé de F est un fermé relatif de A.
(iii) L’image réciproque de tout ouvert de F est un ouvert relatif de A.

Fénelon Sainte-Marie – La Plaine-Monceau 52/230 28 août 2020


CHAPITRE 4. TOPOLOGIE MP 2020-21

Remarque 4.58 :
Ce résultat permet de démontrer très facilement qu’une partie est ouverte ou fermée.
Exemple 4.59 :
1. Dans R3 , la sphère de centre O de rayon 1 est l’image réciproque du fermé {1} par l’application (x, y, z) 7→
x2 + y 2 + z 2 , continue sur R3 : ainsi cette sphère est fermée dans R3 .
2. Dans R2 , la région strictement comprise entre les deux branches de l’hyperbole équilatère d’équation x2 − y 2 = 1
est l’image réciproque de l’ouvert ] − ∞, 1[ par l’application (x, y) 7→ x2 − y 2 , continue sur R2 : ainsi cette région
est un ouvert relatif de R2 (mais pas un ouvert de R3 par exemple. . . ).
3. Dans Mn (K), l’ensemble des matrices inversibles est l’image réciproque de l’ouvert K∗ par l’application A 7→
det(A), continue : ainsi GLn (K) est un ouvert de Mn (K).
4. Considérons l’espace vectoriel E des suites réelles bornées, muni de la norme k · k∞ , l’ensemble A des suites
convergentes, et l’ensemble B des suites convergentes de limite strictement positive.
Tout d’abord B est l’image réciproque de l’ouvert R∗+ par l’application lim : A → R, (un )n 7→ lim un , qui
n→+∞ n→+∞
est 1-lipschitzienne donc continue : ainsi B est un ouvert relatif de A.
Mais B n’est pas un ouvert de E : si (un )n ∈ B, alors pour tout ε > 0 la suite (vn ) définie par vn = un + (−1)n ε
n’est pas dans B (elle n’admet même pas de limite !) alors que k(un ) − (vn )k∞ = ε.

4.2.7 Homéomorphisme
Définition 4.60 : homéomorphisme
Soit E et F deux espaces vectoriels normés. On appelle homéomorphisme une application continue et bijective de
E dans F dont la bijection réciproque f −1 est aussi continue. On dit aussi que f est bicontinue.
Théorème 4.61 : équivalence de normes et homéomorphisme
Soit E un espace vectoriel. Deux normes N1 et N2 de E sont équivalentes si et seulement si IdE est un homéomor-
phisme de (E, N1 ) dans (E, N2 ).

Corollaire 4.62 : équivalence de normes et parties ouvertes


Soit E un espace vectoriel. Deux normes N1 et N2 de E sont équivalentes si et seulement si les parties ouvertes de
(E, N1 ) et (E, N2 ) sont les mêmes.

4.2.8 Continuité uniforme


Définition 4.63 : applications uniformément continues
Soit E et F deux espaces vectoriels normés. Une application f d’une partie A de E et à valeurs dans F est dite
uniformément continue sur A lorsque :

∀ε > 0, ∃α > 0, ∀(x, y) ∈ A2 , kx − yk ≤ α =⇒ kf (x) − f (y)k ≤ ε.

Remarque 4.64 :
1. En particulier : toute application lipschitzienne sur A est uniformément continue sur A, donc continue sur A.

2. La réciproque est fausse : en effet la fonction racine carrée · : R+ → R+ est uniformément continue sur [0, 1]
alors qu’elle n’est pas lipschitzienne sur [0, 1].

Exemple 4.65 :
L’application x 7→ d(x, A) (distance à la partie A d’un EVN E) est lipschitzienne, donc uniformément continue,
donc continue. Ceci a déjà été démontré au chapitre 3, dans l’exemple 3.20.

Fénelon Sainte-Marie – La Plaine-Monceau 53/230 28 août 2020


4.3. APPLICATIONS LINÉAIRES CONTINUES, BILINÉAIRES CONTINUES MP 2020-21

4.3 Applications linéaires continues, bilinéaires continues


4.3.1 Caractérisation des applications linéaires continues
Il est clair que l’ensemble des applications linéaires continues de E dans F est un sous-espace vectoriel de L(E, F ).
On le note usuellement LC(E, F ).
Théorème 4.66 : caractérisation des applications linéaires continues
Soit E et F deux espaces vectoriels normés et f une application linéaire de E dans F . Les propositions suivantes
sont équivalentes :
1. f est continue sur E.
2. f est continue en 0E .
3. f est bornée sur la boule unité fermée.
4. ∃K ∈ R+ , ∀x ∈ E, kf (x)k ≤ K kxk.
5. f est lipschitzienne sur E.
6. f est uniformément continue sur E.

Remarque 4.67 :
Dans le troisième point, on peut remplacer la boule unité fermée par la boule unité ouverte ou par la sphère unité
ou encore par une boule ouverte ou fermée ou une sphère de rayon fixé quelconque.
Exemple 4.68 :
1. Supposons E = F (espace préhilbertien réel ou complexe). Alors tout automorphisme orthogonal de E conserve
la norme donc est borné sur la boule unité, et par conséquent est continu sur E.
En d’autres termes : un automorphisme orthogonal d’un espace préhilbertien (réel ou complexe) est toujours
continu.
2. Considérons l’espace vectoriel E des suites réelles convergentes, muni de la norme k · k∞ . Alors l’application de
E dans R qui à toute suite convergente associe sa limite est 1-lipschitzienne donc continue sur E.
n
ak X k par kP k∞ = max k∈[[0,n]] |ak |.
P
3. Considérons l’espace E = Kn [X] muni de la norme définie pour P =
k=0
Alors l’application dérivation D : E → E, P 7→ P 0 , vérifie : ∀P ∈ Kn [X], kP 0 k∞ ≤ n kP k∞ . Par conséquent elle
est continue.
En revanche, l’application
dérivation
considérée de K[X] dans K[X] n’est pas continue car kX n k∞ = 1 tandis
n n−1
que kD(X )k∞ = n X

= n n’est pas majoré.

Remarque 4.69 :
1. Si deux normes sont équivalentes (par exemple en dimension finie), alors toute application linéaire continue pour
l’une est continue pour l’autre.
2. Ce n’est pas toujours vrai pour deux normes non équivalentes : il existe des applications qui sont continues pour
une norme et pas pour une autre. En effet dans le dernier exemple, si on munit K[X] de la norme N définie pour
n |ak |
ak X k par N (P ) = max k∈[[0,n]]
P
P = , alors l’application dérivation de (K[X], k · k∞ ) dans (K[X], N )
k=0 (k + 1)!
devient continue car pour tout P ∈ K[X], on a N (P 0 ) ≤ kP k∞ .

Théorème 4.70 : continuité des applications linéaires de source de dimension finie


Soit E et F deux espaces vectoriels normés. Si E est de dimension finie, alors toute application linéaire de E dans
F est continue.

Remarque 4.71 :
Lorsque E est de dimension finie, on peut donc confondre LC(E, F ) et L(E, F ).

Fénelon Sainte-Marie – La Plaine-Monceau 54/230 28 août 2020


CHAPITRE 4. TOPOLOGIE MP 2020-21

4.3.2 Caractérisation de la continuité d’une application bilinéaire


Théorème 4.72 : caractérisation des applications bilinéaire continues
Soit E, F , G trois espaces vectoriels normés et ϕ une application bilinéaire de E × F dans G. Alors l’application
ϕ est continue sur E × F si et seulement si :

∃K ∈ R, ∀(x, y) ∈ E × F, kϕ(x, y)k ≤ K kxk kyk .

Exemple 4.73 :
1. L’application K × E, (α, x) 7→ αx est bilinéaire continue.
2. Si E est un espace préhilbertien réel ou complexe, le produit scalaire est bilinéaire continu (c’est une conséquence
de l’inégalité de Cauchy-Schwarz).
3. La multiplication matricielle est une application bilinéaire de Mn (K)2 dans Mn (K). Elle est continue car pour
n’importe quelle norme matricielle : kABk ≤ kAk kBk.
Exercice : la norme k · k∞ n’est pas matricielle, par contre la norme de Frobénius (définie par (A|B) = tr (tA · B))
l’est.

Théorème 4.74 : continuité des applications bilinéaires de source de dimension finie


Soit E, F, G trois espaces vectoriels normés. Si E et F sont de dimension finie, alors toute application bilinéaire de
E × F dans G est continue.

Remarque 4.75 :
On démontre par récurrence immédiate que toute application n-linéaire de source un produit d’espaces de dimension
finie est continue.
Ceci permet d’affirmer que le déterminant est une application continue.
Exemple 4.76 :
Si E est un espace vectoriel normé de dimension 2 muni d’une base b = (e1 , e2 ), alors l’application detb : E 2 → K,
(x, y) 7→ detb (x, y) est bilinéaire de source de dimension finie, donc continue.
Plus généralement si E est de dimension n, alors l’application detb : E n → K, (x1 , . . . , xn ) 7→ detb (x1 , . . . , xn ) est
n -linéaire continue.
L’application det : Mn (K) → K, A 7→ det(A) est également continue car polynomiale.

4.3.3 Norme d’une application linéaire continue – HORS-PROGRAMME


Pour tout élément f de LC(E, F ), l’ensemble des normes des images des éléments de la boule unité de E est une
partie non vide et majorée de R : elle admet une borne supérieure, que nous noterons |||f |||. En d’autres termes :

|||f ||| = sup kf (x)k .


kxk≤1

Théorème 4.77 : HORS-PROGRAMME – norme subordonnée d’une application linéaire continue


Soit E et F deux espaces vectoriels normés. L’application ||| · ||| : LC(E, F ) → R, f 7→ |||f |||, est une norme sur
LC(E, F ), appelée norme subordonnée aux normes de E et de F .
On parle aussi de norme triple de f : E → F quand il n’y a pas d’ambigüité sur les normes de E et F .

Théorème 4.78 : caractérisation de la norme triple


Soit f ∈ LC(E, F ) où E et F sont deux EVN.
On peut caractériser |||f ||| par :
kf (x)k
|||f ||| = sup kf (x)k ou |||f ||| = sup .
kxk=1 x6=0E kxk

Fénelon Sainte-Marie – La Plaine-Monceau 55/230 28 août 2020


4.3. APPLICATIONS LINÉAIRES CONTINUES, BILINÉAIRES CONTINUES MP 2020-21

Ainsi |||f ||| est donc le plus petit réel K tel que : ∀x ∈ E, kf (x)k ≤ K kxk.

Théorème 4.79 : HORS-PROGRAMME — sous-multiplicativité de la norme subordonnée


Soit E, F et G trois espaces vectoriels normés. Si f est une application linéaire continue de E dans F et g une
application linéaire continue de F dans G, alors g ◦ f est une application linéaire continue de E dans G et :

|||g ◦ f ||| ≤ |||g||| × |||f |||.

4.3.4 Algèbre normée unitaire


Définition 4.80 : algèbre normée unitaire
On appelle algèbre normée unitaire une algèbre A unitaire (c’est-à-dire possédant un élément neutre e) munie
d’une norme k · k telle que :
kek = 1 et ∀(x, y) ∈ A2 , kx · yk ≤ kxk · kyk .

Exemple 4.81 :
E étant un espace vectoriel normé et A une partie non vide de E, l’ensemble des applications bornées de A dans
C, muni de la norme k · k∞ définie par
kf k∞ = sup kf (x)k ,
x∈A

est une algèbre normée unitaire notée B(A, C).


Le théorème précédent montre par ailleurs que :
Proposition 4.82 : l’algèbre normée unitaire LC(E)
L’ensemble LC(E) des endomorphismes continus de E est une algèbre normée unitaire.

EPCC : exercices 35, 36, 37, 38, 41, 44.

The end – chapitre 4

Fénelon Sainte-Marie – La Plaine-Monceau 56/230 28 août 2020


Chapitre 5

Éléments propres

Soit K un sous-corps de R ou C.
Fixons un K-espace vectoriel E, et un endomorphisme u de E.

5.1 Sous-espaces stables


5.1.1 Matrices semblables
Définition 5.1 : matrices semblables
Deux matrices A et B de type n × n sont dites semblables lorsqu’elles sont sont des matrices d’un même endomor-
phisme u (d’un espace de dimension finie) exprimé dans deux bases différentes.
Ceci signifie qu’il existe P ∈ GLn (K) telle que A = P BP −1 .
Corollaire 5.2 : invariance par similitude de la trace et du déterminant
Deux matrices semblables ont la même trace et même déterminant.

Définition 5.3 : trace d’un endomorphisme d’un EV de dimension finie


Soit u un endomorphisme d’un espace vectoriel E de dimension finie.
La trace de la matrice de u dans n’importe quelle base est appelée la trace de u.

5.1.2 Sous-espace vectoriel stable par un endomorphisme


Définition 5.4 : sous-espace stable
Un sous-espace vectoriel F de E est dit stable par u ou u-stable lorsque u(F ) ⊂ F , c’est-à-dire lorsque :

∀x ∈ F, u(x) ∈ F.

Dans ce cas, la restriction de u à F , au départ comme à l’arrivée, est un endomorphisme de F appelé endomorphisme
induit par u.
Exemple 5.5 :
Si u et v sont deux endomorphismes de E qui commutent, alors les sous-espaces Ker u et Im u sont stables par v.
En particulier Ker u et Im u sont stables par u.

5.1.3 Caractérisation matricielle de la stabilité d’un SEV


Supposons E de dimension finie n, et soit F un sous-espace u-stable de E. Considérons une base (e1 , . . . , ep ) du
sous-espace F ; on peut la compléter en une base B = (e1 , . . . , en ) de E. La matrice de u dans cette base est de la

57
5.1. SOUS-ESPACES STABLES MP 2020-21

forme : !
B C
A = où B ∈ Mp (K), D ∈ Mn−p (K).
0 D
Réciproquement, toute matrice de cette forme représente un endomorphisme stabilisant le sous-espace engendré par
les p premiers vecteurs de base.
Remarque 5.6 :
Le déterminant de u est alors : det u = det A = det B · det D.
Plus généralement, soit (E1 , . . . , Ep ) une famille finie de sous-espaces vectoriels dont E est la somme directe, et u un
endomorphisme de E stabilisant chaque Ei . La matrice de u dans une base adaptée à cette décomposition est diagonale
par blocs. Réciproquement, toute matrice de cette forme représente un endomorphisme stabilisant chaque sous-espace
Ei .
Remarque 5.7 :
Le déterminant de u est alors le produit des déterminants diagonaux.

5.1.4 Endomorphisme diagonalisable


Soit E un K-espace vectoriel de dimension finie et u un endomorphisme de E.
Définition 5.8 : endomorphisme diagonalisable d’un EV de dimension finie
1. On dit que u est diagonalisable lorsqu’il existe une base B de E dans laquelle la matrice de u est diagonale.
2. Une matrice carrée A est dite diagonalisable lorsqu’elle représente un endomorphisme diagonalisable, autrement
dit lorsqu’elle est semblable à une matrice diagonale D :

∃P ∈ GLn (K), A = P DP −1 ,

où P est la matrice de passage de la base canonique de Kn à une base B de « diagonalisation ».

Remarque 5.9 :
1. Cette réduction peut servir en particulier à calculer les puissances de A. En effet par récurrence immédiate :

∀k ∈ N, Ak = P Dk P −1 .

2. Nous donnerons plus loin des méthodes effectives de diagonalisation d’un endomorphisme ou d’une matrice.

5.1.5 Endomorphisme trigonalisable


Soit E un K-espace vectoriel de dimension finie et u un endomorphisme de E.
Il n’est pas toujours possible de trouver une base dans laquelle la matrice de u soit diagonale. À défaut, on peut en
chercher une dans laquelle la matrice de u soit triangulaire supérieure.
Définition 5.10 : endomorphisme trigonalisable d’un EV de dimension finie
On dit que u est trigonalisable lorsqu’il existe une base de E dans laquelle la matrice de u est triangulaire supérieure.

Soit B = (e1 , . . . , en ) une base de E ; pour tout k ∈ [[1, n]], posons Fk = Vect(e1 , . . . , ek ). La matrice de u dans la base
B est triangulaire supérieure si et seulement si tous les sous-espaces Fk sont stables par u.
Il en résulte que :
Proposition 5.11 : trigonalisabilité et existence d’un drapeau
L’endomorphisme u (du K-espace E de dimension finie) est trigonalisable si et seulement si il existe une suite
(F1 , . . . , Fn ) de sous-espaces stables par u, strictement croissante pour l’inclusion.
Définition 5.12 : drapeau de sous-espaces

Fénelon Sainte-Marie – La Plaine-Monceau 58/230 28 août 2020


CHAPITRE 5. ÉLÉMENTS PROPRES MP 2020-21

Une telle suite strictement croissante (pour l’inclusion) de sous-espaces :

F1 ⊂ F2 ⊂ · · · ⊂ Fn

est appelée drapeau de sous-espaces vectoriels.


Définition 5.13 : matrice carrée trigonalisable
Une matrice carrée A est dite trigonalisable lorsqu’elle représente un endomorphisme trigonalisable, autrement dit
lorsqu’elle est semblable à une matrice triangulaire supérieure T :

∃P ∈ GLn (K), A = P T P −1 ,

où P est la matrice de passage de la base canonique de Kn à une base adaptée à un drapeau.


Remarque 5.14 :
Nous donnerons plus loin des méthodes effectives de trigonalisation d’un endomorphisme ou d’une matrice.

5.2 Polynômes d’un endomorphisme


5.2.1 Morphisme P 7→ P (u) ; noyau et image de ce morphisme
Le morphisme. . .
Soit E un K-espace vectoriel et u un endomorphisme de E.
Xp
Pour tout polynôme P = ak X k , on définit l’endomorphisme :
k=0

p
X
P (u) = ak uk où u0 = IdE .
k=0

L’application P 7→ P (u) est un morphisme de l’algèbre K[X] dans l’algèbre L(E) :

1K[X] (u) = IdE ; ∀(P, Q) ∈ K[X]2 (αP + βQ)(u) = αP (u) + βQ(u) ; (P Q)(u) = P (u) ◦ Q(u).

En effet par exemple :


     
X X X X
P Q(u) =   ai bj  X n  (u) =  ai bj  un ,
n i+j=n n i+j=n
!    
X X X X X
P (u) ◦ Q(u) = ai ui ◦  bj uj  = ai bj ui+j =  ai bj  un .
i j i,j n i+j=n

. . . son noyau. . .
Le noyau de ce morphisme est l’ensemble des polynômes P tels que P (u) = 0.
Définition 5.15 : polynôme annulateur d’un endomorphisme
Les polynômes P tels que P (u) = 0 sont appelés les polynômes annulateurs de u.
Remarque 5.16 :
Les polynômes annulateurs de u forment un idéal de l’anneau K[X] (sous-groupe additif de K[X] vérifiant : pour
tout polynôme P annulateur de u et tout polynôme A de K[X], le polynôme AP est encore un polynôme annulateur
de u).
L’anneau K[X] étant principal, l’idéal des polynômes annulateurs de u est principal, c’est-à-dire que c’est l’ensemble
des multiples d’un polynôme µu (X).

Fénelon Sainte-Marie – La Plaine-Monceau 59/230 28 août 2020


5.2. POLYNÔMES D’UN ENDOMORPHISME MP 2020-21

Définition 5.17 : polynôme minimal d’un endomorphisme


Parmi les polynômes annulateurs de u, soit µu (X) celui qui est de degré minimal et unitaire. Lorsqu’il est non nul,
ce polynôme µu (X) est appelé le polynôme minimal de u.
Remarque 5.18 :
Vu la remarque précédente, on en déduit que lorsqu’on connaît un polynôme annulateur non nul P de u, le polynôme
minimal de u est nécessairement un diviseur de P .
Exemple 5.19 :

1. Un projecteur p vérifie p2 = p ; le polynôme P = X 2 − X est donc un polynôme annulateur de p. Si le projecteur


est différent de 0 et de IdE , son polynôme minimal est X 2 − X.
2. Un endomorphisme nilpotent non nul u a pour polynôme minimal X n , où n est l’indice de nilpotence de u,
c’est-à-dire l’entier n tel que un−1 6= 0 et un = 0.

Remarque 5.20 :
Il est à noter qu’un endomorphisme ne possède pas toujours de polynôme minimal. En effet l’ensemble de ses
polynômes annulateurs peut être réduit à {0}).
Par exemple l’opérateur de dérivation D sur K[X] : il n’existe aucune équation différentielle linéaire à coefficients
constants vérifiée par tous les polynômes. Cependant, en dimension finie :
Théorème 5.21 : existence d’un polynôme minimal en dimension finie
Tout endomorphisme d’un espace vectoriel de dimension finie possède un polynôme minimal.

Exemple 5.22 :
La restriction à Kn [X] de l’opérateur de dérivation D a pour polynôme minimal X n+1 .
Voyons trois applications de l’existence de polynômes annulateurs en dimension finie.

Proposition 5.23 : en dimension finie, existence de droite ou plan stable


Soit u un endomorphisme d’un espace vectoriel réel ou complexe de dimension finie (respectivement A une matrice
carrée).
Alors l’endomorphisme u admet une droite stable ou un plan stable.

Proposition 5.24 : en dimension finie, base de K[u]


Soit u un endomorphisme d’un espace vectoriel de dimension finie (respectivement A une matrice carrée).
Si d est le degré du polynôme minimal de u (resp. A), alors la famille (uk )0≤k≤d−1 est une base de K[u].

Proposition 5.25 : toute sous-algèbre de Mn (K) est stable par prise d’inverse
Soit A une sous-algèbre de Mn (K).
Pour toute matrice M inversible appartenant à A, l’inverse M −1 appartient encore à A.

Exemple 5.26 :
Nombreuses applications utiles !
1. Si T est triangulaire supérieure et inversible, alors son inverse est également triangulaire supérieure.
sup
Ceci découle du fait que Tn (K) est une sous-algèbre de Mn (K).
! !
1 0 0 1
2. Considérons I2 = et A = . Remarquons que Vect(I2 , A) est une sous-algèbre de M2 (R)
0 1 1 0
(exo !).
D’après la proposition précédente, l’inverse de xI2 + yA (s’il existe) est de la forme x0 I2 + y 0 A.

Fénelon Sainte-Marie – La Plaine-Monceau 60/230 28 août 2020


CHAPITRE 5. ÉLÉMENTS PROPRES MP 2020-21

. . . et son image !
L’image du morphisme P 7→ P (u) est l’ensemble des endomorphismes de la forme P (u), avec P ∈ K[X]. C’est une
sous-algèbre de L(E).
Définition 5.27 : sous-algèbre engendrée par un endomorphisme
L’image du morphisme P 7→ P (u) est appelée sous-algèbre engendrée par u et notée K[u].
Notons que pour tout polynôme P , l’endomorphisme P (u) commute avec u ; il s’ensuit que les sous-espaces ker P (u)
et Im P (u) sont stables par u.

5.2.2 Polynôme caractéristique d’un endomorphisme d’un EV de dimension finie


Plaçons-nous dans le cas où E est de dimension finie n et u est un endomorphisme de E.
L’application qui à λ ∈ K associe det(λIdE − u) est polynomiale. Il existe en fait un polynôme χu , de degré n, à
coefficients dans K, tel que :
∀λ ∈ K, χu (λ) = det(λIdE − u).
Définition 5.28 : polynôme caractéristique d’un endo. d’un EV de dim finie
Le polynôme χu , de degré n, à coefficients dans K, tel que :

∀λ ∈ K, χu (λ) = det(λIdE − u)

est appelé le polynôme caractéristique de u.


On a bien sûr la définition analogue pour les matrices carrées :
Définition 5.29 : polynôme caractéristique d’une matrice
Soit A ∈ Mn (K). Le polynôme χA , de degré n, à coefficients dans K, tel que

∀λ ∈ K, χA (λ) = det(λIn − A)

est appelé le polynôme caractéristique de A.


Pour A = (ai,j ) :
λ − a1,1 −a1,2 ... −a1,n

.. ..
−a
2,1 λ − a2,2 . .
χA (λ) =

.. .. ..

. . . −an−1,n



−an,1 ... −an,n−1 λ − an,n

En développant, on obtient :
Proposition 5.30 : trace, déterminant et polynôme caractéristique
Pour toute A ∈ Mn (K), nous avons χA (λ) = λn − tr (A)λn−1 + · · · + (−1)n det(A).

Remarque 5.31 :
n
Y
Si M = (mi,j )i,j est triangulaire supérieure, alors χM (X) = (X − mi,i ).
i=1

5.2.3 Théorème de décomposition des noyaux


Lemme 5.32 : intersection de noyaux de polynômes d’endomorphismes
Soit E un K-espace vectoriel, u un endomorphisme de E, A et B deux polynômes de K[X] et D = A ∧ B leur
PGCD. Alors :
ker A(u) ∩ ker B(u) = ker D(u).

Fénelon Sainte-Marie – La Plaine-Monceau 61/230 28 août 2020


5.3. ÉLÉMENTS PROPRES D’UN ENDOMORPHISME MP 2020-21

Théorème 5.33 : décomposition des noyaux


Soit E un K-espace vectoriel, u un endomorphisme de E, et A, B deux polynômes de K[X] premiers entre eux.
Alors :
ker A(u) ⊕ ker B(u) = ker AB(u).

On en déduit par récurrence :


Corollaire 5.34 : généralisation du théorème de décomposition des noyaux
Soit E un K-espace vectoriel, u un endomorphisme de E, A1 , . . . , Ap des polynômes de K[X] premiers entre eux
deux à deux. Alors :
p
M
ker(A1 · · · Ap )(u) = ker Ai (u).
i=1

5.3 Éléments propres d’un endomorphisme


5.3.1 Valeurs propres et vecteurs propres d’un endomorphisme
Soit E un K-espace vectoriel, u un endomorphisme de E et λ un scalaire. Les propriétés suivantes sont équivalentes :
(1) il existe un vecteur x non nul tel que u(x) = λx ;
(2) Ker (u − λIdE ) 6= {0E } ;
(3) l’endomorphisme u − λIdE n’est pas injectif.
Définition 5.35 : valeur propre, vecteur propre, espace propre, d’un endomorphisme
• Lorsque l’une des trois conditions équivalentes ci-dessus est vérifiée, on dit que λ est une valeur propre de u, et
que x est un vecteur propre de u associé à la valeur propre λ.
• Le sous-espace vectoriel Ker (u − λIdE ) est appelé sous-espace propre associé à la valeur propre λ, et noté Eλ (u).
• L’ensemble des valeurs propres de u est appelé spectre de u : Sp(u) = {λ ∈ K / ker(u − λIdE ) 6= {0E }}.
• Le rayon spectral est la borne supérieure de l’ensemble des modules des valeurs propres : ρ(u) = sup |λ|.
λ∈Sp(u)

Remarque 5.36 :
• Attention : un vecteur propre est supposé non nul. Le sous-espace propre associé à la valeur propre λ est
constitué des vecteurs propres associés à la valeur propre λ et du vecteur nul.
• Les valeurs propres sont les racines du polynôme caractéristique (en dimension finie).
• Lorsque le corps de base est C, le dernier • permet d’affirmer que tout endomorphisme, toute matrice, admet au
moins une valeur propre (et donc un espace propre non réduit à {0}).

Exemple 5.37 :
1. Soit p la projection sur le sous-espace vectoriel F parallèlement à un supplémentaire G. Des valeurs propres de
p sont 0 et 1 ; de plus E0 (p) = G et E1 (p) = F .
2. Soit D l’opérateur de dérivation sur C ∞ (R, R). Alors tout réel est valeur propre de D. Le sous-espace propre
associé à la valeur propre λ est l’ensemble des solutions de l’équation différentielle y 0 = λy, c’est-à-dire Vect(x 7→
eλx ).
3. L’opérateur de dérivation D : K[X] → K[X] n’admet aucune valeur propre autre que 0, puisque l’équation
P 0 = λP n’admet aucune solution polynomiale non nulle.
4. Éléments propres des homothéties, des symétries, des rotations.

Fénelon Sainte-Marie – La Plaine-Monceau 62/230 28 août 2020


CHAPITRE 5. ÉLÉMENTS PROPRES MP 2020-21

Remarque 5.38 :

• Si deux endomorphismes commutent, alors tout sous-espace propre de l’un est stable par l’autre.
En effet si x ∈ ker(u − λIdE ) alors u(v(x)) = v(u(x)) = v(λx) = λv(x) donc v(x) ∈ ker(u − λIdE ).
• En particulier tout sous-espace propre de u est stable par u.

Définition 5.39 : éléments propres d’une matrice


On définit de même les éléments propres d’une matrice.

Proposition 5.40 : polynôme caractéristique de matrices semblables


Deux matrices semblables ont même polynôme caractéristique, donc même spectre.

Remarque 5.41 :
Soit K0 un sous-corps de K et M une matrice de Mn (K0 ). Alors le spectre de M dans K0 est contenu dans le spectre
de M dans K.

Exemple 5.42 :
 
0 1 0
Pour M =  −1 0 0 , il vient χM (X) = (X − 1)(X 2 + 1) donc SpC (M ) = {1, i, −i} contient SpR (M ) = {1}.
 

0 0 1

5.3.2 Sous-espaces propres associés à des valeurs propres distinctes


Théorème 5.43 : les sous-espaces propres sont en somme directe
Les sous-espaces propres associés à p valeurs propres distinctes deux à deux sont en somme directe.

Corollaire 5.44 : liberté des vecteurs propres associés à des valeurs propres distinctes
Toute famille de vecteurs propres associés à des valeurs propres distinctes deux à deux est libre.

5.3.3 Valeurs propres et polynômes annulateurs


Théorème 5.45 : spectre de P (u)
Soit u un endomorphisme d’un K-espace vectoriel E et P un polynôme de K[X]. Pour toute valeur propre λ de u,
le scalaire P (λ) est une valeur propre de P (u).

Corollaire 5.46 : valeurs propres et racines des polynômes annulateurs


Si P est un polynôme annulateur de u, alors toute valeur propre de u est une racine de P .

La réciproque est fausse : X 2 − X est un polynôme annulateur de IdE , mais sa racine 0 n’est pas une valeur propre
de IdE .
Exemple 5.47 :
Soit p un projecteur. Alors p2 − p = 0 donc X 2 − X = X(X − 1) est un polynôme annulateur de p. Les valeurs
propres de p sont à chercher dans {0, 1}. Or 0 et 1 sont valeurs propres, d’où Sp(p) = {0, 1}.

Corollaire 5.48 : valeurs propres et racines du polynôme minimal


Si u admet un polynôme minimal µu (X) (ce qui est le cas notamment en dimension finie), alors les valeurs propres
de u sont exactement les racines de µu (X). En d’autres termes : Sp(u) = Z(µu (X)) = Z(χu (X)).

Fénelon Sainte-Marie – La Plaine-Monceau 63/230 28 août 2020


5.3. ÉLÉMENTS PROPRES D’UN ENDOMORPHISME MP 2020-21

5.3.4 Polynôme caractéristique et sous-espaces stables


Théorème 5.49 : polynôme caractéristique de la restriction d’un endomorphisme
Soit E un K-espace vectoriel de dimension finie, u un endomorphisme de E, et F un sous-espace vectoriel stable
par u. Le polynôme caractéristique de l’endomorphisme de F induit par u divise le polynôme caractéristique de u. En
d’autres termes : χu|F (X)|χu (X).

Plus généralement, si F1 , . . . , Fp sont des sous-espaces stables par u dont E est somme directe, alors le polynôme
caractéristique de u est le produit des polynômes caractéristiques des endomorphismes induits par u sur F1 , . . . , Fp .
Corollaire 5.50 : encadrement de la dimension d’un espace propre
Soit E un K-espace vectoriel de dimension finie, u un endomorphisme de E, et λ une valeur propre de u, d’ordre
de multiplicité m dans χu . Alors :
1 ≤ dim Eλ (u) ≤ m.

Remarque 5.51 :
En particulier si λ est une racine simple de χu alors m = 1, donc dim Eλ (u) = 1.

5.3.5 Théorème de Cayley-Hamilton


Nous avons remarqué qu’en dimension finie, le polynôme minimal et le polynôme caractéristique d’un endomor-
phisme u avaient les mêmes racines : les valeurs propres de u. Le théorème suivant permet de préciser le lien entre ces
deux polynômes :
Théorème 5.52 : Cayley-Hamilton
Soit E un K-espace vectoriel de dimension finie. Alors le polynôme caractéristique d’un endomophisme u de E est
un polynôme annulateur de u, donc un multiple de son polynôme minimal :

χu (u) = 0.

Conformément au programme, nous admettrons ce résultat sans démonstration.


Remarque 5.53 :
Conséquences :

1. Le polynôme minimal est à chercher parmi les diviseurs du polynôme caractéristique.


2. Le degré du polynôme minimal est inférieur ou égal à la dimension de E.
3. Ces deux polynômes (minimal et caractéristique) ne diffèrent que par les ordres de multiplicité des racines, plus
petits dans le polynôme minimal que dans le polynôme caractéristique.

Démonstration
HORS-PROGRAMME
Notons n = dim(E) et prouvons que χu (u)(x) = 0E pour tout x ∈ E. Déjà si x est nul alors l’égalité est claire.
Supposons désormais x 6= 0E , de sorte que (x) est une famille libre. Considérons

ν = min k ≥ 2 / x, u(x), . . . , uk (x) liée .


 

Par construction uν (x) est lié avec (x, u(x), . . . , uν−1 (x)) qui est libre, donc uν (x) se décompose en

uν (x) = a0 x + a1 u(x) + · · · + aν−1 uν−1 (x).

Fénelon Sainte-Marie – La Plaine-Monceau 64/230 28 août 2020


CHAPITRE 5. ÉLÉMENTS PROPRES MP 2020-21

Complétons la famille (x, u(x), . . . , uν−1 (x)) en une base B de E, dans laquelle la matrice de u est :
 
0 a0 ∗
 .. .. .. 
 1 . . .  !

..
 C(P ) ∗ν,n−ν
[u]B = 
 ..  =

 . 0 aν−2 .  0n−ν,ν M
 
 1 aν−1 ∗ 
0 ··· ··· 0 M

où P (X) = X ν −aν−1 X ν−1 −· · ·−a1 X −a0 . Constatons que P (u)(x) = 0E . Un calcul classique prouve que χC(P ) = P ,
ce qui justifie a posteriori que la matrice C(P ) est appelée matrice compagnon de P . En effet
 
0 −a0
 1
 0 −a1 

 .. .. .. 
C(P ) =  . . . .
 
.. ..
 
.
 
 0 . 
1 −an−1

n−1
X
Ajoutons à la première ligne L1 du polynôme caractéristique de cette matrice la combinaison linéaire X k Lk+1 :
k=1

n−1
 
X
n k
 
X 0 ··· 0 a0  0 0 ··· 0 X + ak X 
 .. ..  
k=0

 −1 .
 
X . a1   .. .. 
 −1 X . . a1
 
..


χC(P ) (X) =  .. .. 
 =  ,

 . . 0 .   .. .. ..
..
 . . 0 . 
..
   
.
 
 X .  
.. .. 
. 0 .
 
−1 X + an−1
 
−1 X + an−1

n−1
! n−1
X X
n−1 n−1 n k
ce qui donne χC(P ) (X) = (−1) × (−1) × X + ak X c’est-à-dire χC(P ) (X) = X n + ak X k = P (X) .
k=0 k=0
On remarque alors que
χu (X) = χC(P ) (X) × χM (X)
puis en évaluant en u
χu (u) = χM (u) ◦ χC(P ) (u)
et enfin en appliquant à x :
   
χu (u)(x) = χM (u) χC(P ) (u)(x) = χM (u) 0E = 0E .

EPCC : exercices 62, 65, 83, 93.

The end – chapitre 5

Fénelon Sainte-Marie – La Plaine-Monceau 65/230 28 août 2020


5.3. ÉLÉMENTS PROPRES D’UN ENDOMORPHISME MP 2020-21

Fénelon Sainte-Marie – La Plaine-Monceau 66/230 28 août 2020


Chapitre 6

Séries de nombres réels ou de vecteurs

6.1 Séries réelles ou vectorielles


Soit (un )n une suite de nombres réels ou d’éléments d’un espace vectoriel normé E.

6.1.1 Définition d’une série — rappels de MPSI


Définition 6.1 : série, somme partielle, reste, somme
n
X
P
• On appelle série de terme général un la suite un = (Sn )n définie par : ∀n ∈ N, Sn = uk .
k=0
P
• Pour n fixé, Sn s’appelle somme partielle de la série un .
P
• On dit que la série un converge lorsque la suite (Sn )n converge.
+∞
X
Sa limite est alors appelée somme de la série et notée un .
n=0
+∞
X n
X
La différence Rn = uk − uk est appelé reste d’ordre n de la série.
k=0 k=0
• Lorsque la série ne converge pas, on dit qu’elle diverge.

Attention : ne pas confondre les symboles :


P
• un qui désigne la série.
+∞
X
• un sa somme (si elle existe).
n=0
Xn
• uk une somme partielle.
k=0
+∞
X
• uk le reste correspondant.
k=n+1
Remarque 6.2 :
On peut retrouver le terme général d’une série à partir de ses sommes partielles : un = Sn − Sn−1 .
Exemple 6.3 :
Z k+1
P1 ∗ 1 dt 1
1. La série , appelée série harmonique est divergente. En effet : ∀k ∈ N , ≤ ≤ , d’où :
n k+1 k t k
n
X1 Z n+1 n
dt X1
Sn = ≥ = ln(n + 1) d’où lim = +∞.
k 1 t n→+∞ k
k=1 k=1

67
6.1. SÉRIES RÉELLES OU VECTORIELLES MP 2020-21

1 1 1 1
est convergente. En effet : ∀k ∈ N∗ ,
P
2. La série = − , d’où :
n(n + 1) k(k + 1) k k+1
n n n
X 1 X 1 X 1 1
= − = 1− .
k(k + 1) k k+1 n+1
k=1 k=1 k=1

+∞
X 1
La somme de la série est : = 1. C’est un cas de série « télescopique » :
n=1
n(n + 1)
P
3. La série un est télescopique lorsqu’il existe une suite de réels (vn )n telle que un = vn −vn+1 pour tout entier n.
Xn
P
La somme partielle vérifie par conséquent uk = v0 − vn+1 . La série un est alors convergente si et seulement
k=0
+∞
X
si la suite (vn )n converge, et dans ce cas : un = v0 − lim vn .
n→+∞
n=0

Une application des séries télescopiques est le :


Lemme 6.4 : lien suite/série — rappel de MPSI
P
La suite (un )n est convergente si et seulement si la série (un+1 − un ) est convergente.
Proposition 6.5 : linéarité de la somme — rappel de MPSI
P P P
Si deux séries un et vn sont convergentes, alors pour tous réels (resp. complexes) λ, µ la série λun + µvn
est convergente et
+∞
X +∞
X +∞
X
λun + µvn = λ +µ vn .
n=0 n=0 n=0

6.1.2 Une condition nécessaire de convergence d’une série — rappels de MPSI


Théorème 6.6 : une Xcondition nécessaire de convergence d’une série — rappel de MPSI
Pour que la série un converge, il est nécessaire que le terme général tende vers 0 (ou 0E ).

Remarque 6.7 :
Cette condition n’est pas du tout suffisante : il existe des séries dont le terme général converge vers 0 mais pas
convergentes pour autant. Par exemple la série harmonique !
Définition 6.8 : série grossièrement divergente
Une série dont le terme général ne converge pas vers 0 est dite grossièrement divergente.
Exemple 6.9 :
La série de terme général (−1)n est grossièrement divergente.
Proposition 6.10 : convergence des séries à termes complexes — rappel de MPSI
P P P
Soit (zn )n∈N une suite complexe. Alors la série zn converge si et seulement si les deux séries <(zn ) et =(zn )
convergent et, dans ce cas :
+∞
X +∞
X +∞
X
zn = <(zn ) + i =(zn ).
n=0 n=0 n=0

6.1.3 Séries absolument convergentes


Définition 6.11 : série absolument convergente
P
Une série réelle, complexe, ou à valeur dans un EVN un est dite absolument convergente lorsque la série des
P P
valeurs absolues (resp. des modules, des normes) |un | (resp. kun k) est convergente.

Fénelon Sainte-Marie – La Plaine-Monceau 68/230 28 août 2020


CHAPITRE 6. SÉRIES DE NOMBRES RÉELS OU DE VECTEURS MP 2020-21

Théorème 6.12 : Pour les séries réelles : CA⇒CS — vu en MPSI


Toute série réelle absolument convergente est convergente.

La propriété « absolue convergence implique convergence » peut ensuite être étendue aux séries à valeurs complexes
en séparant de la même façon parties réelle et imaginaire.
Corollaire 6.13 : CA⇒ CS en dimension finie
Toute série absolument convergente, à termes dans un espace vectoriel réel de dimension finie, est convergente.

Exemple 6.14 :
X (−1)n
1. La série réelle est absolument convergente, donc convergente.
n(n + 1)
P einx
2. La série complexe est absolument convergente, donc convergente.
n2
P An kAn k
3. Pour toute matrice orthogonale A ∈ O(p), la série de matrices est absolument convergente car =
√ n2 n2
p
.
n2
P An
Ainsi : si A ∈ O(p) alors est convergente.
n2
Remarque 6.15 :
P
ATTENTION ! ! ! La réciproque est fausse : une série un peut être convergente sans que la série des valeurs
P
absolues/modules |un | le soit. On dit alors qu’elle est semi-convergente.
Exemple 6.16 :
X (−1)n (2n + 1)
La série est semi-convergente. En effet :
n(n + 1)
(−1)n (2n + 1) (−1)n (−1)n−1
• Elle converge car = − , d’où par télescopage :
n(n + 1) n+1 n
+∞
X (−1)n (2n + 1)
= −1.
n=1
n(n + 1)

(2n + 1) 2 P 2
• Elle n’est pas absolument convergente, car ≥ et la série tend vers +∞.
n(n + 1) n+1 n+1

6.1.4 Espaces `1 (E), `2 (C)


P
1. L’ensemble des suites (un )n d’éléments de E telles que la série un soit absolument convergente est un espace
+∞
X
vectoriel, noté `1 (E). L’application N1 : u 7→ kun k est une norme sur `1 (E).
n=0
|un |2 soit convergente
P
2. Si E = C, alors l’ensemble des suites (un )n de nombres complexes telles que la série
+∞
X
est un espace vectoriel, noté `2 (C). L’application (u, v) 7→ un vn est un produit scalaire hermitien sur `2 (C)
n=0 v
u +∞
uX
(forme sesquilinéaire définie positive). La norme associée est définie par N2 (u) = t |un |2 .
n=0

6.1.5 Application des séries absolument convergentes : la série géométrique


Tout d’abord un petit rappel de Sup :
Théorème 6.17 : les séries géométriques complexes — rappel de MPSI

Fénelon Sainte-Marie – La Plaine-Monceau 69/230 28 août 2020


6.1. SÉRIES RÉELLES OU VECTORIELLES MP 2020-21

X
Soit z un nombre complexe. La série géométrique z n est convergente si et seulement si |z| < 1. Sa somme est
alors :
+∞
X 1
zn = .
n=0
1 − z

Remarque 6.18 :
Remarquons qu’on sait aussi calculer explicitement le reste, ce qui est assez rare pour une série :

z n+1
Rn = .
1−z

Maintenant, généralisons ces séries à des espaces plus généraux que C.


Soit A une algèbre normée unitaire de dimension finie, d’élément neutre e. La norme ici est une norme d’algèbre :

∀(u, v) ∈ A2 , ku · vk ≤ kuk × kvk .

Définition 6.19 : série géométrique


+∞
X
un est appelée série géométrique. Sa somme un est
P
Pour tout élément u de A tel que kuk < 1, la série
n=0
(e − u)−1 , inverse dans A de l’élément e − u.
Exemple 6.20 :
Si A est une matrice carrée diagonalisable d’ordre p dont toutes les valeurs propres ont un module strictement
P n
inférieur à 1, alors la série A est absolument convergente, et :
+∞
X
An = (Ip − A)−1 .
n=0

Remarque 6.21 :
1 1
ATTENTION ! La notation n’a pas de sens en général. En particulier l’écriture est à proscrire !
e−u In − A

6.1.6 Application des séries absolument convergentes : la série exponentielle


Soit A une algèbre normée unitaire de dimension finie, d’élément neutre e.
Définition 6.22 : série exponentielle
P un
Pour tout élément u de A, la série est absolument convergente et appelée série exponentielle. On note exp(u)
n!
sa somme, de sorte que :
+∞ n
X u
exp u = .
n=0
n!

Remarque 6.23 :
1. Pour A = R ou A = C, on retrouve la fonction exponentielle réelle ou complexe déjà connue. Voir plus bas.
2. On a ainsi une définition de l’exponentielle d’un endomorphisme d’un espace vectoriel de dimension finie, ou
d’une matrice carrée (réelle ou complexe).
3. Au chapitre 12 (fonctions vectorielles, exemple 3.7) nous généraliserons bon nombre de propriétés de l’exponen-
tielle d’un réel ou d’un complexe (dérivée, exponentielle de la somme. . . ) aux exponentielles d’éléments d’un
espace vectoriel normé.

Fénelon Sainte-Marie – La Plaine-Monceau 70/230 28 août 2020


CHAPITRE 6. SÉRIES DE NOMBRES RÉELS OU DE VECTEURS MP 2020-21

Exemple 6.24 : !
cos θ − sin θ
Soit R(θ) = A = la matrice de la rotation plane d’angle θ. Par récurrence immédiate :
sin θ cos θ

+∞ +∞
 
X cos nθ X sin nθ
! −
n! n!
 
n cos nθ − sin nθ  n=0 n=0

A = d’où : exp A =  +∞ +∞
.
sin nθ cos nθ 
 X sin nθ X cos nθ 

n=0
n! n=0
n!

Or :
+∞ +∞ +∞ inθ  
X cos nθ X sin nθ X e eiθ cos θ
+i = = e = e cos(sin θ) + i sin(sin θ) .
n=0
n! n=0
n! n=0
n!
D’où : !
cos θ cos(sin θ) − sin(sin θ)
exp A = e .
sin(sin θ) cos(sin θ)

Proposition 6.25 : la série exponentielle complexe correspond à l’exponentielle classique (ouf !)


X zn
Soit z ∈ C. Alors la série est absolument convergente et de surcroît :
n!
+∞ n
X z
= ez
n=0
n!

avec ez = ex (cos y + i sin y) et x = <z, y = =z.

6.1.7 Cas des séries réelles alternées


Définition 6.26 : série alternée
Une série réelle est dite alternée lorsque son terme général est alternativement positif et négatif : ∀n ∈ N,
un un+1 ≤ 0.
Théorème
X 6.27 : critère spécial des séries alternées (CSSA), pour les séries réelles
Soit un une série réelle alternée telle que :
• La suite (|un |)n est décroissante.
• La suite (un )n converge vers 0.
X
Alors la série un est convergente.

Exemple 6.28 :
X (−1)n 1
La série harmonique alternée est convergente, car elle est alternée et ( )n est décroissante et converge
n n
vers 0.
Ce type de séries convergentes est particulièrement avantageux car on a beaucoup de renseignements sur la somme
de la série, et sur le reste d’ordre n :
Corollaire 6.29 : propriétés des séries réelles vérifiant le CSSA
X n
X
Soit un une série vérifiant le critère spécial des séries alternées. On note Sn = uk la somme partielle et
k=0
+∞
X
Rn = uk le reste d’ordre n de cette série. Alors pour tout n ∈ N :
k=n+1
1. La somme de la série est comprise entre les sommes partielles consécutives Sn et Sn+1 .

Fénelon Sainte-Marie – La Plaine-Monceau 71/230 28 août 2020


6.2. ENCORE UNE APPLICATION DES SÉRIES AC : PRODUIT DE CAUCHY DE SUITES MP 2020-21

2. Le reste Rn est du signe du premier terme négligé : Rn un+1 ≥ 0.


3. Le reste Rn est majoré en valeur absolue par le premier terme négligé : |Rn | ≤ |un+1 |.

6.2 Encore une application des séries AC : produit de Cauchy de suites


Dans cette section, soit A une algèbre normée unitaire de dimension finie, d’élément neutre e.

6.2.1 Définition
Définition 6.30 : produit de Cauchy de séries
On appelle produit de Cauchy de deux suites (un )n et (vn )n d’éléments de A la suite (wn )n définie par :
n
X X
∀n ∈ N, wn = uk vn−k = ui vj .
k=0 i+j=n

Cette opération sur l’ensemble des suites d’éléments de A :


— prolonge la multiplication des polynômes ;
— est associative ;
— a pour élément neutre la suite définie par u0 = e et pour tout n ∈ N∗ : un = 0 ;
— est distributive par rapport à l’addition.
Par conséquent :
Proposition 6.31 : structure de l’espace des suites d’une algèbre normée
Le produit de Cauchy confère à l’ensemble AN une structure de K-algèbre.

6.2.2 Convergence
Étudions d’abord la convergence du produit de Cauchy de deux séries convergentes à termes positifs :
Lemme 6.32 : produit de Cauchy de séries à termes réels positifs
P P P
Si les séries un et vn de réels positifs sont convergentes, alors leur produit de Cauchy wn est convergent,
et : ! +∞ !
+∞
X +∞
X X
wn = un vn .
n=0 n=0 n=0

Ce résultat se généralise aux séries absolument convergentes d’une algèbre normée unitaire de dimension finie :
Théorème 6.33 : produit de Cauchy de séries d’éléments d’une algèbre normée
P P
Soit A une algèbre normée unitaire de dimension finie. Si les séries un et vn d’éléments de E sont absolument
P
convergentes, alors leur produit de Cauchy wn est absolument convergent et :
+∞ +∞
! +∞ !
X X X
wn = un vn .
n=0 n=0 n=0

Ce résultat permet de démontrer la propriété fondamentale de l’exponentielle :


Corollaire 6.34 : exponentielle d’une somme
Soit A une algèbre normée unitaire de dimension finie. Si u et v sont deux éléments de A qui commutent, alors :

exp(u + v) = exp(u) exp(v).

Fénelon Sainte-Marie – La Plaine-Monceau 72/230 28 août 2020


CHAPITRE 6. SÉRIES DE NOMBRES RÉELS OU DE VECTEURS MP 2020-21

En particulier, si z et z 0 sont deux nombres complexes alors : exp(z + z 0 ) = exp(z) exp(z 0 ).


Remarque 6.35 :
(−1)n
Le théorème ci-dessus n’est pas valable pour les séries semi-convergentes. Posons en effet un = vn = √ . Alors
n+1
n
X 1 2
|wn | = p . Or pour k ∈ [[0, n]] on a (k + 1)(n − k + 1) ≤ n2 + 1 (étude de la fonction de
k=0
(k + 1)(n − k + 1)
n+1 P
variable k), donc |wn | ≥ n  de limite 2. Ainsi wn ne tend pas vers 0, ce qui permet d’affirmer que la série wn
2 + 1
est grossièrement divergente.

6.3 Compléments sur les séries réelles à termes positifs


6.3.1 Majoration des sommes partielles d’une série à termes réels positifs — rappel de
MPSI
Théorème 6.36 : Uue CNS de convergence d’une série de réels à termes positifs — rappel de MPSI
Une série de réels à termes positifs est convergente si et seulement si la suite de ses sommes partielles est majorée.

Exemple 6.37 :
X 1
La série converge, car :
n2
n n
X 1 X 1
2
≤ 1 + ≤ 2.
k (k − 1)k
k=1 k=2

Remarque 6.38 :
erreur classique !
Malheureusement, ce raisonnement ne donne qu’un majorant de la somme de la série et ne permet pas de déterminer
cette somme. On peut seulement dire que la somme de la série est la borne supérieure des sommes partielles.

Corollaire 6.39 : cas classiques de convergence de séries à termes positifs — rappel de MPSI
P P
Soit un et vn deux séries de nombres réels à termes positifs.
P P P P
1. Supposons 0 ≤ un ≤ vn . Alors : si vn converge alors un converge ; si un diverge alors vn diverge.
P P P
2. Supposons un ≥ 0, vn ≥ 0 et un = O(vn ). Alors : si vn converge alors un converge ; si un diverge alors
P
vn diverge.
P P
3. Supposons un ≥ 0, vn ≥ 0 et un ∼ vn . Alors : les séries un et vn sont de même nature (toutes deux
convergentes ou toutes deux divergentes).

Remarque 6.40 :

1. On pourra souvent utiliser ce résultat en comparant une série avec une série de Riemann.
P1 1 1 1 1
Par exemple la série sin est convergente, car sin ∼ 2 .
n n n n n
2. Attention, les séries sont de même nature mais leurs sommes ne sont pas pour autant égales !

Fénelon Sainte-Marie – La Plaine-Monceau 73/230 28 août 2020


6.3. COMPLÉMENTS SUR LES SÉRIES RÉELLES À TERMES POSITIFS MP 2020-21

6.3.2 Comparaison d’une série à termes positifs à une intégrale — rappel de MPSI
Théorème 6.41 : comparaison série/intégrale — rappel de MPSI
Soit f une fonction continue par morceaux sur R+ , positive et décroissante. Alors :
Z n
1. La série de terme général wn = f (t)dt − f (n) est convergente.
n−1
X Z n
2. La série f (n) est convergente si et seulement si la suite d’intégrales f (t)dt est convergente.
0

Application aux séries de Riemann — rappel de MPSI


Définition 6.42 : séries de Riemann
P 1
On appelle séries de Riemann les séries de la forme , pour α réel.

Corollaire 6.43 : convergence des séries de Riemann — rappel de MPSI
X 1
La série de Riemann est convergente si et seulement si α > 1.

Exemple 6.44 :
X 1
On retrouve que la série converge et que sa somme est inférieure ou égale à 2.
n2
Remarque 6.45 :
X 1
La somme de la série de Riemann pour α > 1 est notée ζ(α).

Prolongée à C \ {1} (dur), cette fonction zeta de Riemann joue un rôle très important dans de nombreuses branches
des mathématiques. La célèbre hypothèse de Riemann, toujours indémontrée depuis 1859, conjecture que les zéros de
1
cette fonction, autres que les entiers négatifs pairs, ont tous pour partie réelle . De ce résultat dépend, par exemple,
2
la répartition des nombres premiers. . .
1
Les calculs actuels ont prouvé que les 1013 premiers zéros de la fonction zeta sont effectivement d’abscisse
2
et des tests statistiques portant sur d’autres zéros les donnent bien sur la même droite. Mais même 1013 exemples
convaincants ne constituent pas une démonstration !
Corollaire 6.46 : convergence des séries de Bertrand (hors-programme)
X 1
La série de Bertrand est convergente si et seulement si α > 1 ou (α = 1 et β > 1).
nα (ln n)β

6.3.3 Règle de d’Alembert pour les séries réelles à termes positifs


Théorème 6.47 : règle de d’Alembert pour les séries réelles à termes positifs
P
Soit un une série réelle à termes strictement positifs.
un+1 P
1. S’il existe k ∈]0, 1[ et n0 ∈ N tels que ∀n ≥ n0 , ≤ k, alors la série un converge.
un
un+1 P
2. S’il existe n0 ∈ N tel que ∀n ≥ n0 , ≥ 1, alors la série un diverge grossièrement.
un
 
un+1
3. Si la suite admet une limite finie `, alors :
un
P
• Si ` < 1 alors la série un converge.
P
• Si ` > 1 alors la série un diverge grossièrement.
• Si ` = 1 alors on ne peut rien prévoir.

Exemple 6.48 :

Fénelon Sainte-Marie – La Plaine-Monceau 74/230 28 août 2020


CHAPITRE 6. SÉRIES DE NOMBRES RÉELS OU DE VECTEURS MP 2020-21

X n! n!
Étudions la série n
. Soit n ∈ N. Posons un = n . Alors :
n n
un+1 (n + 1)! nn nn 1
= = = .
un (n + 1) n+1 n! (n + 1) n (1 + n1 )n
 n
1 un+1 1
Or lim 1+ = e, d’où lim = < 1, donc la série converge.
n→+∞ n n→+∞ un e
Remarque 6.49 :
 
un+1
• Si la suite tend vers 1 par valeurs supérieures alors la suite (un )n est croissante à partir d’un certain
un P
rang, et par conséquent la série un est grossièrement divergente.
 
un+1
• Si tend vers 1 par valeurs inférieures ou de façon quelconque, alors on ne peut rien conclure.
un
un+1 P
• Le fait que ≤ k ≤ 1 ne sert à RIEN pour étudier la convergence de un .
un

6.3.4 Sommation des relations de comparaison, pour les séries réelles à termes positifs
Étant données deux séries convergentes à termes réels positifs, la comparaison de leurs termes généraux permet de
comparer leurs restes d’ordre n :
ThéorèmeX 6.50 X : comparaison des restes des séries convergentes à termes réels positifs
Soit un et vn deux séries convergentes à termes réels positifs. On désigne par rn et rn0 leurs restes respectifs
n n
d’ordre n.
1. Si un = O(vn ), alors rn = O(rn0 ).
2. Si un = o(vn ), alors rn = o(rn0 ).
3. Si un ∼ vn , alors rn ∼ rn0 .

Exemple 6.51 :
P 1 1 1
Trouvons un équivalent du reste d’ordre n de la série . Remarquons que 2 ∼ . Or :
n2 n n(n + 1)
+∞ +∞  
X 1 X 1 1 1
= − = .
k(k + 1) k k+1 n+1
k=n+1 k=n+1

P 1 1
On en déduit que le reste de la série 2
est équivalent à .
n n
De même, étant données deux séries divergentes à termes positifs, la comparaison de leurs termes généraux permet de
comparer leurs sommes partielles d’ordre n :
ThéorèmeX 6.52 X : comparaison des sommes partielles des séries divergentes à termes réels positifs
Soit un et vn deux séries divergentes à termes réels positifs. On désigne par Sn et Sn0 leurs sommes partielles
n n
respectives d’ordre n.
1. Si un = O(vn ), alors Sn = O(Sn0 ).
2. Si un = o(vn ), alors Sn = o(Sn0 ).
3. Si un ∼ vn , alors Sn ∼ Sn0 .

Exemple 6.53 :
n n n
X 1 1 1 X 1 X 1 1
Trouvons un équivalent de . Remarquons que ∼ . Or ∼ ln n, d’où ∼ ln n.
2k − 1 2k − 1 2k k 2k − 1 2
k=1 k=1 k=1

Fénelon Sainte-Marie – La Plaine-Monceau 75/230 28 août 2020


6.3. COMPLÉMENTS SUR LES SÉRIES RÉELLES À TERMES POSITIFS MP 2020-21

6.3.5 Application de la sommation des relations de comparaison : formule de Stirling


Théorème 6.54 : formule de Stirling
Il existe une constante K telle que :
n→+∞ √
n! ∼ K nn e−n n.

Remarque 6.55 :
La√valeur de K peut être calculée de diverses façons, notamment à partir des intégrales de Wallis. On obtient
K = 2π. La formule de Stirling s’écrit donc :
 n n √
n→+∞
n! ∼ 2πn.
e

EPCC : exercices 6, 40, 46, 54, 61.

The end – chapitre 6

Fénelon Sainte-Marie – La Plaine-Monceau 76/230 28 août 2020


Chapitre 7

Réduction des endomorphismes en


dimension finie

Soit E un K-espace vectoriel de dimension finie et u un endomorphisme de E.

7.1 Diagonalisation
7.1.1 Définition d’un endomorphisme diagonalisable
Définition 7.1 : endomorphisme diagonalisable
On dit que u est diagonalisable lorsqu’il existe une base B de E dans laquelle la matrice de u est diagonale.
Proposition 7.2 : CNS de diagonalisabilité
L’endomorphisme u est diagonalisable s’il vérifie une des trois propriétés équivalentes suivantes :
1. Il existe une base de E formée de vecteurs propres de u.
 
λ1
2. Il existe une base B de E dans laquelle la matrice de u est diagonale : MatB
 .. 
B (u) = 
 . .

λn
L
3. La somme directe des sous-espaces propres de u est égale à E : Eλ (u) = E.
λ∈Sp(u)

X
Si les pλ sont les projecteurs associés à la somme directe alors on a la décomposition spectrale de u : u= λ pλ .
λ∈Sp(u)
Réciproquement : si u est une combinaison linéaire de projecteurs associés à une somme directe, alors u est diagona-
lisable.
Problème : ce n’est pas parce que Sp(u) est connu que u est diagonalisable ! Il nous faut maintenant des caractéri-
sations de la diagonalisabilité.

7.1.2 Caractérisation de la diagonalisabilité par la dimension des sous-espaces propres


Rappel : on a 1 ≤ dim(Eλ ) ≤ nλ , où nλ est la multiplicié de λ comme valeur propre de u.
On sait que pour tout endomorphisme de E la somme des sous-espaces propres distincts est directe. Cette somme
est égale à E si sa dimension est celle de E :
Théorème 7.3 : diagonalisabilité et dimension des sous-espaces propres
Soit E un espace vectoriel de dimension finie. Un endomorphisme u de E est diagonalisable si et seulement si la
somme des dimensions des sous-espaces propres de u est égale à la dimension de E.
Corollaire 7.4 : diagonalisabilité et ordre de multiplicité des valeurs propres

77
7.1. DIAGONALISATION MP 2020-21

Soit E un espace vectoriel de dimension finie. Un endomorphisme u de E est diagonalisable si et seulement si son
polynôme caractéristique est scindé et si la dimension de chaque sous-espace propre est égale à l’ordre de multiplicité
de la valeur propre correspondante.

Un cas particulièrement simple donne une condition suffisante de diagonalisabilité :

Corollaire 7.5 : endomorphisme avec dim(E) valeurs propres distinctes


Soit E un espace vectoriel de dimension finie n. Un endomorphisme u possédant n valeurs propres distinctes deux
à deux est diagonalisable.

7.1.3 Caractérisation par le polynôme minimal


Théorème 7.6 : diagonalisabilité et polynôme minimal
Soit E un espace vectoriel de dimension finie. Un endomorphisme u de E est diagonalisable si et seulement si son
polynôme minimal est scindé et toutes ses racines sont simples.

Corollaire 7.7 : diagonalisabilité et polynôme scindé à racines simples


Soit E un espace vectoriel de dimension finie. Un endomorphisme u de E est diagonalisable si et seulement si il
annule un polynôme scindé à racines simples. Y
Plus précisément u est diagonalisable si et seulement si il annule le polynôme P = (X − λ).
λ∈Sp(u)

Remarque 7.8 :
Notons que si le polynôme minimal de u est scindé à racines simples, alors il en est de même de ses diviseurs. Par
conséquent si u est diagonalisable alors pour tout sous-espace F stable par u, l’endomorphisme de F induit par u est
aussi diagonalisable.
Exemple 7.9 :
Les projections et les symétries sont diagonalisables. En effet :
• Une projection est une application linéaire p telle que p2 = p. Le polynôme X 2 − X = X(X − 1), scindé et à
racines simples, annule p.
• Une symétrie est une application linéaire s telle que s2 = IdE . Le polynôme X 2 − 1 = (X − 1)(X + 1), scindé et
à racines simples, annule s.

7.1.4 Matrice carrée diagonalisable


Définition 7.10 : matrice carrée diagonalisable
Une matrice carrée A est dite diagonalisable lorsqu’elle représente un endomorphisme diagonalisable, autrement
dit lorsqu’elle est semblable à une matrice diagonale D :

∃P ∈ GLn (K), A = P DP −1 ,

où P est la matrice de passage de la base canonique de Kn à une base B de « diagonalisation ».


Exemple 7.11 :
Soit A la matrice suivante :  
0 −1 1
A =  −1 0 1 .
 

1 1 0
Montrer que la matrice A est diagonalisable. La diagonaliser.

Fénelon Sainte-Marie – La Plaine-Monceau 78/230 28 août 2020


CHAPITRE 7. RÉDUCTION DES ENDOMORPHISMES EN DIMENSION FINIE MP 2020-21

7.2 Trigonalisation
Toujours les mêmes hypothèses : u endomorphisme d’un K-espace vectoriel E de dimension finie.

7.2.1 Définition d’un endomorphisme trigonalisable


Il n’est pas toujours possible de trouver une base dans laquelle la matrice de u soit diagonale. A défaut, on peut en
chercher une dans laquelle la matrice de u soit triangulaire supérieure.
Définition 7.12 : endomorphisme trigonalisable
On dit que u est trigonalisable lorsqu’il existe une base de E dans laquelle la matrice de u est triangulaire supérieure.

On a déjà vu au chapitre précédent (éléments propres) que :


Proposition 7.13 : trigonalisabilité et existence d’un drapeau u-stable
L’endomorphisme u est trigonalisable si et seulement s’il existe une suite (F1 , . . . , Fn ), strictement croissante pour
l’inclusion, de sous-espaces stables par u, autrement dit si et seulement s’il existe un drapeau stable par u.

7.2.2 Caractérisation de la trigonalisabilité par le polynôme minimal ou le polynôme


caractéristique
Théorème 7.14 : trigonalisabilité et polynôme minimal/caractéristique
Soit E un K-espace vectoriel de dimension finie. Un endomorphisme u de E est trigonalisable si et seulement si
son polynôme minimal est scindé (ou ce qui revient au même, son polynôme caractéristique).

Corollaire 7.15 : trigonalisabilité et annulation d’un polynôme scindé


Un endomorphisme u d’un espace vectoriel de dimension finie est trigonalisable si et seulement s’il annule un
polynôme scindé.

Corollaire 7.16 : trigonalisabilité sur C


Tout endomorphisme d’un espace de dimension finie sur R ou C est trigonalisable sur C.

7.2.3 Matrice carrée trigonalisable


Définition 7.17 : matrice carrée trigonalisable
Une matrice carrée A est dite trigonalisable lorsqu’elle représente un endomorphisme trigonalisable, autrement dit
lorsqu’elle est semblable à une matrice triangulaire supérieure T .

∃P ∈ GLn (K) A = P T P −1

où P est la matrice de passage de la base canonique de Kn à une base adaptée à un drapeau.

7.3 Applications
Ces applications sont des grands classique des oraux.
Il faut connaître par coeur ces techniques et être au point sur les calculs.

Toujours les mêmes hypothèses : u endomorphisme d’un K-espace vectoriel E de dimension finie.

Fénelon Sainte-Marie – La Plaine-Monceau 79/230 28 août 2020


7.3. APPLICATIONS MP 2020-21

7.3.1 Commutant d’un endomorphisme ou d’une matrice


Proposition 7.18 : rappels sur les polynômes d’endomorphismes
Si u ∈ L(E) et v ∈ L(E) commutent, alors :
• Ker u et Im u sont stables par v.
• Tout sous-espace propre de u est stable par v.
• Plus généralement, si P ∈ K[X], alors v et P (u) commutent donc Ker P (u) et Im P (u) sont stables par v.
• En particulier, pour u ∈ L(E) et (P, Q) ∈ K[X]2 on a P (u) ◦ Q(u) = Q(u) ◦ P (u) : deux polynômes du même
endomorphisme commutent.

Exemple 7.19 :
Trouver le commutant de la matrice A :
 
5 2 −4
A =  4 3 −4 .
 

4 2 −3

7.3.2 Puissances d’une matrice


Lorsqu’une matrice A ∈ Mn (K) est diagonalisable, la diagonaliser permet de calculer ses puissances entières. En
effet, si P ∈ GLn (K) et D diagonale sont telles que A = P DP −1 , alors :

∀k ∈ N, Ak = P Dk P −1

et il suffit donc de calculer les puissances de la matrice diagonale D et l’inverse de P pour en déduire les puissances
de A.
Exemple 7.20 :
On peut reprendre l’exemple 7.11 : Soit A la matrice suivante :
 
0 −1 1
A =  −1 0 1 .
 

1 1 0

Calculer Ak pour tout k ∈ N.

7.3.3 Suites récurrentes linéaires


Exemple 7.21 :
Suite récurrente linéaire d’ordre 3, cas d’une matrice diagonalisable.
Trouver les suites récurrentes (un )n satisfaisant :

∀n ∈ N, un+3 = 6un+2 − 11un+1 + 6un .

Exemple 7.22 :
Suite récurrente linéaire d’ordre 2, cas d’une matrice trigonalisable.
Trouver la suite récurrente (un )n satisfaisant :

∀n ∈ N, un+2 = 2un n + 1 − un

et les conditions initiales u0 = 1, u1 = 3.

Fénelon Sainte-Marie – La Plaine-Monceau 80/230 28 août 2020


CHAPITRE 7. RÉDUCTION DES ENDOMORPHISMES EN DIMENSION FINIE MP 2020-21

7.3.4 Équations algébriques d’inconnues matricielles


Exemple 7.23 :
Résoudre dans M3 (R) :  
−1 −1 −1
X2 =  3 3 1 
 

3 1 3

7.3.5 Déterminant et trace des puissances d’une matrice


Proposition 7.24 : déterminant et trace de Ak
Soit A ∈ Mn (K). Notons Sp(A) = (λ1 , . . . , λn ). Alors pour tout entier k ∈ N :
n
Y k
X
det(Ak ) = λki , tr (Ak ) = λki .
i=1 i=1

En particulier le déterminant d’une matrice est de produit de ses valeurs propres, et la trace d’une matrice est la
somme de ses valeurs propres.

Application : détermination itérative d’une approximation de la plus grande valeur propre.


Supposons qu’il existe un indice i0 tel que |λi | < |λi0 | pour tout i 6= i0 . Alors λki = ok→+∞ (λki0 ) pour tout i 6= i0
n
X
donc tr (Ak ) = λki ∼ λki0 . On en déduit :
i=1

tr (Ak+1 ) k→+∞
−→ λ i0 .
tr (Ak )

Ceci permet également d’obtenir une approximation du rayon spectral ρ(A) = max λ∈Sp(A) |λ|.

7.4 Trigonalisation à l’aide des sous-espaces caractéristiques


L’étude des endomorphismes nilpotents va nous permettre de construire plus facilement une matrice triangulaire
supérieure représentant un endomorphisme trigonalisable.

7.4.1 Endomorphismes nilpotents, matrices nilpotentes


Définition 7.25 : endomorphisme nilpotent
Un endomorphisme u de E est dit nilpotent lorsqu’il existe un entier p ≥ 1 tel que up = 0. On appelle indice de
nilpotence de u le plus petit entier p possédant cette propriété, c’est-à-dire tel que up = 0 et up−1 6= 0.
Exemple 7.26 :
Dans Kn [X], l’opérateur de dérivation est nilpotent d’indice n + 1 car Dn+1 = 0 et Dk 6= 0 pour tout k ≤ n.
Proposition 7.27 : une CNS de nilpotence
Un endomorphisme u est nilpotent si et seulement s’il est trigonalisable avec pour seule valeur propre 0.

Proposition 7.28 : nilpotence et familles libres


Soit u un endomorphisme nilpotent d’indice p et x un vecteur de E tel que up−1 (x) 6= 0.
Alors la famille (x, u(x), . . . , up−1 (x)) est libre.

Corollaire 7.29 : endomorphisme nilpotent d’indice n


Soit u un endomorphisme nilpotent d’un espace E de dimension n.

Fénelon Sainte-Marie – La Plaine-Monceau 81/230 28 août 2020


7.4. TRIGONALISATION À L’AIDE DES SOUS-ESPACES CARACTÉRISTIQUES MP 2020-21

Alors l’indice de nilpotence de u est inférieur ou égal à n.


De plus, si l’indice de nilpotence est égal à n alors il existe une base de E dans laquelle la matrice de u est
 
0 1 0 ... 0
 . .
 .. . . . . . . . . ... 

 
 . .. .. 
 .
 . . . 0  ,
 .
..

 .
.

 . 1 
0 ... ... ... 0

appelée matrice nilpotente de Jordan.

Définition 7.30 : matrice nilpotente


Une matrice A ∈ Mn (K) est dite nilpotente lorsqu’il existe un entier p ≥ 1 tel que Ap = 0.
On appelle indice de nilpotence de A le plus petit entier p possédant cette propriété, à savoir Ap = 0 et Ap−1 6= 0.

Les propriétés des endomorphismes en dimension finie s’appliquent aux matrices carrées. En particulier :
Proposition 7.31 : propriétés des matrices carrées nilpotentes
1. Une matrice carrée est nilpotente si et seulement si elle est trigonalisable avec pour seule valeur propre 0.
2. L’indice de nilpotence d’une matrice de Mn (K) est inférieur ou égal à n.
3. Si une matrice A ∈ Mn (K) est nilpotente d’indice n, alors elle est semblable à la matrice nilpotente de Jordan :
 
0 1 0 ... 0
 . . . .. 
 .. .. .. ... . 
 
 . .. .. 
Jn =   .. . . 0 ,

 .
..

 .
.

 . 1 
0 ... ... ... 0

7.4.2 Espaces caractéristiques


Soit u un endomorphisme trigonalisable. Son polynôme caractéristique est alors scindé sur K :
k
Y
χu (X) = (X − λi )mi ,
i=1

où les valeurs propres sont les λi , de multiplicité mi , pour 1 ≤ i ≤ k.


Définition 7.32 : sous-espaces caractéristiques
On appelle sous-espaces caractéristiques de u les sous-espaces

Fλi (u) = Ker ((u − λi IdE )mi ) .

Théorème 7.33 : propriétés des sous-espaces caractéristiques


Soit u un endomorphisme trigonalisable d’un K-espace vectoriel E de dimension finie. Pour i ∈ [[1, k]], notons λi ses
valeurs propres, de multiplicités mi ; Eλi (u) ses sous-espaces propres ; enfin Fλi (u) ses sous-espaces caractéristiques.
Alors :
1. Pour tout i ∈ [[1, k]], on a Eλi (u) ⊂ Fλi (u).
2. Pour tout i ∈ [[1, k]], le sous-espace Fλi (u) est u-stable.

Fénelon Sainte-Marie – La Plaine-Monceau 82/230 28 août 2020


CHAPITRE 7. RÉDUCTION DES ENDOMORPHISMES EN DIMENSION FINIE MP 2020-21

k
M
3. Les sous-espaces caractéristiques sont supplémentaires dans E : E = Fλi (u).
i=1
4. Pour tout i ∈ [[1, k]], on a dim(Fλi (u)) = mi .
5. L’endomorphisme u|Fλi induit par u sur Fλi est la somme d’une homothétie et d’un endomorphisme nilpotent.

Corollaire 7.34 : trigonalisation à l’aide des sous-espaces caractéristiques


Soit u un endomorphisme trigonalisable de E. Alors il existe une base de E dans laquelle la matrice de u est
diagonale par blocs, chaque bloc diagonal étant triangulaire supérieur ayant une même valeur propre de u sur la
diagonale.
En d’autres termes, notons Sp(u) = {λ1 , . . . , λk }. Alors il existe une base B de E telle que
   
T1 0 . . . 0 λi ∗ . . . ∗
 0 . . . . . . ...   0 . . . . . . ... 
   
[u]B =  .  , où ∀i ∈ [[1, k]], Ti =  . .
   
 . .. ..  . .. ..
 . . . 0   . . . ∗ 
 

0 . . . 0 Tk 0 . . . 0 λi

Exemple 7.35 :
 
1 0 0 0
 −1 4 1 −2 
Trigonalisons A =   à l’aide des espaces caractéristiques.
 
 2 1 2 −1 
1 2 1 0
Le polynôme caractéristique de A est χA (X) = (X − 1)(X − 2)3 . Après calculs :

Ker (A − I4 ) = Vect(−1, −1, 4, 1),


Ker (A − 2I4 ) = Vect(0, 1, 0, 1),
   
Ker (A − 2I4 )2 = Vect (0, 1, 0, 1), (0, 0, 1, 0)
 
Ker (A − 2I4 )3

= Vect (0, 1, 0, 1), (0, 0, 1, 0), (0, 1, 0, 0) .
     
−1 0 0 0 −1 0 0 0 1 0 0 0
 −1 1 0 1 

 1
 0 0 1   0 2 1 2 
Soit P =  . Alors : P −1 =   et T = P −1 AP =  .
   
 4 0 1 0   4 0 1 0   0 0 2 1 
1 1 0 0 −2 1 0 −1 0 0 0 2

EPCC : exercices 59, 67, 69, 70, 72, 73, 75, 88, 91.

The end – chapitre 7

Fénelon Sainte-Marie – La Plaine-Monceau 83/230 28 août 2020


7.4. TRIGONALISATION À L’AIDE DES SOUS-ESPACES CARACTÉRISTIQUES MP 2020-21

Fénelon Sainte-Marie – La Plaine-Monceau 84/230 28 août 2020


Chapitre 8

Familles sommables de nombres réels ou


complexes

Dans ce chapitre, nous allons apprendre à compter (section 1) puis à additionner avec une main (section 2) et enfin
à additionner avec deux mains (section 3).

8.1 Dénombrabilité
Dans cette première partie, nous allons apprendre à compter !

8.1.1 Ensembles dénombrables


Définition 8.1 : ensemble dénombrable
Un ensemble est dit dénombrable lorsqu’il est en bijection avec N.
Exemple 8.2 :
1. L’ensemble {1, 2, . . .} = N \ {0} est dénombrable.
On définit en effet une bijection entre N et N \ {0} en posant s(n) = n + 1 (« s » pour shift, décalage).
2. L’ensemble N \ {p} est dénombrable.
On définit en effet une bijection entre N \ {p} et N \ {0} en posant f (i) = i si i ∈
/ {p, 0} et f (0) = p.
3. L’ensemble Z est dénombrable. On numérote en effet les entiers relatifs de la façon suivante : f (n) = 2n − 1 et
f (−n) = 2n pour tout n ∈ N, c’est-à-dire :

n 0 1 −1 2 −2 3 −3 ...
f (n) 0 1 2 3 4 5 6 ...

4. Pour tout p ∈ N, les ensembles pN et pZ sont dénombrables.


On définit en effet une bijection f entre N et pN, ou entre Z et pZ, en posant f (n) = pn.
5. En composant les deux exemples précédents, on obtient une bijection de N dans pZ.

Notation : on note ℵ0 (« aleph zéro ») le cardinal de tout ensemble isomorphe à N.


Remarque 8.3 :
1. On ne peut pas se contenter de dire que Card (N) = +∞, car nous verrons plus loin que R n’est pas dénombrable :
il existe ainsi plusieurs « tailles » d’infinis.
2. Les exemples ci-dessus permettent d’affirmer que ℵ0 + 1 = ℵ0 puis ℵ0 − 1 = ℵ0 . Par récurrence immédiate :
ℵ0 + k = ℵ0 pour tout k ∈ Z.
À l’aide du 3e exemple : 2ℵ0 = ℵ0 . Encore par récurrence immédiate : kℵ0 = ℵ0 pour tout k ∈ N∗ .

85
8.1. DÉNOMBRABILITÉ MP 2020-21

Exemple 8.4 :
L’hôtel de Hilbert est une curiosité mathématique digne de trois étoiles dans le guide « relais et châteaux ».
Cet hôtel possède une infinité dénombrable de chambres, numérotées 0, 1, 2, . . .
Supposons que l’hôtel soit complet : chaque chambre contient un client et un seul.
1. Un client supplémentaire arrive ? Pas de problème ! Les clients déjà en place se décalent d’une chambre, le dernier
arrivé va dans la chambre 0 (ceci illustre ℵ0 + 1 = ℵ0 ).
2. Un nombre fini k de clients arrive ? Pas de problème ! Chaque client déjà en place va k chambres plus loin, et on
case les k nouveaux arrivants dans les chambres 0 à k − 1 (ceci illustre ℵ0 + k = ℵ0 ).
3. Une infinité dénombrable de clients arrive ? Pas de problème ! Chaque client déjà en place va dans la chambre
de numéro double de sa chambre actuelle (0 → 0, 1 → 2, 2 → 4, 3 → 6, . . . ) et les nouveaux clients s’intercalent
dans les chambres de numéros impairs (ceci illustre 2ℵ0 = ℵ0 ).

Proposition 8.5 : parties infinies de N


Toute partie infinie de N est dénombrable.

Corollaire 8.6 : CNS pour qu’un ensemble soit fini ou dénombrable


Un ensemble est fini ou dénombrable si et seulement s’il est en bijection avec une partie de N.

8.1.2 Produit cartésien d’ensembles dénombrables


Proposition 8.7 : l’ensemble N2 est dénombrable
L’ensemble N2 est dénombrable.

Remarque 8.8 :
Cette fonction alambiquée n’est que la mise en forme de l’énumération évidente de N2 par balayage diagonal :

5 20 26 33 41 50 60
4 14 19 25 32 40 49
3 9 13 18 24 31 39
2 5 8 12 17 23 30
1 2 4 7 11 16 22
0 0 1 3 6 10 15
q/p 0 1 2 3 4 5

Corollaire 8.9 : produit fini d’ensembles dénombrables


Tout produit cartésien d’un nombre fini d’ensembles dénombrables est dénombrable.

8.1.3 Réunion d’ensembles dénombrables


Proposition 8.10 : réunion d’ensembles dénombrables
Une réunion finie ou dénombrable d’ensembles dénombrables est dénombrable.

Exemple 8.11 :  
[ p
L’ensemble Q est dénombrable car Q = avec Z × N∗ dénombrable, est dénombrable.

q
(p,q)∈Z×N

Corollaire 8.12 : réunion au plus dénombrable d’ensembles dénombrables


Une réunion finie ou dénombrable d’ensembles finis ou dénombrables est finie ou dénombrable.

Fénelon Sainte-Marie – La Plaine-Monceau 86/230 28 août 2020


CHAPITRE 8. FAMILLES SOMMABLES DE NOMBRES RÉELS OU COMPLEXES MP 2020-21

8.1.4 Cas de l’ensemble R


Théorème 8.13 : l’ensemble R n’est pas dénombrable
L’ensemble R n’est pas dénombrable.

8.2 Familles sommables de nombres réels ou complexes


Nous sommes maintenant assez outillés pour attaquer la partie principale de ce chapitre : additionner des nombres !
Comme c’est difficile (hou la la. . . ), nous commencerons par les nombres réels positifs.

8.2.1 Familles sommables de nombres réels positifs


Définition 8.14 : famille sommable de réels positifs
On dit qu’une famille (ui )i∈I de nombresX réels positifs est sommable lorsqu’il existe un nombre M tel
X réel positifX
que, pour toute partie finie J ⊂ I , on ait uj ≤ M . On définit alors la somme de la famille par ui = sup uj .
J⊂I
j∈J i∈I J fini j∈J
X
Notation : si une famille (ui )i∈I de réels positifs n’est pas sommable, on écrira ui = +∞.
i∈I
Il est clair que :
Lemme 8.15 : sommabilité d’une famille de réels positifs indexée par N X
Une famille (ui )i∈N de réels positifs indexée par N est sommable si et seulement si la série ui est convergente.
i∈N

Remarquons que les termes non nuls d’une famille de réels positifs ne peuvent pas être « très nombreux » :
Proposition 8.16 : support d’une famille sommable de réels positifs
Soit (ui )i∈I une famille sommable de réels positifs. Alors son support K = {i ∈ I / ui 6= 0} est fini ou dénombrable.

Théorème 8.17 : de Fubini version faible, ou de sommation par paquets, pour les familles de réels
positifs — ADMIS
Soit (ui )i∈I une famille de nombres réels positifs et (In )n∈N une partition dénombrable de I.
Alors la famille (ui )i∈I est sommable si et seulement si les deux conditions suivants sont vérifiées :
1. Pour tout n ∈ N, la sous-famille (ui )i∈In est sommable.
!
X X
2. La série ui est convergente.
n i∈In
Dans ce cas : !
+∞
X X X
ui = ui .
n=0 i∈In i∈I

Remarque 8.18 :
Si l’une des deux hypothèses n’est pas réalisée, alors on écrit :
+∞
!
X X X
ui = ui = +∞.
n=0 i∈In i∈I

Remarque 8.19 :
La réciproque est fausse : la famille ((−1)n )n n’est pas sommable mais les sommes partielles par paquets de 2
donnent l’illusion d’une convergence.

Fénelon Sainte-Marie – La Plaine-Monceau 87/230 28 août 2020


8.2. FAMILLES SOMMABLES DE NOMBRES RÉELS OU COMPLEXES MP 2020-21

8.2.2 Familles sommables de nombres réels ou complexes


Définition 8.20 : famille sommable de réels ou de complexes
Une famille (ui )i∈I de nombres réels ou complexes est dite sommable lorsque la famille de réels positifs (|ui |)i∈I
est sommable. Dans ce cas :
1. Soit (ui )i∈I une famille sommable de nombres réels. Notons I+ = {i ∈ I / ui ≥ 0} et I− = {i ∈ I / ui < 0}.
Alors les familles (ui )i∈I+ et (ui )i∈I− sont sommables et on peut définir la somme de la famille (ui )i∈I comme
étant le réel : X X X
ui = |ui | − |ui |.
i∈I i∈I+ i∈I−

2. Soit (ui )i∈I une famille sommable de nombres complexes.


Alors les familles (<(ui ))i∈I et (=(ui ))i∈I sont sommables et on peut définir la somme de la famille (ui )i∈I
comme étant le complexe : X X X
ui = <(uj ) + i =(uj ).
i∈I j∈I j∈I

Proposition 8.21 : inégalité de la moyenne, ou inégalité triangulaire généralisée, pour les familles som-
mables
Soit (ui )i∈I une famille sommable de nombres complexes. Alors :

X X
ui ≤ |ui |.



i∈I i∈I

Remarque 8.22 :
cas des familles indexées par N ou Z
P
1. Une famille (un )n∈N (indexée par N) est sommable si et seulement si la série un est absolument convergente.
X +∞
X
Dans ce cas : un = un .
n∈N n=0
P P
2. Une famille (un )n∈Z est sommable si et seulement si les deux séries un et u−n sont absolument convergentes.
X X+∞ +∞
X
Dans ce cas : un = un + u−n .
n∈Z n=0 n=1

8.2.3 Permutation des termes d’une série absolument convergente


Théorème 8.23 : toute série absolument convergente est commutativement convergente
P
Soit un une série de nombres complexes absolument convergente et σ une permutation de N. Alors la série
P
uσ(n) est absolument convergente et de même somme :

+∞
X +∞
X
uσ(n) = un .
n=0 n=0

Remarque 8.24 :
La condition de convergence absolue est indispensable à la validité du théorème. Considérons la série semi-
(−1)n−1
et soit S sa somme (on peut montrer que S = ln 2). Soit ϕ : N∗ → N∗
P
convergente xn avec xn =
n
définie par ϕ(3k + 1) = 2k + 1, ϕ(3k + 2) = 4k + 2 et ϕ(3k + 3) = 4k + 4. On vérifie facilement que ϕ est une bijection
de N dans N, sa bijection réciproque étant définie par des congruences modulo 4).

Fénelon Sainte-Marie – La Plaine-Monceau 88/230 28 août 2020


CHAPITRE 8. FAMILLES SOMMABLES DE NOMBRES RÉELS OU COMPLEXES MP 2020-21

P
Sommons alors par paquets de 3 la série xϕ(n) . On a
 
1 1 1 1 1 1 1
xϕ(3k+1) + xϕ(3k+2) + xϕ(3k+3) = − − = − = = O .
2k + 1 4k + 2 4k + 4 4k + 2 4k + 4 2(2k + 1)(2k + 2) k2
Ceci montre que la nouvelle série converge encore, mais que sa somme est la moitié de la somme de la série initiale !

8.2.4 Sommation par paquets de nombres réels ou complexes


Généralisons le théorème 8.17 de sommation par paquets de réels positifs, pour les familles de nombres réels ou
complexes.
Théorème 8.25 : de Fubini version faible, ou de sommation par paquets, pour les familles de nombres
complexes
Soit (ui )i∈I une famille de nombres réels ou complexes et (In )n∈N une partition dénombrable de I. Alors : la famille
(ui )i∈I est sommable si et seulement si les deux conditions suivantes sont vérifiées :
1. Pour tout n ∈ N, la sous-famille (ui )i∈In est sommable.
!
X X
2. La série |ui | est convergente.
n i∈In
Dans ce cas : !
+∞
X X X
ui = ui .
n=0 i∈In i∈I

Remarque 8.26 :
Attention, si l’une au!moins des hypothèses n’est pas réalisée alors la famille (ui )i∈I n’est pas forcément sommable,
+∞
X X
et la somme ui peut exister sans représenter la somme de la famille ! Par exemple, pour la famille ((−1)n )n∈N
n=0 i∈In

! la partition (In )n∈N de N définie par In = [[2n, 2n + 1]]. On a


qui n’est évidemment pas sommable, on peut considérer
+∞
X X X
alors ui = 0 pour tout n ∈ N, donc ui = 0, qui ne représente pas la somme de la famille.
i∈In n=0 i∈In

8.3 Séries doubles (I = N × N)


Maintenant qu’on a bien appris à faire des additions avec les doigts d’une main, on ajoute l’autre main !

8.3.1 Interversion des sommations


Théorème 8.27 : somme sur N × N de nombres réels positifs
Soit (up,q )(p,q)∈N×N une famille de nombres réels positifs indexée par N × N.
Alors : la famille (up,q )(p,q)∈N×N est sommable si et seulement si les deux conditions suivantes sont vérifiées :
P
1. Pour tout entier q, la série p up,q est convergente. Notons Sq sa somme.
P
2. La série q Sq est convergente.
Dans ce cas :
P
1. Pour tout entier p, la série q up,q est convergente. Notons Tp sa somme.
P
2. La série p Tp est convergente.
3. Et on a la double égalité :
+∞ X
+∞
! +∞ X
+∞
!
X X X
up,q = up,q = up,q .
(p,q)∈N×N q=0 p=0 p=0 q=0

Fénelon Sainte-Marie – La Plaine-Monceau 89/230 28 août 2020


8.3. SÉRIES DOUBLES (I = N × N) MP 2020-21

Attention, les deux premiers points sont importants ! Sinon la 2e égalité n’a pas de sens.

Une fois ce gros théorème démontré, on peut le décliner :


Théorème 8.28 : somme sur N × N de nombres complexes
Soit u = (up,q )(p,q)∈N×N une famille de nombres réels ou complexes indexée par N × N. Alors les trois assertions
suivantes sont équivalentes :
1. La famille u est sommable.
+∞
!
P X X
2. Pour tout q, la série p up,q est absolument convergente et la série |up,q | est convergente.
q p=0
+∞
!
P X X
3. Pour tout p, la série q up,q est absolument convergente et la série |up,q | est convergente.
p q=0

Dans ce cas, on a la double égalité :


+∞ X
+∞
! +∞ X
+∞
!
X X X
up,q = up,q = up,q .
(p,q)∈N×N q=0 p=0 p=0 q=0

On continue à broder :
Corollaire 8.29 : somme double à variables séparables
Soit (ap )p∈N et (bq )q∈N deux familles sommables de nombres complexes. Alors la famille (ap bq )(p,q)∈N×N est som-
mable et :    
X X X
ap bq =  ap  ×  bq  .
(p,q)∈N×N p∈N q∈N

8.3.2 Sommation triangulaire


Théorème 8.30 : sommation triangulaire de nombres réels positifs X
Soit u = (up,q )(p,q)∈N×N une famille de nombres réels positifs indexée par N × N. Notons Un = up,q .
p+q=n
P
Alors : la famille u est sommable si et seulement si la série Un converge. Dans ce cas on a :
+∞
!
X X X
up,q = up,q .
(p,q)∈N×N n=0 p+q=n

Corollaire 8.31 : sommation triangulaire de nombres complexes X


Soit u = (up,q )(p,q)∈N×N une famille de nombres complexes indexée par N × N. Notons Un0 = |up,q |.
p+q=n
!
X X
Un0 converge. Dans ce cas la série
P
Alors : la famille u est sommable si et seulement si la série up,q
n p+q=n
est absolument convergente et on a :
+∞
!
X X X
up,q = up,q .
(p,q)∈N×N n=0 p+q=n

Fénelon Sainte-Marie – La Plaine-Monceau 90/230 28 août 2020


CHAPITRE 8. FAMILLES SOMMABLES DE NOMBRES RÉELS OU COMPLEXES MP 2020-21

8.3.3 Retour sur le produit de Cauchy de deux séries absolument convergentes


Nous allons redémontrer les résultats déjà établis sur le produit de Cauchy de deux séries absolument convergentes,
à l’aide des familles sommables. Rappelons la :
Définition 8.32 : produit de Cauchy de séries de réels ou complexes
P P P
Soit un et vn deux séries de nombres complexes. On appelle produit de Cauchy de ces séries la série wn
X Xn
de terme général wn = up vq = uk vn−k .
p+q=n k=0

Théorème 8.33 : produit de Cauchy de séries absolument convergentes


P P
Soit un et vn deux séries de nombres complexes absolument convergentes.
P
Alors leur produit de Cauchy wn est absolument convergent et on a :
+∞ +∞
! +∞ !
X X X
wn = un vn .
n=0 n=0 n=0

Ce résultat permet de démontrer la propriété fondamentale de l’exponentielle :


Corollaire 8.34 : exponentielle d’une somme
Soit A une algèbre normée unitaire de dimension finie. Si u et v sont deux éléments de A qui commutent, alors :

exp(u + v) = exp(u) exp(v).

Remarque 8.35 :
On rappelle que le théorème ci-dessus n’est pas valable pour les séries semi-convergentes. Voir exemple dans le
chapitre 6, séries de nombres réels ou de vecteurs.

EPCC : aucun !

The end – chapitre 8

Fénelon Sainte-Marie – La Plaine-Monceau 91/230 28 août 2020


8.3. SÉRIES DOUBLES (I = N × N) MP 2020-21

Fénelon Sainte-Marie – La Plaine-Monceau 92/230 28 août 2020


Chapitre 9

suites et séries de fonctions

Dans tout le chapitre :


• K désigne le corps R ou C.
• E est un K-espace vectoriel de dimension finie.
• A est une partie de E.
• (fn )n∈N est une suite de fonctions définies sur A, à valeurs dans K.

9.1 Convergence d’une suite de fonctions


9.1.1 Convergence simple
Définition 9.1 : convergence simple d’une suite de fonctions
La suite (fn )n converge simplement lorsque pour tout x fixé de A, la suite numérique (fn (x)) converge (dans K).
Si on pose f (x) = lim fn (x), alors la fonction f : A → K est appelée limite simple de la suite (fn )n .
n→+∞

∀x ∈ A, ∀ε > 0, ∃n0 ∈ N, ∀n ≥ n0 , |fn (x) − f (x)| ≤ ε.

Exemple 9.2 :
Posons fn (x) = xn pour x ∈ [0, 1]. La suite des fonctions fn converge simplement vers la fonction f telle que :
f (x) = 0 si x ∈ [0, 1[ et f (1) = 1.
Remarque 9.3 :
L’exemple précédent montre que la limite d’une suite de fonctions continues n’est pas nécessairement continue.

9.1.2 Convergence uniforme


Définition 9.4 : convergence uniforme d’une suite de fonctions
La convergence est dite uniforme sur A lorsque n0 ne dépend que de ε, et non de x :

∀ε > 0, ∃n0 ∈ N, ∀n ≥ n0 , ∀x ∈ A, |fn (x) − f (x)| ≤ ε.

Ceci qui équivaut à :


∀ε > 0, ∃n0 ∈ N, ∀n ≥ n0 , sup |fn (x) − f (x)| ≤ ε.
x∈A

Remarque 9.5 :

93
9.1. CONVERGENCE D’UNE SUITE DE FONCTIONS MP 2020-21

Rappelons que dans l’ensemble des fonctions bornées de A dans K, l’application g 7→ sup |g(x)| est une norme
x∈A
notée k k∞ . Ainsi la convergence uniforme sur A peut s’écrire :

∀ε > 0, ∃n0 ∈ N, ∀n ≥ n0 , kfn − f k∞ ≤ ε.

Il s’agit donc de la convergence au sens de la norme k k∞ . Cette norme est appelée norme de la convergence uniforme.

Théorème 9.6 : CU ⇒ CS
Pour les suites de fonctions, la convergence uniforme implique la convergence simple.

Remarque 9.7 :

1. La réciproque du théorème est fausse : dans l’exemple 9.2 du paragraphe précédent (fn (x) = xn pour x ∈ [0, 1]),
on a : kfn − f k∞ = sup |fn (x) − f (x)| = 1, qui ne tend pas vers 0.
x∈[0,1]

2. Utile : pour démontrer qu’une suite de fonctions convergeant simplement vers f ne converge pas uniformément,
il suffit de trouver une suite (xn ) d’éléments de A telle que fn (xn ) − f (xn ) ne tende pas vers 0.
En effet : kfn − f k∞ ≥ |fn (xn ) − f (xn )|.

Exemple 9.8 :
Toujours avec le même exemple (fn (x) = xn pour x ∈ [0, 1]), prouver la non-convergence uniforme à l’aide du
second point de la remarque précédente (à l’aide de xn bien choisi).

Remarque 9.9 :
Dans le cas d’une suite de fonctions de R dans R, la convergence uniforme d’une suite fn vers f s’interprète
graphiquement de la façon suivante : pour tout ε > 0, le voisinage tubulaire compris entre les graphes des fonctions
f − ε et f + ε contient tous les graphes des fonctions fn à partir d’un certain rang.
Exemple 9.10 :

1. Posons fn (x) = x2 e−nx pour x ∈ R+ .


Pour x = 0 on a fn (x) = 0 et pour x > 0 on a lim fn (x) = 0. Donc la suite (fn )n converge simplement vers
n→+∞
la fonction nulle sur R+ .
Pour tout n ∈ N, la fonction fn est dérivable sur R+ et fn0 (x) = xe−nx (2 − nx).
 
2 2 4
Si n ≥ 1, alors la fonction fn admet un maximum en x = . D’où kfn − f k∞ = fn = 2 e−2 . Donc
n n n
kfn − f k∞ tend vers 0 : la suite fn converge uniformément vers f .
2. Soit la suite de fonctions (fn )n définies sur R+ par :
  
1

 nx si x ∈ 0,
 n 




 1 2
fn (x) = 2 − nx si x ∈ ,

 n n 
2


 0 si x ∈ , +∞


n

La suite (fn )n converge simplement vers 0, mais pour tout n ∈ N∗ , fn ( n1 ) = 1 : ainsi la convergence n’est pas
uniforme.
3. Soit la suite de fonctions (fn )n définies sur R+ par :

Fénelon Sainte-Marie – La Plaine-Monceau 94/230 28 août 2020


CHAPITRE 9. SUITES ET SÉRIES DE FONCTIONS MP 2020-21



 0 si x ∈ [0, n]

 x−n si x ∈ [n, n + 1]
fn (x) =


 n+2−x si x ∈ [n + 1, n + 2]
x ∈ [n + 2, +∞[.

0 si
La suite (fn )n converge simplement vers 0, mais pour tout n ∈ N, fn (n + 1) = 1 : ainsi la convergence n’est pas
uniforme.

9.1.3 Convergence uniforme sur tout compact


Dans le dernier exemple la convergence n’est pas uniforme sur R+ , mais cependant sur tout compact inclus dans
R+ .
Soit donc (fn )n une suite de fonctions définies sur une partie A d’un espace vectoriel normé E.
Définition 9.11 : convergence uniforme sur tout compact d’une suite de fonctions
La suite de fonctions (fn )n converge uniformément sur tout compact de A lorsque pour toute partie compacte K
incluse dans A la suite (fn |K ) converge uniformément.
Remarque 9.12 :
La convergence uniforme sur A implique la convergence uniforme sur tout compact de A, mais la réciproque est
fausse (cf. point n◦ 3 de l’exemple précédent).

9.1.4 Limite uniforme d’une suite de fonctions bornées


Théorème 9.13 : la limite uniforme d’une suite de fonctions bornées est bornée
Soit A une partie d’un espace vectoriel normé E et (fn )n une suite de fonctions de A dans K, bornées. Si la suite
(fn )n converge uniformément vers f , alors f est bornée.
On dit que la limite uniforme d’une suite de fonctions bornées est une fonction bornée.

Remarque 9.14 :
La convergence uniforme est la convergence de l’espace vectoriel normé (B(A, K), k · k∞ ). On peut démontrer que
c’est un espace de Banach (EVN complet).

9.1.5 Limite uniforme d’une suite de fonctions continues


Théorème 9.15 : la limite uniforme d’une suite de fonctions continues est continue
Soit A une partie d’un espace vectoriel normé E et (fn )n une suite de fonctions de A dans K, continues. Si (fn )n
converge uniformément vers f , alors f est continue.
On dit que la limite uniforme d’une suite de fonctions continues est une fonction continue.

Remarque 9.16 :
1. Remarquons que (B(A), k · k∞ ) est un EVN. Supposons que A est compact, auquel cas C 0 (A) ⊂ B(A).
Le théorème s’interprète ainsi : lorsque A est compact, le sous-espace C 0 (A, K) est une partie fermée de l’espace
(B(A), k · k∞ ).
2. Plus généralement, il suffit que la suite de fonctions continues (fn )n converge uniformément sur tout compact
pour que sa limite soit continue.

On peut étendre le théorème au cas des limites :


Corollaire 9.17 : théorème de la double limite — ADMIS
Soit (fn )n une suite de fonctions définies sur A convergeant uniformément vers une fonction f , et soit a un point
adhérent à A.

Fénelon Sainte-Marie – La Plaine-Monceau 95/230 28 août 2020


9.2. CONVERGENCE D’UNE SÉRIE DE FONCTIONS MP 2020-21

Si pour tout n ∈ N la fonction fn admet une limite bn en a, alors la suite (bn )n converge vers b ∈ K et f admet b
pour limite en a :    
lim lim fn (x) = lim lim fn (x) .
x→a n→+∞ n→+∞ x→a

En résumé : si fn CU vers f et si pour tout n, lim fn = bn , alors lim lim fn = lim lim fn .
a a n n a

Remarque 9.18 :
Si A est une partie de R contenant un intervalle de la forme [c, +∞[ ou ] − ∞, c], alors ce résultat s’étend au cas
où chaque fonction fn admet une limite en +∞ ou −∞.

9.2 Convergence d’une série de fonctions


9.2.1 Convergence uniforme d’une série de fonctions
Remarque 9.19 :
P
Soit (un ) une suites de fonctions définies sur A, à valeurs dans K. Dire que la série de fonctions un converge
uniformément, c’est dire que la suite des sommes partielles (Sn )n converge uniformément, c’est-à-dire que la suite
(Rn )n des restes d’ordre n converge uniformément vers 0 :

+∞
X
∀ε > 0, ∃n0 ∈ N, ∀n ∈ N, ∀x ∈ A, n ≥ n0 =⇒ uk (x) ≤ ε.


k=n+1

On peut étendre aux séries de fonctions certaines propriétés des suites de fonctions :
Proposition 9.20 : extension aux séries de fonctions des propriétés précédentes
P
1. La convergence uniforme implique la convergence simple : si la série de fonctions un converge uniformément
P
sur A, alors la série numérique un (x) converge pour tout x ∈ A.
2. La somme d’une série de fonctions continues qui converge uniformément est continue.
3. La somme d’une série de fonctions continues qui converge uniformément sur tout compact est continue.
P
4. Si la série de fonctions un converge uniformément et si chaque fonction un admet une limite `n en un point
P
a ∈ A, alors la série `n converge et :
+∞
X +∞
X
lim un (x) = lim un (x).
x→a x→a
n=0 n=0

Remarque 9.21 :
P
La convergence uniforme de la série de fonctions un équivaut à la convergence uniforme de la suite des sommes
partielles (Sn ). Elle implique donc la convergence uniforme vers 0 du terme général un .
Dans la pratique : pour montrer qu’une série de fonctions ne converge pas uniformément, il suffit de trouver une
suite (xn ) de A telle que un (xn ) ne converge pas vers 0.

9.2.2 Convergence normale


Définition 9.22 : convergence normale d’une série de fonctions
P
Une série de fonctions un définies sur A et à valeurs dans K est dite normalement convergente lorsque la série
P
kun k∞ converge.
Remarque 9.23 :
P
La série kun k∞ étant à termes positifs, il suffit pour qu’elle converge que ses sommes partielles soient majorées.

Fénelon Sainte-Marie – La Plaine-Monceau 96/230 28 août 2020


CHAPITRE 9. SUITES ET SÉRIES DE FONCTIONS MP 2020-21

P
Il suffit donc qu’il existe une série majorante αn , c’est-à-dire telle que pour tout n ∈ N : kun k∞ ≤ αn qui
converge.
Exemple 9.24 :
P x e−nx
La série de fonctions converge normalement sur R+ car pour tout x ≥ 0 :
n
x e−nx n x e−nx 1
= 2
≤ 2 (car ue−u ≤ 1).
n n n
P 1
et la série converge.
n2

9.2.3 Lien entre convergence normale et convergence uniforme


P
La convergence normale d’une série de fonctions un correspond à la convergence absolue dans l’espace B(A, K).
Comme cet espace est complet, elle implique la convergence de la série au sens de la norme de cet espace, autrement
dit la convergence uniforme :
Théorème 9.25 : CN ⇒ (CU et CA)
Toute série de fonctions qui converge normalement converge uniformément. De plus, la convergence est absolue en
tout point.

Remarque 9.26 :
La réciproque est fausse comme le montre l’exemple suivant.
Exemple 9.27 :
P (−1)n
• Pour tout x ∈ R, la série est semi-convergente, d’après le critère spécial des séries alternées.
x2 + n
(−1)n

1 n→+∞ 1 P1
• La convergence pour x fixé n’est pas absolue, car 2 = ∼ et diverge. Ceci prouve
x + n x2 + n n n
(−1)n

= 1.

que la série de fonctions ne converge pas normalement ; d’ailleurs x →
7
x2 + n ∞ n
• Cependant cette série converge uniformément sur R, car le reste d’ordre n d’une série vérifiant le critère spécial
des séries alternées est majoré en valeur absolue par le premier terme négligé, donc tend vers 0 uniformément.

Remarque 9.28 :
Le dernier point de la remarque donne une méthode très efficace pour prouver la convergence uniforme de
certaines séries de fonctions vérifiant le CSSA.
P
Plus précisément, soit fn une série de fonctions vérifiant le CSSA et telle que |fn | ≤ αn avec (αn )n suite réelle
P
de limite nulle. Alors fn converge uniformément.
En effet pour tout x, |Rn (x)| ≤ |fn+1 (x)| ≤ αn+1 donc kRn k∞ ≤ αn+1 .

9.3 Extension aux fonctions vectorielles


9.3.1 Suites et séries de fonctions à valeurs dans un espace vectoriel normé de dimen-
sion finie
Soit E et F deux espaces vectoriels normés de dimension finie et A une partie de E. Pour toute application f
bornée de A dans F , on définit :
kf k∞ = sup kf (x)k .
x∈A

Les normes sur F étant équivalentes, les normes ainsi définies dans B(A, F ) sont équivalentes. De plus, F étant complet,
B(A, F ) l’est aussi.

Fénelon Sainte-Marie – La Plaine-Monceau 97/230 28 août 2020


9.4. APPROXIMATION DES FONCTIONS D’UNE VARIABLE RÉELLE MP 2020-21

On peut étendre aux suites et séries d’applications de A dans F les résultats suivants :
Proposition 9.29 : définition

1. Une suite (fn )n d’applications de A dans F converge simplement lorsque pour tout x ∈ A la suite (fn (x))n
converge dans F .
La suite (fn )n converge uniformément vers f lorsque la suite (kfn − f k∞ )n converge vers 0.
2. La convergence uniforme des suites de fonctions implique la convergence simple, mais la réciproque est fausse.
P P
3. Une série un d’applications de A dans F converge simplement lorsque pour tout x ∈ A la série un (x)
converge.
P
La série un converge uniformément lorsque la suite des restes d’ordre n converge uniformément vers 0.
P P
La série un converge normalement lorsque la série kun k∞ converge.
4. La convergence normale des séries de fonctions implique la convergence uniforme et la convergence absolue en
tout point de A, mais les réciproques sont fausses.
5. La limite uniforme d’une suite d’applications continues sur A est continue sur A. En particulier, la somme d’une
série uniformément convergente d’applications continues est continue.
6. On peut échanger limite en un point et limite d’une suite uniformément convergente, ou limite en un point et
somme d’une série uniformément convergente.

9.3.2 Exemples
Soit A une algèbre normée unitaire de dimension finie et B(0, 1) ⊂ A la boule ouverte de centre 0 de rayon 1.
Alors :
1. L’application B(0, 1) → A, u 7→ (e − u)−1 , somme de la série de fonctions continues fn : u 7→ un qui converge
normalement sur tout compact de la boule B(0, 1), est continue sur B(0, 1).
1 n
2. L’application A → A, u 7→ exp(u), somme de la série de fonctions continues gn : u 7→ u qui converge
n!
normalement sur tout compact de A, est continue sur A tout entier.

9.4 Approximation des fonctions d’une variable réelle


9.4.1 Fonctions en escalier
Soit f une fonction définie sur le segment [a, b] (a < b), à valeurs dans un espace vectoriel normé F de dimension
finie.
Définition 9.30 : fonction en escalier sur le segment [a, b]
On dit que f est en escalier lorsqu’il existe une partition de [a, b] en un nombre fini d’intervalles sur chacun
desquels f est constante.
Il existe alors une suite finie strictement croissante σ = (xi )i∈[[0,n]] : a = x0 < x1 < · · · < xn = b, telle que f soit
constante sur chaque intervalle ouvert ]xi , xi+1 [ (les valeurs prises par f aux points xi n’ont pas d’importance).
Une telle suite est appelée subdivision de [a, b] adaptée à la fonction en escalier f .
Remarque 9.31 :

• Cette subdivision n’est pas unique : certains points de subdivision peuvent être retirés sans nuire à la définition,
et il est toujours possible d’ajouter arbitrairement des points de subdivision.
• Toute subdivision contenant une subdivision adaptée à f est adaptée à f .
• Cf. le cours de Première année pour plus de détails.

Fénelon Sainte-Marie – La Plaine-Monceau 98/230 28 août 2020


CHAPITRE 9. SUITES ET SÉRIES DE FONCTIONS MP 2020-21

Proposition 9.32 : subdivision adaptée à deux fonctions en escalier


Étant donné deux fonctions en escalier f et g sur [a, b], il existe une subdivision adaptée simultanément aux deux
fonctions.

Remarque 9.33 :
On montre facilement à l’aide de cette proposition que l’ensemble des fonctions en escalier sur [a, b] est un sous-
espace vectoriel de B([a, b], F ), noté E([a, b], F ) (une fonction en escalier est bornée).
Définition 9.34 : fonction en escalier sur R
Plus généralement, on dit qu’une fonction f : R → F est en escalier sur R lorsqu’il existe un segment sur lequel
elle est en escalier et en dehors duquel elle est nulle.
L’ensemble des fonctions en escalier sur R est un sous-espace vectoriel de B(R, F ), noté E(R, F ).
Remarque 9.35 :
Il est clair également que si f est en escalier sur [a, b], alors x 7→ kf (x)k est aussi en escalier sur [a, b].

9.4.2 Fonctions continues par morceaux


Soit f une fonction définie sur [a, b] à valeurs dans un espace vectoriel normé F de dimension finie.
Définition 9.36 : fonction vectorielle continue par morceaux sur un segment
On dit que f est continue par morceaux lorsqu’elle n’a qu’un nombre fini de points de discontinuité en chacun
desquels elle présente une limite à droite et une limite à gauche finies.
Autrement dit, il existe une subdivision σ = (xi )i∈[[0,n]] de [a, b] telle que la restriction de f à chaque intervalle
ouvert ]xi , xi+1 [ soit continue sur cet intervalle et prolongeable par continuité à l’intervalle fermé [xi , xi+1 ] (c’est-à-dire

admettant une limite finie en x+ i et xi+1 ).
Une telle subdivision est dite adaptée à f .
Proposition 9.37 : CM([a, b], F ) ⊂ B([a, b], F )
Toute fonction continue par morceaux sur un segment est bornée sur ce segment.

Remarque 9.38 :
Comme pour les fonctions en escalier, on montre facilement que l’ensemble des fonctions continues par morceaux
sur [a, b] est un sous-espace vectoriel de B([a, b], F ), noté CM([a, b], F ).
Définition 9.39 : fonction vectorielle continue par morceaux sur un intervalle
Plus généralement, on dit qu’une fonction f est continue par morceaux sur un intervalle I de R lorsque sa restriction
à tout segment de I est continue par morceaux.
L’ensemble des fonctions continues par morceaux sur I est un sous-espace vectoriel de F(R, F ), noté CM(I, F ).
Exemple 9.40 :
Les fonctions inverse sur R∗ et identité sur R sont continues par morceaux.
Remarque 9.41 :
Il est à noter qu’une fonction continue par morceaux sur un intervalle quelconque n’est pas toujours bornée sur cet
intervalle.
Considérer par exemple la fonction identité sur R.

9.4.3 Approximation uniforme des fonctions continues par morceaux par des fonctions
en escalier
Théorème 9.42 : E([a, b], F ) est dense dans C([a, b], F )
Toute fonction continue sur [a, b] et à valeurs dans F est limite uniforme d’une suite de fonctions en escalier sur
[a, b].

Fénelon Sainte-Marie – La Plaine-Monceau 99/230 28 août 2020


9.4. APPROXIMATION DES FONCTIONS D’UNE VARIABLE RÉELLE MP 2020-21

Ce résultat peut être étendu aux fonctions continues par morceaux sur [a, b] :
Corollaire 9.43 : E([a, b], K) est dense dans CM([a, b], K)
Toute fonction continue par morceaux sur [a, b] est limite uniforme d’une suite de fonctions en escalier sur [a, b].

9.4.4 Approximation uniforme des fonctions continues par des fonctions affines par
morceaux
Soit f une fonction définie sur [a, b] à valeurs dans un espace vectoriel normé F de dimension finie.
Définition 9.44 : fonction vectorielle affine par morceaux sur un segment
On dit que f est affine par morceaux lorsqu’il existe une subdivision σ = (xi )i∈[[0,n]] de [a, b] telle que la restriction
de f à chaque intervalle fermé [xi , xi+1 ] soit affine sur cet intervalle.
Théorème 9.45 : AM([a, b], K) est dense dans C([a, b], K)
Toute fonction continue sur [a, b] est limite uniforme d’une suite de fonctions affines par morceaux sur [a, b].

9.4.5 Approximation uniforme des fonctions continues par des fonctions polynomiales
Conformément au programme nous admettrons les deux théorèmes suivants, dus à Karl Weierstrass :
Théorème 9.46 : premier théorème de Weierstrass
Toute fonction continue sur [a, b], à valeurs réelles ou complexes, est limite uniforme d’une suite de fonctions
polynomiales sur [a, b].
Définition 9.47 : polynôme trigonométrique
On appelle polynôme trigonométrique toute combinaison linéaire de fonctions de la forme x 7→ eikωx (ou x → 7

cos kωx et x 7→ sin kωx), où k est un entier naturel et ω = .
T
Théorème 9.48 : deuxième théorème de Weierstrass
Toute fonction continue sur R, à valeurs réelles ou complexes, T -périodique est limite uniforme d’une suite de
polynômes trigonométriques sur R.
Remarque 9.49 :
Les « séries de Fourier » donnent une façon d’obtenir une suite de polynômes trigonométriques convergeant uni-
formément vers une fonction continue périodique, de classe C 1 par morceaux.
Elles sont étudiées dans les Écoles d’ingénieur.

EPCC : exercices 8, 9, 11, 12, 13, 17, 18, 48, 53.

The end – chapitre 09

Fénelon Sainte-Marie – La Plaine-Monceau 100/230 28 août 2020


Chapitre 10

Fonctions vectorielles d’une variable réelle

10.1 Dérivation des fonctions vectorielles


10.1.1 Dérivée en un point
Soit f une fonction définie sur un intervalle I de R à valeurs dans un espace vectoriel normé E de dimension finie.
Définition 10.1 : fonction vectorielle dérivable en un point d’un intervalle
f (t) − f (t0 )
On dit que f est dérivable en un point t0 de I si la fonction t 7→ possède une limite en t0 . Cette limite
t − t0
est notée f 0 (t0 ).
On sait que f est dérivable en t0 si et seulement si elle admet au voisinage de t0 un développement limité d’ordre
1:
f (t0 + h) = f (t0 ) + hf 0 (t0 ) + o(h).
Interprétation graphique : le vecteur f 0 (t0 ) est porté par la tangente à la trajectoire au point f (t0 ). S’il est non
nul, ce vecteur dirige la tangente.
Interprétation cinématique : le vecteur f 0 (t0 ) est le vecteur vitesse instantanée du mobile à l’instant t0 .
Proposition 10.2 : dérivation d’une fonction à valeurs vectorielles
n
P
Si B = (e1 , . . . , en ) est une base de E, pour tout t ∈ I, f (t) = fi (t)ei . La fonction vectorielle f est dérivable en
i=1
t0 si et seulement si chacune de ses fonctions numériques composantes est dérivable en t0 , et :
n
X
f 0 (t0 ) = fi0 (t0 )ei .
i=1

En particulier si f est une fonction à valeurs complexes alors f est dérivable en t0 si et seulement si sa partie réelle et
sa partie imaginaire sont dérivables en t0 .
Définition 10.3 : dérivée à droite, à gauche
La fonction f admet une dérivée à droite (resp. dérivée à gauche) en t0 si sa restriction à [t0 , +∞[ (resp. ] − ∞, t0 ])
est dérivable en t0 .
Exemple 10.4 :
La fonction valeur absolue f = | · | est dérivable en tout point de R∗ , avec f 0 (x) = 1 si x > 0 et f 0 (x) = −1 si
x < 0. Elle est de plus dérivable à gauche et à droite en 0, avec fg0 (0) = −1 et fd0 (0) = 1.

10.1.2 Dérivée globale


Soit f une application d’un intervalle I de R dans un espace vectoriel normé E.
Définition 10.5 : fonction dérivée

101
10.1. DÉRIVATION DES FONCTIONS VECTORIELLES MP 2020-21

Si f est dérivable en tout point de I, on dit qu’elle est dérivable sur I. De plus, dans ce cas, l’application de I dans
df
E : t 7→ f 0 (t) est appelée fonction dérivée de f , et notée f 0 , ou D(f ), ou (cette notation est liée au contexte et
dt
présuppose que l’on désigne la variable par la lettre t).
Proposition 10.6 : dérivation sur un sous-intervalle
Soit f une application définie sur un intervalle I de R et à valeurs dans un espace vectoriel normé E : f : I → E.
1. Soit J un sous-intervalle de I.
Si f est dérivable sur I, alors f|J est dérivable sur J.
2. Réciproquement, supposons J est ouvert dans I.
Si f|J est dérivable sur J, alors f est dérivable en tout point de J.

10.1.3 Applications de classe C 1


Soit encore f : I → E une application.
Définition 10.7 : fonction de classe C 1
On dit que f est de classe C 1 sur I si elle est dérivable sur I et si sa dérivée f 0 est continue sur I.
L’ensemble des fonctions de classe C 1 sur I à valeurs dans E est un espace vectoriel, noté C 1 (I, E).
Exemple 10.8 :
La fonction numérique f définie sur R par

 f (x) = x2 sin 1 si x 6= 0
x
 f (0) = 0

est dérivable sur R mais pas de classe C 1 sur R.

10.1.4 Opérations sur les fonctions dérivables


Dérivée d’une combinaison linéaire
Proposition 10.9 : dérivation d’une combinaison linéaire
Soit f et g des applications de I dans E dérivables en un point a ∈ I (resp. dérivable sur I resp. de classe C 1 sur
I). Soit α et β deux scalaires. Alors αf + βg est dérivable en a (resp. dérivable sur I resp. de classe C 1 sur I) et :

(αf + βg)0 (a) = αf 0 (a) + βg 0 (a) resp. D(αf + βg) = αD(f ) + βD(g).

Remarque 10.10 :
On en déduit que l’ensemble des applications de I dans E dérivables sur I (resp. C 1 sur I) est un K-espace vectoriel
noté D1 (I, E) (resp. C 1 (I, E)) et que l’application f 7→ f 0 (a) est linéaire sur cet espace.

Dérivée et application linéaire


D’après ce qui précède, l’application D de C 1 (I, E) dans C 0 (I, E), f 7→ f 0 est linéaire :

∀(α, β) ∈ K2 ∀(f, g) ∈ C 1 (I, E)2 (αf + βg)0 = αf 0 + βg 0 .

Théorème 10.11 : dérivée et application linéaire


Soit E, F deux espaces vectoriels normés de dimension finie, u une application linéaire de E dans F , et f une
fonction de classe C 1 définie sur un intervalle I de R à valeurs dans E.

Fénelon Sainte-Marie – La Plaine-Monceau 102/230 28 août 2020


CHAPITRE 10. FONCTIONS VECTORIELLES D’UNE VARIABLE RÉELLE MP 2020-21

Alors u ◦ f est une fonction de classe C 1 sur I à valeurs dans F , et :

(u ◦ f )0 = u ◦ f 0 .

Dérivée et application bilinéaire


Théorème 10.12 : dérivée et application bilinéaire
Soit E, F , G trois espaces vectoriels normés de dimension finie, B une application bilinéaire de E × F dans G, et
f et g deux fonctions de classe C 1 définies sur un intervalle I de R à valeurs respectives dans E et F .
Alors B(f, g) est une fonction de classe C 1 sur I à valeurs dans G, et :
 0
B(f, g) = B(f 0 , g) + B(f, g 0 ).

Exemple 10.13 :
Soit E est un espace vectoriel euclidien, de produit scalaire ( · | · ). Alors pour toutes fonctions f et g dérivables sur
un intervalle I de R à valeurs dans E, la fonction (f |g) est dérivable, et :

(f |g)0 = (f 0 |g) + (f |g 0 ).

Sur tout intervalle où kf k2 ne s’annule pas, la fonction kf k2 est dérivable, et :

0 (f |f 0 )
kf k2 = .
kf k2

En particulier, si kf k2 est constant sur I, alors (f |f 0 ) = 0 : le vecteur vitesse est orthoradial. Par exemple, si f est deux
fois dérivable et kf 0 k constant (mouvement uniforme), alors (f 0 |f 00 ) = 0 (l’accélération est orthogonale à la vitesse).
Remarque 10.14 :
Le théorème se généralise à une application multilinéaire : par exemple, si f1 , . . . , fn sont des fonctions dérivables
sur un intervalle I de R à valeurs dans un espace vectoriel normé E de dimension n muni d’une base B, alors la fonction
detB (f1 , . . . , fn ) est dérivable et :

det(f1 , f2 , . . . , fn )0 = det(f10 , f2 , . . . , fn ) + det(f1 , f20 , . . . , fn ) + · · · + det(f1 , f2 , . . . , fn0 ).


B B B B

10.1.5 Théorèmes généraux pour les fonctions à valeurs réelles — rappels de MPSI
Il s’agit ici de rappels. On renvoie au cours de première année pour les démonstrations, qui sont à savoir !
Proposition 10.15 : dérivée et extremum — rappel de MPSI
Soit f une fonction définie sur I et a ∈ I qui n’est pas une borne de I.
Si f présente en a un extremum local, et si f est dérivable en a, alors f 0 (a) = 0.
Remarque 10.16 :
1. Attention, la réciproque est fausse ! L’annulation de la dérivée n’implique pas la présence d’un extremum.
2. Attention à l’hypothèse ! Si on n’est pas sur un ouvert, alors l’existence d’un extrema n’implique pas l’annulation
de la dérivée.

Exemple 10.17 :

Fénelon Sainte-Marie – La Plaine-Monceau 103/230 28 août 2020


10.1. DÉRIVATION DES FONCTIONS VECTORIELLES MP 2020-21

1. La fonction x 7→ x3 est de classe C 1 sur l’ouvert R de R, de dérivée nulle en 0, mais n’admet pas d’extremum en
0.
2. La fonction x 7→ x est de classe C 1 sur [1, 2] (qui n’est pas ouvert), possède des extrema en 1 et en 2, mais sa
dérivée ne s’annule ni en 1 ni en 2.

Théorème 10.18 : théorème de Rolle — rappel de MPSI


Soit (a, b) ∈ R2 tel que a < b. Soit f : [a, b] → R continue sur [a, b] et dérivable sur ]a, b[. Si f (a) = f (b), alors

∃c ∈]a, b[, f 0 (c) = 0.

Théorème 10.19 : théorème des accroissements finis — rappel de MPSI


f (b) − f (a)
Soit a < b et f ∈ C 0 ([a, b], R) dérivable sur ]a, b[. Alors il existe c ∈]a, b[ tel que f 0 (c) = . En d’autres
b−a
termes f (b) − f (a) = (b − a)f 0 (c).
Les lecteurs réfléchiront à l’interprétation géométrique de ce résultat.
Interprétation cinématique :
Le TAF montre que la vitesse moyenne sur un parcours rectiligne dans un intervalle de temps [t1 , t2 ] est atteinte
par la vitesse instantanée.

On peut également paramétrer le segment [a, b] en posant h = b − a, de sorte que [a, b] = {a + th, t ∈ [0, 1]}. Le
théorème des accroissements finis s’écrit alors

∃θ ∈ [0, 1], f (a + h) = f (a) + hf 0 (a + θh).

L’ordre des bornes peut être inversé.


Remarque 10.20 :
POUR LES FONCTIONS À VALEURS RÉELLES : il est essentiel de remarquer que ces résultats ne s’étendent
ni aux fonctions complexes, ni aux fonctions vectorielles. Considérer par exemple x 7→ eix sur l’intervalle [0, 2π]. Les
démonstrations doivent être connues.
Remarque 10.21 :
Le théorème de Rolle sert à obtenir des informations sur les zéros de la dérivée à partir d’informations sur les zéros
de la fonction. En revanche, le théorème des accroissements finis s’utilise généralement dans l’autre sens ; d’ailleurs, il
se généralisera aux fonctions complexes et vectorielles sous la forme d’une inégalité obtenue par intégration.

Applications du TAF :
Soit f une application continue d’un intervalle I de R dans R (sauf pour la dernière application),

dérivable sur l’intérieur I de I.
• L’application f est croissante (resp. décroissante) sur I si et seulement si f 0 ≥ 0 (resp. f 0 ≤ 0) sur

I.

• f est strictement monotone sur I si et seulement si f 0 est de signe constant sur I et {x ∈ I, f 0 (x) 6= 0}
est dense dans I.

• Si k ∈ R+ , alors f est k-lipschitzienne sur I si et seulement si |f 0 | ≤ k sur I .
• Soit f : I → E une application à valeurs dans un espace vectoriel normé E. f est constante sur I

si et seulement si f 0 = 0 sur I .
La démonstration de ce résultat se ramène au cas des fonctions numériques par passage aux composantes dans
une base. Pour les fonctions à valeurs complexes, il s’obtient par considération de la partie réelle et de la partie
imaginaire.

Fénelon Sainte-Marie – La Plaine-Monceau 104/230 28 août 2020


CHAPITRE 10. FONCTIONS VECTORIELLES D’UNE VARIABLE RÉELLE MP 2020-21

Théorème 10.22 : théorème de la limite de la dérivée — rappel de MPSI


Soit f : I → E, avec I intervalle de R et E un espace vectoriel normé de dimension finie. Soit a dans l’intérieur
de I.
Si f est dérivable sur un ensemble du type ]a − η, a + η[\{a} où η > 0 et si f est continue en a, alors l’existence
d’une limite ` = lim f 0 (x) ∈ E assure la dérivabilité de f en a avec de plus ` = f 0 (a).
x→a
En d’autres termes, sous les hypothèses du théorème, f 0 est définie sur ]a − η, a + η[ et est continue en a.

10.1.6 Dérivées d’ordres supérieurs


Soit f une fonction dérivable sur un intervalle I à valeurs dans un espace vectoriel normé E de dimension finie.
Définition 10.23 : dérivée seconde
d2 f
1. Si f 0 est elle-même dérivable, sa dérivée est appelée dérivée seconde de f et notée f 00 , D2 f ou 2 .
dt
(k) k dk f
Plus généralement, f peut être k fois dérivable, sa dérivée k-ième est notée f , D f ou k .
dt
2. On dit que f est de classe C k sur I si elle est k fois dérivable et si sa dérivée k-ième est continue sur I.
On dit que f est de classe C ∞ sur I si elle possède une dérivée k-ième pour tout k ∈ N.

L’ensemble des fonctions de classe C k sur I (k ∈ N ∪ {+∞}) à valeurs dans E est un espace vectoriel, noté C k (I, E).
Si de plus E = K (R ou C), C k (I, E) est même une algèbre : la dérivée k-ième d’un produit est donnée par la
formule de Leibniz :
k  
X k (i) (k−i)
(f g)(k) = f g .
i=0
i

Théorème 10.24 : composition de fonctions de classe C k


Soit E un espace vectoriel normé de dimension finie, f une fonction de classe C k sur un intervalle I à valeurs dans
E, et ϕ une fonction de classe C k sur un intervalle J à valeurs dans I.
Alors la fonction composée f ◦ ϕ est de classe C k sur J.

Proposition 10.25 : dérivabilité de la réciproque (rappel de MPSI)


Soit f ∈ RI continue sur I et strictement monotone de l’intervalle I sur l’intervalle J = f (I), dérivable en a.
Posons b = f (a).
Alors : f −1 est dérivable en b si et seulement si f 0 (a) est non nul. Dans ce cas :
0 1 1
f −1 (b) = = 0 −1 .
f 0 (a) f (f (b))

Corollaire 10.26 : caractérisation des difféomorphismes par la non-annulation de la dérivée (rappel de


MPSI)
Soit f de classe C k et bijective entre deux intervalles I et J de R.
Alors : f 1 est de classe C k si et seulement si f 0 ne s’annule pas sur I.

10.2 Intégration sur un segment


10.2.1 Intégrale d’une fonction continue par morceaux sur un segment
La notion de convergence uniforme va nous permettre de définir l’intégrale sur un segment d’une fonction continue
par morceaux plus facilement qu’en Première Année.
La définition de l’intégrale d’une fonction en escalier est évidente :

Fénelon Sainte-Marie – La Plaine-Monceau 105/230 28 août 2020


10.2. INTÉGRATION SUR UN SEGMENT MP 2020-21

Définition 10.27 : intégrale d’une fonction en escalier sur un segment


Si ϕ est en escalier sur [a, b], à valeurs dans un espace vectoriel normé E de dimension finie, il existe une subdivision
(xi )i∈[[0,n]] telle que pour tout i ∈ [[1, n]] et pour tout x ∈]xi , xi+1 [, on ait ϕ(x) = yi . On pose alors :
Z n−1
X
ϕ = (xi+1 − xi ) yi .
[a,b] i=0

Proposition 10.28 : propriétés de l’intégrale d’une fonction en escalier sur un segment


1. Le résultat ne dépend pas de la subdivision choisie.
2. On peut changer la fonction en un nombre fini de points sans changer son intégrale.

On peut en déduire l’intégrale d’une fonction continue par morceaux, sachant qu’elle est limite uniforme de fonctions
en escalier :
Théorème 10.29 : construction de l’intégrale d’une fonction continue par morceaux sur un segment
Soit f une fonction continue par morceaux sur [a, b] à valeurs dans un espace vectoriel normé E de dimension
! finie.
Z
Si (ϕn )n est une suite de fonctions en escalier convergeant uniformément vers f , alors la suite ϕn est
[a,b]
n
convergente. De plus sa limite ne dépend pas de la suite choisie.

Définition 10.30 : intégrale


Z d’une fonction continue par morceaux sur Z un segment
La limite de la suite ( ϕn ) est appelée intégrale de f sur [a, b], notée f.
[a,b] [a,b]

10.2.2 Premières propriétés de l’intégrale


Les propriétés vues en Première Année pour l’intégrale des fonctions numériques s’étendent aux fonctions vecto-
rielles tant qu’elles ne font pas appel à l’ordre de R. Citons en particulier la linéarité et la relation de Chasles.
Voici trois propriétés valables uniquement lorsque E = R :
Proposition 10.31 : positivité, croissance, annulation
Z b
1. Si f est continue par morceaux sur [a, b] et si f ≥ 0 sur [a, b], alors f (x)dx ≥ 0.
a
Z b Z b
2. Si f et g sont continues par morceaux sur [a, b] et si f ≤ g sur [a, b], alors f (x)dx ≤ g(x)dx.
a a
3. Si f est positive, continue sur [a, b] et d’intégrale nulle, alors elle est nulle.

Voici maintenant une propriété valable lorsque E est un espace réel ou complexe sans mention de dimension,
démontrée dans le cadre des espaces vectoriels normés (chapitre 3) :
Proposition 10.32 : inégalité de Cauchy-Schwarz
Soit f et g continues par morceaux sur [a, b], à valeurs un espace vectoriel normé E sur R ou C. Alors :
s s
Z b Z b Z b
2 2
kf (x)g(x)k dx ≤ kf (x)k dx × kg(x)k dx.
a a a

Le fameux « cas d’égalité » n’est valable que dans le cas de fonctions continues (pas seulement continues par mor-
ceaux).
Lorsque l’espace vectoriel E est de dimension finie on conserve quelques propriétés supplémentaires. Le cas le
plus simple est lorsqu’on peut se ramener au cas des fonctions à valeurs scalaires (vu en Première Année) par passage
aux coordonnées dans une base. Par exemple la convergence des sommes de Riemann :
Théorème 10.33 : convergence des sommes de Riemann

Fénelon Sainte-Marie – La Plaine-Monceau 106/230 28 août 2020


CHAPITRE 10. FONCTIONS VECTORIELLES D’UNE VARIABLE RÉELLE MP 2020-21

Soit f une fonction continue sur un segment [a, b] (a < b) à valeurs dans un espace vectoriel normé E de dimension
finie. Pour n ∈ N∗ , soit Rn la somme de Riemann de f définie par :
n  
b−a X b−a
Rn = f a+k .
n n
k=1
Z b
Alors la suite (Rn )n≥1 des sommes de Riemann converge vers f (t)dt :
a

b n  
b−a X b−a
Z
f (t)dt = lim f a+k .
a n→+∞ n n
k=1

Deux autres exemples du même tonneau seront vus plus loin : intégration des développements limités (vectoriels),
formule de Taylor-Young (vectorielle).
La majoration de la norme d’une intégrale nécessite une nouvelle démonstration :
Théorème 10.34 : inégalité de la moyenne
Soit f une fonction continue par morceaux sur [a, b] à valeurs dans un espace vectoriel normé E de dimension finie.
Alors : Z Z

f ≤ kf k ≤ (b − a)kf k∞ .


[a,b] [a,b]

10.2.3 Primitives d’une fonction continue


Rappelons le théorème fondamental du calcul intégral, qui établit le lien entre primitives et intégrales pour une
fonction continue :
Théorème 10.35 : théorème fondamental du calcul intégral
Soit f une fonction continue sur un intervalle I de R à valeurs dans un espace vectoriel normé E de dimension
finie. Z x
Alors pour tout a ∈ I, l’application F de I dans E définie par : F (x) = f (t)dt est de classe C 1 et sa dérivée est
a
f . L’application F est l’unique primitive de f qui s’annule en a.

Remarque 10.36 :
ATTENTION A BIEN PRÉCISER LA CONTINUITÉ DE f .
Proposition 10.37 : TFCI2
Soit u et v deux applications de classe C 1 d’un intervalle J dans R et f une application continue d’un intervalle I
dans E. On suppose que u(J) ⊂ I et v(J) ⊂ I.
Z v(x)
Alors la fonction G : J → E, x 7→ f (t)dt est de classe C 1 et :
u(x)

∀x ∈ J, G0 (x) = v 0 (x)f (v(x)) − u0 (x)f (u(x)).

Remarque 10.38 :
Extension aux fonctions continues par morceaux.
Soit f une application continue par morceaux d’un intervalle I dans E et a ∈ I. Alors, l’application

Fa : I → E
Z x
x 7→ f (t)dt
a

Fénelon Sainte-Marie – La Plaine-Monceau 107/230 28 août 2020


10.2. INTÉGRATION SUR UN SEGMENT MP 2020-21

est continue sur I. En tout point x0 de I qui n’en est pas un plus petit élément, resp. un plus grand élément, Fa admet
une dérivée à gauche, resp. à droite, qui vaut :

(Fa )0g (x0 ) = lim f (x) resp. (Fa )0d (x0 ) = lim f (x) .
x→x−
0 x→x+
0

Proposition 10.39 : changement de variable


Étant donné f ∈ C(I, E) et ϕ ∈ C 1 ([α, β], R) avec a = ϕ(α) ∈ I et b = ϕ(β) ∈ I, on a :
Z b Z β
f (x)dx = f (ϕ(t)) ϕ0 (t)dt.
a α

Remarque 10.40 :
extension aux fonctions continues par morceaux
Dans le cas où f est simplement continue par morceaux, il est conseillé de se ramener au cas précédent en considérant
une subdivision de ϕ([α, β]).
Du TFCI, on peut déduire une démonstration très économique de l’inégalité des accroissements finis, pour les fonctions
de classe C 1 :
Corollaire 10.41 : inégalité des accroissements finis pour les fonctions de classe C 1
Soit f une fonction définie sur un intervalle I à valeurs dans un espace vectoriel normé E de dimension finie. Pour
tout (a, b) ∈ I 2 , supposons que :
• f est continue sur [a, b] ;
• f est de classe C 1 sur ]a, b[ ;
• ∃k ∈ R, ∀t ∈]a, b[, kf 0 (t)k ≤ k.
Alors : kf (b) − f (a)k ≤ k|b − a|.

10.2.4 Intégration et développements limités


Proposition 10.42 : intégration d’un petit o
Soit f ∈ C 1 (I, E), g ∈ C 1 (I, R) et a ∈ I. On suppose que g 0 ≥ 0 et f 0 = o(g 0 ) au voisinage de a, c’est-à-dire :

∀ε > 0, ∃α > 0, ∀x ∈ I, |x − a| < α ⇒ kf 0 (x)k ≤ εg 0 (x).

Alors :
kf (x) − f (a)k = o (|g(x) − g(a)|)
au voisinage de a.

Théorème 10.43 : intégration d’un DL


Soit ϕ ∈ C 1 (I, E), avec ϕ0 admettant au voisinage de a ∈ I un développement limité d’ordre n de la forme
n
X
ϕ0 (x) = (x − a)k ak + o((x − a)n ),
k=0

où les ak sont des vecteurs de E.


Alors ϕ admet un développement limité d’ordre n + 1 au voisinage de a donné par :
n
X (x − a)k+1
ϕ(x) = ϕ(a) + ak + o((x − a)n+1 ).
k+1
k=0

Fénelon Sainte-Marie – La Plaine-Monceau 108/230 28 août 2020


CHAPITRE 10. FONCTIONS VECTORIELLES D’UNE VARIABLE RÉELLE MP 2020-21

Théorème 10.44 : formule de Taylor-Young


Soit f ∈ C n (I, E), a ∈ I. Alors f admet le développement limité suivant, appelé le développement de Taylor-Young
de f au voisinage de a :
n
X (x − a)k (k)
f (x) = f (a) + o((x − a)n ).
k!
k=0

10.2.5 Intégration par parties et applications


Proposition 10.45 : intégration par parties
Soit u ∈ C 1 (I, K), v ∈ C 1 (I, E), (a, b) ∈ I 2 .
Alors on a la formule d’intégration par parties :
Z b Z b
u(t)v 0 (t)dt = [u(t)v(t)]ba − u0 (t)v(t)dt.
a a

C’est encore vrai lorsque u et v sont seulement continues sur I et de classe C 1 par morceaux sur I.

Remarque 10.46 :
Lors d’une intégration par parties, on précisera toujours la classe des fonctions qui interviennent sur l’intervalle de
travail contenant les bornes d’intégration.
Théorème 10.47 : formule de Taylor avec reste intégral
Soit f ∈ C n (I, E), de classe C n+1 par morceaux sur I. Soit a ∈ I.
Alors pour tout point x ∈ I, on a :
n x
(x − a)k (x − t)n (n+1)
X Z
(k)
f (x) = Tn (x) + Rn (x) avec Tn (x) = f (a) et Rn (x) = f (t)dt.
k! a n!
k=0

Théorème 10.48 : inégalité de Taylor-Lagrange


Soit f ∈ C n (I, E), de classe C n+1 par morceaux sur I. Soit a et b des éléments de I. La fonction f (n+1) étant
continue par morceaux sur le segment [a, b], elle y admet une borne supérieure M . Il vient alors :

n
(b − a)k (k) (b − a)n+1

X
f (b) − f (a) ≤ M .

k! (n + 1)!
k=0

Remarque 10.49 :
1. La formule de Taylor avec reste intégral, l’inégalité des accroissements finis, l’inégalité de Taylor-Lagrange, sont
des formules globales, permettant des majorations explicites et quantitatives (par exemple majorations d’erreurs).
2. Au contraire, la formule de Taylor-Young est locale et qualitative.

10.2.6 Norme de la convergence en moyenne


Soit E un espace vectoriel normé de dimension finie et C([a, b], E) l’espace vectoriel des fonctions continues sur
[a, b] à valeurs dans E.
Proposition 10.50 : norme de la convergence en moyenne
L’application : Z
C([a, b], E) → R, f 7→ N1 (f ) = kf k
[a,b]

Fénelon Sainte-Marie – La Plaine-Monceau 109/230 28 août 2020


10.2. INTÉGRATION SUR UN SEGMENT MP 2020-21

est une norme sur C([a, b], E).

Définition 10.51 : norme de la convergence en moyenne


N1 est appelée norme de la convergence en moyenne.
Théorème 10.52 : sur un segment, la convergence uniforme implique la convergence en moyenne
Dans C([a, b], E) : N1 ≤ (b − a)N∞ .
On en déduit que laZ convergence uniforme implique la convergence en moyenne : si la suite (fn )n converge unifor-
mément vers f , alors kfn − f k tend vers 0.
[a,b]

Remarque 10.53 :
La réciproque est fausse : la convergence en moyenne n’implique pas la convergence uniforme, ni même la conver-
gence simple !
Exemple 10.54 :
La suite de fonctions (fn )n définie sur [0, 1] par : fn (x) = xn converge en moyenne vers la fonction nulle (car
1
kfn − 0k1 = n+1 ) mais cette convergence n’est pas uniforme (car kfn − 0k∞ = 1), ni même simple pour x = 1 (car
fn (1) − 0 = 1).

10.2.7 Échange limite-intégrale


Théorème 10.55 : échange limite-intégrale sur un segment
Soit (fn )n une suite de fonctions de C([a, b], E) convergeant uniformément vers f sur [a, b]. Alors :
Z Z
lim fn = lim fn .
n→+∞ [a,b] [a,b] n→+∞

Remarque 10.56 :
1. Il est important de noter que ce résultat ne subsiste pas si la convergence n’est pas uniforme. Soit par exemple
la fonction fn définie sur [0, 1] pour n ∈ N∗ par :
  
1
2n2 x si x ∈ 0, ,


 2n 




 1 1
fn (x) = 2n − 2n2 x si x ∈ , ,

  2n n

 1
 0 si x ∈ ,1 .


n

Fénelon Sainte-Marie – La Plaine-Monceau 110/230 28 août 2020


CHAPITRE 10. FONCTIONS VECTORIELLES D’UNE VARIABLE RÉELLE MP 2020-21

La suite (fn )n converge simplement vers Zla fonction nulle, mais la convergence n’est pas uniforme car kfn −0k∞ =
1
n. On remarque que pour tout n ∈ N∗ , fn = 6= 0.
[0,1] 2
2. La convergence uniforme n’est ici suffisante que parce que [a, b] est un segment (compact suffit). Ce résultat ne
s’appliquera pas aux intégrales sur un intervalle quelconque que nous verrons au chapitre « intégration sur un
intervalle quelconque ».

On peut étendre le résultat aux séries de fonctions uniformément convergentes :


Corollaire 10.57 : intégration terme à terme, ou échange limite-intégrale sur un segment pour les séries
de fonctions
P XZ
Soit fn une série de fonctions de C([a, b], E) qui converge uniformément sur [a, b]. Alors la série fn est
[a,b]
convergente et :
+∞ Z
X Z +∞
X
fn = fn .
n=0 [a,b] [a,b] n=0

Remarque 10.58 :
P
Ceci signifie que pour intégrer la somme de la série fn , il suffit d’intégrer terme à terme et de sommer.
Exemple 10.59 :
Z 1
Calculer xx dx sous forme de la somme d’une série.
0

Remarque 10.60 :
P
Soit fn une série de fonctions de C([a, b], E) qui converge normalement sur [a, b]. Alors :
Z +∞
Z +∞ Z +∞
X X X
fn ≤ fn ≤ kfn k,


[a,b] [a,b] [a,b]
n=0 n=0 n=0
P
et comme la série kfn k converge uniformément sur [a, b], on peut échanger l’intégrale et la somme :
Z
+∞
X +∞ Z
X
fn ≤ kfn k.


[a,b] [a,b]
n=0 n=0

Exemple 10.61 :
+∞
2π X
teint
Z
Majorer l’intégrale : I = dt.
0 n=1
n2

Il existe un autre moyen de démontrer que limite/somme et intégrale sont échangeables, en appliquant ce que l’on
appelle le théorème de convergence dominée. Ce théorème existe tant pour les suites de fonctions que pour les séries.
Ceci dit, son intérêt se révèle réellement lorsqu’on cherche à intégrer sur un intervalle quelconque c’est-à-dire pas
nécessairement un segment. Nous reviendrons donc sur les deux énoncés de convergence dominée dans le chapitre 14
« Intégration sur un intervalle quelconque ».
Nous donnons ici une version allégée de ces théorèmes, dans le cadre de l’intégration sur un segment.
Théorème 10.62 : théorème de convergence dominée pour une suite de fonctions, version « segment »
Soit (fn )n une suite de fonctions à valeurs réelles ou complexes définies sur un segment [a, b]. On suppose que :
• pour tout n ∈ N, la fonction fn est continue par morceaux sur [a, b] (et donc intégrable !) ;
• la suite (fn )n converge simplement sur [a, b] vers une fonction f continue par morceaux (et donc intégrable !) ;
• il existe une fonction ϕ continue par morceaux positive sur [a, b] (et donc intégrable !) telle que pour tout n ∈ N :
|fn | ≤ ϕ (hypothèse de domination).

Fénelon Sainte-Marie – La Plaine-Monceau 111/230 28 août 2020


10.2. INTÉGRATION SUR UN SEGMENT MP 2020-21

Z b Z b
Alors f (t)dt = lim fn (t)dt, ou encore
a n a
Z b Z b
lim fn (t)dt = lim fn (t)dt.
a n→+∞ n→+∞ a

Conformément au programme, nous admettrons ce résultat sans démonstration.


Appliquant ce premier théorème au cas des séries de fonctions (i.e. à la suite des sommes partielles), on peut
démontrer (mais c’est loin d’être immédiat !) :
Théorème 10.63 : 2ème théorème d’intégration terme à terme d’une série de fonctions sur un segment
Soit (un )n une suite de fonctions à valeurs réelles ou complexes définies sur un segment [a, b]. On suppose que :
• pour tout n ∈ N, la fonction un est continue par morceaux sur [a, b] (et donc intégrable !) ;
P
• la série un converge simplement vers une fonction S continue par morceaux sur [a, b] (et donc intégrable !) ;
XZ b
• la série |un (t)|dt converge.
n∈N a
Z b +∞ Z
X b
Alors : S(t)dt = un (t)dt, ou encore :
a n=0 a

Z +∞
bX +∞ Z
X b
un (t)dt = un (t)dt.
a n=0 n=0 a

Ce théorème sera également admis sans démonstration.

10.2.8 Norme de la convergence en moyenne quadratique


On va se restreindre dans ce paragraphe à l’espace des fonctions continues sur [a, b] à valeurs complexes : C([a, b], C).
On peut définir dans cet espace un produit scalaire par :
Z
∀(f, g) ∈ C([a, b], C)2 , (f |g) = f g.
[a,b]

Définition 10.64 : norme de la convergence en moyenne


1. La norme hermitienne associée à ce produit scalaire est appelée norme de la convergence en moyenne quadratique :
Z ! 12
∀f ∈ C([a, b], C), kf k2 = |f |2 .
[a,b]
Z
2. Une suite de fonctions (fn )n converge en moyenne quadratique vers une fonction f lorsque |fn −f |2 converge
[a,b]
vers 0.

Théorème 10.65 : sur un segment CU implique convergence en moyenne quadratique


√ √
1. Dans C([a, b], C) : N1 ≤ b − a N2 et N2 ≤ b − a N∞ .
2. On en déduit que la convergence uniforme implique la convergence en moyenne quadratique, qui implique elle-
même la convergence en moyenne :
Z
(a) Si la suite (fn )n converge uniformément vers f , alors kfn − f k2 tend vers 0.
[a,b]
Z Z
2
(b) Si kfn − f k tend vers 0, alors kfn − f k tend vers 0.
[a,b] [a,b]

Fénelon Sainte-Marie – La Plaine-Monceau 112/230 28 août 2020


CHAPITRE 10. FONCTIONS VECTORIELLES D’UNE VARIABLE RÉELLE MP 2020-21

10.3 Primitives et dérivées des suites et séries de fonctions


10.3.1 Primitivation de la limite d’une suite de fonctions qui converge uniformément
Théorème 10.66 : primitivation de la limite d’une suite de fonctions qui CU
Soit (fn )n une suite de fonctions continues sur un intervalle I à valeurs dans un espace vectoriel normé de dimension
finie E.
Pour tout n ∈ N, on note Fn la primitive de fn qui s’annule en un point a de I.
Si la suite (fn )n converge uniformément vers f sur tout segment inclus dans I, alors la suite (Fn ) converge
uniformément sur tout segment inclus dans I vers F , la primitive Z de f s’annulant
Z en a.
En d’autres termes : si les fn sont continues et CU alors lim fn = lim fn .

Ce résultat peut s’étendre aux séries de fonctions :

10.3.2 Primitivation d’une série de fonctions


Corollaire 10.67 : primitivation d’une série de fonctions qui CU
P
Soit fn une série de fonctions continues sur un intervalle I à valeurs dans un espace vectoriel normé de dimension
finie E.
Pour tout n ∈ N on note Fn la primitive de fn qui s’annule en un point a de I.
P P
Si la série fn converge uniformément vers s sur tout segment inclus dans I, alors la série Fn converge
uniformément sur tout segment inclus dans I vers S, la primitive
Z X de s s’annulant en a.
X XZ
En d’autres termes : si fn continues et fn CU alors fn = fn .

Exemple 10.68 :
+∞
X 1
On sait que : ∀x ∈] − 1, 1[, xn = . Cette série converge normalement, donc uniformément, sur tout
n=0
1−x
segment (compact suffit) de ] − 1, 1[. On en déduit en calculant les primitives s’annulant en 0 :
+∞ n
X x
= − ln(1 − x).
n=1
n

10.3.3 Dérivation de la limite d’une suite de fonctions


Théorème 10.69 : dérivation terme à terme d’une suite de fonctions
Soit (fn )n une suite de fonctions définies sur un intervalle I à valeurs dans un espace vectoriel normé de dimension
finie E. On suppose que :
1. Pour tout n ∈ N, la fonction fn est de classe C 1 sur I.
2. La suite (fn )n converge simplement vers une fonction f sur I.
3. La suite (fn0 ) converge uniformément vers une fonction g sur tout segment de I.
Alors f est de classe C 1 sur I et f 0 = g.

10.3.4 Dérivation terme à terme d’une série de fonctions


On peut appliquer ce résultat aux séries de fonctions :
Corollaire 10.70 : dérivation terme à terme d’une série de fonctions
P
Soit fn une série de fonctions définies sur un intervalle I à valeurs dans un espace vectoriel normé de dimension
finie E. On suppose que :

Fénelon Sainte-Marie – La Plaine-Monceau 113/230 28 août 2020


10.3. PRIMITIVES ET DÉRIVÉES DES SUITES ET SÉRIES DE FONCTIONS MP 2020-21

1. Pour tout n ∈ N, la fonction fn est de classe C 1 sur I.


P
2. La série fn converge simplement sur I.
P 0
3. La série fn converge uniformément sur tout segment de I.
+∞ +∞
!0 +∞
X X X
Alors 1
fn est de classe C sur I et : fn = fn0 .
n=0 n=0 n=0

Remarque 10.71 :
P
Ceci signifie que pour dériver la somme de la série fn , il suffit de dériver terme à terme et de sommer, à
condition que la série des dérivées converge uniformément.
Exemple 10.72 :
+∞
X x2n+1
1. Soit f la fonction définie sur ] − 1, 1[ par : f (x) = (−1)n . Cette série est normalement convergente sur
n=0
2n + 1
tout segment de ] − 1, 1[, donc simplement convergente sur ] − 1, 1[. La série dérivée terme à terme : (−1)n x2n
P

est aussi normalement, donc uniformément, convergente sur tout segment inclus dans ] − 1, 1[. On en déduit que
f est de classe C 1 et que :
+∞
X 1
f 0 (x) = (−x2 )n = .
n=0
1 + x2

D’où : ∀x ∈] − 1, 1[, f (x) = arctan x.


2. Étant donné un élément a d’une R-algèbre normée A de dimension finie, considérons l’application ea : R → A,
+∞ n
X t n
t 7→ exp(ta) définie par : ea (t) = a . Cette série est normalement convergente sur tout segment de R.
n=0
n!
P tn−1 n
La série dérivée terme à terme : a est aussi normalement, donc uniformément, convergente sur tout
(n − 1)!
segment de R. On en déduit que ea est de classe C 1 sur R et que :
+∞ +∞ n
X tn−1 n X t n+1
e0a (t) = a = a = a ea (t) = ea (t) a
n=1
(n − 1)! n=0
n!

c’est-à-dire : e0a = a ea = ea a.

10.3.5 Extension aux suites et séries de fonctions de classe C k


Théorème 10.73 : dérivation k fois terme à terme d’une suite de fonctions
Soit (fn )n une suite de fonctions définies sur un intervalle I à valeurs dans un espace vectoriel normé de dimension
finie E. On suppose que :
1. Pour tout n ∈ N, la fonction fn est de classe C k sur I.
2. La suite (fn )n converge simplement vers f sur I.
(p)
3. Pour tout p ∈ [[1, k]], la suite (fn )n converge uniformément vers une fonction gp sur tout segment de I.
Alors f est de classe C k sur I et f (k) = gk .

Appliquons ce résultat aux séries de fonctions de classe C k :


Corollaire 10.74 : dérivation k fois terme à terme d’une série de fonctions
P
Soit fn une série de fonctions définies sur un intervalle I à valeurs dans un espace vectoriel normé de dimension
finie E. On suppose que :
1. Pour tout n ∈ N, la fonction fn est de classe C k sur I.
P
2. La série fn converge simplement sur I.

Fénelon Sainte-Marie – La Plaine-Monceau 114/230 28 août 2020


CHAPITRE 10. FONCTIONS VECTORIELLES D’UNE VARIABLE RÉELLE MP 2020-21

P (p)
3. Pour tout p ∈ [[1, k]], la série fn converge uniformément sur tout segment de I.
+∞ +∞
!(k) +∞
X X X
Alors fn est de classe C k sur I et : fn = fn(k) .
n=0 n=0 n=0

Exemple 10.75 :
+∞
1 X
En dérivant k fois l’égalité : = xn sur ] − 1, 1[, on obtient (en posant n − k = p) :
1−x n=0

+∞ +∞  
1 X
n−k
X p+k p
n(n − 1) · · · (n − k + 1)x = x .
(1 − x)k+1 k
n=k p=k

10.4 Arcs paramétrés


Soit E un R-espace vectoriel euclidien orienté (par exemple : le plan usuel) et I un intervalle de R.

10.4.1 Définitions
Définition 10.76 : courbe paramétrée
Soit f : I → E une fonction vectorielle de classe C k , c’est-à-dire k fois dérivable et dont toutes les dérivées sont
continues.
On appelle courbe paramétrée la donnée du couple (I, f ).
L’ensemble f (I) = {f (t) ; t ∈ I} est appelé support de la courbe ou trajectoire.
Remarque 10.77 :
En interprétant le paramètre t comme le temps, on peut donc voir une courbe paramétrée comme la description
d’un mouvement. Il ne s’agit pas d’une courbe au sens géométrique (ceci n’étant que le support).
En fait le point M (t), t ∈ I, du plan se déplace sur le support de la courbe. À l’instant t, la vitesse instantanée est
donnée par →−v (t) = f 0 (t) et l’accélération instantanée par →

a (t) = f 00 (t).

10.4.2 Point régulier, tangente


Soit (I, f ) une courbe paramétrée de classe C k .
Définition 10.78 : point régulier


Le point M (t) de la courbe est dit régulier lorsque f 0 (t) 6= 0 . La courbe est dite régulière si tous ses points sont
réguliers.
Soit M (t0 ) un point de la courbe paramétrée (I, f ).
Définition 10.79 : tangente à une courbe paramétrée
On dit que la courbe possède une tangente au point M (t0 ) lorsqu’il existe un vecteur →

u (t) directeur de la droite

− →

(M (t)M (t0 )) et un vecteur u NON-NUL tel que lim u (t) = u .→

t→t0
La droite passant par M (t ) et dirigée par →
0

u est appelée tangente à la courbe en M (t ). 0

Remarque 10.80 :
Le vecteur →

u (t) est un vecteur directeur de la sécante à la courbe en M (t) et M (t0 ).
Théorème 10.81 : tangente en un point régulier


Soit M (t0 ) un point régulier d’une courbe paramétrée (I, f ) de classe C 1 , c’est-à-dire f 0 (t0 ) 6= 0 .
Alors la courbe possède une tangente au point M (t0 ) dirigée par le vecteur f 0 (t0 ).

Remarque 10.82 :

Fénelon Sainte-Marie – La Plaine-Monceau 115/230 28 août 2020


10.4. ARCS PARAMÉTRÉS MP 2020-21

1. La courbe définie sur R par   


−1/t2


 e , 0 si t > 0,
f (t) = (0,
  0)  si t = 0,
 0, e−1/t2

si t < 0,

est de classe C ∞ mais ne possède pas de tangente en l’origine M (0). En effet si t > 0 les vecteurs directeurs de
la tangente sont de la forme →

u + (t) = (at , 0) et si t < 0 ils sont de la forme →

u − (t) = (0, bt ) ; et ces deux vecteurs
ne peuvent pas tendre vers un même vecteur non-nul.



2. Il se peut que f 0 (t0 ) = 0 mais que malgré tout la courbe admette une tangente en M (t0 ). Par exemple considérer
f (t) = (t2 , t2 ).
On peut malgré tout effectuer l’étude locale complète en un tel point, à l’aide des développements limités, mais
ceci est hors-programme. Un tel point est dit stationnaire.

Voyons déjà pour l’existence d’une tangente en un point stationnaire, quand l’arc est de classe C k :
Proposition 10.83 : tangente à un arc paramétré de classe C k
Soit (I, f ) un arc paramétré de classe C k avec k ≥ 1. Soit t0 ∈ I. On suppose que :

∀i ∈ {1, . . . , k − 1}, f (i) (t0 ) = 0 et f (k) (t0 ) 6= 0.

Alors l’arc paramétré (I, f ) admet au point de paramètre t0 une tangente dirigée par f (k) (t0 ).

Remarque 10.84 :
détermination de la tangente à un arc — utile dans la pratique !
En M (t0 ), une fois un vecteur tangent f 0 (t0 ) calculé, on obtient facilement une équation de la tangente T (t0 ).
−−−−−→
En effet, un point M appartient à T (t0 ) si et seulement si les vecteurs M M (t0 ) et f 0 (t0 ) sont colinéaires, c’est-à-dire
−−−−−→
det(M M (t0 ), f 0 (t0 )) = 0.
0 0 0
Par exemple dans le plan, pour M (t0 ) de coordonnées (x0 , y0 ) et f (t0 ) de coordonnées (x0 , y0 ), on obtient
x − x x0
0 0
= 0, ou encore (x − x0 )y00 − (y − y0 )x00 = 0.

y − y0 y00

Définition 10.85 : branche infinie d’une courbe paramétrée


t→t
On dit que la courbe présente une branche infinie lorsque t → t0 (ou au voisinage de t0 ) lorsque kf (t)k −→0 +∞,
c’est-à-dire lorsqu’au moins une des fonctions coordonnées tend vers ±∞ quand t → t0 .
En particulier :
Définition 10.86 : droite asymptote à une courbe paramétrée
On dit que la droite D d’équation cartésienne ax + by + c = 0 est asymptote à la courbe au voisinage de t0 lorsque
t→t
d(M (t), D) −→0 0. Ceci est équivalent à :
t→t
ax(t) + by(t) + c −→0 0.
t→t
On peut généraliser à d’autres courbes asymptotes, comme des paraboles asymptotes (ax(t)2 + bx(t) + c − y(t) −→0 0),
etc.

Fénelon Sainte-Marie – La Plaine-Monceau 116/230 28 août 2020


CHAPITRE 10. FONCTIONS VECTORIELLES D’UNE VARIABLE RÉELLE MP 2020-21

Remarque 10.87 :
L’étude générale des points stationnaires et des branches infinies (en particulier des droites asymptotes), est offi-
ciellement hors-programme.

10.4.3 Exemple d’étude complète


t t3
Considérons la courbe f de coordonnées (x, y) définies par x(t) = , y(t) = .
1 − t4 1 − t4
1. L’ensemble de définition de f est Df = R \ {±1}.
2. Pour tout t 6= ±1, on a x(−t) = −x(t) et y(−t) = −y(t) ; ainsi la courbe est symétrique par rapport à l’origine.
On restreint l’étude à R+ ∩ Df = [0, 1[∪]1, +∞[.
   
1 1
De plus pour t 6= 0 on a x = −y(t) et y = −x(t) ; ainsi la courbe est symétrique par rapport à la
t t
1
seconde bissectrice. L’application ϕ : t 7→ envoie ]0, 1[ sur ]1, +∞[ donc on restreint l’étude à [0, 1[.
t
Une fois l’étude sur [0, 1[ achevée, il faudra effectuer la symétrie par rapport à la seconde bissectrice puis par
rapport à l’origine afin d’obtenir le tracé complet de la courbe.
3. Soit t ∈ [0, 1[. Alors

1 − t4 − t(−4t3 ) 3t4 + 1 3t2 (1 − t4 ) − t3 (−4t3 ) t6 + 3t2


x0 (t) = = , y 0 (t) = = ,
(1 − t4 )2 (1 − t4 )2 (1 − t4 )2 (1 − t4 )2

donc x0 > 0 et y 0 > 0. D’où le tableau des variations :

t 0 1

x0 (t) 1 + 0

y 0 (t) 0 + 0

+∞
x

0
+∞
y

On constate qu’en l’origine M (0) la tangente est horizontale.


4. (Hors-programme.)
Pour t → 1− on a x(t) → +∞ et y(t) → +∞, d’où l’existence d’une branche infinie au voisinage de t = 1. Pour
y(t) t→1
t 6= 0 : = t2 −→ 1 d’où une direction asymptotique d’équation y = x.
x(t)
t3 − t t2 − 1 −t t→1 1
Par ailleurs y(t) − 1 × x(t) = 4
= −t 2 2
= 2
donc y(t) − x(t) −→ − . Ainsi la droite
1−t (t − 1)(t + 1) 1+t 2
1
d’équation y = x − est asymptote à la courbe au voisinage de 1.
2
1 −t 1 1 + t2 − 2t (1 + t)2 1
Enfin y(t) − x(t) + = 2
+ = 2
= 2
donc y(t) − x(t) + > 0 et ainsi la courbe est
2 1+t 2 2(1 + t ) 1+t 2
au-dessus de son asymptote.

Fénelon Sainte-Marie – La Plaine-Monceau 117/230 28 août 2020


10.4. ARCS PARAMÉTRÉS MP 2020-21

5. Un petit dessin :

EPCC : exercices 10, 14, 15, 16, 56.

The end – chapitre 10

Fénelon Sainte-Marie – La Plaine-Monceau 118/230 28 août 2020


Chapitre 11

Séries entières

11.1 Définition et convergence


11.1.1 Série entière
Soit (an )n∈N une suite de nombres complexes.
Définition 11.1 : série entière
an z n . On appelle
P
On appelle série entière de la variable complexe z de coefficients (an )n∈N la série (de fonctions)
n
P
série entière de la variable réelle x de coefficients (an )n∈N la série (de fonctions) an x .
Remarque 11.2 :
1. Un polynôme est une série entière dont les coefficients sont nuls à partir d’un certain rang.
2. Les sommes partielles d’une série entière sont des polynômes.
an z n converge au moins pour z = 0 ; sa somme est alors a0 .
P
3. La série entière

11.1.2 Lemme d’Abel


Théorème 11.3 : lemme d’Abel
an z n une série entière et z0 un complexe non nul tel que la suite (an z0n )n soit bornée.
P
Soit
 n 
z
1. Pour tout complexe z : an z n = O .
z0
an z n est absolument convergente.
P
2. Pour tout complexe z tel que |z| < |z0 |, la série

11.1.3 Rayon de convergence


an z n une série entière. L’ensemble des réels positifs r tels que la suite (an rn )n soit bornée est un intervalle
P
Soit
contenant 0.
Définition 11.4 : rayon de convergence d’une série entière
an z n la borne supérieure (dans R) de cet intervalle :
P
On appelle rayon de convergence de la série entière

R = sup{r ∈ R+ , (an rn )n bornée}.

• Si R = 0, quel que soit z non nul, la suite (an z n )n n’est pas bornée : la série an z n est grossièrement divergente.
P

Elle ne converge que pour z = 0.


Exemple 11.5 :

119
11.1. DÉFINITION ET CONVERGENCE MP 2020-21

X
La série nn z n est grossièrement divergente pour tout z ∈ C∗ .

• Si R = +∞ : la suite (an rn )n est bornée pour tout r ∈ R+ . Pour tout complexe z, il existe r ∈ R+ tel que
an z n est absolument convergente pour tout z ∈ C.
P
|z| < r : la série
Exemple 11.6 :
X zn  n
r
La série est absolument convergente pour tout z ∈ C, car pour tout r > 0 la suite converge vers
n! n! n
0 donc est bornée.

• Si 0 < R < +∞ :
B Pour tout z ∈ C tel que |z| < R, il existe un réel r strictement compris entre |z| et R tel que la suite (an rn )n
an z n est absolument convergente.
P
soit bornée : la série
B Pour tout z ∈ C tel que |z| > R, la suite (an z n )n n’est pas bornée : la série an z n est grossièrement
P

divergente.
an z n : elle peut être convergente (absolument ou
P
B Pour |z| = R, on ne peut rien dire a priori de la série
non), ou divergente (grossièrement ou non).
Définition 11.7 : disque ouvert de convergence d’une série entière
Le disque ouvert de centre O de rayon R est appelé disque de convergence ; l’intervalle ] − R, R[ est appelé
intervalle de convergence.

? à l’intérieur du disque de convergence, la série converge absolument ;


? à l’extérieur du disque de convergence, la série diverge grossièrement ;
? sur le cercle de convergence, on ne peut généralement rien dire.

Cependant, deux résultats ne dépendent que


du module :
* si la série converge absolument en un
point du cercle, elle converge absolument
sur tout le cercle ;
* si la série diverge grossièrement en un
point du cercle, elle diverge grossière-
ment sur tout le cercle.

Remarque 11.8 :
an z n une série entière et R son rayon de convergence.
P
Soit
an z n converge pour z = z0 , alors R ≥ |z0 |.
P
1. Si la série
an z n diverge pour z = z1 alors R ≤ |z1 |.
P
2. Si la série
an z n converge non absolument pour z = z2 , alors R = |z2 |.
P
3. Si la série
4. Si la suite (an z n )n est bornée pour z = z0 , alors R ≥ |z0 |.
5. Si la suite (an z n )n ne converge pas vers 0 pour z = z1 , alors R ≤ |z1 |.

Fénelon Sainte-Marie – La Plaine-Monceau 120/230 28 août 2020


CHAPITRE 11. SÉRIES ENTIÈRES MP 2020-21

6. Si la suite (an z n )n est bornée mais ne converge pas vers 0 pour z = z2 , alors R = |z2 |.

Exemple 11.9 :
X zn
1. La série est semi-convergente pour z = −1 : son rayon de convergence est R = 1. Elle diverge pour z = 1.
n
X zn
2. La série converge absolument pour z = 1 : son rayon de convergence R est supérieur ou égal à 1 ; la suite
 n n2
z
ne converge pas vers 0 dès que |z| > 1 : R ≤ 1. En définitive, R = 1. Comme elle converge absolument
n2 n
au point R, elle converge absolument sur tout le cercle de convergence.
zn zn n

≤ |z| : cette suite est bornée pour z = 2, mais elle ne converge pas vers 0,
X
3. :
(3 + (−1)n )n (3 + (−1)n )n 2n
donc R = 2. Comme la série diverge grossièrement pour z = 2, elle diverge grossièrement sur tout le cercle de
convergence.

Le rayon de convergence peut être caractérisé de différentes façons :

R = sup { r ∈ R+ / (an rn )n , bornée} (définition)

R = sup { r ∈ R+ / (an rn )n , converge vers 0}

an rn , converge}
P
R = sup { r ∈ R+ /

an rn , converge absolument}.
P
R = sup { r ∈ R+ /

11.1.4 Règle de d’Alembert pour les séries entières


De la règle de d’Alembert sur les suites numériques, on déduit :
Théorème 11.10 : règle de d’Alembert pour les séries entières
an z n une série entière telle que :
P
Soit
• pour tout n ∈ N, an 6= 0 ;
 
an+1
• la suite
admet une limite ` dans R.
an n
1
Alors le rayon de convergence de cette série entière est : R = . (En d’autres termes R = 0 si ` = +∞ et R = +∞ si
`
` = 0.)

Exemple 11.11 :
X n! n! an+1
1. n
z n . an = n 6= 0, et lim = e−1 , d’où R = e.
n n n→+∞ an
X n!
2. z 2n . Ici, la règle de d’Alembert ne peut pas s’appliquer directement, car les coefficients de rang impair
nn
sont nuls. Cependant, d’après l’exemple précédent, la série converge pour |z 2 | < e et diverge pour |z 2 | > e. Son

rayon de convergence est donc R = e.

Remarque 11.12 :
Dans le cas où certains coefficients de la série entière s’annulent, on parle de série lacunaire. Il est conseillé de
revenir à la règle de d’Alembert des séries numériques (en incluant la puissance de z dans le calcul) et de refaire la
démarche de la démonstration.
Exemple 11.13 : X 2
Déterminer le rayon de convergence R de la série entière n!z n .

Remarque 11.14 :
Attention, la réciproque du théorème est fausse.

Fénelon Sainte-Marie – La Plaine-Monceau 121/230 28 août 2020


11.2. OPÉRATIONS SUR LES SÉRIES ENTIÈRES MP 2020-21

 
an+1 1
Ce n’est pas parce qu’une série a pour rayon de convergence R que la suite converge et a pour limite .
an n R
En fait on n’est même pas assurés que cette suite converge. . .
Exemple 11.15 :  nπ 
z n a pour rayon de convergence 1, mais le quotient de deux termes consécutifs n’est
P
La série entière cos
3
1
pas de limite = 1.
1

11.2 Opérations sur les séries entières


11.2.1 Somme de deux séries entières
an z n et bn z n deux séries entières de rayons de convergence respectifs R et R0 . Que peut-on
P P
Soit
dire du rayon de convergence R00 de la série entière (an + bn )z n ?
P

Si z est un nombre complexe tel que |z| < min (R, R0 ), les deux séries an z n et bn z n convergent, donc (an +bn )z n
P P P

converge : R00 ≥ min (R, R0 ).


Supposons R < R0 : si z est un nombre complexe tel que R < |z| < R0 , an z n diverge et bn z n converge, donc
P P

(an + bn )z n diverge : R00 = R = min (R, R0 ).


P

Si R = R0 , il se peut que R00 > min (R, R0 ) : par exemple, z n et ( 71n −1)z n ont toutes deux un rayon de convergence
P P

égal à 1, mais le rayon de convergence de leur somme est 7.

Conclusion :
 Si R 6= R0 , R00 = min (R, R0 ).
 Si R = R0 , R00 ≥ min (R, R0 ).
Mais on ne peut rien dire de plus précis, sauf au cas par cas.

11.2.2 Produit de Cauchy de deux séries entières


an z n et bn z n deux séries entières de rayons de convergence respectifs R et R0 . Leur produit de Cauchy
P P
Soit
est :
n
XX
(aj bn−j )z n .
n j=0

C’est encore une série entière. Il est à noter que ce produit prolonge celui de deux polynômes.
Pour |z| < min (R, R0 ), les deux séries an z n et bn z n convergent absolument, par conséquent leur produit de
P P

Cauchy converge absolument et sa somme est le produit des deux sommes :


+∞ X
n +∞
! +∞
!
X X X
|z| < min (R, R0 ) =⇒ (aj bn−j )z n = an z n an z n . (1)
n=0 j=0 n=0 n=0

On en déduit que le rayon de convergence du produit de Cauchy est supérieur ou égal à min (R, R0 ), mais l’égalité (1)
n’a de sens que dans le disque ouvert de rayon min (R, R0 ).
Attention : ici, même si R 6= R0 , on n’a pas nécessairement R00 = min (R, R0 ). Par exemple :
X X
zn : R = 1; 1−z : R0 = +∞; ( z n )(1 − z) = 1 : R00 = +∞.

Mais l’égalité (1) n’a de sens ici que pour |z| < 1.

Fénelon Sainte-Marie – La Plaine-Monceau 122/230 28 août 2020


CHAPITRE 11. SÉRIES ENTIÈRES MP 2020-21

11.2.3 Exemple de la fonction exponentielle


P zn
La série entière a un rayon de convergence infini (d’après le règle de d’Alembert). On a :
n!
+∞ n
X z
∀z ∈ C exp(z) = .
n=0
n!

P zn P z 0n
En effectuant le produit de Cauchy de et , on obtient :
n! n!
∀(z, z 0 ) ∈ C2 exp(z) exp(z 0 ) = exp(z + z 0 ).

En séparant les parties paire et impaire, on obtient :


+∞ +∞
X z 2n X z 2n+1
ch z = sh z = .
n=0
(2n)! n=0
(2n + 1)!

De même :
+∞ +∞
X z 2n 1 X z 2n+1
cos z = ch iz = (−1)n sin z = sh iz = (−1)n .
n=0
(2n)! i n=0
(2n + 1)!

11.3 Étude sur le disque ouvert de convergence


11.3.1 Convergence normale sur tout disque fermé du disque de convergence
Théorème 11.16 : convergence normale sur tout disque fermé du disque ouvert de convergence
an z n , de rayon de convergence R, est normalement convergente sur tout disque fermé inclus
P
La série entière
dans son disque ouvert de convergence, c’est-à-dire sur tout disque D(0, r) avec r < R.

Remarque 11.17 :
Attention : ce résultat n’implique pas la convergence normale de la série entière sur tout son disque de convergence.

Exemple 11.18 :
n
1 X 1
xk −
P n
La série x ne converge pas normalement vers sur ] − 1, 1[, car la différence Rn (x) = =
1−x 1−x
k=0
1 − xn+1 − 1 −xn+1
= n’est pas bornée pour x ∈] − 1, 1[.
1−x 1−x

11.3.2 Continuité de la somme


Comme une série entière est normalement convergente sur tout disque fermé inclus dans son disque de convergence,
sa somme est continue en tout point de ce disque ouvert.

11.4 Série entière d’une variable réelle


11.4.1 Dérivation terme à terme
Théorème 11.19 : dérivation d’une série entière
an xn une série entière de la variable réelle x, de rayon de convergence R.
P
Soit
nan xn−1 a le même rayon de convergence R, et si R > 0 :
P
Alors la série entière
+∞
!0 +∞
X X
n
∀x ∈] − R, R[, an x = nan xn−1 .
n=0 n=1

Fénelon Sainte-Marie – La Plaine-Monceau 123/230 28 août 2020


11.5. DÉVELOPPEMENT EN SÉRIE ENTIÈRE MP 2020-21

La somme de la série entière est donc de classe C 1 sur ] − R, R[.

an xn a toujours le même rayon de


P
Plus généralement, la série obtenue en dérivant k fois terme à terme la série
convergence R et :
+∞
!(k) +∞
X
n
X n!
∀x ∈] − R, R[ an x = an xn−k .
n=0
(n − k)!
n=k

La somme de la série entière est donc de classe C ∞ sur ] − R, R[. La série entière est la série de Taylor de sa somme S :

S (n) (0)
∀n ∈ N, an = .
n!
Remarque 11.20 :
Pour montrer qu’une fonction est de classe C ∞ sur un intervalle ] − R, R[, il suffit de montrer que c’est la somme
d’une série entière de rayon de convergence supérieur ou égal à R.
Exemple 11.21 :
+∞
ln(1 − x) X −xn
La fonction f : x 7→ est la somme de la série entière , dont le rayon de convergence est 1. Elle
x n=0
n+1
peut donc être prolongée en 0 en une fonction de classe C ∞ sur ] − 1, 1[.
Remarque 11.22 :
+∞
X +∞
X
Si deux fonctions f : x 7→ an xn et g : x 7→ bn xn coïncident sur un voisinage de 0, alors pour tout n :
n=0 n=0
an = bn .
En effet on a f = g au voisinage de 0, donc f (n) = g (n) au voisinage de 0, d’où f (n) (0) = g (n) (0) pour tout n, puis
an = bn pour tout n.

11.4.2 Intégration terme à terme


Théorème 11.23 : intégration d’une série entière
an xn une série entière de la variable réelle x, de rayon de convergence R.
P
Soit
P an n+1
Alors la série entière x a le même rayon de convergence R, et si R > 0 :
n+1
Z x X +∞
! +∞
X an n+1
∀x ∈] − R, R[ an tn dt = x .
0 n=0 n=0
n +1

Exemple 11.24 :
+∞ +∞ n
X 1 X x
De xn = pour x ∈] − 1, 1[ , on déduit = − ln(1 − x) pour x ∈] − 1, 1[ .
n=0
1 − x n=1
n

11.5 Développement en série entière


11.5.1 Fonction développable en série entière
Définition 11.25 : fonction développable en série entière
Soit r > 0. Une fonction f définie sur un intervalle ] − r, r[ est dite développable en série entière sur ] − r, r[ si elle
est la somme d’une série entière de rayon de convergence supérieur ou égal à r :
+∞
X
∀x ∈] − r, r[, f (x) = an xn .
n=0

Fénelon Sainte-Marie – La Plaine-Monceau 124/230 28 août 2020


CHAPITRE 11. SÉRIES ENTIÈRES MP 2020-21

Nous avons vu que f est alors de classe C ∞ sur ] − r, r[ et que la série entière est sa série de Taylor :
+∞ (n)
X f (0) n
∀x ∈] − r, r[, f (x) = x .
n=0
n!

Remarque 11.26 :
Réciproquement, toute fonction de classe C ∞ sur ] − r, r[ n’est pas nécessairement développable en série entière. Sa
série de Taylor peut avoir un rayon de convergence nul, ou converger dans ] − r, r[ vers une fonction différente de f .
1
Par exemple, la fonction f : x 7→ e− x2 , prolongée en 0 par f (0) = 0, est de classe C ∞ sur R, mais sa série de Taylor
est la série nulle, de rayon de convergence infini : f n’est pas développable en série entière.
Pour prouver qu’une fonction de classe C ∞ est développable en série entière, il faut prouver que le reste de Taylor
converge vers 0, par exemple à l’aide de l’inégalité de Taylor-Lagrange.
Voyons une autre méthode pour obtenir le développement en série entière d’une fonction de classe C ∞ : à l’aide
d’une équation différentielle.
Exemple 11.27 :
Soit f la fonction définie sur R par : f (x) = earctan x . Démontrer que f est développable en série entière au voisinage
de 0.

Remarque 11.28 :
Si |an | ≤ |bn | pour tout n alors R ( an z n ) ≥ R ( bn z n ).
P P

En effet soit z tel que |z| < R = R ( bn z n ). Alors bn z n converge. Or |an z n | ≤ |bn z n | donc an z n converge,
P P P
n n
P P
d’où R ( an z ) ≥ R ( bn z ).

11.5.2 Développements en série entière usuels


La fonction exponentielle est par définition développable en série entière sur R :
+∞ n
X x
∀x ∈ R, ex = .
n=0
n!

On en déduit :
+∞ +∞
X x2n X x2n+1
∀x ∈ R ch x = sh x =
n=0
(2n)! n=0
(2n + 1)!
+∞ +∞
X x2n X x2n+1
∀x ∈ R cos x = (−1)n sin x = (−1)n
n=0
(2n)! n=0
(2n + 1)!

On sait de même que :


+∞ +∞
1 X 1 X
∀x ∈] − 1, 1[ = xn = (−1)n xn
1 − x n=0 1 + x n=0

On en déduit par intégration :


+∞ n +∞
X x X xn
∀x ∈] − 1, 1[ ln(1 − x) = − ln(1 + x) = (−1)n+1
n=1
n n=1
n

+∞
1 X
De plus = (−1)n x2n pour x ∈] − 1, 1[ donne par intégration
1 + x2 n=0

+∞
X (−1)n 2n+1
arctan(x) = x pour x ∈] − 1, 1[.
n=0
2n + 1

Fénelon Sainte-Marie – La Plaine-Monceau 125/230 28 août 2020


11.5. DÉVELOPPEMENT EN SÉRIE ENTIÈRE MP 2020-21

Théorème 11.29 : formule du binôme généralisée


Pour tout réel α, la fonction x 7→ (1 + x)α est développable en série entière, au moins sur ] − 1, 1[ :

+∞
X α(α − 1) · · · (α − n + 1) n
∀x ∈] − 1, 1[, (1 + x)α = x .
n=0
n!

Exemple 11.30 :
+∞
1 √ x x2 X (2n − 2)!
Pour α = : ∀x ∈] − 1, 1[, 1+x = 1+ − + ··· = 1 + (−1)n−1 2n−1 xn .
2 2 8 n=1
2 n!(n − 1)!

EPCC : exercices 2, 19, 20, 21, 22, 23, 24, 47, 51.

The end – chapitre 11

Fénelon Sainte-Marie – La Plaine-Monceau 126/230 28 août 2020


Chapitre 12

Intégration sur un intervalle quelconque

L’objet de ce chapitre est d’étendre la notion d’intégrale au cas des fonctions continues par morceaux sur un
intervalle I qui n’est pas un segment i.e. du type :

]a, b], [a, b[, ] − ∞, b], [a, +∞[, ]c, d[

avec −∞ < a < b < +∞ et −∞ < c < d < +∞.


Nous allons étudier deux notions différentes. Dans la première section nous examinerons les intégrales impropres,
dans les sections suivantes les fonctions intégrables ; cette seconde notion est le coeur de ce chapitre.

12.1 Intégrales impropres


12.1.1 Intégrales impropres sur un intervalle semi-ouvert
Dans cette section l’intervalle [a, b[ est tel que b ≤ +∞, mutatis mutandis avec l’intervalle ]a, b] auquel s’étendent
toutes les définitions et les résultats.
Définition 12.1 : intégrale impropre convergente
Soit f une fonction continue par morceaux sur [a, b[ à valeurs complexes.
Z b
On dit que l’intégrale impropre f (t)dt converge lorsque la fonction Fa : [a, b[→ C définie par :
a
Z x
Fa (x) = f (t)dt
a

possède une limite en b. S’il en est ainsi, cette limite est notée :
Z b
f (t)dt.
a
Z b
Dans le cas contraire on dit que l’intégrale impropre f (t)dt diverge.
a
Proposition 12.2 : cohérence de la notation pour b < +∞
Soit f une fonction continue par morceaux sur [a, b[ à valeurs complexes avec b < +∞. Si f possède une limite à
Z b
˜
gauche en b elle se prolonge en une fonction f continue par morceaux sur le segment [a, b]. L’intégrale f (t)dt est
a
alors convergente et
Z b Z b
f (t)dt = f˜(t)dt.
a a

127
12.1. INTÉGRALES IMPROPRES MP 2020-21

Remarque 12.3 :
Dans cette situation on dit souvent que l’intégrale est faussement impropre ou faussement généralisée en b.
Exemple 12.4Z :
1
sin t
L’intégrale dt est faussement impropre en 0.
0 t
Proposition 12.5 : localisation, reste
Z b
Soit f une fonction continue par morceaux sur [a, b[ à valeurs complexes et c ∈]a, b[. L’intégrale impropre f (t)dt
Z b a

converge si et seulement si l’intégrale impropre f (t)dt converge et, dans ce cas :


c
Z b Z c Z b
f (t)dt = f (t)dt + f (t)dt.
a a c

Définition 12.6 : reste d’une intégrale impropre convergente


L’application de [a, b[ dans C définie par :
Z b
x 7→ f (t)dt
x

est appelée reste (ou queue) de l’intégrale impropre convergente.


Remarque 12.7 :
Z b
Cette application x 7→ f (t)dt, qui tend vers 0 lorsque x → b, a les mêmes propriétés de régularité que l’ap-
Rx x
plication x 7→ a f (t)dt étudiée dans la section 2.4 (primitive d’une fonction continue) du chapitre 12 (fonctions
vectorielles).
Proposition 12.8 : linéarité de l’intégrale (intervalle semi-ouvert)
Soit f et g deux fonctions continues par morceaux sur [a, b[ à valeurs complexes ; λ et µ deux complexes. On
Z b Z b Z b
suppose que les intégrales f (t)dt et g(t)dt convergent. Alors l’intégrale impropre (λf + µg) (t)dt converge
a a a
et : Z b Z b Z b
(λf + µg) (t)dt = λ f (t)dt + µ g(t)dt.
a a a

12.1.2 Intégrales impropres sur un intervalle ouvert


Définition 12.9 : intégrale impropre sur un intervalle ouvert
Soit f une application continue par morceaux d’un intervalle ]a, b[, −∞ ≤ a < b ≤ +∞, dans C. Les propriétés
suivantes sont équivalentes :
Z c Z b
(i) Il existe c ∈]a, b[ tel que les intégrales impropres f (t)dt et f (t)dt convergent.
a c
Z c Z b
(ii) Pour tout c ∈]a, b[, les intégrales impropres f (t)dt et f (t)dt convergent.
a c
Z c Z b
Si tel est le cas, la somme des deux intégrales impropres : f (t)dt + f (t)dt ne dépend pas de c. On la note :
a c
Z b
f (t)dt.
a

Fénelon Sainte-Marie – La Plaine-Monceau 128/230 28 août 2020


CHAPITRE 12. INTÉGRATION SUR UN INTERVALLE QUELCONQUE MP 2020-21

Proposition 12.10 : linéarité de l’intégrale (sur un intervalle ouvert)


Soit f et g deux fonctions continues par morceaux sur ]a, b[ à valeurs complexes ; λ et µ deux complexes. On
Z b Z b Z b
suppose que les intégrales f (t)dt et g(t)dt convergent. Alors l’intégrale impropre (λf + µg) (t)dt converge
a a a
et : Z b Z b Z b
(λf + µg) (t)dt = λ f (t)dt + µ g(t)dt.
a a a

12.1.3 Une propriété séquentielle


Le résultat suivant est surtout intéressant dans les situations théoriques. La réciproque est vraie mais sort du cadre
de ce cours.
Proposition 12.11 : une propriété séquentielle de la convergence d’une intégrale
Soit f une fonction continue par morceaux sur un intervalle I à valeurs complexes. Désignons par a et b les bornes
Z b
de I : −∞ ≤ a < b ≤ +∞. Si l’intégrale f (t)dt est convergente alors quelles que soient les suites (an )n et (bn )n
a
d’éléments de I telles que :
lim an = a et lim bn = b
n→+∞ n→+∞
on a Z bn Z b
lim f (t)dt = f (t)dt.
n→+∞ an a

12.2 Intégration sur un intervalle quelconque


12.2.1 Fonctions intégrables positives
Soit f une fonction à valeurs réelles positives continue par morceaux sur un intervalle I quelconque (pas nécessai-
rement un segment).
Définition 12.12 : fonction intégrable
On dit que f est intégrable sur I si les intégrales de f sur les segments inclus dans I sont majorées :
Z b !
2
∃M ∈ R+ / ∀(a, b) ∈ I , (a < b) =⇒ f (t)dt ≤ M .
a

On définit alors l’intégrale de f sur I comme la borne supérieure des intégrales de f sur les segments inclus dans I :
Z Z
f = sup f.
I [a,b]⊂I [a,b]

Exemple 12.13 :
1. Une fonction f positive et continue par morceaux sur [a, b] est intégrable sur [a, b] ; elle est aussi intégrable sur
]a, b[, ]a, b], [a, b[, et les quatre intégrales sont égales.
1
2. La fonction x 7→ √ est intégrable sur ]0, 1], car :
x
Z b
dx √ √
∀(a, b) ∈]0, 1]2 avec a < b : √ = 2( b − a) ≤ 2
a x
Z
1
et √ = 2, car on peut prendre b = 1 et a aussi près que l’on veut de 0.
]0,1] x

Fénelon Sainte-Marie – La Plaine-Monceau 129/230 28 août 2020


12.2. INTÉGRATION SUR UN INTERVALLE QUELCONQUE MP 2020-21

3. La fonction x 7→ e−x est intégrable sur [0, +∞[, car :


Z b
∀(a, b) ∈ [0, +∞[ 2
avec a < b : e−x dx = e−a − e−b ≤ 1
a
Z
et e−x = 1 car on peut prendre a = 0 et e−b aussi petit que l’on veut.
[0,+∞[

12.2.2 Critères d’intégrabilité


Théorème 12.14 : une condition d’intégrabilité : le critère de domination
Soit f une fonction positive continue par morceaux sur un intervalle I. Si f est dominée sur I par une fonction
intégrable sur I, elle est intégrable sur I.

Exemple 12.15 :
x2
La fonction x 7→ e− x+1 est intégrable sur [0, +∞[, car elle est majorée par e1−x , donc dominée par e−x qui est
intégrable sur [0, +∞[.
Théorème 12.16 : une condition d’intégrabilité en termes de limites
2
Z (a, b) ∈ R , et soit c ∈]a, b[.
Soit f une fonction positive continue par morceaux sur un intervalle ]a, b[ avec
x
La fonction f est intégrable sur ]a, b[ si et seulement si la fonction F : x 7→ f (t) dt admet des limites finies en
c
a et en b. On a alors : Z
f = lim F (x) − lim F (x).
]a,b[ x→b x→a

Exemple 12.17 :
1
1. Montrer que la fonction x 7→ ln est intégrable sur ]0, 1[ et calculer son intégrale.
x − x2
1
2. Montrer que la fonction t 7→ est intégrable sur ] − ∞, +∞[ et calculer son intégrale.
1 + t2

Remarque 12.18 : Z x
Attention : il ne suffit pas que l’intégrale f (t) dt admette une limite finie quand x tend vers +∞ pour que f
−x
soit intégrable sur ] − ∞, +∞[. Il faut queZ les deux limites soient finies indépendamment l’une de l’autre.
x
t
Exemple : f (t) = . Alors lim f (t) dt = 0 et pourtant f n’est pas intégrable sur ] − ∞, +∞[.
1 + t2 x→+∞ −x

12.2.3 Exemples de référence


1
Théorème 12.19 : intégrabilité de x 7→

1
Soit a > 0 et α ∈ R. On considère la fonction fα : x 7→ α .
x
• fα est intégrable sur [a, +∞[ si et seulement si α > 1 ;
• fα est intégrable sur ]0, a] si et seulement si α < 1.

En utilisant le théorème 12.19, on peut comparer une fonction avec fα , au voisinage de la borne considérée :
? si f est une fonction positive continue par morceaux sur [a, +∞[,
B s’il existe α > 1 tel que f (x) = O( x1α ) au voisinage de +∞, f est intégrable sur [a, +∞[ ;
1
B s’il existe α ≤ 1 tel que xα = O(f (x)) au voisinage de +∞, f n’est pas intégrable sur [a, +∞[ ;

Fénelon Sainte-Marie – La Plaine-Monceau 130/230 28 août 2020


CHAPITRE 12. INTÉGRATION SUR UN INTERVALLE QUELCONQUE MP 2020-21

? si f est une fonction positive continue par morceaux sur ]0, a],
B s’il existe α < 1 tel que f (x) = O( x1α ) au voisinage de 0, f est intégrable sur ]0, a] ;
1
B s’il existe α ≥ 1 tel que xα = O(f (x)) au voisinage de 0, f n’est pas intégrable sur ]0, a].
Exemple 12.20 :
1 1
1. La fonction x 7→ 4
est intégrable sur [0, +∞[ car elle est équivalente en +∞ à 4 .
1+x x
1 2 1 1 1
2. La fonction x 7→ √ sin est intégrable sur ]0, π ], car elle est dominée au voisinage de 0 par 1 .
x x x2
sin x 1
3. La fonction x 7→ 2 n’est pas intégrable sur ]0, π], car elle est équivalente en 0 à .
x x

12.2.4 Propriétés de l’intégrale


On montre facilement que l’ensemble des fonctions continues par morceaux positives intégrables sur I est stable
par addition et par multiplication par un scalaire positif. Ce n’est pas un espace vectoriel, car il s’agit uniquement de
fonctions positives !
R
L’application f 7→ I f est croissanteZ: si f et
Z g sont deux fonctions continues par morceaux telles que 0 ≤ f ≤ g,
si g est intégrable sur I, f l’est aussi et f≤ g (c’est un cas particulier du théorème 12.14).
I I
Théorème 12.21 : toute fonction positive continue d’intégrale
Z nulle est identiquement nulle
Soit f une fonction continue positive intégrable sur I. Si f = 0, alors f = 0.
I

12.2.5 Fonctions intégrables complexes


Définition 12.22 : fonction à valeur complexe intégrable
Une fonction f continue par morceaux sur un intervalle I à valeurs réelles ou complexes est dite intégrable sur I
si |f | est intégrable sur I.
Z Z Z
Si f est réelle, on note f = max (f, 0) et f = max (−f, 0), puis : f = f − f − .
+ − +

Z Z Z I I I

Si f est complexe, on note : f = <(f ) + i =(f ).


I I I
L’ensembleZdes fonctions continues par morceaux intégrables sur I est un espace vectoriel noté L1 (I, K), et l’ap-
plication f 7→ f est une forme linéaire sur L1 (I, K).
I
Si f est continue par morceaux intégrable sur I :
Z Z

f ≤ |f |.

I I

12.2.6 Changement de variable


On peut étendre aux intégrales sur un intervalle quelconque la formule de changement de variable vue en Première
Année pour les intégrales sur un segment :
Théorème 12.23 : changement de variable
Soit f une fonction intégrable sur un intervalle I à valeurs réelles ou complexes, et ϕ une bijection d’un intervalle
I 0 dans I, de classe C 1 sur I 0 .
Alors f ◦ ϕ · ϕ0 est intégrable sur I 0 et :
Z Z
f = f ◦ ϕ · |ϕ0 |.
I I0

Fénelon Sainte-Marie – La Plaine-Monceau 131/230 28 août 2020


12.3. CONVERGENCE EN MOYENNE, EN MOYENNE QUADRATIQUE MP 2020-21

Si I =]α, β[ et I 0 =]a, b[ avec a = lim ϕ−1 et b = lim ϕ−1 , alors :


α β

Z β Z b
f (t) dt = f ◦ ϕ (u) · ϕ0 (u) du.
α a

Exemple 12.24 :
Z +∞ −x
e
Calculer I = dx sous forme d’une intégrale sur un segment.
1 x

12.3 Convergence en moyenne, en moyenne quadratique


12.3.1 Norme de la convergence en moyenne
Les fonctions continues et intégrables sur un intervalle I à valeurs complexes constituent un sous-espace vectoriel
de C(I), que nous noterons CI 1 (I). Montrons que l’application :

N1 : CI 1 (I) → R Z
f 7→ N1 (f ) = |f |
I

est une norme sur CI1 (I) :


• Pour tout f ∈ CI1 (I), N1 (f ) ≥ 0.
• Si N1 (f ) = 0, comme la fonction |f | est continue et positive sur I, elle est nulle sur I et la fonction f aussi.
• Pour tout f ∈ CI1 (I) et tout λ ∈ K, N1 (λf ) = |λ|N1 (f ).
• Soit (f, g) ∈ CI1 (I)2 , alors :
Z Z Z Z
N1 (f + g) = |f + g| ≤ (|f | + |g|) ≤ |f | + |g| = N1 (f ) + N1 (g).
I I I I

N1 est appelée norme de la convergence en moyenne. Z


Une suite de fonctions (fn )n converge en moyenne vers une fonction f lorsque |fn − f | converge vers 0.
I

12.3.2 Norme de la convergence en moyenne quadratique


Définition 12.25 : fonction de carré intégrable
Une fonction f continue à valeurs complexes est dite de carré intégrable lorsque |f |2 est intégrable sur I.
L’ensemble des fonctions continues de carré intégrable sur I constitue un sous-espace vectoriel de C(I), noté CI 2 (I).
On peut définir dans cet espace un produit scalaire par :
Z
2
∀(f, g) ∈ CI 2 (I) , (f |g) = f g.
I

La norme hermitienne associée à ce produit scalaire est appelée norme de la convergence en moyenne quadratique :
Z  12
2
∀f ∈ CI 2 (I), kf k2 = |f | .
I
Z
Une suite de fonctions (fn )n converge en moyenne quadratique vers une fonction f lorsque |fn − f |2 converge
I
vers 0.

Fénelon Sainte-Marie – La Plaine-Monceau 132/230 28 août 2020


CHAPITRE 12. INTÉGRATION SUR UN INTERVALLE QUELCONQUE MP 2020-21

12.3.3 Lien entre les deux normes


Contrairement au cas de l’intégration sur un segment, sur un intervalle quelconque la convergence pour la norme
infinie, la convergence en moyenne et la convergence en moyenne quadratique sont indépendantes.
Exemple 12.26 :
1
1. Considérons la suite de fonctions (fn )n définies sur [0, +∞[ par : ∀x ∈ [0, n], fn (x) = et ∀x ∈]n, +∞[,
n
fn (x) = 0.
1 1
On a kfn k∞ = , kfn k1 = 1, kfn k2 = √ .
n n
Ainsi (fn )n converge vers la fonction nulle sur R+ : simplement, pour la norme infinie, en moyenne quadratique,
mais pas en moyenne. Bilan : 2 et ∞ .
2. Hélas on ne peut pas trouver de suite de fonctions qui : converge simplement, pour la norme infinie, en moyenne,
et pas en moyenne quadratique. Exercice ! Considérer αn = kfn k∞ → 0.
En d’autres termes : la convergence en norme ∞ et en norme 1 impliquent la convergence en norme 2.

3. La suite de fonctions (fn )n définies sur [0, +∞[ par : fn (0) = n, fn ( n12 ) = 0, affine sur [0, n12 ], nulle après.
√ 1 1
On a kfn k∞ = n, kfn k1 = √ , kfn k2 = √ .
2n n n
Ainsi (fn )n converge vers la fonction nulle sur R∗+ : simplement, en moyenne, en moyenne quadratique, mais pas
pour la norme infinie. Bilan : 1 et 2 .

   
1 1
4. La suite de fonctions (fn )n définies sur [0, +∞[ par : ∀x ∈ 0, , fn (x) = n et ∀x ∈ , +∞ , fn (x) = 0.
n n
√ 1
On a kfn k∞ = n, kfn k1 = √ , kfn k2 = 1.
n
Ainsi (fn )n converge vers la fonction nulle sur R∗+ : simplement, en moyenne, mais ni pour la norme infinie ni
en moyenne quadratique. Bilan : 1 .
1
5. La suite de fonctions (fn )n définies sur [0, +∞[ par : ∀x ∈ [0, n2 ], fn (x) = et ∀x ∈]n2 , +∞[, fn (x) = 0.
n
1
On a kfn k∞ = , kfn k1 = n, kfn k2 = 1.
n
Ainsi (fn )n converge vers la fonction nulle sur R+ : simplement, pour la norme infinie, mais ni en moyenne
quadratique ni en moyenne. Bilan : ∞ .
1
6. La suite de fonctions (fn )n définies sur [0, +∞[ par : ∀x ∈ [0, n], fn (x) = , et fn (n + 1) = 1, et nulle ailleurs.
n
1
On a kfn k∞ = 1, kfn k1 = 1, kfn k2 = √ .
n
Ainsi (fn )n converge vers la fonction nulle sur R+ : simplement et en moyenne quadratique, mais ni pour la
norme infinie ni en moyenne. Bilan : 2 .

Théorème 12.27 : produit de deux fonctions continues et de carré intégrable


Le produit de deux fonctions f et g continues de carré intégrable sur I est intégrable sur I et :

|(f |g)| ≤ N1 (f g) ≤ N2 (f )N2 (g).

Corollaire 12.28 : continuité du produit scalaire sur CI2 (I)


Le produit scalaire (f, g) 7→ (f |g) est une application continue de CI 2 (I)2 dans C.

Fénelon Sainte-Marie – La Plaine-Monceau 133/230 28 août 2020


12.4. SUITES ET SÉRIES DE FONCTIONS INTÉGRABLES MP 2020-21

12.4 Suites et séries de fonctions intégrables


12.4.1 Théorème de convergence dominée (intégration terme à terme d’une suite de
fonctions)
Attention : Contrairement à l’intégration sur un segment, la convergence uniforme d’une suite de fonctions
(fn )n intégrables
Z  Z  quelconque I vers une fonction intégrable sur I, ne suffit pas pour assurer que
surun intervalle
lim fn = lim fn .
n→+∞ I I n→+∞
Exemple 12.29 :
1
Considérons par exemple la suite de fonctions (fn )n définie sur R+ par : fn (x) =pour x ∈ [0, n] et fn (x) = 0 pour
n Z
x > n. La suite (fn )n converge uniformément vers la fonction nulle sur R+ et pourtant pour tout n ∈ N, fn = 1.
R+

Il nous faut donc un résultat plus puissant. Le théorème suivant est dû à Henri Lebesgue (1875-1941) :
Théorème 12.30 : théorème de convergence dominée (TCD)
Soit (fn )n une suite de fonctions à valeurs réelles ou complexes définies sur un intervalle I. On suppose que :
• Pour tout n ∈ N, la fonction fn est continue par morceaux sur I.
• La suite (fn )n converge simplement sur I vers une fonction continue par morceaux.
• Il existe une fonction ϕ continue par morceaux positive et intégrable sur I telle que pour tout n ∈ N : |fn | ≤ ϕ
(hypothèse de domination).
Z Z
Alors les fonctions fn et leur limite f sont intégrables sur I et : f = lim fn .
I n I
Conformément au programme, nous admettrons ce résultat sans démonstration.
Exemple 12.31 :
archi-classique !
Z +∞ −n Z +∞
x2 2

Pour tout n ∈ N , posons In = 1+ dx. Convergence de la suite (In )n ? En déduire e−x dx.
0 n 0

Remarque 12.32 :
Si l’intervalle I est borné (par exemple si c’est un segment), une fonction dominante ϕ constante peut convenir.
Exemple 12.33Z:
π
sin nt sin nt
Posons In = dt. Pour tout n ∈ N, la fonction fn : t 7→ est continue par morceaux sur ]0, π] et la
0 nt nt
sin nt
suite (fn )n converge simplement vers la fonction nulle. Or ∀(n, t) ∈ N×]0, π], ≤ 1, et la fonction t 7→ 1 est
nt
positive, continue par morceaux et intégrable sur ]0, π]. On peut conclure, d’après le théorème de convergence dominée,
que lim In = 0.
n→+∞

Théorème 12.34 : théorème de convergence dominée à paramètre continu, ou théorème d’existence


R
d’une limite sous le signe
Soit (fλ )λ∈J une famille de fonctions à valeurs réelles ou complexes définies sur un intervalle I. On suppose que :
• pour tout λ ∈ J, la fonction fλ est continue par morceaux sur I ;
• pour tout x ∈ I, la fonction λ 7→ fλ (x) admet une limite notée f (x) quand λ tend vers λ0 ∈ J dans R, et la
fonction f ainsi définie est continue par morceaux sur I ;
• il existe une fonction ϕ continue par morceaux positive et intégrable sur I telle que pour tout λ ∈ J : |fλ | ≤ ϕ
(hypothèse de domination).
Alors, les fonctions fλ et leur limite f sont intégrables sur I et :
Z Z
lim fλ = lim fλ .
I λ→λ0 λ→λ0 I

Fénelon Sainte-Marie – La Plaine-Monceau 134/230 28 août 2020


CHAPITRE 12. INTÉGRATION SUR UN INTERVALLE QUELCONQUE MP 2020-21

Exemple 12.35 :
Considérons la fonction f définie sur R∗+ × R+ par :
( 1
1
si t ≤ f (x, t) = (1 − xt) x
∀(x, t) ∈ R∗+ × R+ x
1
si t > x f (x, t) = 0

1. Esquisser le graphe de t 7→ f (x, t).


Z +∞
2. Calculer lim f (x, t)dt.
x→0 t=0

12.4.2 Intégration terme à terme d’une série de fonctions


Appliquons aux séries de fonctions le théorème de convergence dominée :
Théorème 12.36 : intégration terme à terme d’une série de fonctions
Soit (fn )n une suite de fonctions à valeurs réelles ou complexes définies sur un intervalle I. On suppose que :
• Pour tout n ∈ N, la fonction fn est continue par morceaux et intégrable sur I.
P
• La série fn converge simplement vers une fonction S continue par morceaux sur I.
Z
P
• La série |fn | converge.
I
Z +∞ Z
X
Alors la fonction S est intégrable sur I et : S = fn .
I n=0 I

Ce théorème sera également admis sans démonstration.


Exemple 12.37 :
ln x
Montrer que la fonction f : x 7→ est intégrable sur ]0, 1] et exprimer son intégrale sous la forme d’une série.
1 + x2

12.5 Intégrales dépendant d’un paramètre


12.5.1 Continuité sous le signe somme
R
Théorème 12.38 : continuité sous le signe
Soit f une fonction à valeurs réelles ou complexes définie sur A × I, où A est une partie de Rm et I un intervalle
de R. On suppose que :
• Pour tout x ∈ A, la fonction f (x, ·) : t 7→ f (x, t) est continue par morceaux sur I.
• Pour tout t ∈ I, la fonction f (·, t) : x 7→ f (x, t) est continue sur A.
• Hypothèse de domination. Il existe une fonction ϕ continue par morceaux, positive et intégrable sur I telle que :

∀(x, t) ∈ A × I |f (x, t)| ≤ ϕ(t).


Z
Alors pour tout x ∈ A, f (x, ·) est intégrable sur I, et la fonction F définie sur A par F (x) = f (x, t) dt est continue
I
sur A.

Remarque 12.39 :

Fénelon Sainte-Marie – La Plaine-Monceau 135/230 28 août 2020


12.5. INTÉGRALES DÉPENDANT D’UN PARAMÈTRE MP 2020-21

Z +∞
1. L’hypothèse de domination est essentielle : la fonction définie sur R+ par F (x) = xe−tx dt n’est pas continue
0
+∞
en 0, étant donné que F (0) = 0 alors que pour tout x > 0 : F (x) = [−e−tx ]t=0 = 1. En fait on ne peut pas
dominer t 7→ xe−tx par une fonction intégrable indépendante de x.
2. Il suffit que l’hypothèse de domination soit vérifiée sur toute boule fermée (segment dans le cas de R) de A : pour
toute boule fermée B incluse dans A, il existe une fonction ϕB continue par morceaux, positive et intégrable sur
I telle que pour tout (x, t) ∈ B × I, |f (x, t)| ≤ ϕB (t).

Exemple 12.40 :
Étudier la continuité sur R∗+ de la fonction F définie par :
Z +∞
1
∀x ∈ R∗+ , F (x) = dt.
0 x2 + E(t)2

Cas particulier où f est continue et l’intervalle I fermé borné :


R
Corollaire 12.41 : continuité sous le signe , version segment
Soit f une fonction à valeurs réelles ou complexes continue sur A × [a, b], où A est une partie de Rm , et [a, b] un
segment de R.
Z b
Alors la fonction F définie sur A par F (x) = f (x, t) dt est continue sur A.
a

Exemple 12.42 :
1
ln(1 + |x − t|)
Z
L’application x 7→ dt est continue sur R.
0 1 + t2
Remarque 12.43 :
Dans ce corollaire, la continuité par rapport à chacune des variables ne suffit pas.
Considérons par exemple la fonction f définie sur [0, 1]2 par :
xt
∀(x, t) ∈ [0, 1]2 f (x, t) = .
(x2 + t2 )2

Pour tout t ∈ [0, 1], la fonction x 7→ f (x, t) est continue sur [0, 1]. Pour tout x ∈ [0, 1], la fonction t 7→ f (x, t) est
continue sur [0, 1]. Cependant
Z 1
xt 1
∀x ∈]0, 1], F (x) = dt = et F (0) = 0,
0 (x2 + t2 )2 2x(x2 + 1)

donc F n’est pas continue en 0 ! Cela provient du fait que la fonction f n’est pas continue en (0, 0). En effet lim f (u, u) =
u→0
+∞).

12.5.2 Dérivation sous le signe somme


Théorème 12.44 : dérivation sous le signe somme
Soit f une fonction à valeurs réelles ou complexes définie sur A × I, où A et I sont des intervalles de R. On suppose
que :
• Pour tout x ∈ A, la fonction f (x, ·) est continue par morceaux et intégrable sur I .
∂f
• La fonction f admet sur A × I une dérivée partielle par rapport à la première variable .
∂x R
• Cette dérivée partielle vérifie les hypothèses du théorème 12.38 de continuité sous le signe :
∂f
B Pour tout x ∈ A, la fonction (x, ·) est continue par morceaux sur I.
∂x

Fénelon Sainte-Marie – La Plaine-Monceau 136/230 28 août 2020


CHAPITRE 12. INTÉGRATION SUR UN INTERVALLE QUELCONQUE MP 2020-21

∂f
B Pour tout t ∈ I, la fonction (·, t) est continue sur A.
∂x
fonction ϕ continue par morceaux, positive et intégrable sur I telle que pour tout (x, t) ∈ A×I,
B Il existe une
∂f
(x, t) ≤ ϕ(t) (hypothèse de domination).
∂x
Z
∂f
Alors (x, ·) est intégrable sur I et la fonction F définie sur A par : F (x) = f (x, t) dt est de classe C 1 sur A et :
∂x I
Z
∂f
∀x ∈ A, F 0 (x) = (x, t) dt (formule de Leibniz).
I ∂x

Remarque 12.45 :
Ici encore, il suffit que l’hypothèse de domination soit vérifiée sur tout segment de A : pour tout segment B inclus
dans
A, il existe une fonction ϕB continue par morceaux, positive et intégrable sur I telle que pour tout (x, t) ∈ B × I,
∂f
(x, t) ≤ ϕB (t).
∂x
Remarque 12.46 :
R
Comme corollaire du théorème de dérivation sous le signe et de la remarque précédente, on peut aussi énoncer
R
un théorème de dérivation p fois sous le signe . Les hypothèses sont alors :
∂if
• Intégrabilité de (x, · ) pour tout x ∈ J, pour tout i ∈ [[0, p − 1]].
∂xi
∂if
• Domination de (x, · ) (indépendamment de x) sur tout segment de J, pour tout i ∈ [[0, p − 1]].
∂xi
∂f
On a aussi le cas particulier où I est fermé borné et continue sur A × I :
R ∂x
Corollaire 12.47 : dérivation sous le signe , version segment
Soit f une fonction à valeurs réelles ou complexes définie par A × [a, b], où A est un intervalle de R et [a, b] un
segment. On suppose que :
• pour tout x ∈ A, la fonction f (x, ·) est continue par morceaux sur [a, b] ;
∂f
• f admet sur A × [a, b] une dérivée partielle continue sur A × [a, b].
∂x
Z b
Alors la fonction F définie sur A par : F (x) = f (x, t) dt est de classe C 1 sur A et :
a
Z b
0 ∂f
∀x ∈ A F (x) = (x, t) dt.
a ∂x

Exemple 12.48 : Z 1
sin(xt)
Montrer que la fonction F définie par : F (x) = dt est de classe C 1 sur R et calculer sa dérivée.
0 t

12.5.3 Application : la fonction Γ


Considérons la fonction Γ définie sur ]0, +∞[ par :
Z +∞
Γ(x) = e−t tx−1 dt.
0

Montrons que Γ est de classe C ∞ sur ]0, +∞[ et que Γ est convexe sur R∗+ .

Fénelon Sainte-Marie – La Plaine-Monceau 137/230 28 août 2020


12.5. INTÉGRALES DÉPENDANT D’UN PARAMÈTRE MP 2020-21

Théorème 12.49 : la fonction Γ prolonge la factorielle


Pour tout x ∈ R∗+ , Γ(x + 1) = x Γ(x).

Corollaire 12.50 : une jolie formule


Pour tout n ∈ N∗ , Γ(n) = (n − 1)!.

La fonction Γ est donc un prolongement à R∗+ de la factorielle qui n’est définie que sur les entiers.
Exemple 12.51 :
Déterminer les variations de la fonction Gamma sur R∗+ . On précisera les limites aux bornes, un équivalent de Γ
en 0 et la limite de Γ0 en 0.

EPCC : exercices 25, 26, 27, 28, 29, 30, 49, 50.

The end – chapitre 12

Fénelon Sainte-Marie – La Plaine-Monceau 138/230 28 août 2020


Chapitre 13

Espaces préhilbertiens réels

Dans tout le chapitre E est un R-espace vectoriel.

13.1 Formes bilinéaires — rappels de MPSI


13.1.1 Formes bilinéaires symétriques — rappels de MPSI
Définition 13.1 : forme bilinéaire, forme bilinéaire symétrique
1. Une forme bilinéaire sur E est une application ϕ de E × E dans R linéaire par rapport à chacune des deux
variables, c’est-à-dire telle que :
(a) Pour tout y ∈ E, l’application E → R, x 7→ ϕ(x, y) est linéaire.
(b) Pour tout x ∈ E, l’application E → R, y 7→ ϕ(x, y) est linéaire.
2. La forme bilinéaire ϕ : E 2 → R est dite symétrique lorsque pour tout (x, y) ∈ E 2 , ϕ(x, y) = ϕ(y, x).

Proposition 13.2 : l’espace des formes bilinéaires symétriques


L’ensemble des formes bilinéaires symétriques sur E est un sous-espace vectoriel de l’espace des applications de
E × E dans R, noté BS(E).

13.1.2 Expression matricielle en dimension finie — rappels de MPSI


Soit E un R-espace vectoriel de dimension n. Munissons E d’une base b = (e1 , . . . , en ). Considérons ϕ une forme
bilinéaire symétrique sur E. Pour tous vecteurs x et y de E :
n
X n
X n X
X n
x = xi ei ; y = yi ei ; ϕ(x, y) = xi yj ϕ(ei , ej ).
i=1 i=1 i=1 j=1
 
Notons Q la matrice ϕ(ei , ej ) , X et Y les matrices représentant les vecteurs x et y dans la base b. On
(i,j)∈[[1,n2 ]]
peut écrire :
ϕ(x, y) = t XQY.
Remarquons que la matrice Q est symétrique.
Définition 13.3 : matrice associée à une FBS
La matrice Q est dite associée à la forme bilinéaire symétrique ϕ dans la base b, notée Q = Mb (ϕ) = Mb (Φ).
Exemple 13.4 :
Déterminer la matrice dans la base canonique de la forme bilinéaire symétrique (A, B) 7→ tr (AB) définie sur
M2 (R)2 .

139
13.2. ESPACE PRÉHILBERTIEN RÉEL — RAPPELS DE MPSI MP 2020-21

Réciproquement, toute matrice symétrique Q définit une forme bilinéaire symétrique unique.
Proposition 13.5 : correspondance entre formes bilinéaires symétriques et matrices symétriques
L’application de BS(E) dans Sn (R) qui à la forme bilinéaire symétrique ϕ associe sa matrice dans la base b est un
isomorphisme. On en déduit que :
n(n + 1)
dim BS(E) = dim Sn (R) = .
2

Théorème 13.6 : changement de base pour une FBS


Soit E un R-espace vectoriel de dimension finie. Soit b et b0 deux bases de E et P la matrice de passage de b à
b . Considérons ϕ, une forme bilinéaire (pas forcément symétrique) sur E. Posons Q = Mb (ϕ) et Q0 = Mb0 (ϕ). Alors
0

Q0 = t P QP .

Définition 13.7 : matrices congruentes


On dit que deux matrices Q et Q0 de Mn (R) sont congruentes lorsqu’elles représentent la même forme bilinéaire
dans deux bases b et b0 .
Proposition 13.8 : tout est dit
La congruence est une relation d’équivalence dans Mn (R).

13.1.3 Formes bilinéaires symétriques positives, définies positives — rappels de MPSI


Définition 13.9 : FBS positive, définie positive
Soit ϕ une forme bilinéaire symétrique sur E.
1. La forme ϕ est dite positive lorsque pour tout x ∈ E, ϕ(x, x) ≥ 0.
2. La forme ϕ est dite définie positive lorsque de plus ϕ(x, x) = 0 implique x = 0.

Théorème 13.10 : inégalité de Cauchy-Schwarz — rappel de MPSI


Soit ϕ une forme bilinéaire symétrique positive sur un espace vectoriel réel E. Pour tous vecteurs x et y :
p p
ϕ(x, y) ≤ ϕ(x, x) · ϕ(y, y).

Si ϕ est définie positive, alors l’égalité est réalisée si et seulement si x et y sont colinéaires.

13.2 Espace préhilbertien réel — rappels de MPSI


Soit E un R-espace vectoriel.

13.2.1 Produit scalaire — définition et exemples — rappels de MPSI


Définition 13.11 : produit scalaire
On appelle produit scalaire sur E une forme bilinéaire symétrique définie positive. Un R-espace vectoriel muni d’un
produit scalaire est appelé espace préhilbertien réel. Le produit scalaire de deux vecteurs x et y est noté (x|y).
Exemple 13.12 :
1. Dans Rn , pour x = (x1 , . . . , xn ) et y = (y1 , . . . , yn ) : (x|y) = x1 y1 + · · · + xn yn .
n p min (n,p)
X X X
2. Dans R[X], pour P = ak X k et Q = bk X k : (P |Q) = ak bk .
k=0 k=0 k=0
Z
3. Dans l’ensemble C([a, b], R) des fonctions continues sur le segment [a, b] : (f |g) = f g.
[a,b]

Fénelon Sainte-Marie – La Plaine-Monceau 140/230 28 août 2020


CHAPITRE 13. ESPACES PRÉHILBERTIENS RÉELS MP 2020-21

Z
4. Dans l’ensemble CL2 (I, R) des fonctions continues et de carré intégrable sur un intervalle I : (f |g) = f g.
I
+∞
X
5. Dans l’ensemble `2 (N, R) des suites (un )n telles que la série u2n converge :
P
(u|v) = un vn .
n=0

13.2.2 Deux théorèmes — rappels de MPSI


Le produit scalaire étant une forme bilinéaire symétrique définie positive, il vérifie l’inégalité de Cauchy-Schwarz
et le cas d’égalité :
Théorème 13.13 : inégalité de Cauchy-Schwarz
Soit E un espace préhilbertien réel. Pour tous vecteurs x et y :

(x|y)2 ≤ (x|x) (y|y).

L’égalité est réalisée si et seulement si x et y sont colinéaires.


Théorème 13.14 : inégalité de Minkowski
p vectoriel muni d’un produit scalaire ( · | · ).
Soit E un R-espace
Alors N : x 7→ (x|x) est une norme sur E, appelée la norme euclidienne associée au produit scalaire.
Notation : Lorsqu’il n’y a pas ambigüité, on note kxk pour N (x).
Exemple 13.15 :
p
1. N2 : x = (x1 , . . . , xn ) 7→ x21 + · · · + x2n est la norme euclidienne sur Rn associée au produit scalaire usuel
X n
(défini par x · y = xi yi pour x = (xi ) et y = (yi ) vecteurs de Rn ).
i=1
p
2. N : (x1 , x2 ) 7→ x21 + 2x1 x2 + 3x22 est une norme euclidienne sur R2 .
y2 )) 7→ x1 y1 + x1 y2 + x2 y1 + 3x2 y2 est bilinéaire, symétrique, définie
On vérifie en effet que ϕ : ((x1 , x2 ), (y1 , p
positive, puis, pour tout x ∈ R2 , N (x) = ϕ(x, x).

Remarque 13.16 :
1. On rappelle qu’à une norme N sur E on peut associer une distance d : E × E → R+ définie par : ∀(x, y) ∈ E 2 ,
d(x, y) = N (x − y).
En particulier, la distance associée à une norme euclidienne est appelée une distance euclidienne.
2. On rappelle enfin qu’il existe des distances non euclidiennes, c’est-à-dire associées à aucune norme (par exemple
la distance discrète).

13.2.3 Propriétés des normes et produits scalaires — rappels de MPSI


Proposition 13.17 : identités de polarisation
Soit E un R-ev muni d’un produit scalaire et soit k · k la norme euclidienne associée. Pour tout (x, y) ∈ E 2 :
1. kx + yk2 = kxk2 + kyk2 + 2(x|y) ;
2. kx − yk2 = kxk2 + kyk2 − 2(x|y) ;
3. kx + yk2 − kx − yk2 = 4(x|y) ;

4. Identité du parallélogramme : kx + yk2 + kx − yk2 = 2 kxk2 + kyk2 .

Remarque 13.18 :
L’interprétation géométrique de l’identité du parallélogramme est : « dans un parallélogramme la somme des carrés
des longueurs des côtés est égale à la somme des carrés des longueurs des diagonales ».

Fénelon Sainte-Marie – La Plaine-Monceau 141/230 28 août 2020


13.3. ORTHOGONALITÉ — RAPPELS DE MPSI MP 2020-21

Remarque 13.19 :
Il existe des normes qui ne proviennent pas d’un produit scalaire (normes non-euclidiennes). Comment les repérer ?

Proposition 13.20 : CNS pour qu’une norme soit euclidienne


1 
Une norme N est euclidienne si et seulement si l’application (x, y) 7→ N (x + y)2 − N (x)2 − N (y)2 est un
2
produit scalaire.

Exemple 13.21 :
1. N1 : (x1 , . . . , xn ) 7→ |x1 | + · · · + |xn | est une norme non euclidienne sur Rn .
En effet, N1 ne vérifie pas l’identité du parallélogramme :
N (e1 + e2 )2 + N (e1 − e2 )2 = 8,
2 N (e1 )2 + N (e2 )2

= 4 6= 8.

2. N∞ : (x1 , . . . , xn ) 7→ max (|x1 |, . . . , |xn |) est une norme non euclidienne sur Rn .
En effet, N∞ ne vérifie pas non plus l’identité du parallélogramme :
N (e1 + e2 )2 + N (e1 − e2 )2 = 2,
2 N (e1 )2 + N (e2 )2

= 4 6= 2.

3. Pour une norme N , on appelle boule unité de N l’ensemble des vecteurs x tels que N (x) ≤ 1 et sphère unité de
N l’ensemble des vecteurs de norme 1. On a représenté ci-contre les sphères unités pour les trois normes N1 , N2 ,
N∞ de R2 . Saurez-vous identifier quelle « sphère » correspond à quelle norme ?

13.3 Orthogonalité — rappels de MPSI


13.3.1 Vecteurs orthogonaux — rappels de MPSI
Soit (E, ( · | · )) un espace préhilbertien réel ou complexe.

Fénelon Sainte-Marie – La Plaine-Monceau 142/230 28 août 2020


CHAPITRE 13. ESPACES PRÉHILBERTIENS RÉELS MP 2020-21

Définition 13.22 : orthogonal d’un vecteur


Soit x et y deux vecteurs de E. On dit que x est orthogonal à y lorsque (x|y) = 0. On note x ⊥ y.
Remarque 13.23 :
1. En fait, on ne fait qu’étendre la notion d’orthogonalité connue dans le plan et dans l’espace.
2. Le vecteur nul est orthogonal à tout vecteur de E puisque par bi- ou sesqui-linéarité, (x|0) = 0.

Exemple 13.24 :
Z 2π
0
1. Dans l’espace préhilbertien réel C ([0, 2π], R) muni de (f |g) = f (t)g(t)dt, on a :
0
Z 2π  2π
1
(cos | sin) = cos t sin tdt = sin2 t = 0
0 2 0

donc dans C 0 ([0, 2π], R) : sin ⊥ cos.


2. Dans Rn [X], la famille (1, X, . . . , X n ) est une base orthonormée pour le produit scalaire ( · | · )2 défini par
n
X Z 1
(P |Q)2 = ak bk , mais c’est une base ni orthogonale ni normée pour ( · | · ) défini par (P |Q) = P (t)Q(t)dt.
k=0 −1

Proposition 13.25 : propriété de Pythagore


Dans un espace préhilbertien (E, ( · | · )), étant donné (x, y) ∈ E 2 , il vient x ⊥ y ⇐⇒ kx + yk2 = kxk2 + kyk2 .

Remarque 13.26 :
Dans le cas complexe, la condition nécessaire reste valable : si x et y sont orthogonaux, alors kx+yk2 = kxk2 +kyk2 .
En effet, l’identité kx + yk2 = kxk2 + kyk2 + 2<(x|y) permet de conclure.

13.3.2 Sous-espaces orthogonaux — rappels de MPSI


Soit (E, ( · | · )) un espace préhilbertien réel ou complexe.
Définition 13.27 : orthogonal d’un vecteur
Soit x ∈ E. L’ensemble des vecteurs de E orthogonaux au vecteur x s’appelle l’orthogonal de x et se note x⊥ =
{y ∈ E; (x|y) = 0}.
Proposition 13.28 : le sous-espace orthogonal à un vecteur
L’ensemble x⊥ est un sous-espace vectoriel de E.

Remarque 13.29 :
Si E est de dimension finie et x ∈ E \{0}, alors, x⊥ étant le noyau d’une forme linéaire non nulle, c’est un hyperplan
de E. En particulier, l’orthogonal d’un vecteur non nul dans l’espace est un plan.
Définition 13.30 : orthogonal d’une partie
Soit A ⊂ E (A est une partie quelconque de E, pas nécessairement un sev) ; on appelle orthogonal de A l’ensemble
des vecteurs de E orthogonaux à tout vecteur de A : A⊥ = {y ∈ E; ∀a ∈ A, (a|y) = 0}.
Remarque 13.31 : \
On a donc A⊥ = a⊥ , or l’intersection de sev est un sev donc A⊥ est un sev de E, même si A n’est pas un sev !
a∈A

Exemple 13.32 : n
− →
→ − → − → −o − →
→ −
E = R3 et A = i + k , i + j . Un vecteur → −
w (x, y, z) appartient à A⊥ si et seulement si →

w · i + k = 0 et
→
− → −


w · i + j = 0, ce qui s’écrit x + z = 0 et x + y = 0, ou encore (x, y, z) = (x, −x, −x). Ainsi A⊥ est la droite de

− → − → −
vecteur directeur (1, −1, −1) = i − j − k .
Proposition 13.33 : propriétés de l’orthogonal d’une partie

Fénelon Sainte-Marie – La Plaine-Monceau 143/230 28 août 2020


13.3. ORTHOGONALITÉ — RAPPELS DE MPSI MP 2020-21

1. E ⊥ = {0} et {0}⊥ = E.
2. ∀(A, B) ∈ P(E)2 , A ⊂ B ⇒ B ⊥ ⊂ A⊥ .
3. Si G est une famille génératrice finie de F , alors G ⊥ = F ⊥ .
⊥
4. ∀A ∈ P(E), A ⊂ A⊥ .

Définition 13.34 : sous-espaces orthogonaux


Soit F et G deux sev de E. On dit que F et G sont des sev orthogonaux lorsque : ∀(x, y) ∈ F × G, (x|y) = 0,
autrement dit lorsque tout vecteur de F est orthogonal à tout vecteur de G. On note alors F ⊥ G.
Exemple 13.35 :
1. Dans R3 , soit la droite F = Re3 et le plan G = Vect(e1 − e2 , e1 + 2e2 ). Alors F ⊥ G. En fait, ici, F ⊥ = G.
Si H = Re1 , on a aussi F ⊥ H.
2. Dans R3 , soit F = Vect(e1 , e2 ) et G = Vect(e3 , e2 + e3 ). On n’a pas F ⊥ G mais par contre F ⊥ ⊥ G⊥ : les deux
droites sont orthogonales.
3. Si F et G sont deux sev orthogonaux alors F ⊂ G⊥ et G ⊂ F ⊥ .

Proposition 13.36 : intersection de sous-espaces orthognaux


Soit F et G deux sev orthogonaux de E. Alors F ∩ G = {0}.

13.3.3 Supplémentaire orthogonal — rappels de MPSI


Soit (E, ( · | · )) un espace préhilbertien réel ou complexe et F un sous-espace vectoriel de E. La somme F + F ⊥
est directe :
F + F ⊥ = F ⊕ F ⊥.
Définition 13.37 : supplémentaire orthogonal
Si la somme directe F ⊕ F ⊥ est égale à E, alors on dit que F ⊥ est le supplémentaire orthogonal de F .
Dans ce cas, on remarque que (F ⊥ )⊥ = F : il s’ensuit que F est le supplémentaire orthogonal de F ⊥ .
On dit alors que F et F ⊥ sont supplémentaires orthogonaux.
Remarque 13.38 :
Un sous-espace vectoriel ne possède pas toujours un supplémentaire orthogonal.
Par exemple dans R[X] (ou C[X]) muni du produit scalaire défini à l’exemple 13.12, second point (c’est-à-dire (P |Q) =
min (n,p)
X
ak bk ), l’orthogonal du sous-espace formé par les polynômes multiples de X − 1 est réduit à {0}. Ce sous-espace
k=0
n’a pas de supplémentaire orthogonal.

Fénelon Sainte-Marie – La Plaine-Monceau 144/230 28 août 2020


CHAPITRE 13. ESPACES PRÉHILBERTIENS RÉELS MP 2020-21

Théorème 13.39 : existence du supplémentaire orthogonal à un SEV de dimension finie


Soit E un espace préhilbertien réel. Tout sous-espace vectoriel de dimension finie possède un supplémentaire
orthogonal.

13.3.4 Familles orthogonales, orthonormales — rappels de MPSI


Soit (E, ( · | · )) un espace préhilbertien réel ou complexe. Soit (x1 , . . . , xp ) ∈ E p .
Définition 13.40 : famille orthogonale
1. (x1 , . . . , xp ) est une famille orthogonale de E lorsque : ∀i 6= j, xi ⊥ xj .
2. x ∈ E est normé ou unitaire lorsque kxk = 1.
(
2 1 si i = j
3. (x1 , . . . , xp ) est une famille orthonormale de E lorsque : ∀(i, j) ∈ {1, . . . , p} , (xi |xj ) = δij = .
0 6 j
si i =

Remarque 13.41 :
1
Tout vecteur x 6= 0 peut être normé en considérant x.
kxk
Exemple 13.42 : Z 2π
1
Dans C 0 ([0, 2π], R) muni de (f |g) = f (t)g(t)dt, on a déjà vu que sin ⊥ cos donc la famille (sin, cos) est
2π 0
1 √ √
orthogonale. De plus, on vérifie que k sin k = k cos k = √ donc ( 2 sin, 2 cos) est une famille orthonormale.
2
Proposition 13.43 : liberté d’une famille OG ne contenant pas 0E
Toute famille orthogonale ne contenant pas le vecteur nul est libre.

Corollaire 13.44 : propriétés des familles OG ou ON


1. Une famille orthonormée est libre.
2. Une famille orthogonale a au plus n vecteurs non nuls en dimension n.
3. Si une famille orthogonale a n vecteurs tous non nuls en dimension n, alors c’est une base de E. En particulier,
une famille orthonormée à n vecteurs en dimension n est une b.o.n.

Proposition 13.45 : relation de Pythagore pour une famille de p vecteurs orthogonaux


Soit (E, ( · | · )) un espace préhilbertien réel et (x1 , x2 , . . . , xp ) une famille de p vecteurs de E orthogonaux deux à
deux. Alors :
X 2
p p
X
xk = kxk k2 .



k=1 k=1

13.4 Projection orthogonale, distance à un SEV de dimension finie —


rappels de MPSI
Dans cette section, on considère un sous-espace vectoriel F de dimension finie de E.

13.4.1 Définition et exemple — rappels de MPSI


Définition 13.46 : projection orthogonale sur un SEV de dim. finie
Soit (E, ( · | · )) un espace préhilbertien réel et F un sev de E de dimension finie (donc admettant un supplémentaire
orthogonal F ⊥ d’après le théorème 13.39). La projection sur F parallèlement à F ⊥ s’appelle projection orthogonale
sur F et se note pF .

Fénelon Sainte-Marie – La Plaine-Monceau 145/230 28 août 2020


MPDE
13.4. PROJECTION ORTHOGONALE, DISTANCE À UN SEV DE DIMENSION FINIE — RAPPELS 2020-21
MPSI

Remarque 13.47 :

1. On a alors, pour tout x ∈ E : pF (x) ⊥ x − pF (x).


2. Par définition d’une projection, y = pF (x) est l’unique vecteur de E vérifiant y ∈ F et x − y ∈ F ⊥ .

Remarque 13.48 :
Si E est somme directe orthogonale de la famille de sous-espaces (Fi )i∈[[1,n]] , alors à chaque sous-espace Fi est
n
X
attaché un projecteur orthogonal pi , et : pi = IdE .
i=1

Exemple 13.49 :
On peut munir Mn (R) du produit scalaire de Frobénius défini par (A|B) = tr (tAB). Déterminons la projection
orthogonale sur Sn pour ce produit scalaire.

13.4.2 Expression d’une projection (sur un SEV de dim. finie) dans une BON —
rappels de MPSI
Proposition 13.50 : expression d’une projection dans une BON
Soit (E, ( · | · )) un espace vectoriel préhilbertien réel et F un sous-espace vectoriel de E de dimension finie. Soit
(e1 , . . . , ep ) une base orthonormée de F .
p
X
∀x ∈ E, pF (x) = (x|ei )ei .
i=1

Remarque 13.51 :
Dans le cas particulier où E est de dimension finie, lorsqu’on projette orthogonalement sur un hyperplan H, si ν
désigne un vecteur unitaire normal à H, alors pH (x) = x − (x|ν)ν.

Fénelon Sainte-Marie – La Plaine-Monceau 146/230 28 août 2020


CHAPITRE 13. ESPACES PRÉHILBERTIENS RÉELS MP 2020-21

En effet, (e1 , . . . , en−1 ) étant une BON de H, la famille (e1 , . . . , en−1 , ν) est une BON de E et on a donc x =
n−1
X n−1
X
(x|ek )ek + (x|ν)ν avec pH (x) = (x|ek )ek . . .
k=1 k=1

Théorème 13.52 : inégalité de Bessel


Soit E un espace préhilbertien réel, et (e1 , . . . , ep ) une famille orthonormale d’éléments de E.
Alors pour tout vecteur x de E :
X p
(x|ei )2 ≤ kxk2 .
i=1

Théorème 13.53 : inégalité de Bessel généralisée


Soit E un espace préhilbertien réel, et (en )n∈N une famille orthonormale d’éléments de E. Pour tout vecteur x de
E, la série (x|en )2 est convergente et :
P
+∞
X
(x|en )2 ≤ kxk2 .
n=0

13.4.3 Distance d’un point à un sous-espace de dimension finie — rappels de MPSI


Proposition 13.54 : caractérisation du projeté par une propriété de minimisation d’une distance
Soit F un sev de dimension finie d’un espace préhilbertien réel (E, ( · | · )). Alors :
(
0 x0 ∈ F
∀x ∈ E, x = pF (x) ⇐⇒ .
∀y ∈ F, kx0 − xk ≤ ky − xk

Définition 13.55 : distance d’un point à une partie


Si X est une partie non vide quelconque de (E, ( · | · )) (préhilbertien réel), et u ∈ E, alors on appelle distance de
u à X le réel positif d(u, X) = inf ku − xk.
x∈X

On déduit alors immédiatement de la proposition précédente le corollaire suivant :


Corollaire 13.56 : la distance d’un point à un SEV de dim finie est atteinte
Soit F un sev de dimension finie de (E, ( · | · )) et soit u ∈ E.
Alors le réel d(u, F ) est atteint en l’unique vecteur v = pF (u), et on a

2 2
∀x ∈ E, kxk = kpF (x)k + d(x, F )2 .

Méthode : Calcul pratique de la distance à un sev, lorsque E est de dimension finie

Fénelon Sainte-Marie – La Plaine-Monceau 147/230 28 août 2020


13.5. ESPACES EUCLIDIENS — RAPPELS DE MPSI MP 2020-21

Soit F un sev de (E, ( · | · )) ; soit B = (f1 , . . . , fp ) une base orthonormée de F et C = (g1 , . . . , gq ) une
base orthonormée de F ⊥ . Pour x ∈ E, on a

d(x, F ) = kx − pF (x)k = kpF ⊥ (x)k .

On peut donc exprimer d(x, F ) de deux façons :


p
X
• d’une part pF (x) = (x|fi )fi , donc (formule que l’on utilisera lorsque p ≤ n − p) :
i=1
p

X
d(x, F ) = x − (x|fi )fi ,


i=1

q
X
• d’autre part pF ⊥ (x) = (x|gi )gi , donc (formule que l’on utilisera lorsque p > n − p) :
i=1
v
u q
uX
d(x, F ) = t (x|gi )2 .
i=1

Exemple 13.57 :
Déterminer inf f (x, y), où f (x, y) = (2x + y − 1)2 + (x − 3y)2 + (y − 1)2 .
(x,y)∈R2

13.5 Espaces euclidiens — rappels de MPSI


13.5.1 Bases orthonormales — rappels de MPSI
Définition 13.58 : espace vectoriel euclidien
On appelle espace vectoriel euclidien un espace préhilbertien réel de dimension finie.
Théorème 13.59 : existence de BON dans les EVE
Tout espace euclidien (espace préhilbertien réel de dimension finie) possède des bases orthonormales.

Nous avons vu au théorème 13.59 que tout espace vectoriel euclidien possédait au moins une base orthonormale
(en fait ∅ est une base orthonormale de {0}). Comment obtenir une telle base ? Tout d’abord à partir d’une base
orthonormale d’un sous-espace :
Théorème 13.60 : théorème de la base orthonormale incomplète
Dans un espace vectoriel euclidien, toute famille orthonormale peut être complétée en une base orthonormale.

Définition 13.61 :
On appelle dual de E l’ensemble des formes linéaires sur E : E ∗ = L(E, R).
Remarque 13.62 :
Si E est de dimension finie n alors E ∗ = L(E, K) est de dimension finie n × 1 = n.
Théorème 13.63 : théorème de représentation (un EVE et son dual sont isomorphes)
Soit E un espace vectoriel euclidien.
Alors pour toute forme linéaire f ∈ E ∗ , il existe un vecteur y unique tel que :

∀x ∈ E, f (x) = (x|y).

En d’autres termes toute forme linéaire f s’écrit sous la forme f = ( · |y) pour un vecteur y unique.

Exemple 13.64 :

Fénelon Sainte-Marie – La Plaine-Monceau 148/230 28 août 2020


CHAPITRE 13. ESPACES PRÉHILBERTIENS RÉELS MP 2020-21

1. Un hyperplan H de E est le noyau d’une forme linéaire non nulle. On peut donc le représenter à l’aide d’un seul
vecteur n, appelé vecteur normal de H :

∀x ∈ E, x∈H ⇐⇒ (x|n) = 0.

2. Si E est un espace euclidien orienté de dimension 3, alors le déterminant d’une famille de trois vecteurs est le
même dans toutes les bases orthonormales directes ; on l’appelle produit mixte, et on le note [x, y, z].
Pour tout couple (x, y) ∈ E 2 , la forme linéaire z 7→ [x, y, z] peut être représentée par un seul vecteur noté x ∧ y :

∀(x, y, z) ∈ E 3 [x, y, z] = (x ∧ y | z).

13.5.2 Orthonormalisation de Gram-Schmidt – rappels de MPSI


Le procédé suivant permet de construire une base orthonormale à partir d’une base quelconque :
Proposition 13.65 : procédé de Gram-Schmidt
Soit (E, ( · | · )) un espace vectoriel euclidien et soit (e1 , . . . , en ) une base quelconque de E. Il existe une base
orthonormée (ε1 , . . . , εn ) de E telle que :

∀i ∈ [[1, n]], Vect(e1 , . . . , ei ) = Vect(ε1 , . . . , εi ).

Par ailleurs on a unicité de la base (ε1 , . . . , εn ) si on exige de plus la condition : ∀i ∈ [[1, n]], (ei |εi ) ∈ R∗+ .

Méthode : dans la pratique, on applique exactement la technique de la démonstration pour « orthonor-


maliser » une base d’un espace donné. On appelle ce procédé l’orthonormalisation de Gram-Schmidt.
Exemple 13.66 :
Orthogonaliser la base canonique usuelle de R2 à l’aide du produit scalaire défini par : (x|y) = 2x1 y1 + x2 y2 +
x1 y2 + x2 y1 .

Remarque 13.67 :
Dans la pratique, pour alléger les calculs on peut chercher d’abord une base uniquement orthogonale puis à la fin
normaliser les vecteurs en les divisant par leur norme.

13.6 Suites totales


On souhaiterait généraliser la notion de base à des espaces de dimension infinie. Il existe en effet des bases dans
tout espace vectoriel, mais dans les espaces de dimension infinie celles-ci ne sont pas toujours d’une grande utilité :
elles sont souvent non dénombrables et pas facilement explicitables. La topologie va alors venir à notre secours, via les
suites totales.
Soit E un espace préhilbertien réel.

13.6.1 Définition et premières propriétés


Définition 13.68 : suite totale de vecteurs
Une suite (an )n∈N de vecteurs de E est dite totale lorsque le sous-espace vectoriel Vect({an / n ∈ N}) qu’ils
engendrent est dense dans E.
Remarque 13.69 :
Une suite (an )n∈N d’éléments de E est totale si et seulement si l’une des deux propriétés ci-dessous est satisfaite :
1. Tout voisinage d’un élément de E contient au moins une combinaison linéaire des vecteurs an .
2. Tout élément de E est la limite d’une suite de combinaisons linéaires des vecteurs an .

Fénelon Sainte-Marie – La Plaine-Monceau 149/230 28 août 2020


13.6. SUITES TOTALES MP 2020-21

Attention ! Ceci ne signifie pas que tout élément est limite d’une suite extraite de (an )n !
Proposition 13.70 : l’orthogonal d’une famille totale est {0E }
Soit (an )n∈N une suite totale. Alors Vect(an / n ∈ N)⊥ = {0E }.

Remarque 13.71 :
1. Si E est de dimension finie, alors : toute suite totale est génératrice. En effet une suite totale vérifie Vect(an / n ∈
N) = {0E }⊥ = E.
2. La réciproque à la proposition ci-dessus est fausse : il se peut que Vect(an / n ∈ N)⊥ = {0E } et que la famille
(an )n∈N ne soit pas totale. Voir l’exemple ci-dessous.

Exemple 13.72 :
Soit E = R[X] avec le produit scalaire défini par :
n m min (m,n)
X X X
∀P = pk X k , ∀Q = qk X k , (P |Q) = pk qk .
k=0 k=0 k=0

Considérons la forme linéaire f définie de même par


n
X pk
f (P ) =
k+1
k=0

et le sous-espace vectoriel F = Ker (f ) de E.


Démontrer que F ⊥ = {0} et F n’est pas dense dans E.

Proposition 13.73 : caractérisation des suites totales par la convergence de la suite des projections
Soit (an )n∈N une suite d’éléments du préhilbertien réel E.
Alors : cette suite est totale si et seulement si pour tout x ∈ E, la suite des projetés orthogonaux de x sur
Vect(a0 , . . . , an ) converge vers x.

13.6.2 Suites orthonormales totales


Corollaire 13.74 : une CNS pour qu’une suite ON soit totale
Soit (en )n∈N une suite orthonormale d’un espace préhilbertien réel E.
Alors : la suite (en )n∈N est totale si et seulement si pour tout vecteur x ∈ E, la série (x|en )2 à termes réels
P
2
converge vers kxk :
+∞
X 2
(x|en )2 = kxk .
n=0

13.6.3 Polynômes orthogonaux


Proposition 13.75 : existence d’une suite de polynômes orthogonaux, pour un produit scalaire avec
poids
Soit E = C([a, b], R). Considérons une fonction poids, c’est-à-dire ω ∈ C([a, b], R+ ) ne s’annulant qu’en un nombre
fini de points. Alors :
1. L’application ( · | · ) définie par
Z b
∀(f, g) ∈ E 2 , (f |g) = f (t)g(t)ω(t)dt,
a

est un produit scalaire sur E.

Fénelon Sainte-Marie – La Plaine-Monceau 150/230 28 août 2020


CHAPITRE 13. ESPACES PRÉHILBERTIENS RÉELS MP 2020-21

2. Il existe une et une seule suite (Pn )n∈N de polynômes unitaires, orthogonaux pour ce produit scalaire, et telle
que deg(Pn ) = n pour tout n.
Ces polynômes sont appelés polynômes orthogonaux pour ω.

L’intérêt de ces polynômes orthogonaux est le suivant :


Théorème 13.76 : toute suite de polynômes orthogonaux est totale
Soit E = C([a, b], R) muni du produit scalaire ( · | · ) défini par :
Z b
2
∀(f, g) ∈ E , (f |g) = f (t)g(t)ω(t)dt,
a

où ω est une fonction poids (continue sur [a, b] et ne s’annulant qu’en un nombre fini de points).
Alors : toute suite de polynômes orthogonaux pour ( · | · ) est totale.

L’étude des polynômes orthogonaux remplit de nombreux livres, car ceux-là ont moultes applications. Nous nous
contenterons de prouver une de leurs multiples propriétés :
Proposition 13.77 : racines des polynômes orthogonaux
Soit (Pn )n∈N la suite de polynômes orthogonaux unitaires pour un produit scalaire avec poids ω.
Alors : pour tout n, le polynôme Pn admet n racines réelles distinctes dans ]a, b[.

Remarque 13.78 :
Comme écrit plus haut, la littérature sur les polynômes orthogonaux est abondante. En particulier les polynômes
orthogonaux sont une réelle mine de sujets de concours. . .
On peut même définir des polynômes orthogonaux à l’aide de produits scalaires à poids sur des intervalles qui
ne sont pas des segments, modulo quelques hypothèses supplémentaires sur la fonction poids ω pour nous assurer de
l’intégrabilité de P Qω.
En voici 25 exemples, depuis 2000 :
Exemple 13.79 :
1. Polynôme de Legendre : [a, b] = [−1, 1] et ω(t) = 1. CCINP 2018 MP maths 1, CCINP 2018 PC, X 2018 MP
maths B, PT 2011, CCP PC 2002.
1
2. Polynôme de Tchebychev de première espèce : ]a, b[=] − 1, 1[ et ω(t) = √ . E3A 2014 PSI maths A, ENS
1 − t2
BL 2008, PT 2007, CCP 2e concours 2007, INT Management 2006, BCE 2005.

3. Polynôme de Tchebychev de seconde espèce : [a, b] = [−1, 1] et ω(t) = 1 − t2 . Centrale 2014 PSI maths 1.
4. Polynômes de Laguerre : [a, b[= [0, +∞[ et ω(t) = e−t . CCINP 2019 PC, X 2018 L2 étr., CAPES 2011, BCE
2011, ENGEES 2001.
2
5. Polynômes de Hermite : ]a, b[=] − ∞, +∞[ et ω(t) = e−t . CCINP 2016 MP maths 2, Mines 2009 PSI maths 2,
BCE 2008, ENS 2007, CCP TPC 2006, ISUP 2006, ESSEC 2002.
6. Polynômes de Hilbert : [a, b] = [0, 1] et ω(t) = 1. Centrale MP 2011.

EPCC : exercices 39, 76, 77, 79, 80, 81, 82, 92.

The end – chapitre 13

Fénelon Sainte-Marie – La Plaine-Monceau 151/230 28 août 2020


13.6. SUITES TOTALES MP 2020-21

Fénelon Sainte-Marie – La Plaine-Monceau 152/230 28 août 2020


Chapitre 14

Automorphismes autoadjoints,
endomorphismes symétriques

Dans tout le chapitre E est un espace vectoriel euclidien et u un endomorphisme de E.


Bon nombre des démonstrations s’appuieront sur le résultat évident suivant :
Proposition 14.1 : expression de (x|u(y)) dans une base
Soit E un espace euclidien de dimension n et de base orthonormée B. Soit x et y deux vecteurs de E et u un
endomorphisme de E. On note X et Y les vecteurs colonnes des coordonnées de x et y dans la base B, et M la matrice
de u dans la base B. Alors :
(x|u(y)) = t X M Y.

14.1 Automorphismes orthogonaux et matrices orthogonales


Commençons par de larges rappels de MPSI.

14.1.1 Automorphismes orthogonaux — rappels de MPSI


Soit (E, ( · | · )) un espace vectoriel euclidien de dimension n.
Définition 14.2 : automorphisme orthogonal
On appelle automorphisme orthogonal ou isométrie vectorielle tout endomorphisme u ∈ L(E) tel que :

∀(x, y) ∈ E 2 , (u(x)|u(y)) = (x|y).

On dit que u conserve le produit scalaire, et cela implique que u conserve aussi la norme : ∀x ∈ E, ku(x)k = kxk.
Notation : On note O(E) l’ensemble des automorphismes orthogonaux de l’espace E.
Proposition 14.3 : justification de l’appellation « automorphisme orthogonal »
Si u est un automorphisme orthogonal de E, alors u est un automorphisme !

Exemple 14.4 :
1. Soit s la symétrie orthogonale par rapport à un sous-espace vectoriel F de E. Alors s est un automorphisme
orthogonal.
2. Soit p la projection orthogonale sur F , SEV strict E. Alors p n’est pas un automorphisme orthogonal.

Proposition 14.5 : caractérisation des automorphismes orthogonaux par la conservation de la norme

153
14.1. AUTOMORPHISMES ORTHOGONAUX ET MATRICES ORTHOGONALES MP 2020-21

(
u ∈ L(E)
u ∈ O(E) ⇐⇒ .
∀x ∈ E, ku(x)k = kxk

Ceci justifie la dénomination isométries vectorielles.

Proposition 14.6 : le groupe orthogonal


Le couple (O(E), ◦) est un groupe appelé groupe orthogonal de E.

Remarque 14.7 :
Attention, ce n’est pas un espace vectoriel ! Par exemple l’application nulle n’est pas dans O(E).
Proposition 14.8 : caractérisation de l’orthogonalité par l’image d’une BON
Soit (E, ( · | · )) un espace vectoriel euclidien de base orthonormée B. Soit u ∈ L(E).
Alors : u est un automorphisme orthogonal si et seulement si l’image de B par u est une base orthonormée de E.

Exemple 14.9 : → − →
− → −
Dans R3 muni de sa structure euclidienne usuelle et de la base canonique i , j , k , on définit u ∈ L(E) par
→
− →
− →
− →
− →
− →
− →− →− →−
u i = j , u j = k et u k = i . La base orthonormée i , j , k est transformée par u en la base
− →
→ − → − 
orthonormée j , k , i . Donc u ∈ O R3 .

Proposition 14.10 : stabilité de l’orthogonal d’un sous-espace stable par un endo. orthogonal
Soit (E, ( · | · )) un e.v.e. et F un s.e.v. de E. Soit u ∈ O(E).
Si F est stable par u, alors F ⊥ est aussi stable par u.

14.1.2 Matrices orthogonales — rappels de MPSI


Définition 14.11 : matrice orthogonale
Une matrice M ∈ Mn (R) est dite orthogonale lorsque tM M = M tM = In .
Notation : On note On (R) ou O(n) l’ensemble des matrices orthogonales d’ordre n.
Remarque 14.12 :

1. En fait, M est orthogonale si et seulement si tM M = In ou M tM = In .


 n
X
 ∀(i, j) ∈ [[1, n]]2 , i 6= j,



 aki akj = 0
2. L’égalité tM M = In se traduit par le système k=1
Xn
a2ki = 1

 ∀i ∈ [[1, n]],



k=1

3. En notant C1 , . . . , Cn les colonnes de la matrice M , tM M = In se traduit par hCi |Cj i = δij ,


où h · , · i est le produit scalaire usuel sur Rn . De même, en traduisant M tM = In , on obtient
hLi |Lj i = δij , où les Li sont les vecteurs lignes de la matrice M .

La proposition suivante est alors immédiate.


Proposition 14.13 : caractérisation de l’orthogonalité d’une matrice par ses colonnes ou ses lignes
Soit M ∈ Mn (R). Alors les assertions suivantes sont équivalentes :
1. M ∈ On (R).
2. Les vecteurs colonnes de M forment une base orthonormée de Rn .
3. Les vecteurs lignes de M forment une base orthonormée de Rn .

Fénelon Sainte-Marie – La Plaine-Monceau 154/230 28 août 2020


CHAPITRE 14. AUTOMORPHISMES AUTOADJOINTS, ENDOMORPHISMES SYMÉTRIQUES MP 2020-21

Proposition 14.14 : lien entre automorphismes orthogonaux et matrices orthogonales


Soit (E, ( · | · )) un e.v.e. de dimension n et soit B une base orthonormée de E. Soit u ∈ L(E). Alors :

u ∈ O(E) ⇐⇒ MatB (u) ∈ On (R).

Corollaire 14.15 : pour les automorphismes, caractérisation de l’orthogonalité par la matrice dans une
BON
Un automorphisme u d’un espace vectoriel euclidien est orthogonal si et seulement si sa matrice dans une base
orthonormale a pour inverse sa transposée :
A−1 = t A.

Méthode :
Pour vérifier qu’une matrice M est orthogonale, on calcule les normes de chacun des vecteurs
colonnes (ou lignes) pour vérifier si elles valent 1 ; puis on vérifie si les colonnes (ou lignes) distinctes
sont orthogonales en calculant les produits scalaires 2 à 2.
Exemple 14.16 :
 1
0 − √12


2
Soit M =  0 1 0 . On vérifie aisément que M ∈ O3 (R). Si on note u l’endomorphisme de R3 de
 
√1 0 √1
2 2 →− →− →−
matrice M dans la base canonique i , j , k (orthonormée pour le produit scalaire usuel), alors u est une isométrie


vectorielle. On verra que u est la rotation d’axe orienté par j et d’angle π4 . De plus, M −1 = tM .
Proposition 14.17 : le groupe On (R)
Le couple (On (R), ×) est un sous-groupe de (GLn (R), ×).

Proposition 14.18 : déterminant d’une matrice orthogonale / le groupe spécial orthogonal


1. Si M ∈ On (R) alors det(M ) ∈ {±1}.
2. L’ensemble des matrices orthogonales n × n de déterminant +1 est un sous-groupe de O(n) (ou On (R)) noté
SO(n) (ou SOn (R)) et appelé groupe spécial orthogonal d’ordre n.

14.1.3 Changement de base orthonormale — rappels de MPSI


Proposition 14.19 : une CNS pour qu’une base soit orthonormée
Soit B une base orthonormée de (E, ( · | · )), et B 0 une autre base.
Alos la base B 0 est orthonormée si et seulement si la matrice de passage de B dans B 0 est orthogonale.

Méthode : pour une matrice de passage P d’une base orthonormée à une autre base orthonormée, on
a P −1 = tP .
Corollaire 14.20 : pour un endomorphisme, formule de changement de bases orthonormées
Soit (E, ( · | · )) un espace vectoriel euclidien de bases orthonormées B et B 0 . Soit u ∈ L(E), A = MatB (u),
A = MatB0 (u) et P = PB→B0 . Alors : A0 = tP AP .
0

14.1.4 Automorphismes orthogonaux, déterminant (et spectre) — rappels de MPSI


Proposition 14.21 : déterminant d’un endomorphisme orthogonal
Si u ∈ O(E), alors det u = ±1.

Fénelon Sainte-Marie – La Plaine-Monceau 155/230 28 août 2020


14.2. AUTOMORPHISMES ORTHOGONAUX DU PLAN — RAPPELS DE MPSI MP 2020-21

Il est clair que dans un espace vectoriel euclidien, l’ensemble des automorphismes orthogonaux de déterminant 1
est stable par la composition, alors que celui des automorphismes de déterminant −1 ne l’est pas. C’est une simple
conséquence de la propriété det(v ◦ u) = det v × det u.
Définition 14.22 : le groupe spécial orthogonal
Soit (E, ( · | · )) un espace vectoriel euclidien.
1. L’ensemble des automorphismes orthogonaux de E de déterminant positif, donc égal à 1, est appelé le groupe
spécial orthogonal de E et noté SO(E).
Ses éléments sont appelés rotations.
2. L’ensemble des automorphismes orthogonaux indirects de E (i.e. de déterminant négatif, égal à −1), est noté
O− (E).
3. Toute symétrie orthogonale par rapport à un hyperplan de E est appelée réflexion.
4. On définit de façon analogue le groupe SOn (R) = SO(n) et l’ensemble On− (R) = O− (n).

Proposition 14.23 : le groupe spécial orthogonal de E


Soit (E, ( · | · )) un espace vectoriel euclidien.
Alors (SO(E), ◦) est un sous-groupe de (GL(E), ◦).

Remarque 14.24 :
En revanche, (O− (E), ◦) et (On− (R), ×) ne sont pas des groupes puisque par exemple ne contenant respectivement
pas IdL(E) et In .
Proposition 14.25 : caractérisation de SO(E) par l’image d’une BOND
Soit (E, ( · | · )) un espace vectoriel euclidien. Soit u ∈ L(E) et B une base orthonormée directe de E.
Alors : u ∈ SO(E) si et seulement si l’image de B par u est une base orthonormée directe de E.

Proposition 14.26 : déterminant d’une réflexion


Dans un espace vectoriel euclidien E, toute réflexion a pour déterminant −1.
Proposition 14.27 : spectre d’un automorphisme orthogonal
Soit u ∈ O(E).
1. Si λ ∈ C est valeur propre pour u, alors |λ| = 1.
2. En particulier si u admet une valeur propre réelle λ, alors λ = ±1.

14.1.5 Générateurs du groupe orthogonal


Rappelons que si u ∈ O(E) alors det(u) = ±1.
Théorème 14.28 : le groupe orthogonal est engendré par les réflexions
Soit E un espace vectoriel euclidien de dimension n.
Alors tout automorphisme orthogonal de E est une composée d’au plus n réflexions.

14.2 Automorphismes orthogonaux du plan — rappels de MPSI


On rappelle rapidement quelques résultats essentiels de MPSI qu’il faut maîtriser et savoir redémontrer.

14.2.1 Étude de O2 (R)


Proposition 14.29 : description de O2 (R)
Les matrices orthogonales du plan sont :

Fénelon Sainte-Marie – La Plaine-Monceau 156/230 28 août 2020


CHAPITRE 14. AUTOMORPHISMES AUTOADJOINTS, ENDOMORPHISMES SYMÉTRIQUES MP 2020-21

!
cos θ − sin θ
1. Soit du type R(θ) = (matrice rotation d’angle θ).
sin θ cos θ
!
cos θ sin θ
2. Soit du type S(θ) = (matrice réflexion).
sin θ − cos θ

14.2.2 Étude de SO2 (R)


Corollaire 14.30 : description de SO2 (R)
On a SO2 (R) = {R(θ), θ ∈ R} et O2− (R) = {S(θ), θ ∈ R}.

Proposition 14.31 : propriétés de SO2 (R) et O2− (R)


Le couple (SO2 (R), ×) est un groupe commutatif et ϕ : θ 7→ R(θ) est un morphisme de groupes surjectif de (R, +)
sur (SO2 (R), ×) de noyau 2πZ.

14.2.3 Étude de SO(E) pour E e.v.e. de dimension 2


Proposition 14.32 : matrice d’un élément de SO(E)
Soit (E, ( · | · )) un espace vectoriel euclidien orienté de dimension 2 et r ∈ SO(E) ; il existe un unique réel θ ∈ [0, 2π[
tel que pour toute base orthonormée directe B, MatB (r) = R(θ).

Définition 14.33 : rotation vectorielle


L’application r s’appelle rotation vectorielle et θ s’appelle une mesure de l’angle de la rotation vectorielle r.

Proposition 14.34 : éléments d’une rotation du plan


Si r est la rotation vectorielle plane d’angle de mesure θ, alors pour tout vecteur unitaire u :

cos θ = (u|r(u)) et sin θ = det(u, r(u)).

14.2.4 Réflexions vectorielles du plan


Proposition 14.35 : tout est dit
Les automorphismes orthogonaux indirects du plan sont les réflexions vectorielles.

Proposition 14.36 : éléments d’une réflexion du plan


L’axe de la réflexion sθ , de matrice Sθ dans la base orthonormée directe B de E, est dirigé par le vecteur
u cos θ2 , sin θ2 (coordonnées dans B).


Proposition 14.37 : composition de réflexions du plan, décomposition des rotations du plan

1. Soit D et D0 deux droites vectorielles de vecteurs directeurs unitaires u et u0 , alors sD0 ◦ sD = r2(u,u
\ 0) .

2. Toute rotation vectorielle se décompose en produit de deux réflexions vectorielles, dont l’une peut être choisie
arbitrairement.

Fénelon Sainte-Marie – La Plaine-Monceau 157/230 28 août 2020


14.3. AUTOMORPHISMES ORTHOGONAUX DE L’ESPACE MP 2020-21

14.3 Automorphismes orthogonaux de l’espace


14.3.1 Étude de SO(E), E e.v.e. de dimension 3
Définition 14.38 : rotation d’un EVE de dimension 3
On appelle rotation de E tout élément f de SO(E).
Proposition 14.39 : décomposition de SO(E), E de dim 3
Soit f ∈ SO(E).
1. L’application f est produit de deux réflexions.
 
1 0 0
2. Il existe une base orthonormée directe B et un unique θ ∈ [0, 2π[ tel que MatB (f ) =  0 cos θ − sin θ .
 

0 sin θ cos θ

Définition 14.40 : axe et angle d’une rotation de l’espace


1. Lorsque θ 6= 0, f s’appelle la rotation d’angle θ et d’axe orienté par u.
2. L’axe d’une rotation de l’espace est l’ensemble des vecteurs invariants par cette rotation.
3. Une rotation d’angle π s’appelle un retournement de l’espace.

14.3.2 Angle d’une rotation de l’espace autour d’un axe orienté


Proposition 14.41 : éléments d’une rotation de l’espace
Soit r une rotation d’angle θ autour d’un axe orienté par un vecteur unitaire k.
1. Pour tout vecteur x orthogonal à k : r(x) = cos θ x + sin θ (k ∧ x).
2. Si de plus kxk = 1, alors cos θ = (x|r(x)) et sin θ = [x, r(x), k].

14.3.3 Méthode pratique d’étude d’un automorphisme orthogonal en dimension 3


Soit (E, ( · | · )) un espace vectoriel euclidien de dimension 3, et de base orthonormée directe B. Soit f ∈ O(E) et
soit M la matrice de f dans B. On suppose f 6= ±IdE , c’est-à-dire M 6= ±I3 .

Premier cas : si det M = 1


(Ce qu’on vérifie avec C1 ∧ C2 = C3 .) Alors f est une rotation et on détermine ses éléments caractéristiques (axe
et angle).
B Axe ∆ de f : On détermine les vecteurs X ∈ R3 tels que M X = X. On trouve une droite vectorielle ∆ et on
prend un vecteur unitaire k directeur de ∆ ; ce vecteur k oriente k ⊥ .
B Angle θ de f : On choisit x ∈ k ⊥ unitaire ; θ est alors déterminé de manière unique par cos θ = (x|f (x)) et
sin θ = det(x, f (x), k).
Remarque 14.42 :
On sait aussi que tr f = tr M = 1 + 2 cos θ. . .
En particulier, lorsque tr f = −1, alors cos θ = −1 et on sait tout de suite que f est un retournement.
Exemple 14.43 :
Déterminer la nature et les éléments caractéristiques de l’endomorphisme de R3 canoniquement associé à la matrice
 
2 2 1
1
A =  −2 1 2  .

3
1 −2 2

Fénelon Sainte-Marie – La Plaine-Monceau 158/230 28 août 2020


CHAPITRE 14. AUTOMORPHISMES AUTOADJOINTS, ENDOMORPHISMES SYMÉTRIQUES MP 2020-21

Deuxième cas : si det M = −1


(Ce qu’on vérifie avec C1 ∧ C2 = −C3 ) Alors f est soit une réflexion, soit la composée d’une réflexion et d’une
rotation.

Premier sous-cas : matrices de O3− (R) symétriques.

Proposition 14.44 : description des matrices de O3− (R) symétriques


Si M ∈ O3− (R) vérifie tM = M , alors M est la matrice d’une réflexion dans une base orthonormée directe.

Il suffit alors de déterminer les vecteurs invariants par f pour connaître le plan de la réflexion.
Exemple 14.45 :
Déterminer la nature et les éléments caractéristiques de l’endomorphisme de R3 canoniquement associé à la matrice
 
−8 4 1
1
M = −  4 7 4 .

9
1 4 −8

Second sous-cas : matrices de O3− (R) non symétriques.

Lemme 14.46 : composition du retournement d’axe ∆ et de la réflexion de plan ∆⊥


Pour toute droite vectorielle ∆, on a −IdE = r∆,π ◦ s∆⊥ = s∆⊥ ◦ r∆,π .

Proposition 14.47 : description des matrices de O3− (R) non symétriques


Si M ∈ O3− (R) n’est pas symétrique, alors M représente dans une base orthonormée directe la composée commu-
tative d’une rotation d’axe ∆ et de la réflexion par rapport à ∆⊥ .

Exemple 14.48 :
Nature et éléments caractéristiques de l’endomorphisme de R3 canoniquement associé à la matrice
 √ 
3 1 6
1 √ 
M = −  1 3 − 6 .
4 √ √
− 6 6 2

14.3.4 Réduction des éléments de O(E)


Théorème 14.49 : réduction des éléments du groupe orthogonal
Soit E un espace vectoriel euclidien de dimension n et u dans O(E).
Alors il existe une base orthonormée B de E dans laquelle u a pour matrice
 
Ip
−Iq
 
 
 
[u]B = 
 R(θ1 ) 

 .. 

 . 

R(θr )
!
cos(θi ) − sin(θi )
où les R(θi ) = sont des matrices de rotation et p + q + 2r = n.
sin(θi ) cos(θi )

Fénelon Sainte-Marie – La Plaine-Monceau 159/230 28 août 2020


14.4. ENDOMORPHISMES SYMÉTRIQUES (OU AUTO-ADJOINTS) MP 2020-21

14.4 Endomorphismes symétriques (ou auto-adjoints)


14.4.1 Définition, premières propriétés et exemples
Définition 14.50 : endomorphisme symétrique ou auto-adjoint
Un endomorphisme u de l’espace vectoriel euclidien E est dit symétrique ou autoadjoint lorsqu’il vérifie la relation :

∀(x, y) ∈ E 2 , (u(x)|y) = (x|u(y)).

On note S(E) l’ensemble des endomorphismes symétriques de E.


Théorème 14.51 : caractérisation des endomorphismes symétriques
1. Un endomorphisme est symétrique si et seulement si sa matrice dans une base orthonormale est sa propre
transposée, c’est-à-dire si elle est symétrique.
n(n + 1)
2. L’ensemble S(E) est un sous-espace vectoriel de L(E) de dimension .
2

Proposition 14.52 : image et noyau d’un endomorphisme symétrique


L’image et le noyau d’un endomorphisme symétrique sont supplémentaires orthogonaux : Im (u) = ker(u)⊥ .

Rappelons qu’un projecteur est dit orthogonal lorsque son image et son noyau sont supplémentaires orthogonaux,
et qu’une symétrie est dite orthogonale lorsque la projection qui lui est associée (s = 2p − IdE ) est orthogonale.
Voici deux exemples de référence :
Théorème 14.53 : projection et symétrie orthogonales
1. Un projecteur est symétrique si et seulement si c’est une projection orthogonale.
2. Une symétrie est symétrique ( ! ! !) si et seulement si c’est une symétrie orthogonale.

Proposition 14.54 : stabilité de l’orthogonal d’un sous-espace stable par un endo. symétrique
Soit (E, ( · | · )) un e.v.e. et F un s.e.v. de E. Soit u ∈ S(E).
Si F est stable par u, alors F ⊥ est aussi stable par u.

Corollaire 14.55 : décomposition d’un endomorphisme symétrique à l’aide d’un sous-espace stable
Soit u un endomorphisme symétrique de E et F un sous-espace vectoriel de dimension p de E stable par u. Alors
la matrice M de u dans une base adaptée à la décomposition E = F ⊕⊥ F ⊥ est diagonale par blocs :
!
A 0p,n−p
M = avec A ∈ Mp (R) et B ∈ Mn−p (R).
0n−p,p B

14.4.2 Réduction des endomorphismes symétriques dans une base orthonormale


Théorème 14.56 : théorème spectral
Soit E un espace vectoriel euclidien, et u un endomorphisme symétrique de E. Alors :
1. Les valeurs propres complexes de u sont réelles.
2. Les sous-espaces propres de u sont orthogonaux deux à deux.
3. L’endomorphisme u est diagonalisable dans une base orthonormale.
4. Si A est la matrice de u dans une base orthonormale quelconque, alors il existe une matrice diagonale D et une
matrice orthogonale P telles que :
A = P DP −1 = P Dt P.

Fénelon Sainte-Marie – La Plaine-Monceau 160/230 28 août 2020


CHAPITRE 14. AUTOMORPHISMES AUTOADJOINTS, ENDOMORPHISMES SYMÉTRIQUES MP 2020-21

14.4.3 Endomorphismes symétriques positifs, définis posifits (hors-programme)


Soit f ∈ S(E).
Définition 14.57 : automorphisme orthogonal
1. f est positif lorsque : pour tout x ∈ E, (f (x)|x) ≥ 0.
2. f est défini positif lorsque : pour tout x ∈ E \ {0}, (f (x)|x) > 0.

Théorème 14.58 : endomorphismes positifs, défini positifs (hors-programme)


Soit E un espace vectoriel euclidien, et u un endomorphisme symétrique de E. Alors :
1. f est positif si et seulement si Sp(f ) ⊂ R+ .
2. f est défini positif si et seulement si Sp(f ) ⊂ R∗+ .

EPCC : exercices 63, 68, 78.

The end – chapitre 14

Fénelon Sainte-Marie – La Plaine-Monceau 161/230 28 août 2020


14.4. ENDOMORPHISMES SYMÉTRIQUES (OU AUTO-ADJOINTS) MP 2020-21

Fénelon Sainte-Marie – La Plaine-Monceau 162/230 28 août 2020


Chapitre 15

Probabilités sur un univers au plus


dénombrable
N
X
En Sup, nous avons étudié les probabilités sur un univers fini : .
n=1
+∞
X
En Spé, nous allons étudier les probabilités sur un univers au plus dénombrable : .
n=1
Z +∞
En L3, nous étudierons les probabilités sur un univers continu : .
t=0
Nous suivrons le même fil que le programme de Sup : probabilités dans ce chapitre puis variables aléatoires dans
le chapitre suivant.
Nous travaillons désormais sur un univers Ω au plus dénombrable, constitué de tous les résultats possibles d’une
expérience.

15.1 Espace probabilisé


15.1.1 Définitions et premières propriétés
L’univers Ω étant au plus dénombrable, on peut choisir P(Ω) comme ensemble de tous les événements.
Ce choix n’est plus possible si Ω n’est pas au plus dénombrable.
En effet, une probabilité µ doit avoir parmi ses propriétés le fait que µ(I ∪ I 0 ) = µ(I) + µ(I 0 ) si I ∩ I 0 = ∅, pour
deux événements I et I 0 . La longueur de I semble un choix raisonnable pour µ(I), mais il existe des parties de R
(donc des I potentiels) n’admettant pas de longueur. . . On ne peut donc pas prendre P(Ω) comme ensemble de tous
les événements.
Le paradoxe de Banach-Tarski démontre qu’il est possible de couper une boule de Rn (n ≥ 3) en un nombre fini de
morceaux et de réassembler ces morceaux pour former deux boules identiques à la première, à un déplacement près.
Ce résultat paradoxal implique que ces morceaux soient non mesurables, sans quoi on obtiendrait une contradiction
(le volume étant un exemple de mesure, cela veut plus simplement dire que ces morceaux n’ont pas de volume).
Il faut donc être plus précis quant au choix du « terrain de jeu » sur lequel nous construirons une probabilité :
Définition 15.1 : tribu
Pour un univers Ω au plus dénombrable, on appelle tribu sur Ω une partie T de l’ensemble P(Ω) des parties de Ω
telle que :
1. Ω ∈ T .
2. Pour tout A ∈ T , A = Ω \ A ∈ T .
[
3. Pour toute suite (An )n∈N d’éléments de T , la réunion An appartient encore à T .
n∈N

163
15.1. ESPACE PROBABILISÉ MP 2020-21

Ceci revient à dire qu’une tribu est non-vide, stable par complémentaire et réunion dénombrable.
Proposition 15.2 : conséquences immédiates de la définition
Soit T une tribu sur un univers Ω. Alors :
1. ∅ ∈ T .
\
2. Pour toute suite (An )n∈N d’éléments de T , l’intersection An appartient encore à T .
n∈N
3. T est stable par réunion finie.
4. T est stable par intersection finie.
5. Pour tous A et B éléments de T , A ∩ B = A \ B ∈ T .

Exemple 15.3 :

1. {∅, Ω} est une tribu sur Ω, appelée la tribu triviale.


2. P(Ω) est une tribu sur Ω ; on l’appelle la tribu pleine.

3. ∅, A, A, Ω (avec A ⊂ Ω) est la plus petite tribu (au sens de l’inclusion) sur un ensemble contenant A. On
l’appelle la tribu engendrée par l’événement A.
4. On lance deux dés indiscernables et on s’intéresse à la somme des résultats de ces deux dés.
• L’univers intuitif est fini, égal à l’ensemble [[1, 6]] × [[1, 6]], et la tribu associé est P(Ω).
• On peut aussi choisir comme univers, encore fini, l’ensemble de toutes les sommes possibles, soit Ω0 = [[2, 12]],
et comme tribu P(Ω0 ).
Les probabilités définies sur P(Ω) ou P(Ω0 ) sont alors deux applications distinctes, mais elles fourniront la même
probabilité d’obtenir une somme donnée.

Définition 15.4 : espace probabilisable, événement


Soit Ω un univers et T une tribu sur Ω.
1. Le couple (Ω, T ) est appelé un espace probabilisable.
2. Un élément de T est appelé un événement ou un événement observable.

Définition 15.5 : système complet d’événements (SCE)


Soit (Ω, T ) un espace probabilisable associé à un univers Ω au plus dénombrable. Un système complet d’événements
est une partition au plus dénombrable de Ω par des événements, en d’autres termes c’est une suite (Ai )i∈I d’événements,
où I est au plus dénombrable, telle que :
[
1. Ai = Ω.
i∈I

2. Pour tout (i, j) ∈ I 2 , si i 6= j alors Ai ∩ Aj = ∅.

Exemple 15.6 :

1. Si A est un événement, alors {A, A} est un SCE.


2. Pour tout espace probabilisable (Ω, P(Ω)), la famille d’événements ({ω})ω∈Ω forme un SCE.
3. On lance une pièce de monnaie une infinité de fois. On s’intéresse au rang du premier Pile obtenu.
Le résultat est un entier naturel : 0 si on n’a jamais Pile, n si on obtient le premier Pile au n-ième essai. Ainsi
Ω = N.
Alors la suite d’événements formée par A0 = « n’obtenir aucun Pile » et les An = « obtenir le premier Pile au
n-ième lancer » (n ≥ 1) forme un SCE.

Fénelon Sainte-Marie – La Plaine-Monceau 164/230 28 août 2020


CHAPITRE 15. PROBABILITÉS SUR UN UNIVERS AU PLUS DÉNOMBRABLE MP 2020-21

15.1.2 Lexique des probabilités


On donne ci-après la signification des mots de vocabulaire couramment utilisés en probabilités, et leur lien avec le
vocabulaire ensembliste.
Soit (Ω, T ) un espace probabilisable associé à une expérience aléatoire. On rappelle que les résultats possibles de
l’expérience aléatoire sont appelés les issues ou les éventualités. On rappelle aussi que Ω est l’ensemble de toutes
les issues possibles de l’expérience aléatoire ; il est appelé l’univers. On rappelle enfin que T est une tribu sur Ω.
• Les éléments de T sont les événements, ou événements observables comme défini plus haut.
Tout événement est donc une partie de Ω ; en revanche, les parties de Ω ne sont pas toutes des événements
lorsque la tribu choisie est distincte de P(Ω).
• Si ω est un résultat d’une expérience aléatoire associée à un espace probabilisé (Ω, P(Ω)), alors ω ∈ Ω et {ω} est
un événement, puisque c’est un élément de la tribu choisie P(Ω). Cet événement {ω} est alors appelé événement
élémentaire. Un événement élémentaire est donc un élément de T ne contenant qu’une issue (ensemblistement,
c’est un singleton).
• Un événement A est dit réalisé si l’issue ω de l’expérience est dans A.
• L’événement Ω est toujours réalisé et appelé l’événement certain. C’est la partie de Ω contenant toutes les issues.
L’ensemble vide n’est jamais réalisé, il est appelé l’événement impossible. C’est la partie de Ω ne contenant
aucune issue.
• L’événement contraire A d’un événement A est, ensemblistement, le complémentaire A = Ω \ A.
• L’événement « A et B » est la partie de Ω contenant les issues qui sont dans A et dans B ; ensemblistement,
c’est A ∩ B. L’événement « A ou B » est la partie de Ω contenant les issues qui sont dans A ou dans B ;
ensemblistement, c’est A ∪ B.
• Les événements A et B sont dits incompatibles s’ils ne peuvent être réalisés en même temps, c’est-à-dire si « A
et B » est l’événement impossible, ce qui, ensemblistement, se traduit par A ∩ B = ∅, ou encore par le fait que
les parties A et B sont disjointes.
• On dit que l’événement A implique l’événement B lorsque A ⊂ B.
• Lorsque (An )n∈N est une suite d’événements de T :
[
An est l’événement constitué des éléments de Ω appartenant à au moins un des An .
n∈N
\
An est l’événement constitué des éléments de Ω appartenant à tous les An .
n∈N
On résume les correspondances entre vocabulaires probabiliste et ensembliste dans le tableau ci-après.
Langage probabiliste Langage ensembliste
Univers Ω Ensemble Ω
Issue Élément
Tribu Sous-ensemble T de P(Ω) vérifiant. . .
Événement Partie de Ω appartenant à T
Événement élémentaire Singleton appartenant à T
Événement impossible ∅
Événement certain Ensemble Ω tout entier
Événément contraire Complémentaire
Événements incompatibles Parties disjointes appartenant à T .
Événement « A et B » Partie A ∩ B
Événement « A ou B » Partie A ∪ B

15.1.3 Probabilités sur un univers au plus dénombrable


Définition 15.7 : probabilité

Fénelon Sainte-Marie – La Plaine-Monceau 165/230 28 août 2020


15.1. ESPACE PROBABILISÉ MP 2020-21

1. Soit (Ω, T ) un espace probabilisable.


On appelle probabilité sur (Ω, T ) une application P : T → [0, 1] telle que :
(a) P (Ω) = 1.
(b) Pour toute suite (An )n∈N d’événements deux à deux incompatibles, la série de terme général P (An ) converge
et !
[ +∞
X
P An = P (An ).
n∈N n=0
Cette propriété est appelée la σ-additivité.
2. On appelle espace probabilisé un triplet (Ω, T , P ) où T est une tribu sur l’univers Ω et P une probabilité sur
l’espace probabilisable (Ω, T ).

Remarque 15.8 :
1. Pour une suite finie d’événements (A0 , A1 , . . . , An ) deux à deux incompatibles, on a encore
n
! n
[ X
P Ak = P (Ak ).
k=0 k=0

Il suffit pour le voir de compléter la suite finie en une suite dénombrable, en posant Ak = ∅ pour tout k > n,
puis d’appliquer la σ-additivité.
2. Pour toute suite dénombrable (An )n∈N d’éléments de T deux à deux incompatibles, la convergence de la série
de terme général P (An ) est claire.
! En effet, il s’agit d’une série à termes positifs dont les sommes partielles Sn
n
[
sont égales à Sn = P Ak et donc sont majorées par 1.
k=0
3. Si les événements ne sont pas deux à deux incompatibles, la série de terme général P (An ) peut diverger. C’est
le cas par exemple lorsqu’on considère une suite d’événements dont tous les termes sont égaux à un événement
de probabilité non nulle.
4. De la remarque précédente, il résulte que si P est une probabilité sur un espace probabilisable (Ω, P(Ω)), où
Ω = {xn , n ∈ N} est un univers dénombrable, il ne peut pas y avoir équiprobabilité des événements élémentaires
P
{xn }. En effet, s’il y avait équiprobabilité, on aurait P ({xn }) = p > 0 pour tout n ∈ N et donc P ({xn })
+∞
X
divergerait, ce qui est absurde, puisque par σ-additivité : P ({xn }) = P (Ω) = 1 !
n=0

Proposition 15.9 : probabilité d’un événement en fonction de celles des singletons le constituant
Soit (Ω, P(Ω), P ) un espace probabilisé, où Ω est un univers au plus dénombrable. Alors, pour tout A ⊂ Ω (c’est-
à-dire pour tout événement A) : X
P (A) = P ({a}).
a∈A

Remarque 15.10 :
Réciproquement, on peut construire une probabilité sur un espace probabilisable (Ω, P(Ω)), Ω = {xn , n ∈ N}
dénombrable.
+∞
X
P
Pour ce faire, on considère une suite (pn )n∈N de réels positifs tels que pn converge et pn = 1. On pose alors :
n=0

∀n ∈ N, P ({xn }) = pn .

Exemple 15.11 :
Soit Ω = N sur lequel on considère la tribu P (Ω). On peut considérer, pour tout p ∈]0, 1[, la probabilité définie par
P ({k}) = p(1 − p)k , puisque ceci est le terme général d’une série positive convergente de somme 1 (cette probabilité
joue en particulier un rôle important lors de l’étude de la loi géométrique).

Fénelon Sainte-Marie – La Plaine-Monceau 166/230 28 août 2020


CHAPITRE 15. PROBABILITÉS SUR UN UNIVERS AU PLUS DÉNOMBRABLE MP 2020-21

15.1.4 Propriétés des probabilités


Les propriétés ci-dessous, établies en première année dans le cas où Ω est fini, sont encore valables pour un univers
au plus dénombrable, et les démonstrations peuvent être reprises.
Proposition 15.12 : propriétés élémentaires des probabilités
Soit (Ω, T , P ) un espace probabilisé. Alors :
1. Pour tout A ∈ T , P (A) = 1 − P (A).
2. Croissance de la probabilité : pour tout (A, B) ∈ T 2 tel que A ⊂ B, P (A) ≤ P (B).
3. Pour tout (A, B) ∈ T 2 tel que A ⊂ B, P (B \ A) = P (B) − P (A).
4. Pour tout (A, B) ∈ T 2 , P (A ∪ B) = P (A) + P (B) − P (A ∩ B).

D’après la définition d’une probabilité, on peut calculer la probabilité d’une réunion dénombrable d’événements
deux à deux incompatibles. La propriété ci-dessous permet de calculer la probabilité d’une réunion dénombrable d’une
suite croissante d’événements :
Théorème 15.13 : théorème de la limite monotone
Soit (Ω, T , P ) un espace probabilisé.
1. Soit (An )n∈N une suite croissante d’événements (au sens où An ⊂ An+1 pour tout entier n ∈ N). Alors :
+∞
!
[
P An = lim P (An ).
n→+∞
n=0

2. Soit (An )n∈N une suite décroissante d’événements (au sens où An+1 ⊂ An pour tout entier n ∈ N). Alors :
+∞
!
\
P An = lim P (An ).
n→+∞
n=0

Remarque 15.14 :
Attention, erreur classique : la suite doit vraiment être monotone !
Exemple 15.15 :
On lance une infinité de fois une pièce équilibrée et on considère l’événement A : « obtenir Pile à tous les lancers ».
Afin de déterminer la probabilité de A, on introduit les événements An : « les n premiers lancers donnent Pile ». Ainsi :
+∞
\
A = An
n=1

où la suite (An )n∈N∗ est une suite décroissante d’événements. On obtient facilement que
1
P (An ) = .
2n
On déduit donc que :
P (A) = lim P (An ) = 0.
n→+∞

Il n’existe pas de formule permettant de calculer la probabilité d’une réunion dénombrable d’événements quel-
conques analogue à celle du crible pour la réunion finie. On peut néanmoins majorer cette probabilité :
Proposition 15.16 : inégalité de Boole
Soit (Ω, T , P ) un espace probabilisé. Soit (An )n∈N une suite d’événements telle que la série de terme général P (An )
converge. Alors : !
+∞
[ +∞
X
P An ≤ P (An ).
n=0 n=0
On dit que P vérifie la propriété de sous-additivité.

Fénelon Sainte-Marie – La Plaine-Monceau 167/230 28 août 2020


15.1. ESPACE PROBABILISÉ MP 2020-21

15.1.5 Événements négligeables, événements presque sûrs


Définition 15.17 : événement négligeable, événement presque sûr
Soit (Ω, T , P ) un espace probabilisé.
• Un événement A est dit négligeable lorsque P (A) = 0.
• Un événement A est dit presque sûr lorsque P (A) = 1.

Proposition 15.18 : propriétés des événements négligeables et des éléments presque sûrs
Soit (Ω, T , P ) un espace probabilisé.
1. Une réunion au plus dénombrable d’événements négligeables est un événement négligeable :
+∞
!
[
(∀n, P (An ) = 0) =⇒ P An = 0.
n=0

2. Une intersection au plus dénombrable d’événements presque sûrs est un événement presque sûr :
+∞
!
\
(∀n, P (Bn ) = 1) =⇒ P Bn = 1.
n=0

3. L’intersection d’un événement quelconque avec un événement négligeable est un événement négligeable.
La réunion avec un événement négligeable ne change pas la probabilité.
En d’autres termes :  
P (A) = 0 =⇒ P (A ∩ B) = 0 ∧ P (A ∪ B) = P (B) .

4. La réunion d’un événement quelconque avec un événement presque sûr est un événement presque sûr.
L’intersection avec un événement presque sûr ne change pas la probabilité.
En d’autres termes :  
P (A) = 1 =⇒ P (A ∩ B) = P (B) ∧ P (A ∪ B) = 1 .

Exemple 15.19 :
1. Petite digression au pays des probabilités continues. . . Considérons l’expérience consistant à tirer un nombre réel
au hasard. Quelle est la probabilité de tirer un nombre rationnel ? Un nombre irrationnel ?
[
La probabilité d’obtenir un rationnel choisi à l’avance q est alors nulle. Or Q = {q} est une réunion dénom-
q∈Q
brable, donc la probabilité de tirer un rationnel est nulle d’après le premier point de la proposition précédente.
On en déduit que la probabilité de tirer un irrationnel est égale à 1.
2. Poursuivons l’exemple 15.15, où l’on étudie la première apparition de Pile lorsqu’on lance une pièce une infinité
de fois.
On rappelle que si Pile n’est jamais obtenu le résultat est considéré comme nul, et que si Pile est obtenu a
première fois au n-ième lancer alors le résultat est n. De fait Ω = N.
1
On choisit comme tribu P(Ω) et comme probabilité la fonction définie par P ({n}) = n si n ≥ 1. Comme {0}
2
est le complémentaire dans Ω de N∗ , il vient
+∞
X 1
P ({0}) = 1 − n
= 0.
n=1
2

Ainsi {0}] est un événement négligeable mais pas impossible.


3. Un système d’événements (Ai )i∈I (au plus dénombrable) est dit quasi-complet lorsque :
!
[ [
(a) P Ai = 1 (au lieu de Ai = Ω pour un SCE).
i∈I i∈I

Fénelon Sainte-Marie – La Plaine-Monceau 168/230 28 août 2020


CHAPITRE 15. PROBABILITÉS SUR UN UNIVERS AU PLUS DÉNOMBRABLE MP 2020-21

(b) Pour tout (i, j) ∈ I 2 , si i 6= j alors Ai ∩ Aj = ∅.


Un système complet d’événements est donc quasi-complet.
X
Soit donc un système quasi-complet et A un événement. Démontrons que P (A) = P (A ∩ Ai ). On remarque
i∈I
+∞
X
au passage que la formule que nous allons démontrer implique avec A = Ω : P (Ai ) = 1.
i=0
[
L’événement Ai étant presque-sûr, il vient
i∈I
! !
[ [
P (A) = P A∩ Ai = P A ∩ Ai .
i∈I i∈I

Or les Ai sont disjoints, donc les A ∩ Ai le sont a fortiori. Par conséquent


! +∞
[ X
P (A) = P Ai ∩ A = P (A ∩ Ai ).
i∈N i=0

15.2 Conditionnement
Dans ce paragraphe, nous allons généraliser la notion de probabilité conditionnelle vue en Sup dans le cas des
univers finis, au cas des univers au plus dénombrables.

15.2.1 Probabilité conditionnelle


Proposition 15.20 : définition de la probabilité sachant A
Soit (Ω, T , P ) un espace probabilisé et A ∈ T un événement de probabilité non nulle. Alors l’application :

PA : T −→ [0, 1]
P (A ∩ B)
B 7−→
P (A)

est une probabilité.

Définition 15.21 : probabilité conditionnelle


La probabilité construite dans la proposition précédente est appelée probabilité conditionnellement à A ou égale-
ment probabilité sachant A. On note usuellement P (B|A) = PA (B) la probabilité de l’événement B sachant A.
Le triplet (Ω, T , PA ) est un espace probabilisé.
De cette définition découle la formule des probabilités composées :
Proposition 15.22 : formule des probabilités composées
Soit (Ω, T , P ) un espace probabilisé au plus dénombrable et (Ak )1≤k≤n une suite d’événements telle que
n
!
\
P Ak > 0.
k=1

Alors :
!  
n
\ n
Y i−1
\
P Ak = P Ai | Aj 
k=1 i=1 j=1

= P (A1 ) × P (A2 |A1 ) × P (A3 |A1 ∩ A2 ) × · · · × P (An |A1 ∩ · · · ∩ An−1 )

Fénelon Sainte-Marie – La Plaine-Monceau 169/230 28 août 2020


15.2. CONDITIONNEMENT MP 2020-21

\
(car = Ω et P (X|Ω) = P (X)).

Exemple 15.23 :
On considère une urne contenant 6 boules blanches et 4 noires. On tire une à une et sans remise trois boules.
On s’intéresse à l’événement A = « obtenir une boule blanche puis deux noires ». On introduit les événements B1 =
« obtenir une boule blanche au premier tirage », N2 = « obtenir une boule noire au second tirage » et N3 = « obtenir
une boule noire au dernier tirage ». Ainsi :

6 4 3 1
P (A) = P (B1 ∩ N2 ∩ N3 ) = P (A1 )PB1 (N2 )PB1 ∩N2 (N3 ) = × × = .
10 9 8 10

15.2.2 Formule des probabilités totales


La formule des probabilités totales, vue en Sup dans le cas d’un univers fini, permet de calculer la probabilité d’un
événement dépendant d’autres événements. Nous allons la généraliser au cas d’un univers au plus dénombrable.
Proposition 15.24 : formule des probabilités totales, pour un SCE
Soit (Ω, T , P ) un espace probabilisé. Soit (An )n∈N un système complet d’événements de probabilités non nulles.
Alors, pour tout B ∈ T :

+∞
X +∞
X +∞
X
P (B) = P (B ∩ An ) = PAn (B)P (An ) = P (B|An )P (An ).
n=0 n=0 n=0

Remarque 15.25 :

1. Dans la formule précédente, on peut s’affranchir de la condition « événements de probabilités non nulles » en
adoptant la convention P (B|An )P (An ) = 0 lorsque P (An ) = 0.
2. La formule reste valable dans le cas d’une suite (An )n∈N set formant un système quasi-complet d’événements
+∞
X +∞
[
(événements deux à deux incompatibles tels que P (An ) = 1 au lieu de Ai = Ω).
n=0 i=0

Exemple 15.26 :
Reprenons l’exemple 15.23 précédent, considérant une urne contenant 6B4N . Déterminons la probabilité de l’évé-
nement A = « obtenir une boule noire au second tirage », en introduisant le système complet d’événements constitué
de B1 et N1 = B 1 , où B1 est l’événement « obtenir une boule blanche au premier tirage ». Ainsi :

6 4 4 3 2
P (A) = P (B1 )PB1 (A) + P (N1 )PN1 (A) = × + × = .
10 9 10 9 5

Corollaire 15.27 : formule des probabilités conditionnelles totales


Soit (Ω, T , P ) un espace probabilisé, A ∈ T et (An )n∈N une partition de A composée d’événements de probabilités
non nulles. Alors, pour tout B ∈ T :
+∞
X
P (B|A) = P (B|An )P (An |A).
n=0

Fénelon Sainte-Marie – La Plaine-Monceau 170/230 28 août 2020


CHAPITRE 15. PROBABILITÉS SUR UN UNIVERS AU PLUS DÉNOMBRABLE MP 2020-21

15.2.3 Formule de Bayes


Corollaire de la formule des probabilités totales :
Proposition 15.28 : formule de Bayes
Soit (Ω, T , P ) un espace probabilisé. Soit (An )n∈N un système complet d’événements de probabilités non nulles.
Alors, pour tout B ∈ T de probabilité non nulle :

PAi (B)P (Ai )


∀i ∈ N, PB (Ai ) = +∞
.
X
PAn (B)P (An )
n=0

Remarque 15.29 :
Cette formule permet de calculer la probabilité d’événements Ai sachant B, alors que c’est l’événement B qui
dépend des événements Ai .
En d’autres termes la formule de Bayes permet de remontrer dans le temps !
Exemple 15.30 :
1
On considère 100 dés, dont 25 sont pipés au sens où la probabilité d’obtenir 6 est . On lance un dé choisi au
2
hasard et on obtient 6. Quelle est la probabilité de l’événement A = « le dé lancé est pipé » ?

15.3 Indépendance d’événements


15.3.1 Indépendance de deux événements
On généralise là encore les notions de première année vues dans le cas d’un univers fini à un univers dénombrable.
Intuitivement, deux événements sont indépendants lorsque la réalisation de l’un n’interfère pas sur la réalisation de
l’autre.
Définition 15.31 : Événements indépendants
Soit (Ω, T , P ) un espace probabilisé.
1. Deux événements A et B de T sont dits indépendants lorsque P (A ∩ B) = P (A)P (B).
2. Les événements A1 , . . . , An de T sont indépendants deux à deux lorsque, pour tout (i, j) ∈ [[1, N ]]2 , si i 6= j
alors Ai et Aj sont indépendants.

De ces définitions découlent les propriétés suivantes. Les démonstrations de Sup peuvent ici être reprises.
Proposition 15.32 : propriétés des événements indépendants
Soit (Ω, T , P ) un espace probabilisé, A ∈ T tel que P (A) > 0 et B ∈ T . Alors :
1. Les événements A et B sont indépendants si et seulement si pA (B) = p(B).
2. Si A et B sont des événements indépendants alors les événements A et B sont indépendants, ainsi que les
événements A et B.

15.3.2 Indépendance d’une suite d’événements


Définition 15.33 : suite d’événements mutuellement indépendants
Soit (Ω, T , P ) un espace probabilisé. Une suite au plus dénombrable d’événements (An )n∈I , avec I ⊂ N, est une
suite d’événements mutuellement indépendants lorsque, pour tout sous-ensemble fini J ⊂ I :
 
\ Y
P Aj  = p(Aj ).
j∈J j∈J

Fénelon Sainte-Marie – La Plaine-Monceau 171/230 28 août 2020


15.3. INDÉPENDANCE D’ÉVÉNEMENTS MP 2020-21

Ainsi trois événements A1 , A2 et A3 sont mutuellement indépendants lorsque les quatre égalités ci-dessous sont
satisfaites :

P (A1 ∩ A2 ) = P (A1 )P (A2 ), P (A1 ∩ A3 ) = P (A1 )P (A3 ), P (A2 ∩ A3 ) = P (A2 )P (A3 )

et
P (A1 ∩ A2 ∩ A3 ) = P (A1 )P (A2 )P (A3 ).
Pour une suite finie de n ≥ 2 événements distincts, le nombre d’égalités à vérifier est égal à :
     
n n n
+ + ··· + = (1 + 1)n − n − 1.
2 3 n
Proposition 15.34 : propriétés immédiates des suites d’événements mutuellement indépendants
1. Des événements mutuellement indépendants sont indépendants deux à deux (réciproque fausse).
2. Soit (A1 , . . . , An ) ∈ T n une famille de n événements mutuellement indépendants. Alors les événements A1 et
\n
Ak sont indépendants.
k=2
3. Soit (A1 , . . . , An ) ∈ T n une
! famille de n événements mutuellement indépendants. Alors pour toute partie I ⊂
\
[[1, n]] telle que P Ak > 0 :
k∈I
! !
\ \
∀i ∈
/ I, P Ai Ak = P (Ai ) et ∀i ∈ I, P Ai Ak = 1.

k∈I k∈I

Remarque 15.35 :
L’indépendance deux à deux n’entraîne pas l’indépendance mutuelle. Il suffit de considérer l’expérience aléatoire
suivante : on lance deux dés équilibrés et soit A l’événement « le premier dé donne un nombre pair », B l’événement « le
second dé donne un nombre impair » et C l’événement « les deux dés donnent des numéros de même parité ». Alors, en
1 1
considérant la probabilité uniforme naturelle, il vient P (A) = P (B) = P (C) = , P (A∩B) = P (A∩C) = P (C∩B) =
2 4
mais P (A ∩ B ∩ C) = 0 6= P (A)P (B)P (C).
Proposition 15.36 : probabilité de l’intersection d’événements mutuellement indépendants
Soit (Ω, T , P ) un espace probabilisé, et (An )n∈N une suite d’événements mutuellement indépendants. Alors
+∞
! n
\ Y
P An = lim P (Ak ).
n→+∞
n=0 k=0

Proposition 15.37 : une CNS pour que des événements soient mutuellement indépendants
Soit (Ω, T , P ) un espace probabilisé. Alors : une suite (An )n∈N d’événements est une suite d’événements mutuelle-
ment indépendants si et seulement si pour tout entier n, les événements A0 , . . . , An sont mutuellement indépendants.

Proposition 15.38 : suite d’événements mutuellement indépendante et complémentaires


Soit (Ω, T , P ) un espace probabilisé et (An )n∈I (I ⊂ N) une suite d’événements mutuellement indépendants.
Alors toute suite (Bn )n∈I avec Bn ∈ {An , An } est une suite d’événements mutuellement indépendants.

EPCC : exercices 101, 105, 107.

The end – chapitre 15

Fénelon Sainte-Marie – La Plaine-Monceau 172/230 28 août 2020


Chapitre 16

Variables aléatoires discrètes

En Sup, nous avons étudié les variables aléatoires X associées à des probabilités P sur un univers fini Ω, et pour
lequel la tribu considérée était toujours P(Ω). Ceci nous a permis de définir la probabilité que la variable aléatoire X
prenne ses valeurs dans une partie A, à savoir P (X ∈ A).
En Spé, nous nous plaçons dans le cas d’une univers pas forcément fini mais au plus dénombrable, et pour une
tribu T pouvant être différente de P(Ω). Ces variables aléatoires seront dites discrètes. Étant donné que P (X = x) =
P (X −1 ({x})), il nous faudra une condition sur les images réciproques X −1 ({x}) de la variable aléatoire X afin de
pouvoir calculer la probabilité P (X = x).
En L3 nous étudierons les variables aléatoires continues, c’est-à-dire associées à des probabilités sur un univers
continu (par exemple R).
Nous travaillons désormais sur un univers Ω au plus dénombrable, constitué de tous les résultats possibles d’une
expérience. Cet univers sera muni d’une tribu T .
Dans tout ce chapitre, nous considérerons également un ensemble E.

16.1 Variables aléatoires discrètes


16.1.1 Définitions et premières propriétés
Définition 16.1 : variable aléatoire discrète
Une variable aléatoire discrète définie sur Ω et à valeurs dans E est une application X : Ω → E telle que :
1. L’ensemble X(Ω) est au plus dénombrable.
2. Pour tout x ∈ X(Ω), l’image réciproque (X = x) = [X = x] = X −1 ({x}) = {ω ∈ Ω / X(ω) = x} de {x} par X
est un événement.
En particulier :
• Lorsque E ⊂ R, on dit que X est une variable aléatoire discrète réelle.
• Lorsque E = R2 (respectivement Rk avec k ≥ 2), on dit que X est un couple de variables aléatoires réelles
(respectivement vecteur aléatoire réel).

Remarque 16.2 :
1. En probabilités, on utilise la notation absolument pas rigoureuse suivante : l’image réciproque par X d’un élément
x de E est noté [X = x] ou (X = x). Ceci signifie

[X = x] = (X = x) = X −1 ({x}) = {ω ∈ Ω / X(ω) = x},

c’est-à-dire l’ensemble des éléments ω tels que X(ω) = x.


2. Pour une variable aléatoire discrète X, on notera souvent

X(Ω) = {xk / k ∈ K}, où K ⊂ N.

173
16.1. VARIABLES ALÉATOIRES DISCRÈTES MP 2020-21

3. La définition d’une variable aléatoire ne dépend pas d’une quelconque probabilité P , mais seulement de l’espace
probabilisable (Ω, T ).
4. En Sup Ω est fini, ainsi X(Ω) est fini donc au plus dénombrable. En outre chaque (X = x) = X −1 ({x}) est
également fini.
Par conséquent les variables aléatoires vues en Sup sont également des variables aléatoires discrètes.
5. Attention ! Une application Ω → E quelconque avec Ω fini n’est pas toujours une variable aléatoire. Il faut que
chaque [X = x] soit un événement !
lancers successifs d’un pièce et Ω = {P P, F F, P F, F P }. On définit une tribu en
Considérons npar exemple deux o
posant T = ∅, Ω, {P P }, {P P } : ceci contient Ω, c’est stable par complémentaire et par réunion dénombrable.
Soit X : Ω → R l’application qui associe à chaque résultat le nombre de Piles obtenu : ce n’est pas une variable
aléatoire car l’ensemble (X = 1) = X −1 ({1}) = {P F, F P } des résultats de Ω ayant un seule Pile n’est pas
constitué d’éléments de T .

Proposition 16.3 : propriétés des variables aléatoires


Soit X : Ω → E une VAD. On pose X(Ω) = {xk / k ∈ K} où K ⊂ N. Alors :
1. Pour toute partie A ⊂ E de E, l’image réciproque de A par X, notée [X ∈ A], est un événement.
2. Pour tout A ⊂ E, pour toute suite (Ai )i∈I de parties de E, on a :
! !
[ [ \ \
(X ∈ A) = (X ∈ A), X∈ Ai = (X ∈ Ai ), X∈ Ai = (X ∈ Ai ),
i∈I i∈I i∈I i∈I

(X ∈ ∅) = ∅, (X ∈ E) = Ω.
 
3. La famille d’événements (X = xk ) forme une système complets d’événements.
k∈K

Remarque 16.4 :
Ces propriétés permettent de donner une CNS pour que X : Ω → R (c’est-à-dire pour E = R) soit une VAD :
• X(Ω) est au plus dénombrable.
• Pour tout intervalle I de R, on a (X ∈ I) ∈ T .
En effet si X est une VAD c’est une application directe de la proposition.
Réciproquement, supposons que X vérifie les deux propriétés ci-dessus. Soit x ∈ R et I = [a, b] un segment
contenant x. Alors :
(X = x) = (X ∈ [a, x] ∩ [x, b]) = (X ∈ [a, x]) ∩ (X ∈ [x, b]) ∈ T .

Définition 16.5 : événements (X ≥ x), etc.


Soit X : Ω → R une variable aléatoire réelle. On définit alors des événements en posant :
• (X ≥ x) = X −1 ([x, +∞[) et (X > x) = X −1 (]x, +∞[).
• (X ≤ x) = X −1 (] − ∞, x]) et (X < x) = X −1 (] − ∞, x[).

Proposition 16.6 : variable aléatoire indicatrice


Soit A un événement et χA = 1IA : Ω → {0, 1} la fonction indicatrice ou caractéristique de A, définie par χA (ω) = 1
si ω ∈ A et 0 sinon.
Alors χA est une variable aléatoire réelle discrète. On l’appelle variable aléatoire indicatrice.

Afin de parler d’espérance et de variance, nous avons besoin du carré d’une variable aléatoire réelle. Voici la
proposition qui nous le permettra :
Proposition 16.7 : fonction d’une variable aléatoire
Soit X : Ω → E une variable aléatoire discrète. Considérons une fonction f : X(Ω) → F .

Fénelon Sainte-Marie – La Plaine-Monceau 174/230 28 août 2020


CHAPITRE 16. VARIABLES ALÉATOIRES DISCRÈTES MP 2020-21

Alors l’application f ◦ X : Ω → F définie par (f ◦ X)(ω) = f (X(ω)) est une variable aléatoire discrète.
On la note usuellement f (X).

Cette proposition permettra de définir l’espérance et la variance. Elle permet aussi de vérifier que les composantes
d’un vecteur aléatoire sont bien des variables aléatoires :
Corollaire 16.8 : si (X1 , X2 ) vecteur aléatoire discret réel alors X1 et X2 VAD réelles
Soit X : Ω → R2 un vecteur aléatoire discret réel. Notons p1 et p2 les projections canoniques de R2 dans R,
c’est-à-dire définies par p1 (x) = x1 et p2 (x) = x2 , pour x = (x1 , x2 ).
Notons X1 = p1 (X) et X2 = p2 (X). Alors X1 et X2 sont des variables aléatoires discrètes réelles définies sur Ω.

Réciproquement, prouvons que deux variables aléatoires discrètes X1 et X2 donnent lieu à un vecteur aléatoire
discret (X1 , X2 ) :
Proposition 16.9 : si X1 et X2 VAD réelles alors (X1 , X2 ) vecteur aléatoire discret
Soit X1 et X2 deux variables aléatoires discrètes réelles. Définissons X = (X1 , X2 ) : Ω → R2 par X(ω) =
(X1 (ω), X2 (ω)). Alors X est un vecteur aléatoire discret réel.

Proposition 16.10 : min, max et combinaisons linéaires de VAD


Soit X et Y deux variables aléatoires discrètes réelles définies sur Ω.
1. On définit min(X, Y ) : Ω → R et max (X, Y ) : Ω → R par :

∀ω ∈ Ω, min(X, Y )(ω) = min{X(ω), Y (ω)}, max (X, Y )(ω) = max {X(ω), Y (ω)}.

Alors min(X, Y ) et max (X, Y ) sont des variables aléatoires discrètes réelles.
2. Pour tout (λ, µ) ∈ R2 , on définit λX + µY par :

∀ω ∈ Ω, (λX + µY )(ω) = λX(ω) + µY (ω).

Alors λX + µY est une variable aléatoire discrète réelle.

Remarque 16.11 :
Les résultats pour des vecteurs aléatoires à valeurs dans R2 peuvent être étendus à des vecteurs aléatoires à valeurs
dans Rk , k ≥ 2.

16.1.2 Loi de probabilité d’une variable aléatoire


Nous avons défini les variables aléatoires et les probabilités. Lions maintenant ces deux notions.
Proposition 16.12 : loi de probabilité d’une variable aléatoire
Soit (Ω, T , P ) un espace probabilisé.
Soit X : Ω → E une variable aléatoire discrète.
L’ensemble A = P(X(Ω)) est une tribu sur l’ensemble dénombrable X(Ω).
On définit une application PX : A → [0, 1] par :

∀A ∈ A, PX (A) = P (X ∈ A).

Alors cette application PX est une probabilité sur (X(Ω), A).

Définition 16.13 : loi de probabilité d’une VA


La probabilité PX est appelée loi de probabilité de X.
Deux variables aléatoires discrètes X et Y , définies sur Ω et à valeurs dans E, sont dites équiréparties lorsqu’elles
ont même loi, c’est-à-dire PX = PY . On notera ceci X ∼ Y .
Proposition 16.14 : caractérisation de la loi PX d’une variable aléatoire X
Soit (Ω, T , P ) un espace probabilisé.

Fénelon Sainte-Marie – La Plaine-Monceau 175/230 28 août 2020


16.1. VARIABLES ALÉATOIRES DISCRÈTES MP 2020-21

Soit X : Ω → E une variable aléatoire discrète.


Alors la loi PX de X est entièrement déterminée par la donnée de :
• X(Ω) = {xk / k ∈ K}, où K ⊂ N.
• PX ({xk }) = P (X = xk ), pour tout k ∈ K.
La probabilité PX ({xk }) est usuellement notée PX (xk ).

On en déduit :
Proposition 16.15 : sommabilité de (P (X = xk ))k∈K
Soit (Ω, T , P ) un espace probabilisé.
Soit X : Ω → E une variablealéatoire discrète. Notons X(Ω) = {xk / k ∈ K} pour K ⊂ N.
Alors la famille P (X = xk ) est sommable de somme 1.
k∈K

Remarque 16.16 :
Attention, deux variables aléatoires peuvent avoir la même loi sans être égales. En d’autres termes PX = PY mais
X 6= Y .
Exemple 16.17 :
Considérons une variable aléatoire X à valeurs dans E = {−1, 0, 1} et de loi donnée par

P (X = −1) = P (X = 0) = P (X = 1).

Posons Y = −X.
Démontrer que PX = PY mais que X 6= Y .

Conformément au programme officiel, nous admettrons le résultat suivant, qui donne une sorte de réciproque à la
proposition précédente :
P
Proposition 16.18 : construction d’une probabilité à l’aide de (pk )k telle que k∈K pk = 1
Soit (Ω, T ) un espace probabilisable.
Soit X : Ω → E une variable aléatoire discrète. NotonsX X(Ω) = {xk / k ∈ K}, pour K ⊂ N, les xk étant distincts.
Si (pk )k∈K est une suite de réels positifs vérifiant pk = 1. Alors il existe une probabilité P sur (Ω, T ) telle que
k∈K
P (X = xk ) = pk pour tout k ∈ K.
Lemme 16.19 : lim P (X ≥ n) = 0
n→+∞
Soit X une VARD sur un espace probabilisé. Alors lim P (X ≥ n) = 0.
n→+∞

16.1.3 Fonction de répartition d’une variable aléatoire


On rappelle la :
Définition 16.20 : fonction de répartition d’une VAD
Soit (Ω, T , P ) un espace probabilisé au plus dénombrable. Soit X : Ω → R une variable aléatoire discrète.
On appelle fonction de répartition de X la fonction FX : R → [0, 1], définie par

∀x ∈ R, FX (x) = P (X ≤ x).

Proposition 16.21 : propriétés de la fonction de répartition


Soit (Ω, T , P ) un espace probabilisé au plus dénombrable. Soit X : Ω → R une variable aléatoire discrète. On note
FX : R → [0, 1] la fonction de répartition de X. Alors :
1. ∀x ∈ R, 0 ≤ FX (x) ≤ 1.
2. La fonction FX est croissante sur R.

Fénelon Sainte-Marie – La Plaine-Monceau 176/230 28 août 2020


CHAPITRE 16. VARIABLES ALÉATOIRES DISCRÈTES MP 2020-21

3. lim FX (x) = 0 et lim FX (x) = 1.


x→−∞ x→+∞
4. La fonction FX est continue à droite en tout point de R (démonstration hors-programme).
Plus précisément : la fonction FX est continue sur R, sauf en un nombre au plus dénombrable de points (xi )1≤i≤n
ou (xi )i∈N , en lesquels FX est seulement continue à droite :

∀i, lim F (x) < FX (xi ) = lim FX (x).


x→x−
i x→x+
i

Exemple 16.22 :
On considère l’expérience aléatoire qui consiste à lancer successivement trois pièces de monnaie équilibrées et on
s’intéresse au résultat Pile ou Face obtenu sur chaque pièce. L’univers associé à cet expérience aléatoire est

Ω = {P P P, P P F, P F P, P F F, F P P, F P F, F F P, F F F }.

On note X la variable aléatoire qui à un résultat de ce lancer associe le nombre de « Pile » obtenus.
Déterminer la loi de probabilité de X et sa fonction de répartition.

Remarque 16.23 :
La connaissance de la fonction de répartition permet de calculer la probabilité de tout intervalle :
• P (X ∈] − ∞, x]) = P (X ≤ x) = FX (x).
• P (X ∈]x, +∞[) = P (X > x) = 1 − P (X ≤ x) = 1 − FX (x).
• P (X ∈]x, y]) = FX (y) − FX (x).
• P (X ∈] − ∞, x[) = P (X < x) = FX (x− ).
• P (X ∈]x, y[) = P (x < X < y) = FX (y− ) − FX (x).
• P (X ∈ [x, y[) = P (x < X < y) = FX (y− ) − FX (x− ).
• P (X ∈ [x, y]) = P (x ≤ X ≤ y) = FX (y) − FX (x− ).

16.2 Couples de variables aléatoires


16.2.1 Lois conjointes et marginales
On sait déjà que X = (X1 , X2 ) est un couple aléatoire discret réel si et seulement si X1 et X2 sont des variables
aléatoires discrètes réelles (⇐ corollaire 16.8, ⇒ proposition 16.9). Examinons ce qu’il en est pour les lois de probabilités,
plus précisément :
• Si la loi PX d’un couple X = (X1 , X2 ) est connue, alors peut-on déterminer les lois PX1 et PX2 des deux variables
aléatoires X1 et X2 ?
• Si les lois PX1 et PX2 de X1 et X2 sont connues, alors peut-on déterminer la loi du couple X = (X1 , X2 ) ? Et
sinon sous quelles conditions ?
La réponse à la première question est positive, mais ce n’est pas le cas pour la seconde.
Définition 16.24 : loi conjointe de deux VAD
On appelle loi conjointe de X1 et X2 la loi P(X1 ,X2 ) . On rappelle que d’après la proposition 16.14, cette loi est
entièrement déterminée par :
• X(Ω) ⊂ {(x1 , x2 ) / x1 ∈ X1 (Ω), x2 ∈ X2 (Ω)} = X1 (Ω) × X2 (Ω).
• Les P (X = (x1 , x2 )) = P ((X1 = x1 ) ∩ (X2 = x2 )), pour tous x1 ∈ X1 (Ω) et x2 ∈ X2 (Ω). Cette probabilité est
notée PX (x1 , x2 ).

Remarque 16.25 :

Fénelon Sainte-Marie – La Plaine-Monceau 177/230 28 août 2020


16.2. COUPLES DE VARIABLES ALÉATOIRES MP 2020-21

1. Nous avons déjà démontré que PX est une probabilité.


2. Nous verrons que la seule connaissance de PX1 et PX2 ne permet pas de déterminer ces P ((X1 = x1 )∩(X2 = x2 )).

Proposition 16.26 : lois marginales (ou P(X,Y ) donne PX et PY )


Soit Z = (X, Y ) un couple aléatoire discret réel.
Notons Z(Ω) = {(xi , yj ) / i ∈ I, j ∈ J}, où I et J sont deux parties au plus dénombrables de N. Alors :
1. La loi de probabilité PX de la variable aléatoire discrète réelle X est déterminée à partir de la loi P(X,Y ) du
couple (X, Y ) par :
• X(Ω) = {xi / i ∈ I}.
X  
• P (X = xi ) = P (X, Y ) = (xi , yj ) , pour tout i ∈ I.
j∈J

2. La loi de probabilité PY de la variable aléatoire discrète réelle Y est déterminée à partir de la loi P(X,Y ) du
couple (X, Y ) par :
• Y (Ω) = {yj / j ∈ J}.
X  
• P (Y = yj ) = P (X, Y ) = (xi , yj ) , pour tout j ∈ J.
i∈I

La loi conjointe de deux variables aléatoires discrète se visualise à l’aide d’un tableau (éventuellement infini dé-
nombrable). Pour toutes variables aléatoires discrètes réelles X et Y :

y1 ··· yk ··· Loi de X


x1 P(X,Y ) (x1 , y1 ) ··· P(X,Y ) (x1 , yk ) ··· PX (x1 )
.. ..
. .
xn P(X,Y ) (xn , y1 ) · · · P(X,Y ) (xn , yk ) · · · PX (xn )
.. ..
. .
Loi de Y PY (y1 ) ··· PY (yk ) ··· 1

Le n-ième élément de la dernière colonne, soit PX (xn ), s’obtient en additionnant les termes de la n-ième ligne. De
même pour la k-ième colonne.
Définition 16.27 : lois marginales d’un couple (X, Y )
Les lois PX et PY de X et Y sont appelées lois marginales du couple (X, Y ).
Proposition 16.28 : loi conditionnelle
Soit X et Y deux variables aléatoires discrètes réelles sur (Ω, T , P ).
Considérons x ∈ R tel que l’événement (X = x) soit de probabilité non nulle. Notons A = P(Y (Ω)), ensemble des
parties de Y (Ω).
Alors l’application
A = P(Y (Ω)) −→ [0, 1], A 7−→ P(X=x) ([Y ∈ A])
est une probabilité sur (Y (Ω), P(Y (Ω))).

Définition 16.29 : loi conditionnelle


La probabilité A 7→ P(X=x) (Y ∈ A) définie à la proposition précédente est appelée loi conditionnelle de Y sachant
l’événement (X = x).

16.2.2 Variables aléatoires indépendantes


Rappelons que l’objectif est d’examiner le lien entre P(X,Y ) et les lois marginales PX et PY . Nous avons vu à la
proposition 16.26 que l’on pouvait obtenir les lois PX et PY à partir de P(X,Y ) .

Fénelon Sainte-Marie – La Plaine-Monceau 178/230 28 août 2020


CHAPITRE 16. VARIABLES ALÉATOIRES DISCRÈTES MP 2020-21

Nous allons établir une réciproque partielle. Plus précisément, nous allons déterminer la loi conjointe P(X,Y ) de
(X, Y ) en fonction des lois PX et PY lorsque X et Y seront indépendantes au sens défini ci-dessous.
Définition 16.30 : VA indépendantes
Soit X1 , . . . , Xn n variables aléatoires discrètes réelles sur Ω.
On dit qu’elles sont indépendantes lorsque pour tous x1 ∈ X1 (Ω), . . . , xn ∈ Xn (Ω), les événements (X1 = x1 ), . . . ,
(Xn = xn ) sont indépendants.
Remarque 16.31 :
Si X1 , . . . , Xn sont n variables aléatoires discrètes réelles indépendantes, alors :
1. Pour tous x1 ∈ X1 (Ω), . . . , xn ∈ Xn (Ω), on a :
n
! n
\ Y
P (Xi = xi ) = P (Xi = xi ).
i=1 i=1

2. Pour tous Ai ∈ Xi (Ω), 1 ≤ i ≤ n,


n
! n
\ Y
P [Xi ∈ Ai ] = P ([Xi ∈ Ai ]).
i=1 i=1

On en déduit que :
Proposition 16.32 : produit de lois marginales
La loi conjointe P(X1 ,X2 ) du couple X = (X1 , X2 ) de deux variables aléatoires indépendantes X1 et X2 est égale
au produit des lois marginales :

∀(x1 , x2 ) ∈ X(Ω) = (X1 , X2 )(Ω), P(X1 ,X2 ) (x1 , x2 ) = PX1 (x1 )PX2 (x2 ).

Remarque 16.33 :
• Si P(X1 ,X2 ) est connue alors PX1 et PX2 sont connues (proposition 16.26).
• Si PX1 et PX2 sont connues et si X1 et X2 sont indépendantes, alors P(X1 ,X2 ) est connue (proposition 16.32).

Proposition 16.34 : sous-famille d’une famille finie de VADR indépendantes


Si X1 , . . . , Xn sont n variables aléatoires discrètes réelles indépendantes, alors k quelconques parmi elles sont
encore indépendantes. En particulier elles sont indépendantes deux par deux.

Étendons cette notion d’indépendance de n variables aléatoires discrètes à une suite de variables aléatoires :
Définition 16.35 : suite de VA indépendantes
Soit (Xi )i∈N une suite de variables aléatoires discrètes réelles. On dit que c’est une suite de variables aléatoires indé-
pendantes lorsque pour tout sous-ensemble fini I = {i1 , . . . , ik } de N les variables aléatoires (Xi )i∈I sont indépendantes,
au sens où : pour tous xi1 ∈ Xi1 (Ω), . . . , xik ∈ Xik (Ω), les événements (Xi1 = xi1 ), . . . , (Xik = xik ) sont indépendants.

Grâce à la caractérisation d’une suite d’événements indépendants vue dans la proposition 15.37 du chapitre 15
(probabilités), on obtient la caractérisation suivante :
Proposition 16.36 : une CNS pour qu’une suite de VADR soit une suite de VA indépendantes
Soit (Xi )i∈N une suite de variables aléatoires discrètes réelles. Alors : cette suite est une suite de variables aléatoires
indépendantes si et seulement si pour tout entier n ≥ 1, les variables aléatoires (Xi )0≤i≤n sont indépendantes.
Proposition 16.37 : une CNS d’indépendance de variables aléatoires de Bernoulli
Soit (Xi )i∈N une suite de variables aléatoires de Bernoulli (X à valeurs dans {0, 1}).
Alors : les variables aléatoires (Xi )i∈N sont indépendantes si et seulement si les événements (Xi = 1), i ∈ I, sont
indépendants.

Fénelon Sainte-Marie – La Plaine-Monceau 179/230 28 août 2020


16.2. COUPLES DE VARIABLES ALÉATOIRES MP 2020-21

Exemple 16.38 :
Revenons sur un exemple du chapitre 15 formulé en termes de variables aléatoires de Bernoulli.
On lance deux dés et on introduit les trois variables aléatoires de Bernoulli X1 , X2 , X3 définies par : (X1 = 1)
si le premier dé donne un résultat pair ; (X2 = 1) si le second dé donne un résultat pair ; (X3 = 1) si la somme des
numéros des deux dés est paire.
Vérifions que les trois événements (X1 = 1), (X2 = 1) et [X3 = 1] sont deux à deux indépendants mais pas
mutuellement indépendants :
1
• Pour tout i ∈ [[1, 3]], P (Xi = 1) = P (Xi = 0) = .
2
• (X1 = 1) = {P P, P I}, (X2 = 1) = {P P, IP }, (X3 = 1) = {P P, II}.
• (X1 = 1) ∩ (X2 = 1) = {P P }, (X1 = 1) ∩ (X2 = 0) = {P I}, (X1 = 0) ∩ (X2 = 1) = {IP }, (X1 = 0) ∩ (X2 =
0) = {II}.
  1
Ainsi P (X1 = i) ∩ (X2 = j) = = P (X1 = i) × P (X2 = j) et X1 , X2 indépendantes. On prouve de même
4
que X2 , X3 indépendantes et X1 , X3 indépendantes.
  1
• Par contre (X1 = 1) ∩ (X2 = 1) ∩ (X3 = 1) = {P P } donc P (X1 = 1) ∩ (X2 = 1) ∩ (X3 = 1) = alors que
4
1
P (X1 = 1) × P (X2 = 1) × P (X3 = 1) = .
8
Par conséquent les variables aléatoires X1 , X2 et X3 sont deux à deux indépendantes mais pas mutuellement indépen-
dantes.
Conformément au programme officiel, le résultat suivant est admis :
Théorème 16.39 : fonction de variables aléatoires, ou lemme des coalitions
Soit X1 , . . . , Xn n variables aléatoires discrètes réelles indépendantes.
Alors toute fonction de X1 , . . . , Xk est indépendante de toute fonction de Xk+1 , . . . , Xn .
Dans le cas de deux variables X1 , X2 indépendantes, nous pouvons néanmoins prouver le théorème :

16.2.3 Expériences aléatoires indépendantes


Considérations heuristiques
On dit généralement que deux expériences aléatoires sont indépendantes quand il n’y a aucun lien de causalité
entre elles. Par exemple :
1. On lance un dé (expérience E1 ) puis on lance une pièce de monnaie (expérience E2 ). Il est clair que les expériences
E1 et E2 sont indépendantes car il n’y a aucune raison pour que le résultat de E1 influe d’une façon ou d’une
autre sur celui de E2 et inversement.
2. On lance un dé (expérience E1 ) puis on relance le dé une deuxième fois dans les mêmes conditions (expérience
E2 ). Ici aussi E1 et E2 sont indépendantes.
Soient donc E1 et E2 des expériences aléatoires indépendantes, A1 un événement relatif à E1 et A2 un événement
relatif à E2 . On est en droit de postuler l’indépendance des événements A1 et A2 .
Plus généralement, quand n événements A1 , . . . , An sont relatifs respectivement à des expériences aléatoires
indépendantes E1 , . . . , En , on postulera l’indépendance de ces événements et le fait que

P (A1 ∩ · · · ∩ An ) = P (A1 ) · · · P (An ).

Mais un problème mathématique subsiste : de quel espace probabilisé (Ω, T, P ) les Ai sont-ils des événements et quelle
est la probabilité P ?
Des questions analogues se posent lorsqu’on enchaîne une infinité dénombrable de fois des expériences aléatoires
indépendantes, par exemple lorsqu’on répète une infinité de fois une même expérience.
Pour répondre à ces questions nous allons maintenant définir les notions nécessaires à la modélisation d’un tel
problème.

Fénelon Sainte-Marie – La Plaine-Monceau 180/230 28 août 2020


CHAPITRE 16. VARIABLES ALÉATOIRES DISCRÈTES MP 2020-21

Produit fini d’espaces probabilisés


Soient (Ωi , Ti , Pi ) des espaces probabilisés. Considérons le produit cartésien

Ω = Ω1 × Ω2 × · · · × Ωn .

Définition 16.40 : tribu produit (produit fini)


1. Les sous-ensembles de Ω de la forme A1 × · · · × An où, pour tout i ∈ [[1, n]] Ai ∈ Ti , s’appellent pavés mesurables
de Ω.
2. La tribu T sur Ω engendrée 1 par les pavés mesurables s’appelle la tribu produit des tribus Ti et on la note

T = T 1 × · · · × Tn .

Exemple 16.41 :
Considérons deux espaces probabilisables (Ωi , Ti ) pour i ∈ {1, 2}, munis chacun d’une tribu : Ti = {∅, Ωi , Ai , Ai }.
Décrire les 16 pavés mesurables. Déterminer ensuite la tribu produit.

Le théorème permettant de définir une probabilité sur cette nouvelle tribu produit est admis par le programme :
Théorème 16.42 : probabilité produit
Il existe une unique probabilité P sur la tribu produit T telle que pour tout pavé mesurable A = A1 × · · · × An
n
Y
P (A) = Pi (Ai ).
i=1

Cette probabilité s’appelle la probabilité produit des probabilités Pi et on la note

P = P 1 ⊗ · · · ⊗ Pn .

Définition 16.43 : espace probabilisé produit (produit fini)


L’espace (Ω, T , P ), où Ω = Ω1 ×· · ·×Ωn , T = T1 ×· · ·×Tn et P = P1 ⊗· · ·⊗Pn , s’appelle l’espace probabilisé produit
des espaces probabilisés (Ωi , Ti , Pi ), i ∈ [[1, n]].
La notion d’espace produit permet de modéliser correctement la notion d’expériences aléatoires indépendantes
introduite plus haut.
Considérons en effet n expériences aléatoires Ei , i ∈ [[1, n]] indépendantes (au sens donné en début de sous-section)
et supposons que Ei est modélisée par un espace probabilisé (Ωi , Ti , Pi ). Soit E l’expérience aléatoire « E1 puis E2 puis
. . . puis En » consistant en la succession des diverses expériences indépendantes Ei .
On modélise alors l’expérience E par l’espace probabilisé produit (Ω, T, P ) des espaces probabilisés (Ωi , Ti , Pi ).
Remarque 16.44 :
Avec les notations précédentes, soit Ai ∈ Ti un événement relatif à la i-ème expérience. Il s’identifie naturellement
à l’événement
Ãi = Ω1 × · · · × Ωi−1 × Ai × Ωi+1 × · · · × Ωn
de la tribu produit T . Ces événements sont indépendants dans l’espace produit puisque
  n
Y n
Y  
P Ã1 ∩ Ã2 ∩ · · · ∩ Ãn = P (A1 × A2 × · · · × An ) = Pi (Ai ) = P Ãi .
i=1 i=1

On a donc bien construit un espace probabilisé dans lequel les événements associés à des expériences aléatoires
indépendantes sont naturellement vus comme des événements mutuellement indépendants.
Voyons maintenant le cas d’un produit infini d’espaces probabilisés, dans un contexte restreint qui suffira pour
répondre aux attentes du programme officiel.
1. i.e. la plus petite tribu de parties de Ω qui existe contenant les pavés mesurables puisque c’est l’intersection de toutes les tribus de
Ω qui contiennent lesdits pavés.

Fénelon Sainte-Marie – La Plaine-Monceau 181/230 28 août 2020


16.2. COUPLES DE VARIABLES ALÉATOIRES MP 2020-21

Exemple de produit infini d’espaces probabilisés


Il n’est pas possible de généraliser la notion d’espace probabilisé produit définie ci-dessus au cas d’une infinité
dénombrable (Ωi , Ti , Pi ), i ∈ N, d’espaces probabilisés quelconques.
On peut toujours généraliser la notion de tribu produit mais c’est la probabilité produit qui pose problème si on
ne fait pas certaines hypothèses sur la structure des espaces Ωi et des tribus Ti . Ceci nécessiterait de développer des
notions qui dépassent le cadre de ce cours.
Nous allons donc seulement considérer un cas particulier très important dans la pratique : soit E un ensemble
fini, P(E) la tribu de toutes les parties de E et P une probabilité sur P(E). Le triplet (E, P(E), P ) modélisant une
expérience aléatoire E a un nombre fini d’issues. Considérons le produit cartésien
+∞
Y ∗
Ω = E × E × ··· × E × ··· = E = EN
i=1

d’une infinité dénombrable de copies de l’ensemble E. Ω est l’ensemble des suites infinies (xn )n∈N∗ d’éléments de E.
Définition 16.45 : tribu cylindrique
+∞
Y
1. On appelle ensembles cylindriques ou plus simplement cylindres les sous-ensembles de Ω de la forme C = Ai ,
i=1
tels que Ai ⊂ E et Ai = E à partir d’un certain rang :

C = A1 × · · · × An C × E × E × · · · × E × · · ·

2. On appelle tribu cylindrique la tribu sur Ω engendrée par les cylindres. On la notera T .

Le théorème suivant, admis par le programme, permet de définir une probabilité sur T vérifiant les conditions
souhaitées.
Théorème 16.46 : une probabilité sur la tribu cylindrique
Il existe une unique probabilité P sur la tribu cylindrique T telle que, pour tout cylindre de la forme C =
A1 × · · · × AnC × E × · · · , on ait
nC
Y
P (C) = P (Ai ).
i=1

Remarque 16.47 :
Comme dans le cas d’un produit fini d’espaces probabilisés, on voit que des événements relatifs à des coordonnées
différentes, sont des événements indépendants pour la probabilité P .
Ce cadre convient à l’étude d’une infinité d’expériences indépendantes. L’expérience aléatoire consistant en une
infinité de répétitions indépendantes de l’expérience aléatoire E représentée par (E, P(E), P ) est en effet modélisée
par l’espace probabilisé (Ω, T , P ).
Exemple 16.48 :
1. On lance une infinité de fois une pièce de monnaie équilibrée. Ici, E = {P, F }, et P est la probabilité uniforme.
Le théorème assure donc que l’on peut définir un espace probabilisé (Ω, T , P ) où Ω est l’ensemble des suites à
valeurs dans {P, F }.
Par ailleurs la probabilité d’obtenir une suite donnée de Piles ou Faces aux n0 > 0 premiers lancers et n’importe
1
quel résultat à partir du rang n0 + 1, est égale à n0 .
2
Pour tout n ∈ N∗ , au n-ième lancer, on peut également introduire la variable aléatoire de Bernoulli Xn (égale à
1 si l’on obtient Pile et 0 sinon). On définit ainsi une suite (Xn )n∈N∗ de variables aléatoires telles que :
n0
!
Y 1
P [Xk = xk ] = n0 .
2
k=1

pour tout n0 > 0 et toute suite (xk )k∈[[1,n0 ]] de {0, 1}n0 .

Fénelon Sainte-Marie – La Plaine-Monceau 182/230 28 août 2020


CHAPITRE 16. VARIABLES ALÉATOIRES DISCRÈTES MP 2020-21

2. Temps d’attente du premier succès.


On considère une expérience aléatoire à deux issues : S(=succès) et E(=échec), avec P (S) = p (donc P (E) =
1 − p). On répète de manière indépendante l’expérience aléatoire jusqu’au premier succès.

(a) Calculer la probabilité d’obtenir le premier succès à la k-ième tentative (événement noté Ak ) (k ≥ 1).
(b) Préciser l’espace probabilisé dans lequel on peut modéliser le jeu et montrer que l’événement Ak de la
question 1) est un événement cylindrique.
(c) Quelle est la probabilité que le succès n’arrive jamais ?

16.3 Espérance
16.3.1 Définitions et premières propriétés
En MPSI, nous avons défini pour une variable aléatoire X réelle et prenant pour valeurs x1 , . . . , xn , l’espérance
de X grâce à la formule :
Xn Xn
E(X) = xi PX (xi ) = xi P (X = xi ).
i=1 i=1

Nous allons généraliser cette notion aux variables aléatoires discrètes réelles. La variable aléatoire X prend désormais
un nombre au plus dénombrable de valeurs. On la suppose pour le moment et pour plus de commodité à valeurs
positives : X(Ω) ={xk / k ∈ N} avec
 xk ≥ 0 pour tout k. L’espérance de X est alors par définition la somme (finie ou
non) de la famille xk P (X = xk ) .
k∈N
Définition 16.49 : espérance d’une variable aléatoire discrète  
Soit X une variable aléatoire réelle. On dit que X est d’espérance finie lorsque la famille xP (X = x) est
x∈X(Ω)
X
sommable. Sa somme E(X) = xP (X = x) est appelée espérance de X.
x∈X(Ω)
 
Lorsque la famille xP (X = x) n’est pas sommable (mais quand même à termes positifs), on dit parfois
x∈X(Ω)
que X admet une espérance infinie.
Remarque 16.50 :

• Une variable aléatoire discrète prenant un nombre fini de valeurs admet toujours une espérance.
• Une variable aléatoire prenant un nombre dénombrable de valeurs n’admet pas toujours une espérance !

Exemple 16.51 :

1. On lance deux dés et on note X la variable aléatoire égale à la somme des numéros apparaissant sur les deux
dés. Déterminer l’espérance de X.
2. Soit X une variable aléatoire prenant les valeurs n ∈ N∗ avec les probabilités :

1
P ([X = n]) = .
n(n + 1)

3. Soit une variable aléatoire X prenant les valeurs n ∈ Z∗ avec les probabilités :

1
P (X = n) = .
2|n|(|n| + 1)

Déterminer l’espérance de X.

Fénelon Sainte-Marie – La Plaine-Monceau 183/230 28 août 2020


16.3. ESPÉRANCE MP 2020-21

Lemme 16.52 : espérance d’une variable aléatoire indicatrice


Soit 1IA la variable aléatoire indicatrice de l’événement A.
Alors 1IA admet une espérance et E(1IA ) = P (A).

Proposition 16.53 : espérance de VARD équiréparties (PX = PY ⇒ E(X) = E(Y ))


Deux variables aléatoires réelles discrètes équiréparties admettant une espérance ont la même espérance (finie ou
infinie).
En d’autres termes : soit X et Y sont deux variables aléatoires discrètes réelles telles que X(Ω) = Y (Ω0 ).
On suppose que X et Y ont même loi de probabilité (PX = PY ). Alors E(X) = E(Y ).

Définition 16.54 : VA centrée


Une variable aléatoire discrète réelle admettant une espérance nulle est dite centrée.
Remarque 16.55 :
Une variable aléatoire X constante de valeur k admet une espérance, de valeur k !

16.3.2 Encore des propriétés de l’espérance


Théorème 16.56 : théorème de transfert
Soit X une variable aléatoire discrète et f une fonction définie sur X(Ω) et à valeurs 
réelles. 
Alors : la variable aléatoire f (X) a une espérance finie si et seulement si la famille f (x)P (X = x) est
x∈X(Ω)
sommable. Dans ce cas : X
E(f (X)) = f (x)P (X = x).
x∈X(Ω)

Remarque 16.57 :
1. Le théorème de transfert nous donne une démonstration très courte de la linéarité de l’espérance. En effet il
vient λX + µY = f ◦ (X, Y ) où f (x, y) = λx + µy et X, Y sont deux variables aléatoires, donc sous réserve
d’existence :
X  
E(λX + µY ) = E(f (X, Y )) = (λx + µy)P (X, Y ) = (x, y)
(x,y)
X
= (λx + µy)P ([X = x] ∩ [Y = y])
(x,y)
X X
= λ xP ([X = x] ∩ [Y = y]) + µ yP ([X = x] ∩ [Y = y])
(x,y) (x,y)
X X X X
= λ x P ([X = x] ∩ [Y = y]) + µ y P ([X = x] ∩ [Y = y])
x y y x
X X X X
= λ x P ([X = x])P ([Y = y]) + µ y P ([X = x])P ([Y = y]) (loi marginale de X)
x y y x
X X X X
= λ xP ([X = x]) P ([Y = y]) + µ yP ([Y = y]) P ([X = x])
x y y x
X X
= λ xP ([X = x]) + µ yP ([Y = y]) = λE(X) + µE(Y ).
x y

2. Ce théorème prouve par la même occasion qu’il n’est pas nécessaire de déterminer la loi de f (X) pour calculer
l’espérance de f (X) : on n’a besoin que de connaître la loi de X et la fonction f .

Exemple 16.58 :
1 2 2
Soit X une variable aléatoire ne prenant que les valeurs −1, 0 et 1 avec les probabilités , et .
9 9 3

Fénelon Sainte-Marie – La Plaine-Monceau 184/230 28 août 2020


CHAPITRE 16. VARIABLES ALÉATOIRES DISCRÈTES MP 2020-21

Alors X 2 a pour espérance (en posant f (x) = x2 ) :

1 2 2 7
E(X 2 ) = f (−1)P (X = −1) + f (0)P (X = 0) + f (1)P (X = 1) = 1 × +0× +1× = .
9 9 3 9

La propriété de linéarité de l’espérance vue en Sup se généralise :


Proposition 16.59 : linéarité de l’espérance
1. L’ensemble E des variables aléatoires discrètes de Ω dans R et d’espérance finie est un espace vectoriel.
2. L’application espérance E : E → R, qui associe à une variable aléatoire son espérance, est une forme linéaire.

Définition 16.60 : variable aléatoire centrée associée à une VA


Soit X une variable aléatoire discrète réelle admettant une espérance finie. Alors E(X − E(X)) = 0.
La variable aléatoire discrète réelle X − E(X) est appelée variable centrée associée à X.
Proposition 16.61 : positivité et croissance de l’espérance
1. L’application espérance E est positive : si X ∈ E et X(Ω) ⊂ R+ , alors E(X) ≥ 0.
2. L’application espérance est croissante : si (X, Y ) ∈ E 2 et X ≤ Y alors E(X) ≤ E(Y ).

Exemple 16.62 :
On lance deux dés. On note X et Y le minimum et le maximum obtenus sur les faces des deux dés. On a ainsi
X ≤ Y et donc E(X) ≤ E(Y ).
La propriété suivante sera utile lors de l’étude de la variance d’une somme :
Proposition 16.63 : toute VA absolument majorée par une VA à espérance a une espérance
Soit X et Y deux variables aléatoires discrètes réelles. On suppose que Y admet une espérance finie et que
0≤X ≤Y.
Alors X a une espérance finie.

Proposition 16.64 : inégalité de Markov


Soit X une variable aléatoire discrète réelle positive admettant une espérance finie. Alors pour tout a > 0 :

E(X)
P ([X ≥ a]) ≤ .
a

Proposition 16.65 : espérance d’un produit de VADR indépendantes


Soit X et Y deux variables aléatoires discrètes réelles. On suppose que X et Y sont indépendantes et admettent
chacune une espérance finie.
Alors la variable aléatoire XY admet une espérance finie et :

E(XY ) = E(X)E(Y ).

Remarque 16.66 :
La réciproque de cette proposition est fausse. Il se peut E(XY ) = E(X)E(Y ) sans que X et Y soient indépendantes.

Exemple 16.67 :
1
Considérons X la variable aléatoire de loi uniforme sur {−1, 0, 1} (P (X = −1) = P (X = 0) = P (X = 1) = ) et
3
Y = X 2 . Démontrer que E(XY ) = E(X)E(Y ) avec X et Y non indépendantes.

Fénelon Sainte-Marie – La Plaine-Monceau 185/230 28 août 2020


16.3. ESPÉRANCE MP 2020-21

Généralisons au produit de n variables aléatoires indépendantes :


Proposition 16.68 : espérance d’un produit de variables aléatoires indépendantes
Soit X1 , . . . , Xn des variables aléatoires discrètes réelles.
Supposons qu’elles sont mutuellement indépendantes et qu’elles admettent chacune une espérance finie.
Alors la variable aléatoire Yn = X1 · · · Xn admet une espérance finie et :
n
! n
Y Y
E Xi = E(Xi ).
i=1 i=1

Remarque 16.69 :
Attention, il ne suffit pas que les variables aléatoires soient seulement indépendantes deux à deux.
Exemple 16.70 :
Revenons sur l’exemple 16.38. On considère un lancer de deux dés et les variables X, Y , Z de Bernoulli définies
par : (X = 1) lorsque le premier dé donne un résultat pair ; (Y = 1) lorsque le second dé donne un résultat pair ;
(Z = 1) lorsque la somme des résultats des deux dés donne un résultat pair. Les variables aléatoires X, Y et Z sont
1 1
indépendantes deux à deux, mais E(XY Z) = et E(X)E(Y )E(Z) = .
4 8
1. Il est clair que X et Y sont indépendantes.
2. Prouvons que X et Z sont indépendantes.
1 1 1
D’une part P (X = i)P (Z = j) = × = . D’autre part, comme déjà vu :
2 2 4
  1
• L’événement (X = 1) ∩ (Z = 1) n’est réalisé que pour P P , donc P (X = 1) ∩ (Z = 1) = .
4
  1
• L’événement (X = 1) ∩ (Z = 0) n’est réalisé que pour P I, ce qui donne P (X = 1) ∩ (Z = 0) = .
4
  1
• L’événement (X = 0) ∩ (Z = 1) n’est réalisé que pour II, ce qui donne P (X = 0) ∩ (Z = 1) = .
4
  1
• L’événement (X = 0) ∩ (Z = 0) n’est réalisé que pour IP , ce qui donne P (X = 0) ∩ (Z = 0) = .
4
3. De même Y et Z sont indépendantes.
4. Calcul des espérances :

XY Z(P P ) = 1 × 1 × 1 = 1, XY Z(P I) = 1 × 0 × 0 = 0,
XY Z(IP ) = 0 × 1 × 0 = 0, XY Z(II) = 0 × 0 × 1 = 0,

donc
X 1
E(XY Z) = xP (XY Z = x) = 1 × P (XY Z = 1) + 0 × P (XY Z = 0) = ,
4
x∈{0,1}

1
alors que E(X)E(Y )E(Z) = .
8

16.3.3 Moments
Définition 16.71 : moment d’ordre m
Soit X une variable aléatoire discrète réelle et m ∈ N∗ . Si X m admet une espérance finie, on dit que X admet un
moment d’ordre m, et ce moment d’ordre m est E(X m ).
Remarque 16.72 :
1. Dire que X admet un moment d’ordre 1 signifie donc que X admet tout simplement une espérance !

Fénelon Sainte-Marie – La Plaine-Monceau 186/230 28 août 2020


CHAPITRE 16. VARIABLES ALÉATOIRES DISCRÈTES MP 2020-21

2. Lorsque X admet un moment d’ordre 2 nul, alors P (X = 0) = 1 c’est-à-dire X = 0 presque sûrement.


X
En effet E(X 2 ) = x2 P (X = x). Si E(X 2 ) = 0 alors pour tout x 6= 0 il vient P (X = x) = 0. Or
x∈X(Ω)
 
(X = x) forme un SCE, donc P (X = 0) = 1.
x∈X(Ω)

Proposition 16.73 : E(X 2 ) est finie ⇒ E(X) est finie


Soit X une variable aléatoire discrète réelle admettant un moment d’ordre deux. Alors X admet une espérance
finie.

Remarque 16.74 :
Cette propriété peut facilement être généralisée : l’existence d’un moment d’ordre m entraîne les existences des
moments d’ordre n ≤ m.
Théorème 16.75 : inégalité de Cauchy-Schwarz
Soit X et Y deux variables aléatoires discrètes réelles admettant chacune un moment d’ordre 2.
Alors XY a une espérance finie et E(XY )2 ≤ E(X 2 )E(Y 2 ).

On déduit de cette proposition le résultat suivant :


Proposition 16.76 : l’espace des VADR ayant un moment d’ordre 2
L’ensemble des variables aléatoires discrètes réelles définies sur Ω admettant un moment d’ordre deux est un sous-
espace vectoriel de l’espace vectoriel des variables aléatoires discrètes réelles définies sur Ω et d’espérance finie.

On a défini l’espérance, qui est une moyenne des valeurs prises par une variable aléatoire X, pondérée par les
probabilités. On définit maintenant une quantité permettant de mesurer l’écart autour de cette moyenne, c’est-à-dire
l’écart autour de l’espérance.
Définition 16.77 : variance
Soit X une variable aléatoire discrète réelle admettant un moment d’ordre deux. On définit alors la variance de X,
notée V (X), par :  
V (X) = E (X − E(X))2
et l’écart-type de X par : p
σ(X) = V (X).
Remarque 16.78 :

1. Une variable aléatoire ne prenant qu’un nombre fini de valeurs admet toujours une espérance, des moments à
tout ordre et donc une variance.
2. La définition de la variance a un sens.
En effet X admet un moment d’ordre deux donc d’ordre 1, ainsi en posant m = E(X) : la variable aléatoire
(X − m)2 = X 2 − 2mX + m2 admet bien une espérance.

Proposition 16.79 : formule de König-Huygens


Soit X une variable aléatoire discrète réelle admettant un moment d’ordre deux. Alors :
1. Formule de König-Huygens : V (X) = E(X 2 ) − E(X)2 .
2. Pour tous réels a et b, σ(aX + b) = |a|σ(X) et V (aX + b) = a2 V (X).

Définition 16.80 : variable réduite, variable centrée réduite


Soit X une variable aléatoire discrète réelle admettant un moment d’ordre deux et d’écart-type σ(X) > 0.
1
1. La variable aléatoire X a alors un écart-type égal à 1.
σ(X)
Elle est appelée variable réduite associée à X.

Fénelon Sainte-Marie – La Plaine-Monceau 187/230 28 août 2020


16.3. ESPÉRANCE MP 2020-21

X − E(X)
2. La variable aléatoire a une espérance nulle et un écart-type égal à 1.
σ(X)
Elle est appelée variable centrée réduite associée à X.

Remarque 16.81 :
Si X est une variable aléatoire discrète réelle admettant un écart-type nul, alors X est presque sûrement égale à
une variable aléatoire constante: P (X = E(X)) = 1.  
En effet si σ(X) = 0 alors E (X − E(X)) = 0 donc P (X − E(X))2 = 0 = 1 c’est-à-dire P (X = E(X)) = 1.
2

Théorème 16.82 : inégalité de Bienaymé-Tchebychev


Soit X une variable aléatoire discrète réelle admettant un moment d’ordre deux. Alors :
V (X)
∀ε > 0, P (|X − E(X)| ≥ ε) ≤ .
ε2

Remarque 16.83 :
La quantité P (|X − E(X)| ≥ ε) est la probabilité que X prenne des valeurs dont la distance à E(X) est supérieure
ou égale à ε. Cette probabilité est d’autant plus faible que ε est grand et que V (X) est petit (la variance mesure la
dispersion des valeurs prises par X).
Définition 16.84 : covariance
Soit X et Y deux variables aléatoires discrètes réelles admettant un moment d’ordre 2.
On appelle covariance de X et de Y le nombre réel
 
cov(X, Y ) = E (X − E(X))(Y − E(Y )) ,

qui existe puisque X, Y et XY admettent de fait une espérance (cf. proposition 16.73 et théorème 16.75).
Proposition 16.85 : existence de la covariance
Soit X et Y deux variables aléatoires discrètes réelles admettant un moment d’ordre deux.
Alors la covariance de X et de Y existe et on a :

cov(X, Y ) = E(XY ) − E(X)E(Y ).

La définition de la covariance et de la linéarité de l’espérance permettent d’obtenir les règles de calcul ci-dessous :
Proposition 16.86 : propriétés de la covariance
Soit X , X 0 , Y et Y 0 quatre variables aléatoires discrètes réelles et admettant un moment d’ordre deux. Fixons a,
b, c, d quatre réels. Alors :
1. cov(Y, X) = cov(X, Y ).
2. cov(X, X) = V (X).
3. cov(aX + b, cY + d) = ac cov(X, Y ).
4. cov(aX + bX 0 , cY + dY 0 ) = ac cov(X, Y ) + bc cov(X 0 , Y ) + ad cov(X, Y 0 ) + bd cov(X 0 , Y 0 ).

Remarque 16.87 :
La covariance est donc une forme bilinéaire symétrique positive sur l’espace vectoriel des variables aléatoires
discrètes réelles admettant un moment d’ordre deux.
Proposition 16.88 : deux variables aléatoires indépendantes sont de covariance nulle
Soit X et Y deux variables aléatoires discrètes réelles.
Si X et Y sont indépendantes et admettent un moment d’ordre deux, alors cov(X, Y ) = 0.

Fénelon Sainte-Marie – La Plaine-Monceau 188/230 28 août 2020


CHAPITRE 16. VARIABLES ALÉATOIRES DISCRÈTES MP 2020-21

Remarque 16.89 :
La contraposée de cette proposition est souvent utilisée : si cov(X, Y ) 6= 0 alors X et Y ne sont pas indépendantes.
Attention : si cov(X, Y ) = 0, on ne peut rien conclure quant à l’indépendance de X et Y .
Définition 16.90 : VA non corrélées
Soit X et Y deux variables aléatoires admettant une covariance nulle.
On dit alors que les variables X et Y sont non corrélées.
Proposition 16.91 : variance de la somme
Soit X et Y deux variables aléatoires discrètes réelles. Si elles admettent un moment d’ordre deux, alors :
1. La variable aléatoire X + Y a un moment d’ordre deux et V (X + Y ) = V (X) + V (Y ) + 2 cov(X, Y ).
2. Si X et Y sont indépendantes, alors V (X + Y ) = V (X) + V (Y ).

Ce résultat se généralise par récurrence sans difficulté.


Proposition 16.92 : variance d’une somme de variables aléatoires
Soit X1 , . . . , Xn des variables aléatoires discrètes réelles.
On suppose qu’elles admettent toutes des moments d’ordre deux. Alors :
1. La variable X1 + · · · + Xn admet une variance et :
n
X X
V (X1 + · · · + Xn ) = V (Xi ) + 2 cov(Xi , Xj ).
i=1 1≤i<j≤n

2. Si les variables X1 , . . . , Xn sont deux à deux indépendantes (pas besoin qu’elles soient mutuellement indépen-
dantes), alors :
n
X
V (X1 + · · · + Xn ) = V (Xi ).
i=1

Remarque 16.93 :
Cette propriété implique que la variance d’une somme de variables aléatoires (discrètes, réelles et admettant toutes
un moment d’ordre deux) est la somme des variances dès que les variables aléatoires sont deux à deux non corrélées.

16.4 Loi faible des grands nombres


Théorème 16.94 : loi faible des grands nombres
Soit (Xn )n∈N∗ une suite de variables aléatoires réelles deux à deux indépendantes.
On suppose que :
1. Elles admettent toutes un moment d’ordre deux.
2. Elles sont toutes de même loi de probabilités : ∀(i, j), PXi = PXj .
n
X
On note m l’espérance commune à toutes ces variables aléatoires Xn et Sn = Xi . Alors :
i=1
 
Sn
∀ε > 0, lim P
− m ≥ ε = 0.

n→+∞ n
 
Sn
On dit que la suite converge en probabilité vers la variable constante égale à m.
n n

Remarque 16.95 :

Fénelon Sainte-Marie – La Plaine-Monceau 189/230 28 août 2020


16.5. FONCTIONS GÉNÉRATRICES MP 2020-21

L’inégalité démontrée sous les hypothèses précédentes :

σ2
 
Sn
P − m ≥ ε ≤
n nε2

est importante et souvent utilisée en exercice, donc il convient de savoir la retrouver.


Exemple 16.96 :
On considère une suite d’épreuves indépendantes.
Fixons un événement A, de probabilité p. On note Xn la variable de Bernoulli égale à 1 lorsque A est réalisé à la
n-ième épreuve. Les variables (Xn )n∈N∗ sont indépendantes et de même loi, d’espérance p. La fréquence, notée Fn ,
Sn
de réalisation de l’événement A au cours des n premières épreuves est égale à la variable aléatoire . D’après la loi
n
faible des grands nombres :
∀ε > 0, lim P (|Fn − p| ≥ ε) = 0.
n→+∞

Ainsi, la fréquence tend en probabilité vers p, ce qui semble naturel.

16.5 Fonctions génératrices


Définition 16.97 : fonction génératrice
Soit X une variable aléatoire à valeurs dans N. On définit la fonction génératrice GX de X par :
+∞
X
GX (t) = E(tX ) = P ([X = k])tk
k=0

pour les valeurs réelles de t telles que la variable aléatoire discrète tX admet une espérance finie.
Remarque 16.98 :
L’application tX , à t réel fixé, est une variable aléatoire réelle dont l’espérance est obtenue en utilisant le théorème
de transfert.
Proposition 16.99 : propriétés de la série génératrice d’une variable aléatoire
Soit X une variable aléatoire à valeurs dans N. Alors :
1. Le rayon R de convergence de la série entière GX est supérieur ou égal à 1.
2. Soit k ∈ N. Alors :
(k)
GX (0)
P ([X = k]) = .
k!
3. Si R > 1, alors X admet un moment d’ordre k pour tout k ∈ N∗ et :
 
(k)
G0X (1) = E(X), G00X (1) = E(X(X − 1)), GX (1) = E X(X − 1) · · · (X − k + 1) .

Dans ce cas V (X) = G00X (1) + G0X (1) − G0X (1)2 .

Remarque 16.100 :
Grâce à la proposition précédente, on déduit que deux variables aléatoires ayant des fonctions génératrices égales
sur un intervalle ouvert centré en 0 sont équiréparties : GX = GY ⇒ PX = PY . Elles ne sont pas pour autant égales !

Dans le cas où l’on suppose seulement R ≥ 1, les propriétés sur les séries entières vont permettre de généraliser la
proposition précédente.
Proposition 16.101 : fonction génératrice, espérance et variance
Soit X une variable aléatoire à valeurs dans N. Alors :

Fénelon Sainte-Marie – La Plaine-Monceau 190/230 28 août 2020


CHAPITRE 16. VARIABLES ALÉATOIRES DISCRÈTES MP 2020-21

1. La variable aléatoire X admet une espérance finie si et seulement si la série entière GX est dérivable en 1.
Dans ce cas : G0X (1) = E(X).
2. La variable aléatoire X admet un moment d’ordre deux si et seulement si GX est deux fois dérivable en 1.
Dans ce cas G00X (1) = E(X(X − 1)) et V (X) = G00X (1) + G0X (1) − G0X (1)2 .

Remarque 16.102 :
On peut généraliser ce résultat et montrer, pour tout entier n, que X admet un moment d’ordre n si et seulement
si GX admet une dérivée n-ième à gauche en 1. Dans ce cas :
 
(n)
E X(X − 1) · · · (X − n + 1) = GX (1).

Proposition 16.103 : fonction génératrice et somme


1. Soit X et Y deux variables aléatoires à valeurs dans N et indépendantes. Alors, pour tout t ∈] − 1, 1[ :

GX+Y (t) = GX (t)GY (t).

2. Soit n variables aléatoires X1 , . . . , Xn à valeurs dans N et mutuellement indépendantes.


Alors, sur l’intervalle ] − 1, 1[ :
Yn
GPni=1 Xi = GXi .
i=1

16.6 Lois usuelles


16.6.1 Loi binomiale
Définition 16.104 : loi binomiale
On dit qu’une variable aléatoire X suit une loi binomiale de paramètres (n, p), lorsque X représente le nombre de
succès au cours de n expériences de Bernoulli indépendantes
  et toutes de paramètre p.
n k
On a alors X(Ω) = [[0, n]] et P ([X = k]) = p (1 − p)n−k .
k
On la note X ,→ B(n, p).
Proposition 16.105 : espérance et variance d’une loi binomiale
Soit X ,→ B(n, p). Alors E(X) = np et V (X) = np(1 − p).

16.6.2 Loi géométrique


Épreuve-type : on répète des épreuves de Bernoulli identiques et mutuellement indépendantes, jusqu’à l’apparition
du premier succès.
On s’intéresse à la variable X égale au rang du premier succès, c’est-à-dire au nombre d’épreuves nécessaires à la
réalisation du premier succès.
Remarque 16.106 :
Pour la loi binomiale, le nombre d’épreuves est connu. Ici, ce n’est pas le cas !
Définition 16.107 : loi géométrique
On dit que la variable aléatoire X suit une loi géométrique de paramètre p ∈]0, 1[ lorsque :
1. X(Ω) = N∗ .
2. P ([X = k]) = p(1 − p)k−1 pour tout entier k > 0.

Fénelon Sainte-Marie – La Plaine-Monceau 191/230 28 août 2020


16.6. LOIS USUELLES MP 2020-21

On note X ,→ G(p) et on pose q = 1 − p.


Remarque 16.108 :
1
On vérifie que cette définition a un sens, car la série géométrique de raison 1 − q est de somme .
p
Exemple 16.109 :
On lance une infinité de fois un dé jusqu’à l’obtention du premier 6. On note X la variable aléatoire égale au
1
nombre de lancers obtenus. Cette variable aléatoire X suit une loi géométrique de paramètre .
6
Proposition 16.110 : espérance et variance d’une loi géométrique
1 q
Soit X ,→ G(p). Alors E(X) = et V (X) = 2 .
p p

Remarque 16.111 :
Intuitivement, l’expression de l’espérance peut se comprendre par le fait que, pour n épreuves, le nombre de succès
est approximativement np (n lancers, chacun ayant p comme probabilité de réussite) et que, pour obtenir le premier
n
succès, il faut s’attendre à effectuer épreuves.
np
Proposition 16.112 : absence de mémoire de la loi géométrique
La loi géométrique est la seule loi de probabilité discrète à valeurs dans N∗ et vérifiant :

PX>n (X > n + m) = P (X > m) pour tous entiers m, n.

Remarque 16.113 :
Cette propriété se traduit en disant que la loi géométrique est sans mémoire : le nombre d’épreuves à répéter
jusqu’à l’obtention d’un premier succès est le même quel que soit le nombre d’épreuves effectuées auparavant.
En considérant l’épreuve-type, l’égalité PX>n (X > n + m) = P (X > m) peut se traduire par « la probabilité qu’il
n’y ait pas encore eu de succès à l’instant n + m, sachant qu’il n’y en avait pas eu avant l’instant n, est égale à la
probabilité qu’il n’y ait pas eu de succès à l’instant m ».

16.6.3 Loi de Poisson


Définition 16.114 : loi de Poisson
On dit qu’une variable aléatoire X suit la loi de Poisson de paramètre λ > 0 lorsque :
1. X(Ω) = N.
λk
2. P ([X = k]) = e−λ pour tout entier k.
k!
On note X ,→ P (λ).
Remarque 16.115 :
λk
Cette définition a bien un sens, car la série de terme général e−λest à termes positifs et de somme 1.
k!
Proposition 16.116 : espérance et variance d’une loi de Poisson
Soit X une variable aléatoire qui suit la loi de Poisson P (λ).
Alors E(X) = λ et V (X) = λ.

Remarque 16.117 :
Soit X une variable aléatoire de loi de Poisson P (λ).
1. Alors X prend des valeurs assez petites, car la probabilité P ([X = k]) est petite pour k grand.
Ceci justifie le fait que la loi de Poisson est souvent appelée « loi des événements rares ».

Fénelon Sainte-Marie – La Plaine-Monceau 192/230 28 août 2020


CHAPITRE 16. VARIABLES ALÉATOIRES DISCRÈTES MP 2020-21

2. Nous avons effleuré en Terminale (sous la dénomination d’intervalle de fluctuation) le comportement asympto-
tique d’une suite de lois binomiales. Approfondissons la question :

Proposition 16.118 : approximation d’une limite de loi binomiale par une loi de Poisson
Soit (Xn )n∈N une suite de variables aléatoires telle que pour tout n, Xn suit une loi binomiale de paramètres
(n, pn ) : Xn ,→ B(n, pn ).
On suppose que lorsque n tend vers l’infini le produit n · pn des paramètres tend vers une limite λ > 0. Alors :

λk
∀k ∈ N, lim P (Xn = k) = e−λ .
n→+∞ k!

Remarque 16.119 :
Avec les notations de la proposition.
Soit X une variable aléatoire suivant une loi de Poisson de paramètre λ.
Alors lim E(Xn ) = lim npn = λ = E(X) et lim V (Xn ) = lim npn (1 − pn ) = λ = V (X).
n→+∞ n→+∞ n→+∞ n→+∞

Remarque 16.120 :
Soit Xn une loi binomiale B(n, pn ). La variable aléatoire Xn représente le nombre de succès au cours de n expériences
de Bernoulli indépendantes de paramètres respectifs pn .
Or lim npn = λ donc la suite (pn )n tend vers 0 et ainsi la probabilité du succès des expériences de Bernoulli
n→+∞
tend vers 0.
En pratique, l’usage est de considérer l’approximation d’une loi binomiale B(n, p) par une loi de Poisson comme
valable dès que n > 20, p ≤ 0, 1 et np ≤ 5.
On peut donc naturellement se poser la question suivante : mais pourquoi donc approximer une suite de lois
binomiales par une loi de Poisson ? Parce qu’en fait les lois de Poisson sont plus facilement manipulables :
Proposition 16.121 : 1 poisson + 1 poisson = 1 poisson
Soit X et Y deux variables aléatoires indépendantes suivant des lois de Poisson de paramètres respectifs λ et µ.
Alors X + Y suit une loi de Poisson de paramètre λ + µ.

Remarque 16.122 :
Lorsque X et Y sont deux variables aléatoires discrètes réelles à valeurs dans N, la loi de la variable Z = X + Y ,
à valeurs également dans N, s’obtient de la même manière que dans la démonstration ci-dessus, en écrivant :
k
X
P (Z = k) = P ([X = i] ∩ [Y = k − i])
i=0

et donc la loi de Z se détermine naturellement à l’aide de la loi du couple (X, Y ).

EPCC : exercices 95, 96, 97, 98, 99, 100, 102, 103, 104, 106, 108, 109, 110, 111.

The end – chapitre 16

Fénelon Sainte-Marie – La Plaine-Monceau 193/230 28 août 2020


16.6. LOIS USUELLES MP 2020-21

Fénelon Sainte-Marie – La Plaine-Monceau 194/230 28 août 2020


Chapitre 17

Convexité

Dans ce chapitre E est un R-espace vectoriel : le corps de base n’est pas quelconque.
Encore plus que dans les autres chapitres, il est recommandé de s’appuyer sur des dessins !

17.1 Sous-espaces affines


17.1.1 Définitions et propriétés élémentaires
Définition 17.1 : sous-espace affine
Une partie F de E est un sous-espace affine de E lorsqu’il existe un vecteur A ∈ E et un sous-espace vectoriel F
de E tels que
F = A + F = {A + u ; u ∈ F } = {v ∈ E ; ∃u ∈ F/v = A + u}.
Le sous-espace vectoriel F s’appelle alors la direction de F. On dit que F passe par A. Les éléments de F s’appellent
les vecteurs et les éléments de F sont appelés les points.
Exemple 17.2 :
1. Dans le plan usuel. Soit (a, b) ∈ R2 \ {(0, 0)}. L’ensemble D d’équation ax + by = c (c ∈ R) est un sous-espace
affine de R2 appelé droite affine, de direction la droite vectorielle D : ax + by = 0.
2. Dans l’espace usuel. Soit (a, b, c) ∈ R3 \ {(0, 0, 0)}. L’ensemble P d’équation ax + by + cz = d (d ∈ R) est un
sous-espace affine de R3 appelé plan affine, de direction le plan vectoriel P : ax + by + cz = 0.
3. Tout sous-espace vectoriel est un sous-espace affine de direction lui-même et passant par l’origine.
4. Dans l’espace usuel. Soit (a, b, c) et (a0 , b0 , c0 ) dans R3 \ {(0, 0, 0)} tels que (a, b, c) et (a0 , b0 , c0 ) ne soient pas
proportionnels. Alors l’ensemble

D = {(x, y, z) ∈ R3 ; ax + by + cz = d ∧ a0 x + b0 y + c0 z = d0 }

est un sous-espace affine de R3 appelé droite affine, de direction la droite vectorielle

D = {(x, y, z) ∈ R3 ; ax + by + cz = 0 ∧ a0 x + b0 y + c0 z = 0}.

5. Les singletons sont des sous-espaces affines de E : {A} = A + {0E }.


6. Les solutions d’une équation différentielle linéaire d’ordre 1, ou linéaire d’ordre 2 à coefficients constants et avec
second membre du type « polynôme×exponentielle » forment un sous-espace affine, de direction l’espace vectoriel
des solutions de l’équation différentielle homogène associée. En effet : solution générale = solution particulière
+ solution générale de l’ESSM associée.

Remarque 17.3 :

195
17.1. SOUS-ESPACES AFFINES MP 2020-21

1. Une bonne partie de cette section repose sur l’ambigüité suivante : en fait les vecteurs sont des points, et
réciproquement !
2. L’ensemble vide n’est pas un sous-espace affine.
−−→
3. Lorsque B et C sont dans F on note BC pour C −B ; c’est un vecteur de F . (En effet si B = A+ −
→ et C = A+ −
u1

u 2

→ −

avec (u1 , u2 ) ∈ F 2 alors C − B = A + u2 − (A + u1 ) = u2 − u1 ∈ F .)
4. Par convention les lettres minuscules désignent les vecteurs de F et les lettres majuscules les points de F.
5. Lorsqu’on considère le point 0E on le note souvent O.

Proposition 17.4 : propriétés élémentaires


−−→ → −
1. AB = 0 si et seulement si A = B.
−−→ −−→
2. BA = −AB.
−−→ −
3. B = A + → −
x si et seulement si AB = →x.
3 − −→ −→ −−→
4. Relation de Chasles : ∀(A, B, C) ∈ E , AB = AC + CB.

Proposition 17.5 : propriétés un peu moins élémentaires


1. La direction d’un sous-espace affine est unique.
2. Soit F un sous-espace affine dirigé par le sous-espace vectoriel F . Alors on peut écrire F = A0 +F pour n’importe
quel point A0 de F.
−−→
3. Soit F un sous-espace affine de E. Si A ∈ F alors on obtient la direction F par F = {AM ; M ∈ F}.

Proposition 17.6 : caractérisation des SEA


Une partie F de E est un sous-espace affine si et seulement s’il existe un sous-espace vectoriel F tel que :
−−→
(i) ∀(M, N ) ∈ F 2 , M N ∈ F .
(ii) ∀M ∈ F, ∀u ∈ F , M + u ∈ F.

17.1.2 Translations
Définition 17.7 : translation
Soit →
−u ∈ E. On appelle translation de vecteur →
− →
− 7 →
u : E → E, x →
u l’application t→


x +→

u.
On note T l’ensemble des translations de E.
Proposition 17.8 : propriétés immédiates
1. t→
− = IdE .
0
2. Pour tout (→

u,→

v ) ∈ E 2 on a : t→
u ◦ t→
− v = t→
− − v.
u +→



3. Pour tout u ∈ E l’application t→
−u est bijective de réciproque t−→
u.

Corollaire 17.9 : structure de l’ensemble des translations


(T , ◦) est un groupe isomorphe à (E, +) par l’application t : →

u 7→ t→
u.

Proposition 17.10 : si → −u ∈ F alors →



u +F =F


u où u ∈ F .
Tout sous-espace vectoriel F de E est invariant par translation t→

Proposition 17.11 : F = A + F pour tout A ∈ F


Un sous-espace affine et sa direction sont images l’un de l’autre par une translation.

Fénelon Sainte-Marie – La Plaine-Monceau 196/230 28 août 2020


CHAPITRE 17. CONVEXITÉ MP 2020-21

17.1.3 Intersection et paralléllisme


Proposition 17.12 : intersection de SEA
L’intersection de deux sous-espaces affines F et G de E, de directions respectives F et G, est soit vide soit un
sous-espace affine de direction F ∩ G.

Exemple 17.13 :
Dans l’espace usuel l’intersection d’une droite et d’un plan, de deux droites, de deux plans, est soit vide, soit un
singleton, soit une droite, soit un plan.
Définition 17.14 : parallélisme
Soit F1 et F2 deux sous-espaces affines de E de directions respectives F1 et F2 .
1. On dit que F1 est parallèle à F2 lorsque F1 ⊂ F2 .
2. On dit que F1 et F2 sont parallèles lorsque F1 = F2 .

Exemple 17.15 :
1. Une droite peut être parallèle à un plan, mais un plan ne peut pas être parallèle à une droite.
2. Tout sous-espace affine et sa direction sont parallèles (exemple des droites du plan).
3. Les plans affines d’équation x + y + z = 10 et 2x + 2y + 2z = 3 sont parallèles car ils ont pour direction commune
le plan vectoriel d’équation x + y + z = 0.

Proposition 17.16 : une CNS de parallélisme de SEA


Deux sous-espaces affines F1 et F2 sont parallèles si et seulement si ils sont images l’un de l’autre par une translation.

Proposition 17.17 : encore intersection de SEA


Soit F1 et F2 deux sous-espaces affines de E. Si F1 est parallèle à F2 alors F1 ∩ F2 est soit vide, soit égal à F1 .

Corollaire 17.18 : parallélisme de SEA


Deux sous-espaces affines parallèles sont soit disjoints, soit confondus.

17.2 Barycentre
17.2.1 Barycentre d’un système de points pondérés
Définition 17.19 : famille de points pondérés
On appelle point pondéré (A, α) un point de E × R. Le réel α est appelé coefficient ou masse du point pondéré
(A, α).
Définition 17.20 : barycentre
  Xn
Soit (Ai , αi ) une famille finie de points pondérés de E dont la somme des coefficients αi est non nulle.
1≤i≤n
  i=1
On appelle barycentre de la famille (Ai , αi ) le point pondéré G de E défini par :
1≤i≤n

n
X
αi Ai
i=1
G = n .
X
αi
i=1

n
1X
Lorsque tous les αi sont égaux, on parle d’isobarycentre : G = Ai .
n i=1

Fénelon Sainte-Marie – La Plaine-Monceau 197/230 28 août 2020


17.2. BARYCENTRE MP 2020-21

Remarque 17.21 :  
En notation affine, la relation définissant le barycentre G de la famille (Ai , αi )
1≤i≤n

n
X −−→
αi OAi
−−→ i=1
OG = n
X
αi
i=1

est indépendante du point O choisi. Elle équivaut à


n
X −−→ →

αi GAi = 0 .
i=1

Exemple 17.22 :
Avant tout, comme dans tous les chapitres de géométrie il convient de faire un dessin !
• Soit A et B deux points distincts.
−→ −−→
−−→ 1 · OA + 1 · OB 1 −→ −−→
? L’isobarycentre de (A, B) est le milieu du segment [AB]. En effet OG = = (OA + OB).
1+1 2
S+B
? Le symétrique S de B par rapport à A est défini par l’équation A = , soit 2A = G + B, ou encore
2
G = 2A − B : c’est donc le barycentre du système {(A, 2), (B, −1)}.
• Soit A, B, C trois points non alignés et G leur isobarycentre :
−−→ 1 −→ −−→ −−→ −−→ −→ −−→ −−→ −→ −−→ −−→ → −
OG = (OA + OB + OC) ⇐⇒ 3OG = OA + OB + OC ⇐⇒ GA + GB + GC = 0 ,
3
ainsi G est le point de concours des trois médianes.

Proposition 17.23 : caractérisation des barycentres


n
X
Le point G est un barycentre des Ai si et seulement s’il existe des réels λi de somme 1 tels que G = λ i Ai .
i=1

Cette caractérisation des barycentres permet de démontrer aisément :


Corollaire 17.24 : stabilité d’un SEA par barycentration
Tout sous-espace affine est stable par barycentration.

Définition 17.25 : base affine


−−→ −→
Trois point A, B, C du plan définissent une base affine (A, B, C) lorsque (AB, AC) est une base du plan. On a
−−→ −→
alors un repère affine (A; AB, AC).
−−→ −→ −−→ −−→ −→
Soit M (x, y) dans le repère affine (A; AB, AC) : AM = xAB + y AC. Alors :
−−→ −−→ −−→ −−→ −−→
AM = xAM + xM B + y AM + y M B

donc
−−→ −−→ −−→ →

(1 − x − y)M A + xM B + y M C = 0
 
d’où M est le barycentre du système (A, 1 − x − y), (B, x), (C, y) .
Définition 17.26 : coordonnées barycentriques
Le triplet (1 − x − y, x, y) constitue les coordonnées barycentriques de M dans la base affine (A, B, C).
Remarque 17.27 :
Bien entendu, on généralise les notions de base affine, repère affine et coordonnées barycentriques lorsqu’on a une
famille de n + 1 points dans un espace vectoriel réel de dimension n.

Fénelon Sainte-Marie – La Plaine-Monceau 198/230 28 août 2020


CHAPITRE 17. CONVEXITÉ MP 2020-21

Proposition 17.28 : sous-espace affine engendré par une famille finie de points
Soit (Ai )1≤i≤n une famille finie de points de E. Alors l’ensemble des barycentres de ces points affectés de coefficients
quelconques de somme non nulle est le plus petit sous-espace affine contenant tous ces points.

Exemple 17.29 :
droites et plans affines
• Soit A et B deux points distincts de E. Alors la droite (AB) est l’ensemble des barycentres de {(A, α), (B, 1−α)},
où α décrit R :
(AB) = {M ∈ E ; ∃α ∈ R, M = αA + (1 − α)B}.
En effet
−−→ −−→
M = Bary {(A, α), (B, 1 − α)} ⇐⇒ M = αA + (1 − α)B ⇐⇒ M − B = α(A − B) ⇐⇒ BM = αBA.

• De même, le plan (ABC) passant par trois points non alignés A, B et C est l’ensemble des barycentres du
système {(A, α), (B, β), (C, 1 − α − β)}, où α et β décrivent R.

17.2.2 Propriétés du barycentre


Proposition 17.30 : propriétés du barycentre
1. Commutativité : le barycentre d’un système est indépendant de l’ordre des points pondérés.
2. Homogénéité : le barycentre est inchangé si on multiplie toutes les masses par un même réel non nul.
3. Associativité : le barycentre d’un système est inchangé si l’on remplace un sous-système de masse totale non-nulle
par son barycentre partiel affecté de cette masse.

17.3 Ensembles convexes


Comme auparavant E est un espace vectoriel normé réel.
Définition 17.31 : segment
Soit (x, y) ∈ E 2 . Le segment [x, y] est l’ensemble des barycentres de x et y à coefficients positifs. Quitte à avoir la
somme des coefficients égale à 1, on peut écrire :

[x, y] = {tx + (1 − t)y / t ∈ [0, 1]}.

Remarque 17.32 :
Si E = R, on retrouve la définition usuelle d’un segment.
Définition 17.33 : partie convexe
Une partie C de E est convexe lorsqu’elle contient tous les segments d’extrémités dans C :

∀(x, y) ∈ C 2 , [x, y] ⊂ C.

Remarque 17.34 :
Ceci signifie que C est stable par barycentration à coefficients positifs de deux points.
Exemple 17.35 :
1. Une très jolie démonstration utilisant la propriété de la borne supérieure dans R et un examen de (neuf) cas
permet de démontrer que : les ensembles convexes de R sont les intervalles de R.

Fénelon Sainte-Marie – La Plaine-Monceau 199/230 28 août 2020


17.4. FONCTIONS CONVEXES MP 2020-21

2. Les espaces vectoriels et les espaces affines sont convexes.


3. Les boules (ouvertes ou fermées) sont convexes.
4. Les sphères ne sont pas convexes.
5. Les bananes ne sont pas convexes.

Les points 2. à 4. sont de bons exercices !

Proposition 17.36 : intersection de convexes


L’intersection d’une famille de parties convexes est convexe.

Remarque 17.37 :
La réunion d’ensembles convexes n’est pas convexe en général.
Considérer par exemple [1, 2] ∪ [3, 4], non-convexe alors que [1, 2] et [3, 4] le sont.

Théorème 17.38 : caractérisation de la convexité par la stabilité par barycentration à coeff. positifs
Une partie C du R-espace vectoriel E est convexe si et seulement si elle est stable par barycentration à coefficients
positifs, en d’autres termes si et seulement si le barycentre de toute famille finie (xi )1≤i≤n d’éléments de C pondérés
X n
par des ai ≥ 0 avec ai > 0, appartient à C.
i=1

17.4 Fonctions convexes


17.4.1 Définition et interprétation géométrique
Définition 17.39 : fonction convexe
Soit f : I → R.

1. On dit que f est convexe lorsque :

∀(x1 , x2 ) ∈ I 2 , ∀α ∈ [0, 1], f (αx1 + (1 − α)x2 ) ≤ αf (x1 ) + (1 − α)f (x2 ).

2. Lorsque −f est convexe, on dit que f est concave.

Remarque 17.40 :
Ceci signifie que tous les points de l’arc « M1 M2 » sont situés sous la corde [M1 M2 ] :

Exemple 17.41 :
Les fonctions affines, la fonction carré x 7→ x2 , la fonction x 7→ |x|.

Fénelon Sainte-Marie – La Plaine-Monceau 200/230 28 août 2020


CHAPITRE 17. CONVEXITÉ MP 2020-21

17.4.2 Caractérisation géométrique de la convexité


Soit f : I → R.
Proposition 17.42 : caractérisation de la convexité par l’épigraphe
L’application f est convexe si et seulement si son épigraphe E = {(x, y) ∈ I × R ; y ≥ f (x)} est un ensemble
convexe du plan : ∀(M, N ) ∈ E 2 , [M N ] ⊂ E.

Proposition 17.43 : caractérisation de la convexité par le taux d’accroissement


La fonction f est convexe sur I si et seulement si les taux d’accroissements sont croissants :
f (x) − f (y) f (x) − f (z) f (y) − f (z)
∀(x, y, z) ∈ I 3 , x < y < z =⇒ ≤ ≤ .
x−y x−z y−z

Corollaire 17.44 : caractérisation de la concavité par le taux d’accroissement


La fonction f est concave sur I si et seulement si :
f (x) − f (y) f (x) − f (z) f (y) − f (z)
∀(x, y, z) ∈ I 3 , x < y < z =⇒ ≥ ≥ .
x−y x−z y−z

Corollaire 17.45 : fonction convexe et concave


f (x) − f (y)
La fonction f est convexe et concave sur I si et seulement si la fonction (x, y) 7→ est constante sur
x−y
I × I, c’est-à-dire si et seulement si f est une fonction affine.

17.4.3 Caractérisation des fonctions convexes dérivables


Proposition 17.46 : caractérisation de la convexité par la croissance de la dérivée
Soit f : I → R continue sur I et dérivable sur l’intérieur de I. Alors : f est convexe si et seulement si f 0 est
croissante.

Corollaire 17.47 : caractérisation de la concavité par la décroissance de la dérivée


Soit f : I → R dérivable. Alors : f est concave si et seulement si f 0 est décroissante.
Exemple 17.48 :
ln est concave sur R∗+ et exp est convexe sur R.
Corollaire 17.49 : caractérisation de la convexité par la positivité de la dérivée seconde
Soit f : I → R deux fois dérivable. Alors :
1. La fonction f est convexe sur I si et seulement si f 00 ≥ 0 sur I.
2. La fonction f est concave sur I si et seulement si f 00 ≤ 0 sur I.

17.4.4 Position de la courbe par rapport à la tangente


Proposition 17.50 : caractérisation de la convexité par la position courbe/tangente
Soit f : I → R continue sur I et dérivable sur l’intérieur de I. Alors : f est convexe sur I si et seulement si son
graphe est situé au-dessus de chacune de ses tangentes, c’est-à-dire :

∀a ∈ I , ∀x ∈ I, f (x) ≥ f (a) + (x − a)f 0 (a).

Exemple 17.51 :
∀x ∈ R, ex ≥ 1 + x et ∀x > −1, ln(1 + x) ≤ x.

Fénelon Sainte-Marie – La Plaine-Monceau 201/230 28 août 2020


17.5. APPLICATIONS : INÉGALITÉS DE CONVEXITÉ MP 2020-21

17.5 Applications : inégalités de convexité


17.5.1 L’inégalité de Jensen ou de convexité
Théorème 17.52 : inégalité de Jensen ou de convexité
Soit n ≥ 2 et f : I → R une fonction convexe. Alors :
n n
! n
X X X
∀(λ1 , . . . , λn ) ∈ Rn+ , λi = 1, ∀(x1 , . . . , xn ) ∈ I n , f λi xi ≤ λi f (xi ).
i=1 i=1 i=1

De cette inégalité découlent de multiples autres fournissant autant d’exercices d’oraux. . . Nous verrons des illustra-
tions dans la sous-section suivante.

17.5.2 Comparaison des moyennes arithmétique, géométrique et quadratique


Corollaire 17.53 : comparaison des moyennes v géométrique et arithmétique
u n n
∗ n
uY 1X
Pour tous (x1 , . . . , xn ) ∈ (R+ ) , on a n
t xi ≤ xi .
i=1
n i=1
Autrement dit, la moyenne géométrique est inférieure ou égale à la moyenne arithmétique.

Corollaire 17.54 : comparaison des moyennes arithmétique et quadratique


n n
!1/2
n 1X 1X 2
Pour tous (x1 , . . . , xn ) ∈ R+ , on a xi ≤ x .
n i=1 n i=1 i
Autrement dit, la moyenne arithmétique est inférieure ou égale à la moyenne quadratique.

Exemple 17.55 :
1. Démontrer que : ∀(a, b, c) ∈ R3+ , a3 + b3 + c3 ≥ 3abc.
Inégalité arithmético-géométrique avec (x1 , x2 , x3 ) = (a3 , b3 , c3 ).
2. Démontrer que : ∀(a, b, c) ∈ R3+ , (a + b + c)3 ≥ 27abc.
Inégalité arithmético-géométrique avec (x1 , x2 , x3 ) = (a, b, c) puis élevée au cube.
√ n+1
3. Démontrer que : ∀n ∈ N∗ , n n! ≤ .
2
Inégalité arithmético-géométrique avec (x1 , . . . , xn ) = (1, . . . , n).

17.5.3 Inégalité de Hölder


Lemme 17.56 : inégalité classique
1 1 xp yq
Pour tous (x, y) ∈ (R∗+ )2 et (p, q) ∈]1, +∞[ avec + = 1, on a xy ≤ + .
p q p q

Théorème 17.57 : inégalité de Hölder


1 1
Soit (a1 , . . . , an ) ∈ (R∗+ )n , (b1 , . . . , bn ) ∈ (R∗+ )n , (p, q) ∈]1, +∞[2 avec + = 1. Alors :
p q

n n
!1/p n
!1/q
X X X
ai bi ≤ api bqi .
i=1 i=1 i=1

Remarque 17.58 :

Fénelon Sainte-Marie – La Plaine-Monceau 202/230 28 août 2020


CHAPITRE 17. CONVEXITÉ MP 2020-21

Lorsque p = q = 2, on retrouve l’inégalité de Cauchy-Schwarz pour le produit scalaire usuel dans Rn :

n n
!1/2 n
!1/2
X X X
ai bi ≤ a2i b2i .
i=1 i=1 i=1

17.5.4 Inégalité de Minkowski


Théorème 17.59 : inégalité de Minkowski
Soit p ≥ 1, (a1 , . . . , an ) ∈ Rn+ , (b1 , . . . , bn ) ∈ Rn+ . Alors :
n
!p n
!p n
!p
1/p 1/p
X X X
1/p
ai + bi ≤ (ai + bi ) .
i=1 i=1 i=1

Corollaire 17.60 : les normes k · k p


n
!1/p
X
p
Soit p ≥ 1. Alors l’application k · k p : (x1 , . . . , xn ) 7→ |xi | est une norme sur Rn .
i=1

EPCC : exercices 34, 45.

The end – chapitre 17

Fénelon Sainte-Marie – La Plaine-Monceau 203/230 28 août 2020


17.5. APPLICATIONS : INÉGALITÉS DE CONVEXITÉ MP 2020-21

Fénelon Sainte-Marie – La Plaine-Monceau 204/230 28 août 2020


Chapitre 18

Équations différentielles linéaires

18.1 Équations différentielles linéaires d’ordre 1


18.1.1 Notations
Soit I un intervalle de R et E un espace vectoriel normé de dimension finie sur R ou C. On considère :
• une application a continue de I dans L(E) :

a : I → L(E)
t 7→ a(t)

• une application x dérivable de I dans E :

x : I → E
t 7 → x(t)

• une application b continue de I dans E :


b : I → E
t 7 → b(t)
On désigne par a x l’application de I dans E :

I → E
t 7→ a(t) (x(t))

Définition 18.1 : EDL1


L’équation x0 = a x + b est appelée équation différentielle linéaire du premier ordre.
Une solution de cette équation est une application x dérivable de I dans E, telle que :

∀t ∈ I x0 (t) = a(t) (x(t)) + b(t).

En choisissant une base de E, on peut représenter l’équation matriciellement par :

∀t ∈ I X 0 (t) = A(t)X(t) + B(t)

où A(t) est la matrice (carrée) représentant l’endomorphisme a(t), et B(t) la matrice (unicolonne) représentant le
vecteur b(t).
Remarque 18.2 :
cas particulier des équations scalaires

205
18.1. ÉQUATIONS DIFFÉRENTIELLES LINÉAIRES D’ORDRE 1 MP 2020-21

Si E = K, l’équation différentielle est une équation scalaire. Vous l’avez étudiée en Première Année. Les solutions
sont les fonctions de la forme :
x(t) = x1 (t) + Ceα(t)

où α est une primitive sur I de la fonction a, C une constante, et x1 une solution particulière que l’on peut obtenir
par la méthode de la variation de la constante, c’est-à-dire sous la forme C(t)eα(t) où C est cette fois une fonction
dérivable.
Exemple 18.3 :
 1
 x0 = y + 1

t
Résoudre le système différentiel : , où x et y sont deux fonctions dérivables sur R∗+ .
 y0 = 1 x + 1

t

18.1.2 Structure de l’ensemble des solutions


Définition 18.4 : ESSM / équation homogène
On appelle équation sans second membre ou équation homogène associée à l’équation x0 = a x + b, l’équation
0
x = a x.
L’ensemble des solutions de cette équation est le noyau de l’application linéaire u : x 7→ x0 −a x : c’est un sous-espace
vectoriel de l’espace vectoriel des fonctions dérivables de I dans E.
Si l’équation x0 = a x + b possède au moins une solution x1 , alors :
1. Pour toute autre solution x2 , x2 − x1 est solution de l’équation homogène.
2. Pour toute solution ξ de l’équation homogène, x1 + ξ est solution de l’équation complète.
Il en résulte que l’ensemble des solutions est l’ensemble des fonctions somme de x1 (solution particulière) et d’une solu-
tion quelconque de l’équation homogène. Il s’agit d’un sous-espace affine de l’espace vectoriel des fonctions dérivables
de I dans E, de direction Ker u.

18.1.3 Problème de Cauchy


Définition 18.5 : problème de Cauchy
Le problème de Cauchy concernant l’équation différentielle x0 = a x + b sur I est l’existence et l’unicité d’une
solution vérifiant une condition initiale du type x(t0 ) = x0 avec t0 ∈ I.
La solution de ce problème est donnée par le théorème suivant, que nous admettrons :
Théorème 18.6 : théorème de Cauchy-Lipschitz linéaire
Soit E un espace vectoriel normé de dimension finie, I un intervalle de R, a une application continue de I dans
L(E), b une application continue de I dans E. Pour tout (t0 , x0 ) ∈ I × E, il existe une et une seule solution sur I de
l’équation différentielle x0 = a x + b vérifiant la condition initiale x(t0 ) = x0 .
On peut en déduire la dimension de l’espace des solutions sur un intervalle :
Corollaire 18.7 : dimension de l’espace des solutions de x0 = ax
Soit E un espace vectoriel normé de dimension finie, I un intervalle de R, a une application continue de I dans
L(E), E l’espace vectoriel des solutions de l’équation homogène x0 = a x.
Alors pour tout t0 ∈ I, l’application de E dans E qui à f associe f (t0 ) est un isomorphisme. Il en résulte que
dim E = dim E.
Remarque 18.8 :
Attention : Ce résultat n’est valable que sur un intervalle. L’espace des solutions sur une réunion d’intervalles
peut être de dimension supérieure à celle de E. Par exemple, l’espace des solutions sur R∗ de l’équation x0 = 0 est de
dimension 2 : x(t) = C1 sur ] − ∞, 0[ et x(t) = C2 sur ]0, +∞[.

Fénelon Sainte-Marie – La Plaine-Monceau 206/230 28 août 2020


CHAPITRE 18. ÉQUATIONS DIFFÉRENTIELLES LINÉAIRES MP 2020-21

18.1.4 Système fondamental de solutions ; wronskien


Soit E un espace vectoriel normé de dimension n, I un intervalle de R, a une application continue de I dans L(E).
On sait que l’espace vectoriel E des solutions de l’équation homogène x0 = a x est de dimension n.
Définition 18.9 : système fondamental des solutions
On appelle système fondamental de solutions toute base de l’espace vectoriel E des solutions de l’équation homo-
gène.
Si (x1 , . . . , xn ) est un système fondamental de solutions, alors toute solution de l’équation x0 = a x est combinaison
linéaire de (x1 , . . . , xn ) :
E = Vect(x1 , . . . , xn ).
Si B est une base de E, alors on peut représenter le système fondamental par la matrice :

F (t) = MatB (x1 (t), . . . , xn (t)).

Il n’y a hélas pas de méthode systématique pour trouver un système fondamental de solutions. On peut chercher des
solutions évidentes, ou sous une forme donnée (polynôme, exponentielle, etc).
On peut en revanche vérifier qu’une famille donnée de n solutions est bien un système fondamental :
Définition 18.10 : wronskien d’une famille de solutions
Pour toute famille (x1 , . . . , xn ) de solutions de l’équation homogène, on appelle wronskien relativement à une base
B de E, l’application W de I dans K définie par :

∀t ∈ I, W(t) = det F (t) = det (x1 (t), . . . , xn (t)) .


B

Théorème 18.11 : CNS pour qu’une famille de solutions soit un SFS


Soit E un espace vectoriel normé de dimension n muni d’une base B, I un intervalle de R, a une application
continue de I dans L(E), et (x1 , . . . , xn ) une famille de n solutions de l’équation homogène x0 = a x.
Alors les trois propositions suivantes sont équivalentes :
• (x1 , . . . , xn ) est un système fondamental de solutions ;
• ∀t ∈ I W(t) 6= 0 ;
• ∃t0 ∈ I W(t0 ) 6= 0.

18.1.5 Cas où la matrice A(t) est diagonalisable dans une base fixe
Supposons que la matrice A(t) est diagonalisable dans une base indépendante de t : il existe une matrice diagonale
D(t) et une matrice inversible P (indépendante de t) telles que :

∀t ∈ I, A(t) = P D(t)P −1 .

L’équation différentielle homogène s’écrit donc : X 0 (t) = P D(t)P −1 X(t). Posons U (t) = P −1 X(t) ; on a alors U 0 (t) =
P −1 X 0 (t) (grâce au fait que P est constante). Le vecteur U (t) est solution de l’équation différentielle : U 0 (t) = D(t)U (t),
qui se ramène à un système de n équations scalaires :

0
 u1 (t) = d1 (t)u1 (t)

···
 0

un (t) = dn (t)un (t)

Exemple 18.12 :
Résoudre le système : (
x0 (t) = (t − 2) x(t) − (t − 1) y(t)
y 0 (t) = 2(t − 1) x(t) − (2t − 1) y(t)

Fénelon Sainte-Marie – La Plaine-Monceau 207/230 28 août 2020


18.2. ÉQUATIONS LINÉAIRES À COEFFICIENTS CONSTANTS MP 2020-21

! !
x0 0
Tracer les solutions qui passent en t0 = 0 par le point = où y0 ∈ [[−5, 5]].
y0 y0

18.1.6 Méthode de variation des constantes


Lemme 18.13 : décomposition des fonctions selon un SFS
Soit (x1 , . . . , xn ) un système fondamental de solutions de l’équation homogène x0 = a x.
Alors toute fonction y dérivable de I dans E (pas forcément solution de l’EDL x0 = ax !) s’écrit de façon unique
sous la forme :
Xn
y(t) = ci (t)xi (t)
i=1

où (c1 , . . . , cn ) est une famille de fonctions dérivables de I dans K.


Matriciellement, on peut écrire : Y = F C, où F est lamatrice représentant 
la famille fondamentale de solutions et

C la matrice-colonne des fonctions (ci )i∈[[1,n]] : F (t) =  x1 (t) · · · xn (t) .


 

Théorème 18.14 : variation des constantes


Soit (1) X 0 = AX + B une équation différentielle linéaire (représentée matriciellement dans une base B de E),
et F (t) la matrice représentant un système fondamental de solutions de l’équation homogène X 0 = A X. La fonction
X = F C est solution de (1) si et seulement si : C 0 = F −1 B.

Ce résultat permet d’obtenir les fonctions c0i , d’où les fonctions ci à une constante près (les mêmes constantes
qui permettent de décrire l’ensemble des solutions de l’équation homogène). Deux méthodes : ou bien on oublie ces
constantes pour écrire une solution particulière, et on ajoute ensuite l’ensemble des solutions de l’équation homogène ;
ou bien on tient compte de ces constantes d’intégration et on obtient directement l’ensemble des solutions.
Exemple 18.15 :
Résoudre le système différentiel : 
 x0 (t) = x(t) − y(t) + t

t
 y 0 (t) = x(t) + y(t) + t

t
! !
x1 (t) t cos t
On remarquera que le système homogène a deux solutions évidentes : t 7→ = et t 7→
y1 (t) t sin t
! !
x2 (t) −t sin t
= .
y2 (t) t cos t

18.2 Équations linéaires à coefficients constants


18.2.1 Étude de l’équation x0 = ax où a ∈ L(E)
Définition 18.16 : EDL à coefficients constants
L’équation différentielle x0 = ax est dite à coefficients constants si a est un endomorphisme de E indépendant de
la variable t. Une solution sur R de cette équation est une application dérivable de R dans E telle que :

∀t ∈ R, x0 (t) = a (x(t)) .

Fénelon Sainte-Marie – La Plaine-Monceau 208/230 28 août 2020


CHAPITRE 18. ÉQUATIONS DIFFÉRENTIELLES LINÉAIRES MP 2020-21

En choisissant une base de E, on peut représenter l’équation matriciellement par :

∀t ∈ I, X 0 (t) = AX(t)

où A est la matrice (carrée) représentant l’endomorphisme a.


Théorème 18.17 : SFS de x0 = ax à l’aide de exp(ta)
Soit E un espace vectoriel normé de dimension n, et a un endomorphisme de E.
1. Pour tout vecteur u de E, la fonction x définie par x(t) = exp(ta)(u) est solution de l’équation différentielle
x0 = a x.
2. Si B est une base de E, alors la famille représentée dans la base B par la matrice F (t) = exp(tA) est un système
fondamental de solutions.

Exemple 18.18 : (
x0 (t) = x(t) cos θ − y(t) sin θ
Résoudre le système pour θ ∈ R fixé.
y 0 (t) = x(t) sin θ + y(t) cos θ

18.2.2 Équation x0 (t) = ax(t) + b(t) où a ∈ L(E)


Connaissant un système fondamental de solutions de l’équation homogène (obtenu avec exp(ta)), on peut trouver
une solution particulière par la méthode de variation des constantes. On cherche une telle solution sous la forme :
n
X
x(t) = ci (t) exp(ta)(ei )
i=1

où (e1 , . . . , en ) est une base de E.


En reportant dans l’équation différentielle, on obtient :
n
X
c0i (t) exp(ta)(ei ) = b(t)
i=1

Comme exp(ta) est un endomorphisme, ceci équivaut à :


n
!
X
exp(ta) c0i (t) ei = b(t).
i=1

L’endomorphisme exp(ta) est inversible et son inverse est exp(−ta), d’où :


n
X
c0i (t) ei = exp(−ta) b(t)

i=1

On obtient les fonctions ci en intégrant ces relations.


Exemple 18.19 : (
x0 (t) = x(t) cos θ − y(t) sin θ + cos(t sin θ)
Résoudre le système
y 0 (t) = x(t) sin θ + y(t) cos θ + sin(t sin θ)

18.2.3 Cas d’un endomorphisme diagonalisable


Le calcul de l’exponentielle de l’endomorphisme a est nettement simplifié dans le cas où celui-ci est diagonalisable.
Dans une base de vecteurs propres de a, les matrices de a et exp(ta) sont de la forme :
   
λ1 eλ1 t
A = 
 .. 
 exp(tA) = 
 .. 
 .   . 

λn eλ n t

Fénelon Sainte-Marie – La Plaine-Monceau 209/230 28 août 2020


18.3. ÉQUATIONS LINÉAIRES SCALAIRES D’ORDRE 1 OU 2 MP 2020-21

Un système fondamental de solutions de l’équation homogène est donc constitué des fonctions t 7→ eλi t ei , où (e1 , . . . , en )
est la base de vecteurs propres. L’ensemble des solutions de l’équation homogène est l’ensemble des fonctions x de la
forme :
X n
x(t) = ci eλi t ei .
i=1

18.3 Équations linéaires scalaires d’ordre 1 ou 2


18.3.1 Équation scalaire du premier ordre
Revenons sur le cas où E = K (R ou C) étudié en Première Année. Considérons l’équation différentielle a(t)x0 +
b(t)x = c(t), où a, b, c sont des fonctions continues sur un intervalle I de R à valeurs dans K.
b(t) c(t)
Sur un intervalle I où la fonction a ne s’annule pas, l’équation peut s’écrire : x0 = − x+ . L’ensemble des
a(t) a(t) Z 
b(t)
solutions de l’équation homogène est le sous-espace vectoriel de dimension 1 engendré par la fonction exp − dt .
a(t)
On obtient une solution particulière par la méthode de variation de la constante, c’est-à-dire sous la forme
Z 
b(t)
x(t) = C(t) exp − dt ,
a(t)
Z 
0 b(t) c(t)
où C est une fonction dérivable. On obtient : C (t) exp − dt = , d’où C(t) puis x(t). L’ensemble des
a(t) a(t)
solutions de l’équation est l’ensemble des fonctions somme d’une solution particulière et d’une solution quelconque de
l’équation homogène. Il s’agit d’un espace affine de dimension 1.
Dans le cas général, il faut résoudre l’équation sur chaque intervalle où la fonction a ne s’annule pas. L’espace
des solutions sur la réunion de p intervalles disjoints est alors de dimension p. Dans certains cas, certaines solutions
peuvent être prolongées par continuité et dérivabilité en un point t0 où a(t0 ) = 0, ce qui permet de « recoller » des
solutions de part et d’autre de t0 . La dimension de l’espace des solutions peut en être abaissée.
Exemple 18.20 :
Résoudre l’équation différentielle : x0 sin t − x cos t = sin3 t.

18.3.2 Équation scalaire du second ordre


Considérons à présent une équation linéaire du second ordre :

a(t)x00 + b(t)x0 + c(t)x = d(t)

où a, b, c, d sont des fonctions continues sur un intervalle I de R à valeurs dans K.


Attention : La méthode de l’équation caractéristique vue en Première Année ne s’applique que si les fonctions a, b, c
sont constantes !
Sur un intervalle I où la fonction a ne s’annule pas, l’équation s’écrit :
b(t) 0 c(t) d(t)
x00 = − x − x+
a(t) a(t) a(t)

b(t) c(t) d(t)


soit, en posant α(t) = − , β(t) = − et γ(t) = :
a(t) a(t) a(t)

x00 = α(t)x0 + β(t)x + γ(t).

Matriciellement, on peut écrire : ! ! ! !


x0 0 1 x 0
= +
x00 β(t) α(t) x0 γ(t)

Fénelon Sainte-Marie – La Plaine-Monceau 210/230 28 août 2020


CHAPITRE 18. ÉQUATIONS DIFFÉRENTIELLES LINÉAIRES MP 2020-21

soit :
X0 = A X + B
! ! !
x 0 1 0
avec X = 0
, A= et B = .
x β(t) α(t) γ(t)
On est donc ramené à une équation différentielle linéaire du premier ordre dans K2 . Les résultats obtenus pour ce
type d’équation s’appliquent :
• L’ensemble des solutions sur I est un espace affine de dimension 2.
• Une famille (x1 , x2 ) de solutions
de l’équation
homogène est un système fondamental de solutions si et seulement
x (t) x (t)
1 2
si le wronskien : W(t) = 0 est non nul en tout point de I (il suffit qu’il le soit en au moins un

x1 (t) x02 (t)
point).
• Le théorème de Cauchy-Lipschitz linéaire s’applique : pour tout t0 ∈ I, il existe une solution et une seule sur I
vérifiant une condition initiale du type : ! !
x(t0 ) x0
=
x0 (t0 ) x00

Exemple 18.21 :
Considérons l’équation différentielle : t2 x00 − 2tx0 + 2x = 2t2 . Chercher des solutions de l’équation homogène sur

R sous la forme t 7→ tn avec n ∈ N. En déduire l’ensemble des solutions de l’équation.

18.3.3 Cas où l’on connaît une solution de l’équation homogène (méthode d’abaisse-
ment de l’ordre)
Considérons l’équation différentielle :

a(t)x00 + b(t)x0 + c(t)x = d(t)

Supposons connue une solution x0 de l’équation homogène sur un intervalle I où la fonction a ne s’annule pas. On
peut chercher une solution quelconque de l’équation complète sous la forme : x(t) = z(t)x0 (t). On a alors :

 x(t) = z(t)x0 (t)

x0 (t) = z 0 (t)x0 (t) + z(t)x00 (t)
 00
x (t) = z 00 (t)x0 (t) + 2z 0 (t)x00 (t) + z(t)x000 (t)

D’où :
a(t)x00 (t) + b(t)x0 (t) + c(t)x(t) =
a(t)x0 (t)z 00 (t) + (2a(t)x00 (t) + b(t)x0 (t)) z 0 (t) + (a(t)x000 (t) + b(t)x00 (t) + c(t)x0 (t)) z(t)
Comme a(t)x000 (t) + b(t)x00 (t) + c(t)x0 (t) = 0, l’équation différentielle devient :

a(t)x0 (t)z 00 (t) + (2a(t)x00 (t) + b(t)x0 (t)) z 0 (t) = d(t).

C’est une équation scalaire du premier ordre pour la fonction z 0 .


Exemple 18.22 :
Résoudre l’équation différentielle (t − 1)x00 + tx0 + x = 1, en cherchant une solution de l’équation homogène sous
la forme t 7→ eαt .

EPCC : exercices 31, 32, 42, 74.

The end – chapitre 18

Fénelon Sainte-Marie – La Plaine-Monceau 211/230 28 août 2020


18.3. ÉQUATIONS LINÉAIRES SCALAIRES D’ORDRE 1 OU 2 MP 2020-21

Fénelon Sainte-Marie – La Plaine-Monceau 212/230 28 août 2020


Chapitre 19

Calcul différentiel

Dans tout le chapitre : soit E et F deux espaces vectoriels normés réels de dimension finie, et f une fonction définie
sur un ouvert U de E à valeurs dans F .

19.1 Applications différentiables


19.1.1 Différentielle
Définition 19.1 : application différentiable
On dit que f est différentiable en un point a de U lorsqu’il existe une application linéaire La ∈ L(E, F ) telle que :

f (x) = f (a) + La (x − a) + o(x − a).


x→a
On remarque en particulier que La (x − a) −→ 0 et donc f est continue en a.
Proposition 19.2 : unicité de la différentielle (si elle existe)
Si f est différentiable en a, alors il existe une unique application linéaire La telle que f (x) = f (a) + La (x − a) +
o(x − a).

Définition 19.3 : différentielle d’une application différentiable, développement limité


L’application linéaire La est appelée différentielle de f en a et notée dfa ou df (a), c’est un élément de L(E, F ).
Pour tout h tel que a + h ∈ U , il vient :

f (a + h) = f (a) + dfa (h) + o(h).

C’est un développement limité d’ordre 1 de f en a.


Remarque 19.4 :
Usuellement, pour a fixé on recherche une application linéaire La ∈ L(E, F ) telle que f (a+h)−f (a) = La (h)+o(h).

Exemple 19.5 :
Déterminer un développement limité à l’ordre 1 de l’application f : Mn (R) → Mn (R) définie par f (M ) = M 2 .

Remarque 19.6 :
1. Insistons sur le fait qu’une fonction différentiable en a est automatiquement continue en a.
2. Bien entendu, si une application différentiable sur un ouvert est constante alors sa différentielle est nulle.

Proposition 19.7 : différentielle des fonctions d’une seule variable


Soit f : U → F une fonction définie sur un ouvert U de R, et a ∈ U .

213
19.1. APPLICATIONS DIFFÉRENTIABLES MP 2020-21

Alors : f est différentiable en a si et seulement si elle est dérivable en a. Dans ce cas dfa : R → F , t 7→ t × f 0 (a),
et en particulier dfa (1) = f 0 (a).

19.1.2 Dérivée selon un vecteur


Soit f une fonction de E dans F définie sur un ouvert U , et a un point de U . Soit u un vecteur non nul de E, et t
un réel tel que a + tu ∈ U .
Définition 19.8 : dérivée selon un vecteur
On dit que f admet une dérivée selon le vecteur u au point a lorsque la fonction t 7→ f (a + tu), définie d’un
voisinage de 0R à valeurs dans F , est dérivable en 0.
Le vecteur dérivé correspondant est appelé la dérivée de f suivant le vecteur u, et noté Du f (a) :

f (a + tu) − f (a)
lim = Du f (a).
t→0 t

Théorème 19.9 : différentiabilité ⇒ existence de dérivées selon tout vecteur


Soit f une fonction de E dans F définie sur un ouvert U , et a un point de U .
Si f est différentiable en a, alors pour tout vecteur u de E la fonction f admet une dérivée selon u et :

Du f (a) = dfa (u).

Remarque 19.10 :
La réciproque est fausse : une fonction peut admettre une dérivée selon n’importe quel vecteur sans pour autant
être différentiable (voir exercices).

19.1.3 Dérivées partielles


Soit f une fonction de E dans F définie sur un ouvert U , et a un point de U . Soit (e1 , . . . , en ) une base de E.
Définition 19.11 : dérivées partielles
On appelle dérivées partielles de f ses dérivées suivant les vecteurs e1 , . . . , en (si elles existent). La i-ième dérivée
∂f
partielle est notée Di f (a) ou (a).
∂xi

f (a + tei ) − f (a) ∂f Th. 19.9


∀i ∈ [[1, n]], Di f (a) = lim = (a) = Dei f (a) = dd(a)(ei ).
t→0 t ∂xi

∂f
Ceci nous donne une application = D ei f : U → F .
∂xi
Théorème 19.12 : expression de la différentielle à l’aide des dérivées partielles
Soit f une fonction de E dans F définie sur un ouvert U , et a un point de U .
Si f est différentiable en a, alors pour toute base (e1 , . . . , en ) de E, f admet des dérivées partielles et f est continue.
n
P
De plus, pour tout vecteur u = ui ei de E, la dérivée de f selon u est donnée par :
i=1

n
X
Du f (a) = ui Di f (a).
i=1

Fénelon Sainte-Marie – La Plaine-Monceau 214/230 28 août 2020


CHAPITRE 19. CALCUL DIFFÉRENTIEL MP 2020-21

Fixons (ei )i une base orthonormée de E. Notons (dxi )i = (pi )i sa base duale, c’est-à-dire telle que dxi (ej ) = δi,j
(symbole de Kronecker). Il vient dxi (u) = ui , d’où :
n n
X X ∂f
dfa = Di f (a) dxi = (a) dxi .
i=1 i=1
∂xi

Par exemple, pour une fonction de trois variables x, y, z :

∂f ∂f ∂f
dfa = (a) dx + (a) dy + (a) dz.
∂x ∂y ∂z

∂f
Par ailleurs, gardons toujours à l’esprit que dans le cas général (a) = Dei f (a).
∂xi

19.1.4 Matrice jacobienne, jacobien


Soit f une fonction de E dans F , différentiable sur un ouvert U de E ; soit B = (e1 , . . . , ep ) une base de E et
B 0 = (e01 , . . . , e0n ) une base de F .
Rappelons que d f (a) ∈ L(E, F ).
Définition 19.13 : matrice jacobienne
On appelle matrice jacobienne de f en un point a de U relativement aux bases B et B 0 la matrice de la différentielle
de f en a dans ces bases : Jf (a) = [dfa ]BB0 .

Si f = (fj )j∈[[1,n]] , c’est-à-dire :


p p
! n
!
X X X
f xi ei = fj xi ei e0j .
i=1 j=1 i=1

Ainsi f : U → F avec F de dimension n et fj : U → R. Remarquons que dfa : E → F donc dfa (e1 ) =


n
X ∂f ∂f
(a)dxi (e1 ) = (a) et ainsi la matrice jacobienne de f en a est :
i=1
∂xi ∂x1
∂f1 ∂f1 ∂f1
 
 ∂x1 (a) ∂x2 (a) · · · ∂xp (a) 
 
 ∂f2 ∂f2 ∂f2 
 ∂x1 (a) ∂x2 (a) · · · ∂xp (a) 
 
Jf (a) =    ∈ Mn,p (R), avec p = dim(E) et n = dim(F ).
.. .. .. .. 

 . . . . 

 
 ∂fn ∂fn ∂fn 
(a) (a) · · · (a)
∂x1 ∂x2 ∂xp
Définition 19.14 : jacobien
Lorsque E = F , la matrice jacobienne de f est carrée ; on appelle alors jacobien le déterminant de la matrice
jacobienne. On le note :
D(f1 , . . . , fn )
(a) = det Jf (a).
D(x1 , . . . , xn )

19.2 Opérations sur les applications différentiables


Fixons E et F deux espace vectoriels normés de dimension finie.

19.2.1 Outils : continuité d’applications linéaires ou bilinéaires


Rappelons les deux résultats suivants, déjà énoncés et prouvés dans le chapitre 4 (topologie) :
Lemme 19.15 : continuité des applications linéaires

Fénelon Sainte-Marie – La Plaine-Monceau 215/230 28 août 2020


19.2. OPÉRATIONS SUR LES APPLICATIONS DIFFÉRENTIABLES MP 2020-21

1. Une application linéaire est continue si et seulement si elle est lipschitzienne.


En d’autres termes : une application f ∈ L(E, F ) est continue si et seulement si il existe une constante M > 0
telle que pour tout x ∈ E, kf (x)kF ≤ M kxkE .
2. Toute application linéaire de source un espace de dimension finie, est continue.
En d’autres termes : si f ∈ L(E, F ) avec E de dimension finie, alors f est continue.

Lemme 19.16 : continuité des applications bilinéaires


Soit E, F , G trois espaces vectoriels normés et f une application bilinéaire de E × F dans G. Alors :
1. L’application f est continue sur E × F si et seulement si :

∃K ∈ R, ∀(x, y) ∈ E × F, kf (x, y)kG ≤ K kxkE · kykF .

2. Si E et F sont de dimension finie, alors toute application bilinéaire de E × F dans G est continue.

19.2.2 Combinaison linéaire, composition avec application bilinéaire


Proposition 19.17 : combinaison linéaire, composition avec app. bilin.
1. L’ensemble des applications de U dans F , différentiables sur U , est un R-espace vectoriel et, avec des notations
évidentes :
d(λf + µg) = λdf + µdg.

2. Soit B : F 2 → G une application bilinéaire à valeurs dans un R-espace vectoriel G, et f , g deux applications
définies et différentiables sur U , à valeurs dans F .
Alors B(f, g) est différentiable sur U et

d(B(f, g)) = B(f, dg) + B(df, g).

19.2.3 Composition d’applications différentiables


Théorème 19.18 : composition d’applications différentiables
Soit E, F , G trois espaces vectoriels normés réels de dimension finie, et considérons :
• f une fonction de E dans F de classe C 1 sur un ouvert U de E.
• g une fonction de F dans G de classe C 1 sur un ouvert V de F tel que f (U ) ⊂ V .
Alors g ◦ f est de classe C 1 sur U , et pour tout a ∈ U :

d(g ◦ f )a = dgf (a) ◦ dfa .

Théorème 19.19 : interprétation matricielle : « règle de la chaîne »


Supposons E = Rm , F = Rp , G = Rn , f différentiable d’un ouvert U de E et g différentiable d’un ouvert V
contenant f (U ) à valeurs dans G. Notons F = g ◦ f .
Alors la matrice jacobienne de g ◦ f en a est le produit des matrices jacobiennes de g en b = f (a) et de f en a.
Plus précisément, en notant F = g ◦ f , a = (a1 , . . . , am ), b = f (a) = (x1 (a), . . . , xp (a)), de sorte que F (a) = g(b),
on a :
p
∂F X ∂g ∂xk
∀j ∈ [[1, m]], (a) = (b) × (a).
∂aj ∂xk ∂aj
k=1

Exemple 19.20 :

Fénelon Sainte-Marie – La Plaine-Monceau 216/230 28 août 2020


CHAPITRE 19. CALCUL DIFFÉRENTIEL MP 2020-21

passage en coordonnées polaires


Soit f une fonction de R2 dans R, de classe C 1 sur un ouvert U de R2 . On pose :

∀(x, y) ∈ U, f (x, y) = F (ρ, θ)

avec : x = ρ cos θ, y = ρ sin θ. On a : F = f ◦ ϕ, où ϕ(ρ, θ) = (ρ cos θ, ρ sin θ). D’où J(F ) = J(f ◦ ϕ) = J(f ) × J(ϕ)
c’est-à-dire :
∂x ∂x
 
      !
∂F ∂F ∂f ∂f  ∂ρ ∂θ  ∂f ∂f cos θ −ρ sin θ
=  ∂y ∂y  =
∂ρ ∂θ ∂x ∂y ∂x ∂y sin θ ρ cos θ
∂ρ ∂θ
soit :
∂F ∂f ∂f


 = cos θ + sin θ
∂ρ ∂x ∂y
∂F ∂f ∂f

 = − ρ sin θ + ρ cos θ
∂θ ∂x ∂y

Nous aurons besoin du résultat suivant pour définir la circulation d’un champ de vecteurs le long d’un arc :
Proposition 19.21 : dérivée le long d’un arc
Fixons E et F deux espaces vectoriels euclidiens. Soit (I, γ) un arc paramétré de classe C 1 sur un intervalle I de
R et à valeurs dans un ouvert U de E. Considérons f une fonction différentiable sur U et à valeurs dans F .
Alors la fonction f ◦ γ : I → U → F est dérivable sur I et :

∀t ∈ I, (f ◦ γ)0 (t) = dfγ(t) (γ 0 (t)).

19.3 Fonctions de classe C 1


19.3.1 Définition et premières propriétés
Soit f une fonction de E dans F définie sur un ouvert U de E.
Définition 19.22 : fonction continûment différentiable ou de classe C 1
On dit que f est continûment différentiable sur U , ou de classe C 1 sur U , lorsque f est différentiable sur U et
l’application d f : U 7→ L(E, F ), a 7→ d fa est continue sur U .
Théorème 19.23 : CNS pour qu’une application soit de classe C 1
Soit f une fonction de E dans F définie sur un ouvert U de E.
Alors : l’application f est de classe C 1 sur U si et seulement si dans une base b de E, f admet pour chaque variable
une dérivée partielle continue sur U
Dans ce cas, dans toute base de E, f admet pour chaq