Vous êtes sur la page 1sur 266

Mathématiques ECS 1

Lycée Dupuy de Lôme - Lorient - 2015/2016

Thomas Delacroix
Copyright © 2016 Thomas Delacroix

30 juin 2016
Table des matières

I Premier semestre
1 Les mathématiques en ECS 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.1 Objectifs 13
1.1.1 Les concours . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.1.2 Au-delà des concours . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.2 Le travail 14
1.2.1 Le travail en classe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.2.2 Les colles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.2.3 Les devoirs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.2.4 Le travail personnel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.2.5 Le travail en groupe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.3 Mathématiques et philosophie 15
2 Langage mathématique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.1 Du chinois au grec 18
2.2 Un peu de logique 18
2.2.1 La proposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.2.2 L’équivalence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.2.3 La négation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.2.4 La disjonction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.2.5 La conjonction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.2.6 Quelques propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.2.7 L’implication . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.2.8 Implication et raisonnements . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.2.9 Négation et raisonnements . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.2.10 Culture G : Le dilemme du prisonnier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.3 Théorie des ensembles 27
2.3.1 Définition et notations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.3.2 Quantificateurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.3.3 Inclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.3.4 Propriétés de l’inclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.3.5 Opérations sur les ensembles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.3.6 Quelques propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.3.7 Produit cartésien et famille d’ensembles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.4 Applications 35
2.4.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.4.2 Image directe, image réciproque, graphe . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.4.3 Restricition et prolongement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
2.4.4 Composition d’applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.4.5 Injectivité, surjectivité, bijectivité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.4.6 Culture Gé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.4.7 Cardinalité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.4.8 Fonction caractéristique d’un ensemble . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.4.9 Quelques propriétés supplémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3 Récurrence et ensembles finis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.1 Raisonnement par récurrence 47
3.2 Ensembles finis 49
3.3 Sommes finies de nombres 50
3.3.1 Notation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
3.3.2 Sommes à connaître . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
3.3.3 Règles de calcul . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
3.3.4 Sommes doubles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
3.4 Produits finis de nombres 56
3.4.1 Notation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
3.4.2 Règles de calcul . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
3.4.3 Produits doubles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
3.5 Combinatoire et dénombrement 57
3.5.1 Parties d’ensembles, produits d’ensembles . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
3.5.2 p -listes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
3.5.3 Arrangements . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
3.5.4 Permutations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
3.5.5 Combinaisons . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
3.5.6 Coefficients binomiaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
3.5.7 Culture G . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
4 Suites de nombres réels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
4.1 Préliminaires : rappels sur les réels 67
4.1.1 Relation d’ordre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
4.1.2 Encadrement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
4.1.3 Valeur absolue . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
4.1.4 Partie entière . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
4.2 Suites réelles : les fondamentaux 71
4.2.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
4.2.2 Opérations sur les suites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
4.2.3 Propriétés des suites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
4.3 Convergences des suites réelles 72
4.3.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
4.3.2 Propriétés des suites convergentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
4.3.3 Limites et opérations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
4.3.4 Limites et inégalités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
4.3.5 Suites adjacentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
4.4 Suites classiques 78
4.4.1 Suites arithmétiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
4.4.2 Suites géométriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
4.4.3 Suites arithmético-géométriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
4.4.4 Suites récurrentes linéaires d’ordre 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
4.4.5 Limites classiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
4.5 Suites et fonctions 82
4.5.1 Suite définie par une fonction réelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
4.5.2 Suite récurrente définie par une fonction réelle . . . . . . . . . . . . . . . . . . . . . . . . 82
5 Matrices et systèmes linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
5.1 Matrices rectangulaires 83
5.1.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
5.1.2 Opérations algébriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
5.1.3 Transposée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
5.2 Matrices carrées 88
5.2.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
5.2.2 Produit de matrices carrées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
5.2.3 Puissances d’une matrice carrée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
5.2.4 Matrices symétriques et antisymétriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
5.2.5 Matrices inversibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
5.2.6 Culture G : Google et PageRank . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
5.3 Systèmes linéaires 93
5.3.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
5.3.2 Opérations élémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
5.3.3 Méthode du pivot de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
5.3.4 Résolution d’un système échelonné . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
5.3.5 Système de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
6 Nombres complexes et polynômes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
6.1 Nombres complexes 101
6.1.1 Rappels sur les fonctions trigonométriques . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
6.1.2 Forme algébrique d’un nombre complexe . . . . . . . . . . . . . . . . . . . . . . . . . . 103
6.1.3 Conjugué d’un nombre complexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
6.1.4 Module d’un nombre complexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
6.1.5 Forme exponentielle d’un nombre complexe . . . . . . . . . . . . . . . . . . . . . . . . 105
6.1.6 Retour à la trigonométrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
6.1.7 Équations polynomiales du second degré . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
6.1.8 Autres résolutions d’équations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
6.2 Polynômes 108
6.2.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
6.2.2 Degré d’un polynôme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
6.2.3 Opérations usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
6.2.4 Division euclidienne de polynômes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
6.2.5 Racines d’un polynôme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
6.2.6 Factorisation de polynômes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
7 Introduction aux espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
7.1 Espaces 113
7.1.1 Espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
7.1.2 Sous-espace vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
7.2 Familles de vecteurs 118
7.2.1 Combinaison linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
7.2.2 Famille génératrice, famille libre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
7.2.3 Base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
8 Fonctions continues . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
8.1 Limite et continuité d’une fonction en un point 125
8.1.1 Intervalles de R - Rappels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
8.1.2 Limite d’une fonction en un point et en l’infini . . . . . . . . . . . . . . . . . . . . . . . . 126
8.1.3 Opérations sur les limites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
8.1.4 Limites et inégalités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
8.1.5 Composition de limites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
8.1.6 Continuité en un point . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
8.2 Continuité d’une fonction sur un intervalle 131
8.2.1 Propriétés globales des fonctions réelles - Rappels . . . . . . . . . . . . . . . . . . . . . 131
8.2.2 Fonctions continues sur un intervalle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
8.2.3 Fonctions continues par morceaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
8.2.4 Théorème des valeurs intermédiaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
8.2.5 Continuité et bijection . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
9 Dérivabilité et dérivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
9.1 Dérivée en un point 137
9.1.1 Nombre dérivé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
9.1.2 Développement limité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138
9.1.3 Opérations et dérivées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139
9.2 Fonction dérivée 140
9.2.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
9.2.2 Dérivées usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
9.3 Dérivation et étude de fonctions 142
9.3.1 Dérivée et extremum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
9.3.2 Théorème des accroissement finis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
9.3.3 Dérivation et monotonie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
10 Intégration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
10.1 Généralités 145
10.1.1 Intégrale d’une fonction continue . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
10.1.2 Propriétés de l’intégrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146
10.1.3 Intégrale d’une fonction continue par morceaux . . . . . . . . . . . . . . . . . . . . . 147
10.2 Calcul intégral 148
10.2.1 Primitives usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148
10.2.2 Intégration par parties . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148
10.2.3 Changement de variables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
10.2.4 Sommes de Riemann à pas constant . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150
10.2.5 Fractions rationnelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151
11 Modélisation et probabilités finies . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153
11.1 Modélisation mathématique 153
11.1.1 Qu’est-ce qu’une modélisation ? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153
11.1.2 Expérience aléatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154
11.1.3 Évènements aléatoires et évènements mathématiques . . . . . . . . . . . . . . . . . 155
11.2 Probabilités finies 156
11.2.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
11.2.2 Probabilités conditionnelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157
11.2.3 Indépendance en probabilités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159
11.2.4 Culture G : Le problème de Monty Hall . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160
12 Variables aléatoires réelles discrètes finies . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
12.1 Généralités 161
12.1.1 Définitions et notations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
12.1.2 Loi de probabilité et fonction de répartition . . . . . . . . . . . . . . . . . . . . . . . . . . 162
12.2 Espérance et variance 163
12.2.1 Espérance mathématique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163
12.2.2 Variance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164
12.2.3 Transferts usuels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165
12.3 Lois usuelles 166
12.3.1 Loi certaine . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166
12.3.2 Loi uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166
12.3.3 Loi de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167
12.3.4 Loi binomiale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167

Intersemestre
13 Entracte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171

II Second semestre
14 Espaces vectoriels et dimension finie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175
14.1 Espaces vectoriels de dimension finie 175
14.1.1 Définition et théorèmes fondamentaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175
14.1.2 Dimension et sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177
14.2 Sommes de sous-espaces vectoriels 178
14.2.1 Sommes de deux sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . 178
14.2.2 Sommes de k sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179
14.2.3 Sommes de sous-espaces vectoriels en dimension finie . . . . . . . . . . . . . . . . . 179
14.2.4 Sous-espaces supplémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181
14.3 Sous-espaces vectoriels de Kn 181
15 Comparaisons asymptotiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185
15.1 Comparaisons asymptotiques de suites réelles 185
15.1.1 Petit « o » de Landau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185
15.1.2 Suites équivalentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186
15.1.3 Suites usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 188
15.1.4 Culture G : Barack Obama et la complexité algorithmique . . . . . . . . . . . . . . 189
15.2 Comparaisons asymptotiques de fonctions 189
15.2.1 Petit « o » de Landau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 190
15.2.2 Fonctions équivalentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 190
15.2.3 Fonctions usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 192
16 Séries numériques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193
16.1 Généralités 193
16.1.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193
16.1.2 Convergence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 194
16.2 Théorèmes de convergence 194
16.2.1 Résultats directs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 194
16.2.2 Comparaison des séries à termes positifs . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195
16.2.3 Convergence absolue . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 197
16.2.4 Convergences et divergences classiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . 198
16.2.5 Culture G : le paradoxe de Zénon . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199
17 Probabilités sur un univers quelconque . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201
17.1 Un exemple 201
17.2 Espaces probabilisés 202
17.2.1 Tribus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 202
17.2.2 Probabilités et espaces probabilisés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203
17.2.3 Limite monotone . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 204
17.2.4 Probabilités conditionnelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 206
17.2.5 Indépendance en probabilités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208
17.3 Variables aléatoires réelles 209
17.3.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 209
17.3.2 Loi de probabilité et fonction de répartition . . . . . . . . . . . . . . . . . . . . . . . . . . 210
17.4 Variables aléatoires réelles discrètes 211
17.4.1 Ensembles discrets . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211
17.4.2 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212
17.4.3 Espérance mathématique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213
17.4.4 Variance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213
17.4.5 Transferts usuels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 214
17.4.6 Moments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215
17.5 Lois usuelles 216
17.5.1 VARDF . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 216
17.5.2 Loi géométrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 216
17.5.3 Loi de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 217
17.5.4 Culture G : La ruine du joueur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 217
18 Applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 219
18.1 Cas général 219
18.1.1 Définition et premières propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 219
18.1.2 Opérations usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 220
18.1.3 Noyau et Image . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221
18.1.4 Isomorphismes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 222
18.1.5 Endomorphismes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 223
18.1.6 Projecteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 224
18.2 Dimension finie 225
18.2.1 Rang d’une application linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 225
18.2.2 Formes linéaires et hyperplans . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 226
18.2.3 Matrice d’une application linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227
18.2.4 Application linéaire d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 228
18.2.5 Endomorphismes et matrices carrées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 230
19 Intégration sur un intervalle quelconque . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 233
19.1 Intégrales généralisées 233
19.1.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 233
19.1.2 Propriétés fondamentales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235
19.1.3 Calcul intégral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 236
19.2 Cas des fonctions positives 236
19.2.1 Comparaison des fonctions positives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 236
19.2.2 Convergence absolue . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 238
19.3 Intégrales classiques 239
19.3.1 Intégrales de Riemann . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 239
19.3.2 Intégrales pour les probabilités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 240
20 Dérivées successives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 241
20.1 Dérivées p -ièmes 241
20.1.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 241
20.1.2 Opérations algébriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 242
20.1.3 Culture G : Les splines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 243
20.2 Développements asymptotiques 244
20.2.1 Formules de Taylor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 244
20.2.2 Développements limités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 245
20.2.3 Développements limités usuels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 247
21 Compléments d’analyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 249
21.1 Points critiques 249
21.2 Fonctions convexes 250
21.2.1 Définition et premières propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 250
21.2.2 Fonctions convexes et dérivabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 251
21.2.3 Points d’inflexion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 251
22 Variables aléatoires à densité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 253
22.1 Introduction 253
22.1.1 Définition et premières propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 253
22.1.2 Espérance et moments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 254
22.1.3 Transferts usuels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 255
22.2 VAR à densité usuelles 256
22.2.1 Loi uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 256
22.2.2 Loi exponentielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 257
22.2.3 Loi normale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 260
23 Convergences et approximations en probas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 263
23.1 Convergence en probabilité 263
23.1.1 Inégalités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 263
23.1.2 Loi faible des grands nombres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 264
23.2 Convergence en loi 264
23.2.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 264
23.2.2 Modélisation de la loi Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 265
23.2.3 Théorème central limite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 265
23.2.4 Culture G : pourquoi la courbe de Gauss est-elle partout ? . . . . . . . . . . . . . . 266
I
Premier semestre

1 Les mathématiques en ECS 1 . . . . . . . . . . . 13


1.1 Objectifs
1.2 Le travail
1.3 Mathématiques et philosophie

2 Langage mathématique . . . . . . . . . . . . . . . 17
2.1 Du chinois au grec
2.2 Un peu de logique
2.3 Théorie des ensembles
2.4 Applications

3 Récurrence et ensembles finis . . . . . . . . . . 47


3.1 Raisonnement par récurrence
3.2 Ensembles finis
3.3 Sommes finies de nombres
3.4 Produits finis de nombres
3.5 Combinatoire et dénombrement

4 Suites de nombres réels . . . . . . . . . . . . . . . . 67


4.1 Préliminaires : rappels sur les réels
4.2 Suites réelles : les fondamentaux
4.3 Convergences des suites réelles
4.4 Suites classiques
4.5 Suites et fonctions

5 Matrices et systèmes linéaires . . . . . . . . . . 83


5.1 Matrices rectangulaires
5.2 Matrices carrées
5.3 Systèmes linéaires

6 Nombres complexes et polynômes . . . . . 101


6.1 Nombres complexes
6.2 Polynômes

7 Introduction aux espaces vectoriels . . . . 113


7.1 Espaces
7.2 Familles de vecteurs

8 Fonctions continues . . . . . . . . . . . . . . . . . . 125


8.1 Limite et continuité d’une fonction en un point
8.2 Continuité d’une fonction sur un intervalle

9 Dérivabilité et dérivation . . . . . . . . . . . . . . 137


9.1 Dérivée en un point
9.2 Fonction dérivée
9.3 Dérivation et étude de fonctions

10 Intégration . . . . . . . . . . . . . . . . . . . . . . . . . . 145
10.1 Généralités
10.2 Calcul intégral

11 Modélisation et probabilités finies . . . . . . 153


11.1 Modélisation mathématique
11.2 Probabilités finies

12 Variables aléatoires réelles discrètes finies 161


12.1 Généralités
12.2 Espérance et variance
12.3 Lois usuelles
1. Les mathématiques en ECS 1

Bienvenue en classe prépa ECS 1 au lycée Dupuy de Lôme de Lorient. Le présent document
constitue le tout début de ce qui sera, tout au long de cette année, le support principal de votre
cours de mathématiques. Il est rédigé par mes soins et vous sera distribué au fur et à mesure
de l’avancement du cours et de son écriture. Il sera aussi régulièrement mis en ligne sur le site
http://cpgedupuydelome.fr. Dans ce bref chapitre introductif, on présentera les objectifs de
ce cours ainsi que des guides sur l’organisation du travail au cours de cette année.

1.1 Objectifs
1.1.1 Les concours
Vous êtes en classe préparatoire aux concours des grandes écoles et votre finalité est certai-
nement d’intégrer une de ces grandes écoles. Pour les étudiants en ECS, un certain nombres de
concours vous sont ouverts. La part que représente les mathématiques, en termes de coefficients,
est variables selon les écoles.

Les écoles de commerce


La part des mathématiques dans le calcul de la note d’admissibilité varie, selon les écoles, de
13% à 37%, et se situe en moyenne à 22% (pour la session 2014). C’est en soi une part importante
et cela doit être pris en compte dans votre stratégie de préparation aux concours mais ce n’est
pas le seul indicateur à considérer. Les statistiques sur les notes aux différentes épreuves des
concours montre que, pour les épreuves de mathématiques, les écart-types sont significative-
ment plus élévés que pour les autres épreuves. Cela signifie que les notes en mathématiques
sont plus étalées que pour les autres matières. On marque et on perd plus facilement des points
en mathématiques. C’est donc une matière qui permet vraiment de faire la différence le jour du
concours. Quelques écoles organisent également un oral d’admission en mathématiques (HEC,
ESCP, ENSAE), dans ces cas les coefficients en mathématiques sont considérables, entre 25% et
40%.
14 Chapitre 1. Les mathématiques en ECS 1

Les écoles d’actuariat


Six écoles d’actuariat proposent, depuis l’an dernier, un concours commun ouvert aux
étudiants des classes préparatoires. Ce concours moins connu peut intéresser un certain nombre
d’entre vous. Un actuaire est un professionnel spécialisé dans l’évaluation et la gestion du risque
et de l’incertitude. Les actuaires sont très demandés dans les secteurs de l’assurance, de la
finance, de l’audit et de la prévoyance. Le concours comprend des épreuves de mathématiques,
de contraction de texte, de langues, mais seules les épreuves de mathématiques sont prises en
compte au niveau de l’admissibilité.

Les écoles sans maths


Certaines écoles proposent des concours ouverts à des étudiants aux profils très variés. Ces
concours n’ont pas forcément d’épreuves de mathématiques. C’est le cas des concours d’entrée
pour le CELSA et ceux des IEP.

1.1.2 Au-delà des concours


Se préparer aux épreuves du concours c’est important, mais il faut aussi être capable de se
projeter à plus long terme. Ce serait dommage qu’aux termes de vos années de prépas vous
n’ayez appréhendé le cours de mathématiques que comme outil de réussite aux concours. Vous
êtes également en prépa pour vous former pour la suite de vos études et aussi pour le reste
de votre vie. Dans les objectifs généraux de l’enseignement de mathématiques tels qu’ils sont
définis par le programme, il s’agit surtout de vous aider à structurer votre pensée, de vous former
à la rigueur et à la logique. Il s’agit également de vous aider à développer un certain nombres de
compétences.
— Rechercher et mettre en œuvre des stratégies adéquates.
— Modéliser.
— Interpréter.
— Raisonner et argumenter.
— Maîtriser le formalisme et les techniques mathématiques.
— Communiquer par écrit et oralement.
Ces compétences vous seront utiles dans de nombreux contextes qui vont bien au-delà des
mathématiques. On trouvera, dans ce cours, des éléments permettant d’établir un lien entre les
mathématiques et d’autres disciplines, aussi bien avec la philosophie que les sciences écono-
miques. Ces éléments sont là pour vous aider à comprendre les objets mathématiques que vous
allez utiliser et développer votre culture générale.

1.2 Le travail
1.2.1 Le travail en classe
L’enseignement de mathématiques en ECS 1 est réparti sur 9 heures de cours hebdomadaires,
auquelles s’ajoute une heure d’informatique qui sera dispensée par Julian Blouch. Ces 9 heures
seront partagées entre des séances de cours à proprement parler et des séances de travaux
dirigés. Les séances de cours suivront largement le présent support. Certains exercices seront
intégrés à ce cours et vous serez amener à les faire pendant le cours. Pendant les séances de
travaux dirigés, vous travaillerez sur des documents annexes. Dans tous les cas, il est vivement
encouragé de poser des questions.

Le support de cours est composé de différents blocs : définitions, propriétés, théorèmes,


lemmes, remarques, exercices, etc. Chacun de ces blocs est important. Les définitions, propriétés,
théorèmes, lemmes et démonstrations doivent, sauf mention contraire, être connus (quasi par
cœur). Certains exercices sont également à connaître, lorsque c’est le cas, je l’indiquerai.
1.3 Mathématiques et philosophie 15

1.2.2 Les colles


Vous aurez 1 heure de colle en mathématiques toutes les deux semaines. Cette heure est très
importante puisqu’elle permet un échange direct et individualisé avec un professeur. Les colles
doivent être bien préparées, il faut bien connaître l’ensemble de son cours avant de s’y rendre.
La colle comportera une partie cours et une partie exercice et l’évaluation portera sur ces deux
parties.

1.2.3 Les devoirs


Vous aurez un devoir sur table de 4 heures en mathématiques toutes les 5 semaines, ainsi
qu’un devoir à faire à la maison toutes les semaines. À titre indicatif, on considère qu’il faut
passer au moins 4 heures sur un DM tant qu’il n’est pas terminé. Des devoirs spéciaux vous
seront donnés à faire pendant les vacances.

1.2.4 Le travail personnel


Le travail personnel est très important. Il faut passer du temps pour apprendre le cours. Il
faut faire des exercices, pleins d’exercices. Il ne faut pas avoir peur de buter sur un exercice
et prendre le temps de réfléchir. Il ne faut pas non plus s’interdire de regarder une solution, à
condition d’avoir bien réfléchi avant de la regarder. S’inspirer de solutions bien écrites, pour
rédiger ses propres solutions de manière claire et précise peut être profitable.

1.2.5 Le travail en groupe


Le travail en petit groupe est fortement encouragé. Discuter d’une solution, réfléchir à
plusieurs, expliquer à ses camarades, se faire expliquer, reformuler ensemble, toutes ces pra-
tiques sont tout à fait bénéfique à l’assimilation et à la compréhension des notions du cours de
mathématiques.

1.3 Mathématiques et philosophie


On termine cette introduction par une invitation à la réflexion autour de deux citations qui
illustrent le lien entre le cours de mathématiques et le cours de philosophie.

Dans cet extrait des Tusculanes, Cicéron évoque l’anecdote de la création du mot philosophe.

« Par la même raison, sans doute, tous ceux qui se sont attachés depuis aux sciences
contemplatives, ont été tenus pour Sages, et ont été nommés tels, jusques au temps
de Pythagore, qui mit le premier en vogue le nom de philosophes. Héraclide de Pont,
disciple de Platon, et très habile homme lui-même, en raconte ainsi l’histoire. Un jour,
dit-il, Léon, roi des Phliasiens, entendit Pythagore discourir sur certains points avec
tant de savoir et d’éloquence, que ce prince, saisi d’admiration, lui demanda quel
était donc l’art dont il faisait profession ? À quoi Pythagore répondit, qu’il n’en savait
aucun ; mais qu’il était philosophe. Et sur ce, le roi, surpris de la nouveauté de ce nom,
le pria de lui dire qui étaient donc les philosophes, et en quoi ils différaient des autres
hommes. » Cicéron, Tusculanes, V, 3, §8 d’après la traduction dirigée par M. Nisard.

Pythagore qui, en France, est surtout connu en tant que mathématicien serait donc le
premier des philosophes.

Le texte qui suit est extrait de L’Essayeur de Galilée. Il répond ici au Signor Sarsi (Orazio
Grassi de son vrai nom) un Jésuite italien qui s’opposait aux théories de Galilée sur les comètes.
16 Chapitre 1. Les mathématiques en ECS 1

« Je crois, en outre, déceler chez Sarsi la ferme conviction qu’en philosophie il est
nécessaire de s’appuyer sur l’opinion d’un auteur célèbre et que notre pensée, si elle
n’épouse pas le discours d’un autre, doit rester inféconde et stérile. Peut-être croit-il
que la philosophie est l’œuvre de la fantaisie d’un homme, comme L’Iliade et le Roland
furieux, où la vérité de ce qui y est écrit est la chose la moins importante. Il n’en est
pas ainsi, Signor Sarsi. La philosophie est écrite dans cet immense livrre qui se tient
toujours ouvert devant nos yeux, je veux dire l’Univers, mais on ne peut le comprendre
si l’on ne s’applique d’abord à en comprendre la langue et à connaître les caractères
avec lesquels il est écrit. Il est écrit dans la langue mathématique et ses caractères sont
des triangles, des cercles et autres figures géométriques, sans le moyen desquels il est
humainement impossible d’en comprendre un mot. Sans eux, c’est une errance vaine
dans un labyrinthe obscur. Mais admettons que notre entendement doive se faire,
comme le croit Sarsi, l’esclave de celui d’un autre homme [...]. » Galilée, L’Essayeur
d’après la traduction de Christiane Chauviré.
Ainsi, pour Galilée, les mathématiques sont la langue de la nature et leur connaissance est
nécessaire pour comprendre cette nature. Grâce aux mathématiques, on peut s’affranchir de
la pensée des autres et penser de manière autonome puisque l’on ne s’appuie que sur notre
entendement des mathématiques. Peut-être pourriez-vous également, à la suite de ce cours,
ressentir le sentiment d’indépendance d’esprit que procure une maitrise des mathématiques.

Pour ceux qui ne l’aurez pas remarqué, cette dernière citation s’intègre facilement dans le
thème de cette année pour l’enseignement de culture générale.
2. Langage mathématique

Quand on parle aux gens de mathématiques, il n’est pas rare d’entendre : « Les mathéma-
tiques, je n’y comprends rien. Pour moi, tout ça c’est du chinois ! », et pour cause. Les mathé-
matiques utilisent un langage bien à elles et l’apprentissage des mathématiques s’apparente
pour beaucoup à celui d’une langue étrangère. Pour maitriser une langue, il faut connaître
le vocabulaire, les signes typographiques, savoir construire une phrase sans faire de fautes de
grammaire, sans faire de fautes de syntaxe. En mathématiques, c’est presque la même chose avec
une difficulté supplémentaire : les mots que l’on utilise dans le langage mathématique existent
pour la plus part également en langage naturel (dans notre cas en français). Il est donc facile
de penser qu’un mot a le même sens dans un contexte mathématique qu’en français, or c’est
rarement le cas. Heureusement, le langage mathématique est très précis et on prend toujours le
temps de bien définir chacune des nouvelles notions que l’on utilise. C’est pourquoi dans ce
cours, comme dans tout cours de mathématiques, les définitions jouent un rôle primordial. Il
est important de bien les retenir dans leur formulation précise.
Jusqu’à présent, vous avez déjà vu un bon nombre de choses en mathématiques. Vous
connaissez pas mal de mots de vocabulaire et vous savez faire des phrases. Mais, pour la plus
part d’entre vous, vous faites énormément de fautes qui s’apparente à des fautes de grammaire
et de syntaxe, et vous connaissez mal le sens des mots que vous utilisez. Ces fautes vont vous
freiner dans vos raisonnements, parce qu’elles vont entraîner contresens et non-sens. Quelques
petites erreurs de ce type qui se succèdent dans un raisonnement à plusieurs étapes mènent
régulièrement, dans un exercice, à une situation de blocage complet ou à un non-sens total.
Ne parlez pas les mathématiques comme Franck Ribéry parle le français ! Faites des phrases
simples, courtes et précises. Prenez le temps qu’il faut pour vous exprimer correctement. Il vaut
mieux avancer lentement et surement que de foncer droit dans le mur.
Dans ce chapitre, vous trouverez d’abord quelques notations et symboles couramment
utilisés dans un contexte mathématique. On présentera ensuite des notions élémentaires mais
essentielles que l’on utilisera tout au long du cours. Ces notions en logique et théorie des
ensembles sont les outils de base qui vous permettront de construire un discours mathématique
solide.
18 Chapitre 2. Langage mathématique

2.1 Du chinois au grec


Pour renvoyer aux différents objets mathématiques qu’ils utilisent, les mathématiciens
choisissent généralement des lettres de l’alphabet latin (celui que vous utilisez tous les jours)
sous différentes typographies (minuscule, majuscule, italique, gras, ajourée, ronde, ...). Certaines
notations sont dédiées et il ne faut pas les utiliser pour d’autres objets. C’est le cas, par exemple,
pour le « r » majuscule ajouré : R, qui désigne l’ensemble des réels. Mais la plus part sont
libres. Certaines notations, cependant, sont usuelles et il est préférable de préserver certaines
habitudes afin de ne pas induire de confusion. On utilise, par exemple, traditionnellement les
lettres italiques f , g et h pour désigner des fonctions, ou encore, les lettres italiques n et m
pour des entiers. Ces différentes conventions seront précisées tout au long du cours dans des
remarques.

R Le terme objet mathématique permet de désigner n’importe quel objet que l’on peut
« manipuler » en mathématiques : les nombres, les fonctions, les ensembles en sont des
exemples.

Un autre alphabet fréquemment utilisé en mathématiques est l’alphabet grec. Ce n’est pas le
cas de toutes ses lettres, mais vérifiez que vous connaissez bien toutes celles qui sont surlignées.
Ce serait dommage de se laisser décontenancer simplement parce qu’un symbole n’est pas
familier.

Minuscule Majuscule Nom Minuscule Majuscule Nom

α A alpha ν N nu
β B bêta ξ Ξ xi
γ Γ gamma o O omicron
δ ∆ delta π Π pi
ε E epsilon ρ P rhô
ζ Z zêta σ Σ sigma
η H êta τ T tau
θ Θ thêta υ Υ upsilon
ι I iota ϕ Φ phi
κ K kappa χ X khi
λ Λ lambda ψ Ψ psi
µ M mu ω Ω oméga

2.2 Un peu de logique


On commence par présenter le bloc de base du discours mathématique : la proposition ;
ainsi que les opérations logiques qui s’y rapportent. On s’intéresse ensuite à quelques modes
de raisonnement.

2.2.1 La proposition
Définition 2.2.1 Une proposition est une phrase mathématique qui est soit vraie, soit fausse.

■ Exemple 2.1 « 2 < π » est une proposition vraie. ■

■ Exemple 2.2 « Pour tout réel x, x + 1 est positif. » est une proposition fausse. ■

2 5
■ Exemple 2.3 « 3(x + x ) » n’est pas une proposition. ■
2.2 Un peu de logique 19

R Lorsque l’on écrit une proposition mathématique, on considère, sauf mention contraire,
que cette proposition est vraie. Ainsi, on dira plus souvent « on a P » que « P est vraie ».

2.2.2 L’équivalence
Définition 2.2.2 Soient P et Q deux propositions. L’équivalence de P et Q, notée P ⇔ Q et lue
« P équivaut à Q », est la proposition qui est vraie lorsque P et Q ont la même valeur de vérité
et fausse sinon.

R Lorsque l’on considère des opérations logiques sur des propositions, on utilise souvent
une table de vérité. La table de vérité pour l’équivalence est la suivante.

P Q P⇔Q
V V V
V F F
F V F
F F V

2.2.3 La négation
Définition 2.2.3 Soit P une proposition. La négation de P, notée ¬P et lue « non P », est la
proposition qui est vraie si P est fausse et qui est fausse si P est vraie.

R La table de vérité pour la négation d’une proposition P est la suivante.

P ¬P
V F
F V

On remarque que la négation de la négation d’une proposition est équivalente à la propo-


sition elle même. En d’autres termes : ¬(¬P) ⇔ P.

2.2.4 La disjonction
Définition 2.2.4 Soient P et Q deux propositions. La disjonction de P et Q, notée P ∨ Q et lue
« P ou Q », est la proposition qui est vraie dès que l’une au moins des propositions P ou Q est
vraie.

R La disjonction correspond à ce que l’on appelle en français un « ou » inclusif. La table de


vérité correspondante est la suivante.

P Q P∨Q
V V V
V F V
F V V
F F F

On remarque que P ∨ Q ⇔ Q ∨ P, on dit que l’opération de conjonction est commutative.

2.2.5 La conjonction
Définition 2.2.5 Soient P et Q deux propositions. La conjonction de P et Q, notée P ∧ Q et
lue « P et Q », est la proposition qui est vraie quand les deux propositions P et Q sont vraies et
fausse sinon.
20 Chapitre 2. Langage mathématique

R La table de vérité pour la conjonction est la suivante.


P Q P∧Q
V V V
V F F
F V F
F F F
De même que pour la disjonction, l’opération de conjonction est commutative : P ∧ Q ⇔
Q ∧ P.

2.2.6 Quelques propriétés


Propriété 2.2.1 — Lois de De Morgan. Soient P et Q deux propositions. On a les équivalences
suivantes :
¬(P ∨ Q) ⇔ ¬P ∧ ¬Q ,
¬(P ∧ Q) ⇔ ¬P ∨ ¬Q .

Exercice 2.1 Vérifier les lois de Morgan en utilisant les tables de vérité. ■

Propriété 2.2.2 — Distributivité. Soient P, Q et R trois propositions. On a les équivalences


suivantes :
(P ∧ Q) ∨ R ⇔ (P ∨ R) ∧ (Q ∨ R) ,
(P ∨ Q) ∧ R ⇔ (P ∧ R) ∨ (Q ∧ R) .

Exercice 2.2 Vérifier la distributivité en utilisant les tables de vérité. ■


2.2 Un peu de logique 21

2.2.7 L’implication
Définition 2.2.6 Soient P et Q deux propositions. L’implication de P vers Q, notée P ⇒ Q et
lue « P implique Q, est la proposition qui est vraie si Q est vraie lorsque P est vraie et fausse
sinon.

R La table de vérité pour l’implication est la suivante.

P Q P⇒Q
V V V
V F F
F V V
F F V

Cette table en a déjà troublé plus d’un. Pourquoi P ⇒ Q serait-elle vraie si P est fausse ?
C’est parce que la condition dans la définition ne porte que sur le cas où P est vraie. Dans
le cas où P est fausse, une implication de P vers Q ne devrait pas permettre de dire quoi
que ce soit sur Q. Ainsi, dans ce cas, que Q soit vraie ou fausse, l’implication reste vraie.

Exercice 2.3 Montrer que P ⇒ Q et (¬P) ∨ Q sont équivalentes. ■

Exercice 2.4 Soit f une fonction croissante de [0, +∞[ dans R. On considère les deux propo-
sitions suivantes :
— P : « f (0) = 1 » ,
— Q : « f est strictement positive » .
Montrer que P implique Q. Pour chacune des 3 cas de véracité de la table ci-dessus, donner
un exemple de fonction illustrant ce cas. ■
22 Chapitre 2. Langage mathématique

L’implication mathématique n’est pas l’analogue de la relation cause vers conséquence dans
le langage naturel. Prenons pour exemple le cas de la fumée et du feu. C’est le feu qui cause la
fumée. Mais si on prend la phrase « Il n’y a pas de fumée sans feu. » alors on se rapproche d’une
proposition de type logique « La fumée implique le feu ». En effet, si le bois est très sec, il n’y a
pas forcément de fumée et donc on peut avoir un feu sans fumée. On peut également être dans
une situation sans feu, ni fumée. Par contre, s’il y a de la fumée alors, forcément, il y a un feu.

Vocabulaire 2.1 Il y a un grand nombre de formulation différentes de l’implication. Toutes les


suivantes sont fréquemment utilisées, il est donc important de bien les connaître.
— A ⇒ B,
— A implique B,
— si A, alors B,
— A est une condition suffisante pour B,
— pour que B, il suffit que A,
— B est une condition nécessaire pour A,
— pour que A, il faut que B.
Aussi, la proposition B ⇒ A est appelée la proposition réciproque de A ⇒ B.

2.2.8 Implication et raisonnements


L’utilisation de l’implication est centrale dans les raisonnements et les démonstrations en
mathématiques. Elle peut se faire de plusieurs manières.

Raisonnement direct
Il s’agit du raisonnement dont le principe est le plus simple pour montrer une proposition Q
à partir d’une proposition P.

« Je sais que P ⇒ Q et je sais que P. J’en déduis donc directement Q. »

Transitivité de l’implication
Souvent, il y a besoin de plus d’une étape pour arriver au résultat souhaité. Pour cela on peut
utiliser la propriété de transitivité de l’implication. Si P ⇒ Q et Q ⇒ R alors P ⇒ R.

« Je sais que P ⇒ Q, que Q ⇒ R et que P. J’en déduis donc R. »

Raisonnement par contraposition


Il arrive que la proposition que l’on souhaite démontrer soit écrite sous une fore négative.
Dans ce cas, il est possible de passer par la contraposée.
Propriété 2.2.3 Soient P et Q deux propositions. Les propositions P ⇒ Q et (¬Q) ⇒ (¬P) sont
équivalentes. On appelle contraposée de P ⇒ Q cette deuxième proposition.

Exercice 2.5 Démontrer la propriété 2.2.3. ■


2.2 Un peu de logique 23

Le raisonnement par contraposition repose sur cette propriété.

« Je sais que P ⇒ Q et que je n’ai pas Q. J’en déduis que je ne peux pas avoir P. »

Double implication et cycles


Lorsque l’on cherche à montrer une équivalence entre deux propositions, on peut procéder
par double implication. En effet, on utilise le fait que P ⇔ Q est équivalente à (P ⇒ Q) ∧ (Q ⇒ P).

« Je veux montrer que P ⇔ Q. Je montre d’abord P ⇒ Q puis Q ⇒ P. »

Exercice 2.6 Montrer que l’on a bien équivalence entre P ⇔ Q et (P ⇒ Q) ∧ (Q ⇒ P). ■

Ce procédé peut se combiner habilement avec un raisonnement par contraposition.

« Je veux montrer que P ⇔ Q. Je montre d’abord P ⇒ Q puis (¬P) ⇒ (¬Q). »

Lorsque l’on cherche à montrer une équivalence entre plusieurs propositions, il suffit de
montrer autant d’implications qu’il y a de propositions. On considère ici le cas de trois proposi-
tions équivalentes.

« Je veux montrer que P, Q et R sont équivalentes. Je montre P ⇒ Q, puis Q ⇒ R, et enfin R ⇒ P. »

Exercice 2.7 Montrer qu’un raisonnement par cycle permet bien de montrer l’équivalence
entre trois propositions. ■
24 Chapitre 2. Langage mathématique

2.2.9 Négation et raisonnements


Certaines formes de raisonnement passent par l’utilisation de la négation d’une proposition.
C’est le cas pour le raisonnement par contraposition qui a été présenté précédemment, ainsi
que pour ceux qui suivent.

Raisonnement par l’absurde


Le raisonnement par l’absurde permet de démontrer qu’une proposition est vraie en sup-
posant qu’elle est fausse, c’est-à-dire que sa négation est vraie. Le cheminement de la démonstra-
tion doit mener à la conclusion qu’une proposition vraie est fausse. Il peut s’agir de la négation
de la proposition elle-même, c’est le premier cas donné.

« Je veux montrer que P. Je suppose que ¬P et j’arrive à montrer que P. Je ne peux pas avoir
simultanément P et ¬P, c’est une contradiction. Ma supposition était donc fausse et j’ai bien P. »

p
Exercice 2.8 — Ve siècle av. J.-C., École de Pythagore. Montrer que 2 est irrationnel. ■

Exercice 2.9 — IIIe siècle av. J.-C., Éléments d’Euclide. Montrer qu’il existe une infinité
de nombres premiers. ■
2.2 Un peu de logique 25

Il peut également s’agir d’une contradiction avec un résultat connu comme étant vrai.

« Je veux montrer que P et je sais que Q. Je suppose que ¬P et j’arrive à montrer que ¬Q.
C’est une contradiction. Ma supposition était donc fausse et j’ai bien P. »

e x +1
Exercice 2.10 Montrer qu’il n’existe pas de réel x tel que e x +2 = 1. ■

Dichotomie
La dichotomie est le procédé qui consiste à séparer un problème en deux cas qui sont
mutuellement incompatibles mais qui recoupent, à eux deux, toutes les éventualités. En logique,
cela consiste à considérer d’abord qu’une proposition P est vraie, puis qu’elle fausse, pour
aboutir dans les deux cas à deuxième proposition Q.

« Je veux montrer que Q et je ne sais pas si P. Je montre d’abord que si P alors Q,


puis que si ¬P alors Q également. Dans tous les cas, j’ai bien Q. »

Exercice 2.11 Montrer qu’il existe deux nombres irrationnels x et y tels que x y soit rationnel.

2.2.10 Culture G : Le dilemme du prisonnier


La théorie des jeux est une branche des mathématiques qui offre un cadre théorique pour
modéliser des situations dans lesquelles des agents cherchent à optimiser leurs gains en fonction
de leur anticipation des actions des autres agents. Cette théorie est plébiscitée par les écono-
mistes. Sur les dix derniers années, quatre prix Nobel d’économie ont été attribués pour des
travaux fondés sur cette théorie (2005, 2007, 2012, 2014). Le dilemme du prisonnier est un
exemple récurrent des cours d’introduction à la théorie des jeux. Ce problème, énoncé en 1950
par Albert W. Tucker (1905-1995), permet de décrire une situation dans laquelle deux agents
auraient tendance à ne pas coopérer, alors qu’une stratégie de coopération serait surement
souhaitable. Son énoncé est le suivant.
26 Chapitre 2. Langage mathématique

Deux membres d’une organisation criminelle sont arrêtés et emprisonés. Chacun des prison-
niers est placé en cellule d’isolement sans qu’ils puissent communiquer entre eux de quelque
manière que ce soit. Les procureurs n’ont pas assez d’éléments pour les inculper pour des crimes
sérieux, et ils espèrent tous les deux sortir de prison après un an pour des délits mineurs. Les
procureurs font alors, simultanément, une offre à chacun des prisonniers. Ils ont chacun la
possibilité : soit de trahir l’autre prisonnier en témoignant contre lui ; soit de coopérer avec lui
en gardant le silence. Voici le détail de l’offre :
— Si A et B trahissent chacun l’autre prisonnier, alors chacun d’entre eux aura une peine de
deux ans de prison.
— Si A trahit B, mais que B garde le silence, A sera relaché et B aura une peine de trois ans de
prison (et réciproquement).
— Si A et B gardent tous les deux le silence, alors chacun d’entre eux aura une peine de un an
de prison pour délits mineurs.
Il est sous-entendu dans l’énoncé que les prisonniers n’auront pas de moyen de se venger
s’ils se font trahir et que le fait de trahir n’entache en rien leur réputation de gangster. Chaque
prisonnier n’est intéressé que par le fait de sortir le plus rapidement possible. On modélise leur
raisonnement en utilisant de la logique mathématique.

Le prisonnier A considère les deux possibilités d’action de son coéquipier : soit B le trahit ;
soit B se tait. Si B le trahit, alors A peut se taire, dans quel cas il prend pour trois ans, ou alors A
peut parler et il ne prend que pour deux ans. Dans cette situation, A a donc intérêt à parler. Si B
se tait, alors A peut se taire, dans quel cas il prend pour deux ans, ou alors A peut parler et il est
libéré de suite. Dans cette situation, A a donc également intérêt à parler. Ce raisonnement par
dichotomie permet donc de dire que A va parler. Par symétrie du problème, on déduit également
que B va parler. Finalement, chacun prendra pour deux ans, alors que s’ils avaient coopéré, ils
auraient pu s’en tirer avec une peine d’un an chacun.

Bien évidemment, ce modèle n’est qu’un exemple très simple. Il a surtout une valeur pé-
dagogique et il est certainement très mal adapté pour décrire les choix des gangsters. Mais,
sous des formes plus élaborés, de tels modèles peuvent se révéler bien adaptés pour décrire les
mécanismes qui régissent la fixation du prix d’un même produit vendu par deux entreprises
différentes qui ne peuvent se concerter (lois antitrust).
2.3 Théorie des ensembles 27

2.3 Théorie des ensembles


La théorie des ensembles est la théorie fondamentale sur laquelle repose la majeure partie
des mathématiques modernes. Sans rentrer dans le formalisme le plus strict de cette théorie, on
présente ici les notions élémentaires qui seront utilisées tout au long du cours.

2.3.1 Définition et notations


Définition 2.3.1 Un ensemble E est une collection d’objets. Les objets qui constituent E sont
appelés les éléments de E. On note x ∈ E, lu « x appartient à E », si x est un élément de E. On
note x ∉ E, lu « x n’appartient pas à E », sinon.

De nombreuses notations sont utilisées pour les ensembles. Vous en avez déjà rencontrées
un certain nombre, mais vérifiez tout de même que chacune des notations qui suivent vous sont
familières.
■ Exemple 2.4 Un ensemble peut être défini par la liste de ses éléments entre accolades.
— L’ensemble qui ne contient aucun élément est appelé l’ensemble vide. Il est noté {} ou ;.
— Un ensemble qui ne contient qu’un seul élément a est noté {a} et appelé le « singleton a ».
— Lorsqu’un ensemble contient peu d’éléments, il est d’usage de tous les écrire. {1, 5, 7} est
un ensemble à 3 éléments.
— Lorsqu’un ensemble combien beaucoup, voir une infinité d’éléments, on peut utiliser des
poinitillés. Le contexte permet de déterminer ce qui est sous-entendu. Ainsi, {1, 2, ..., 20} dé-
signera vraisemblablement l’ensemble des entiers de 1 à 20 (aussi noté ‚0, 20ƒ), {0, 1, 2, 3, ...}
l’ensemble de tous les entiers naturels (aussi noté N), et {..., −2, −1, 0, 1, 2, ...} l’ensemble de
tous les entiers relatifs (aussi noté Z).

L’ordre des éléments dans un ensemble n’importe pas. Deux ensembles sont égaux lorsqu’ils
ont les mêmes éléments. Ainsi, {2, 3, 8} = {8, 2, 3}. Cette notion de l’égalité de deux ensembles
implique que tous les ensembles sans éléments sont égaux. Il n’y a donc qu’un seul ensemble
vide.
■Exemple 2.5 Les ensembles de nombres forment une classe très importante d’ensembles en
mathématiques. Les ensembles suivants sont à connaître.
— N : l’ensemble des entiers naturels.
— Z : l’ensemble des entiers relatifs.
— D : l’ensemble des nombres décimaux.
— Q : l’ensemble des nombres relatifs.
— R : l’ensemble des nombres réels.
— C : l’ensemble des nombres complexes.

■ Exemple 2.6 On utilise également des notations standards pour les intervalles dans Z et dans

R.
— Si n ≤ m sont deux entiers, alors ‚n, mƒ est l’ensemble des entiers compris entre n et m
inclus.
— On note ‚n, +∞ƒ l’ensemble des entiers supérieurs ou égaux à n et ƒ − ∞, nƒ l’ensemble
des entiers inférieurs ou égaux à n.
— Si x ≤ y sont deux réels, alors [x, y] est l’ensemble des réels compris entre x et y inclus. On
note ]x, y] si on exclut x, [x, y[ si on exclut y, et ]x, y[ si on exclut les deux.
— De même que précédemment, on a les notations ] − ∞, x], ] − ∞, x[, [x, +∞ et ]x, +∞[.

28 Chapitre 2. Langage mathématique

R Lorsque l’on considère les ensembles de nombres, on utilise souvent une astérisque en
exposant pour indiquer l’ensemble auquel on a retiré le zéro. Lorsque l’on ne considère
que les nombres positifs ou négatifs, on utilise un signe + ou un signe − en exposant. Ainsi
R+∗ =]0, +∞[.

Les ensembles de nombres sont certes très importants mais il ne faut pas penser que ce
sont les seuls. Dans ce cours, on considèrera, entre autres, des ensembles de fonctions, des
ensembles de matrices et des ensembles d’ensembles.
■ Exemple 2.7 L’ensemble de l’ensemble vide {{}} ou {;} n’est pas vide. Il contient un élément :
l’ensemble vide. On a donc {;} 6= ;. Ce n’est pas la même chose d’avoir une boîte vide que de ne
pas avoir de boîte du tout ! ■

2.3.2 Quantificateurs
Au début du cours, on a abordé la notion de proposition. Maintenant, on va considérer des
propositions qui dépendent d’une variable. Une proposition qui dépend d’une variable x peut
s’écrire P(x). Si la proposition dépend de plusieurs variables, par exemple x et y, on peut l’écrire
P(x, y).
Définition 2.3.2 Soit E un ensemble et P(x) une proposition définie pour tout élément x de
E. Si P(x) est vraie pour tout élément x de E, alors on écrit :

∀x ∈ E, P(x).

Cette proposition se lit « pour tout x appartenant à E, on a P(x) » ou « quelque soit x apparte-
nant à E, on a P(x) ». Le symbole ∀ est appelé quantificateur universel.

Définition 2.3.3 Soit E un ensemble et P(x) une proposition définie pour tout élément x de
E. Si P(x) est vraie pour au moins un élément x de E, alors on écrit :

∃x ∈ E, P(x).

Cette proposition se lit « il existe x appartenant à E tel que P(x) » ou « pour au moins un x
appartenant à E, P(x). Le symbole ∃ est appelé quantificateur existentiel.

R Lorsque l’on souhaite préciser qu’il n’existe qu’un seul x dans E tel que P(x), on utilise un
point d’exclamation. La proposition ∃!x ∈ E, P(x) se lit « il existe un unique x appartenant à
E tel que P(x) » ou « pour exactement un x de E, P(x) ».

R Lorsque l’on utilise plusieurs quantificateurs de suite, l’ordre est très important. Ce n’est
pas la même chose de dire (∀x ∈ E, ∃y ∈ F, P(x, y)) et (∃y ∈ F, ∀x ∈ E, P(x, y)). La deuxième
proposition est en effet plus contraignante, puisqu’il faut qu’un même y de F fonctionne
pour tous les x de E.

■ Exemple 2.8 On considère la proposition P(x, y) : « y = x + 1 ». La proposition ∀x ∈ R, ∃y ∈

R, P(x, y) est vraie (et même complètement banale). Elle signifie simplement que l’application
x 7→ x + 1 est bien définie sur R. Par contre, la proposition ∃y ∈ R, ∀x ∈ R, P(x, y) signifie que
l’application x 7→ x + 1 est constante. Elle est donc clairement fausse. ■

Exercice 2.12 Soit (u n )n∈N une suite de réels. Identifier les propositions suivantes.
— ∃M ∈ R, ∀n ∈ N, u n ≤ M ;
— ∀n ∈ N, u n+1 − u n ≥ 0 ;
2.3 Théorie des ensembles 29

— ∃p ∈ N, ∀n ∈ N, n ≥ p ⇒ u n = u p .

Propriété 2.3.1 Soit E un ensemble et P(x) une proposition définie pour tout élément de E.
Alors on a les équivalences qui suivent.

¬(∀x ∈ E, P(x)) ⇔ ∃x ∈ E, ¬P(x).

¬(∃x ∈ E, P(x)) ⇔ ∀x ∈ E, ¬P(x).

R Cette propriété est très importante. Vous allez devoir l’utiliser très souvent et il faudra
que cela vous semble évident. Si ce ne l’est pas déjà, essayez de réfléchir à des exemples
simples du langage courant. Quelle est la négation de « Toutes les pommes sont rouges. » ?

Lorsque l’on veut montrer qu’une proposition de type ∀x ∈ E, P(x) est fausse, il suffit donc
de montrer que P(x) est fausse pour une valeur particulière x 0 de x. Si on construit une telle
valeur particulière, on dit que x 0 un contre-exemple à la proposition P(x).

Exercice 2.13 Donner la négation des propositions de l’exercice précédent. ■

2.3.3 Inclusion
Définition 2.3.4 Soient E et F deux ensembles. Si ∀x ∈ E, x ∈ F alors on dit que E est inclus
dans F. On note E ⊂ F l’inclusion de E dans F.

R Comme l’ensemble vide ne contient élément, on a bien ∀x ∈ ;, x ∈ F, quelque soit F. Ainsi,


l’ensemble vide est inclus dans tous les ensembles.

Vocabulaire 2.2 Pour signifier l’inclusion E ⊂ F, on dit aussi que :


— E est un sous-ensemble de F,
— E est une partie de F.

R La négation de l’inclusion de E dans F est notée E 6⊂ F. Il ne faut pas la confondre avec


E ( F qui signifie que E est inclus dans F mais pas égal à F.

■ Exemple 2.9 On a la chaîne d’inclusion entre les ensembles de nombres vu précédemment.

N⊂Z⊂D⊂Q⊂R⊂C


30 Chapitre 2. Langage mathématique

Définition 2.3.5 Soit F un ensemble et P(x) une proposition définie pour tout x de F. On peut
définir l’ensemble E des éléments x de F tels que P(x). C’est un sous-ensemble de F et utilise
la notation ci-dessous.
E = {x ∈ F | P(x)}.

Exercice 2.14 Utiliser cette notation pour décrire les ensembles D et Q comme sous-ensembles
de R, ainsi que l’ensemble R en tant que sous-ensemble de C. ■

Exercice 2.15 Montrer que l’ensemble des fonctions continues périodiques de R dans R est
inclus dans l’ensemble des fonctions bornées de R dans R. ■

Définition 2.3.6 L’ensemble des parties de E, noté P (E), est l’ensemble de tous les sous-
ensembles de E.

■ Exemple 2.10 P (;) = {;} ■

■ Exemple 2.11 P ({a}) = {;, {a}} ■

2.3.4 Propriétés de l’inclusion


Propriété 2.3.2 Soient E, F et G trois ensembles. On a les trois propriétés suivantes :

(i) E⊂E (Réflexivité)


(ii) si E ⊂ F et F ⊂ G alors E ⊂ G (Transitivité)
(iii) si E ⊂ F et F ⊂ E alors E = F (Antisymmétrie)

R Ces propriétés confère à l’inclusion le statut de relation d’ordre. Il s’agit d’une classe
particulière de relations binaires qui permettent d’établir des structures hiérarchiques.

La propriété 2.3.2 (iii) est utilisée très souvent pour montrer l’égalité de deux ensembles.
On dit que l’on montre l’égalité par double inclusion. Cette propriété peut se combiner avec
la propriété de transitivité 2.3.2 (ii) pour montrer des égalités multiples. Dans ce cas, on utilise
2.3 Théorie des ensembles 31

exactement le même principe de raisonnement par cycle que pour les équivalences multiples
(voir 2.2.8).

2.3.5 Opérations sur les ensembles

Définition 2.3.7 Soient A et B deux parties d’un ensemble E. L’intersection de A et B est le


sous-ensemble de E, noté A ∩ B, défini par :

A ∩ B = {x ∈ E | (x ∈ A) ∧ (x ∈ B)}.

L’union de A et B est le sous-ensemble de E, noté A ∪ B, défini par :

A ∪ B = {x ∈ E | (x ∈ A) ∨ (x ∈ B)}.

Si l’intersection de A et B est vide, alors on dit que A et B sont disjoints.

Exercice 2.16 Soient A et B deux sous-ensembles d’un ensemble E. Montrer que A et B sont
égaux si et seulement si A ∩ B = A ∪ B. ■

Définition 2.3.8 Soit A une partie de E. Le complémentaire de A est le sous-ensemble de E,


noté A, défini par :
A = {x ∈ E | x ∉ A}.

Définition 2.3.9 Soient A et B deux parties de E. La différence de A et B est le sous-ensemble


de E, noté A \ B et lu « A moins B », défini par :

A \ B = A ∩ B = {x ∈ E | (x ∈ A) ∧ (x ∉ B)}.

Lorsque l’on raisonne sur des ensembles, on utilise souvent un diagramme de Venn. Si
A et B sont deux parties d’un ensemble E, le diagramme de Venn correspondant permet de
visualiser toutes les parties de E qui peuvent être construites à partir de A et B et des opérations
ensemblistes précitées. Sur le diagramme de Venn suivant, on a colorié la zone correspondant à
la partie (A ∪ B) \ (A ∩ B).
32 Chapitre 2. Langage mathématique

A B

Exercice 2.17 Représenter les diagrammes de Venn correspondant à A∪B, A∩B, A et A\B. ■

2.3.6 Quelques propriétés


Propriété 2.3.3 Soient A, B et C trois parties d’un ensemble E. On a les propriétés qui suivent.

(i) (A ∪ B) ∪ C = A ∪ (B ∪ C) (Associativité)
(A ∩ B) ∩ C = A ∩ (B ∩ C)
(ii) A∪B = B∪A (Commutativité)
A∩B = B∩A
(iii) (A ∩ B) ∪ C = (A ∪ C) ∩ (B ∪ C) (Distributivité)
(A ∪ B) ∩ C = (A ∩ C) ∪ (B ∩ C)
(iv) A∪; = A (Éléments neutres)
A∩E = A
(v) A∪E = E (Éléments absorbants)
A∩; = ;

R Les propriétés d’associativité de l’union et de l’intersection montre qu’il n’est pas nécessaire
de mettre des parenthèses lorsque l’on considère une union d’unions, ou bien lorsque l’on
considère une intersection d’intersections. Par contre, les parenthèses sont essentielles
lorsque l’on considère une intersection d’union ou une union d’intersection.

Exercice 2.18 Représenter les diagrammes de Venn correspondant à (A∪B)∩C et A∪(B∩C).


En déduire un contre-exemple à la proposition (A ∪ B) ∩ C = A ∪ (B ∩ C). ■
2.3 Théorie des ensembles 33

Propriété 2.3.4 Soit A une partie d’un ensemble E. Le complémentaire de A vérifie les propriétés
qui suivent.

(i) A=A
(ii) A∪A = E
(iii) A∩A = ;

Propriété 2.3.5 — Lois de De Morgan. Soient A et B deux parties d’un ensemble E. On a les
propriétés qui suivent.

(i) A∩B = A∪B


(ii) A∪B = A∩B

R Les différentes propriétés qui précèdent se démontrent très facilement à partir des proprié-
tés équivalentes sur les propositions logiques. Démontrez-en quelques unes pour vous
entrainer.

2.3.7 Produit cartésien et famille d’ensembles


Définition 2.3.10 Soit E et F deux ensembles. On appelle produit cartésien de E et F, noté
E × F et lu « E croix F », l’ensemble des couples (x, y) tels que x ∈ E et y ∈ F.

Plus généralement, soient n ensembles E1 , E2 , ... , En . Leur produit cartésien , noté E1 × E2 ×


... × En , est l’ensemble des n-uplets (x 1 , x 2 , ..., x n ) tels que x i ∈ Ei pour tout i ∈ ‚1, nƒ.

R Le produit cartésien d’un ensemble E avec lui-même est noté E2 . De la même façon, le
produit cartésien de n fois le même ensemble E est noté En .

Définition 2.3.11 Soient I et E deux ensembles. Pour tout i ∈ I, soit Ai une partie de E. On
appelle famille de parties de E, indexée par I, la famille (Ai )i ∈I .

Définition 2.3.12 Soit (Ai )i ∈I une famille de parties de E indexée par un ensemble I. On
S
appelle réunion de la famille (Ai )i ∈I le sous-ensemble de E, noté Ai , défini par :
i ∈I
[
Ai = {x ∈ E | ∃i ∈ I, x ∈ Ai }.
i ∈I
T
On appelle intersection de la famille (Ai )i ∈I le sous-ensemble de E, noté Ai , défini par :
i ∈I
\
Ai = {x ∈ E | ∀i ∈ I, x ∈ Ai }.
i ∈I

Propriété 2.3.6 Soit (Ai )i ∈I une famille de parties de E indexée par un ensemble I et B une partie
de E. Alors, on a les égalités qui suivent.
T S
(i) i ∈I Ai = i ∈I Ai (Lois de De Morgan)
S T
A = i ∈I Ai
Si ∈I i S
(ii) ( i ∈I Ai ) ∩ B = i ∈I (Ai ∩ B) (Distributivité)
T T
( i ∈I Ai ) ∪ B = i ∈I (Ai ∪ B)
34 Chapitre 2. Langage mathématique

Exercice 2.19 Pour tout k ∈ N∗ , on pose Ak = [ k1 , k] ∈ R+ . Déterminer


S T
Ak et Ak . ■
k∈N∗ k∈N∗

Définition 2.3.13 Soit (Ai )i ∈I une famille de parties de E indexée par un ensemble I. On dit
que cette famille forme une partition de E si et seulement si les trois propositions suivantes
sont vérifiées :
(i) ∀i ∈ I, Ai 6= ;
(ii) ∀(i , j ) ∈ I2 , i 6= j ⇒ Ai ∩ A j = ;
S
(iii) i ∈I Ai = E

Exercice 2.20 Donner une partition de R2 en trois ensembles. ■


2.4 Applications 35

2.4 Applications
Les applications sont des objets centraux en mathématiques. Ce sont elles qui permettent
de passer d’un ensemble à un autre.

2.4.1 Définitions
Définition 2.4.1 Soient E et F deux ensembles. Une application de E (l’ensemble de départ)
dans F (l’ensemble d’arrivée) est une relation entre les éléments de ces ensembles qui associe
à chaque élément x de E un unique élément y de F. Si f est une application de E dans F, on
note f : E −→ F et pour plus de précision :

f : E −→ F
x 7−→ f (x)

Ceci se lit « f de E dans F qui à x associe f (x) ». On appelle image de x l’élément y = f (x) et
on dit que x est un antécédent de y. L’ensemble des applications de E dans F est noté FE .

R Une application est caractérisé par le fait que chaque élément de l’ensemble de départ
admet une unique image. Par contre un élément de l’ensemble d’arrivée peut admettre
plusieurs antécédents ou aucun.

■ Exemple 2.12 exp : R −→ R et sin : R −→ R sont des applications. ■

■ Exemple 2.13 Soit E un ensemble, on peut toujours définir une application identité de E

dans E via :
Id E : E −→ E
.
x 7−→ x

R La notion de fonction est un peu plus générale que la notion d’application puisqu’il n’est
pas nécessaire dans sa défintion que tout élément de E ait une image. Pour une application
si. Une application est, en quelques sortes, une fonction dont l’ensemble de définition est
égal à l’ensemble de départ.

Définition 2.4.2 Deux applications f et g sont égales si et seulement si elles ont le même
ensemble de départ E, le même ensemble d’arrivée F et que :

∀x ∈ E, f (x) = g (x).

2.4.2 Image directe, image réciproque, graphe


Définition 2.4.3 Soient E et F deux ensembles, f ∈ FE , A un sous-ensemble de E et B un
sous-ensemble de F. On appelle image directe de A, le sous-ensemble de F défini par :

f (A) = {y ∈ F | ∃x ∈ A, f (x) = y}.

On appelle image réciproque de B, le sous-ensemble de E défini par :

f −1 (B) = {x ∈ E | f (x) ∈ B}.

R L’image directe de A est l’ensemble des images de tous les éléments de A. L’image réci-
proque de B est l’ensemble des antécédents de tous les éléments de B.
36 Chapitre 2. Langage mathématique

Exercice 2.21 Donner l’image directe et réciproque de :


— ; par n’importe quelle application f .
— R+∗ par l’application ln : R+∗ −→ R.
— [0, 1] par l’application sin : R −→ R.

Exercice 2.22 Soient

f : R2 −→ R g: R2 −→ R
et .
(x, y) 7−→ max(|x|, |y|) (x, y) 7−→ x 2 + y 2

Reconnaître les formes géométriques associées aux ensembles f −1 ([0, 1]) et g −1 ([0, 1]). ■

Définition 2.4.4 Soient E et F deux ensembles et f ∈ FE . On appelle graphe de f , le sous-


ensemble Γ f de E × F défini par :

Γ f = {(x, f (x)) ∈ E × F | x ∈ E}.

2.4.3 Restricition et prolongement


Définition 2.4.5 Soient E et F deux ensembles, A une partie de E, f : E −→ F et g : A −→ F. On
appelle restriction de f à A l’application définie par :

f |A : A −→ F
.
x 7−→ f (x)

Si g = f |A , alors on dit que f est un prolongement de g à E.


2.4 Applications 37

Exercice 2.23 Donner un exemple de prolongement à R de l’application inverse définie par :

f : R∗ −→ R
.
x 7−→ x1

2.4.4 Composition d’applications


Définition 2.4.6 Soient E, F et G trois ensembles, F0 ⊂ F, f : E −→ F et g : F0 −→ G. On appelle
composée de g avec f l’application g ◦ f définie par :

g◦f : E −→ G
.
x 7−→ g ( f (x))

R La relation de composition n’est pas a priori commutative. Sauf cas particulier, f ◦ g 6= g ◦ f


et il est possible qu’une seule des deux soit définissable.

Propriété 2.4.1 Soient f : E −→ F, g : F −→ G et h : G −→ H. Alors :

h ◦ (g ◦ f ) = (h ◦ g ) ◦ f .

La relation de composition est associative.


Propriété 2.4.2 Soient f : E −→ F. Alors :

f ◦ Id |E = Id |F ◦ f = f .

Les preuves des propriétés précédentes découlent directement des définitions.

2.4.5 Injectivité, surjectivité, bijectivité


Les propriétés d’injectivité, de surjectivité et de bijectivité sont des propriétés essentielles
des applications. Elles sont présentes dans tous les chapitres du cours.

Injectivité
Définition 2.4.7 Soit f : E −→ F. On dit que f est une injection (ou qu’elle est injective) si et
seulement si :
∀(x 1 , x 2 ) ∈ E2 , f (x 1 ) = f (x 2 ) ⇒ x 1 = x 2 .

R Cette définition signifie que tout élément de F a au plus un antécédent par f .


38 Chapitre 2. Langage mathématique

Exercice 2.24 Donner une définition équivalente de l’injectivité en utilisant une contrapo-
sée. ■

Exercice 2.25 Montrer que l’application cos : R −→ R n’est pas injective. Donner une restric-
tion de cos qui est injective. ■

Exercice 2.26 Montrer qu’une application strictement monotone de R dans R est injective. ■

Propriété 2.4.3 Soient f : E −→ F et g : F −→ G. Alors :

(i) f et g injectives ⇒ g ◦ f injective


(ii) g ◦ f injective ⇒ f injective

Exercice 2.27 Démontrer la propriété précédente. ■


2.4 Applications 39

Surjectivité
Définition 2.4.8 Soit f : E −→ F. On dit que f est une surjection (ou qu’elle est surjective) si
et seulement si :
∀y ∈ F, ∃x ∈ E, f (x) = y.

R Cette définition est le pendant de la définition de l’injectivité. Elle signifie que tout élément
de F a au moins un antécédent par f .

Exercice 2.28 Lesquelles des applications suivantes sont surjectives ?


— sin : R −→ [−1, 1].
— exp : R −→ R+ .
— ln : R+∗ −→ R.

Propriété 2.4.4 Soient f : E −→ F et g : F −→ G. Alors :

(i) f et g surjectives ⇒ g ◦ f surjective


(ii) g ◦ f surjective ⇒ g surjective

Exercice 2.29 Démontrer la propriété précédente. ■

Bijectivité
Définition 2.4.9 Soit f : E −→ F. On dit que f est une bijection (ou qu’elle est bijective) si et
seulement si est à la fois injective et surjective.

Exercice 2.30 Démontrer que la propriété de bijectivité pour une application f : E −→ F


peut se quantifier de la manière suivante :

∀y ∈ F, ∃!x ∈ E, y = f (x).
40 Chapitre 2. Langage mathématique

Comment se traduit cette propostion ? ■

Exercice 2.31 Soient f : E −→ F et g : F −→ G. Montrer que si f et g sont bijectives, alors


g ◦ f est bijective. La réciproque est-elle vraie ? ■

Théorème 2.4.5 — Théorème de la bijection réciproque. Soit f : E −→ F. Les propositions


suivantes sont équivalentes :

(i) f est bijective.


(ii) Il existe une application g : F −→ E telle que g ◦ f = Id E et f ◦ g = Id F .
(iii) Il existe une unique application g : F −→ E telle que g ◦ f = Id E et f ◦ g = Id F .

Lorsque ces propriétés sont vérifiées, on dit que g est la réciproque (ou inverse) de f et on la
note f −1 .

Démonstration. On a clairement (iii) ⇒ (ii). On suppose (ii). Comme Id F est bijective, elle est
surjective. Donc f est surjective par la propriété 2.4.4. De même Id E est bijective donc injective
et f est injective par la prporiété 2.4.3. f est donc bijective et on a montré (ii) ⇒ (i). On suppose
(i). On sait que ∀y ∈ F, ∃!x ∈ E, y = f (x). Soit y ∈ F, on appelle g (y) l’unique élément x de E
tel que y = f (x). Cela définit bien une application g : F −→ E qui vérifie les conditions de la
proposition (ii). On suppose qu’une deuxième telle application h : F −→ E vérifie ces conditions.
Soit y ∈ F, comme f est bijective, il existe x tel que y = f (x). Et comme g ◦ f = h ◦ f = Id |E ,
g (y) = g ( f (x)) = x = h( f (x)) = h(y). Ainsi g = h et on a bien montré (iii). On en déduit donc
l’équivalence des trois propositions. ■

R Lorsque f est bijective, on a ( f −1 )−1 = f .


2.4 Applications 41

Propriété 2.4.6 Soient f : E −→ F et g : F −→ G bijectives. Alors :

(g ◦ f )−1 = f −1 ◦ g −1 .

Exercice 2.32 Démontrer cette propriété. ■

Exercice 2.33 Pour chacune des fonctions réelles usuelles, donner un intervalle de départ I
et un intervalle d’arrivée J pour lesquels la fonction définit une bijection de I vers J. ■
42 Chapitre 2. Langage mathématique

2.4.6 Culture Gé
L’injectivité est à la base de tout système d’identification. Numéros de sécurité social, plaques
d’immatriculation, codes-barres sont des exemples de tels système. À chaque individu, à chaque
voiture, à chaque produit, on associe un identifiant unique de manière à ce qu’aucun deux iden-
tifiants ne se confondent. C’est bien là la définition d’une application injective. Régulièrement,
des erreurs apparaissent parce que des doublons ont été créés que ce soit par malveillance (une
usurpation d’identité, par exemple) ou par maladresse (une erreur de conception). C’est aussi
pour éviter un défaut d’injectivité que de nouveaux systèmes d’identification remplacent les
anciens.

Un changement important qui a concerné presque tout le monde sans que l’on s’en aper-
çoive vraiment, c’est le passage progressif du système IPv4 au système IPv6. Ces systèmes
permettent d’identifier les adresses des ordinateurs de manière unique afin de pouvoir commu-
niquer sur internet. Internet n’avait à la base pas du tout été conçu pour atteindre l’ampleur
que l’on connait aujourd’hui et on a commencé à s’inquiéter, dès le début des années 90, d’un
épuisement futur des adresses disponibles. En 1998, un nouveau système l’IPv6 est mis en place
puis commercialisé en 2006 pour remplacer progressivement le système IPv4 qui est effecti-
vement arrivé à épuisement en 2011. Ce bouleversement de la structure fondamentale de la
communication sur internet a représenté un travail conséquent pour l’ensemble des acteurs du
web, une très grande collaboration internationale des structures administratives nationales et
supranationales concernées, tout cela pour une simple question d’injectivité.

2.4.7 Cardinalité
Le cardinal d’un ensemble permet de caractériser le nombre d’éléments d’un ensemble. Si
la notion semble banale pour les ensembles finis, elle l’est un peu moins dans le cas d’ensembles
infinis. En effet, qu’est-ce que cela signifie de dire que deux ensembles ont le même nombre
d’élément lorsque ce nombre est infini.
Définition 2.4.10 Soient E et F deux ensembles. On dit que E et F ont même cardinal et on
note s’il existe une bijection de E dans F.

Définition 2.4.11 On dit que l’ensemble vide est de cardinal fini nul. On écrit |;| = 0, lu
« cardinal de l’ensemble vide égal 0 ».

Définition 2.4.12 Soient E un ensemble et n un entier non nul. On dit que E est de cardinal
fini égal à n s’il existe une bijection de ‚1, nƒ dans E. On écrit |E| = n, lu « cardinal de E égal
n ».

On utilise beaucoup la notion de cardinal d’un ensemble fini, notamment en dénombrement


et en probabilités. La notion de différents taille d’ensembles infinis est elle aussi très importante,
mais elle sera moins utilisée dans ce cours. On remarque que l’ensemble N et l’ensemble Q ont la
même taille, on dit que ce sont des ensembles dénombrables. Un résultat très important montré
par Cantor à la fin du dix-neuvième siècle est que l’ensemble des réels est indénombrables.
Cette découverte a énormément marquée les mathématiques mais aussi la philosophie puisqu’il
s’agit de dire que certains infinis sont strictement plus grands que d’autres.

2.4.8 Fonction caractéristique d’un ensemble


Définition 2.4.13 Soit A une partie d’un ensemble E. On appelle fonction caractéristique de
2.4 Applications 43

A l’application 1A définie par :

1A : E R
−→ ½
1 si x ∈ A .
x 7−→
0 si x ∉ A
■Exemple 2.14 La fonction caractéristique de Q ⊂ R est un exemple classique de fonction réelle
qui n’est continue en aucun de ses points. ■

Propriété 2.4.7 Soient A et B deux parties d’un ensemble E. On a les propriétés qui suivent.

(i) 1E est constante égale à 1.


(ii) 1; est constante égale à 0.
(iii) ∀x ∈ E, 1A (x) ≤ 1B (x) ⇔ A ⊂ B.
(iv) ∀x ∈ E, 1A (x) = 1B (x) ⇔ A = B.
(v) ∀x ∈ E, 1A (x) = 1E (x) − 1A (x).
(vi) ∀x ∈ E, 1A∩B (x) = min(1A (x), 1B (x)) = 1A (x)1B (x).
(vii) ∀x ∈ E, 1A∪B (x) = max(1A (x), 1B (x)) = 1A (x) + 1B (x) − 1A (x)1B (x).
(viii) ∀x ∈ E, 1A\B (x) = 1A (x) − 1A∩B (x).
Via ces applications, on passe facilement d’un ensemble à une fonction. Ça peut être très
utile dans différents cas et, tout particulièrement, en probabilités.

Exercice 2.34 En utilisant les fonctions caractéristiques, montrer que pour tout (A, B, C) ∈
P (E)3 , on a :
(A \ C) \ (B \ C) = (A \ B) \ C.

2.4.9 Quelques propriétés supplémentaires


Les propriétés qui suivent ne sont pas à connaître par cœur, mais leur démonstration peux
faire l’objet d’une question de cours.
Propriété 2.4.8 — Image directe. Soient f : E −→ F et A, B ⊂ E. On a les propositions qui
suivent.
(i) A ⊂ B ⇒ f (A) ⊂ f (B).
(ii) f (A ∪ B) = f (A) ∪ f (B).
(iii) f (A ∩ B) ⊂ f (A) ∩ f (B).
(iv) f −1 ( f (A)) ⊃ A.

Propriété 2.4.9 — Image réciproque. Soient f : E −→ F et C, D ⊂ F. On a les propositions qui


suivent.
44 Chapitre 2. Langage mathématique

(i) C ⊂ D ⇒ f −1 (C) ⊂ f −1 (D).


(ii) f −1 (C ∪ D) = f −1 (C) ∪ f −1 (D).
(iii) f −1 (C ∩ D) = f −1 (C) ∩ f −1 (D).
(iv) f ( f −1 (C)) ⊂ C.
(v) f −1 (C) = f −1 (C).

Exercice 2.35 Démontrer chacune des propositions précédentes. ■


2.4 Applications 45

Propriété 2.4.10 — Injectivité. Soit f : E −→ F. Les propositions suivantes sont équivalentes.

(i) f est injective.


(ii) ∀A ⊂ E, f (A) ⊂ f (A).
(iii) ∀A ⊂ E, f −1 ( f (A)) = A.
(iv) ∀A, B ⊂ E, f (A ∩ B) = f (A) ∩ f (B).

Propriété 2.4.11 — Surjectivité. Soit f : E −→ F. Les propositions suivantes sont équivalentes.

(i) f est surjective.


(ii) ∀A ⊂ E, f (A) ⊃ f (A).
(iii) ∀C ⊂ F, f ( f −1 (C)) = C.

Exercice 2.36 Démontrer les deux propriétés précédentes. ■


3. Récurrence et ensembles finis

Le chapitre qui suit porte sur un certains nombres de calculs liés à des ensembles finis. On
commence par revoir la notion de raisonnement par récurrence qui est essentielle pour établir
de nombreux résultats indexés par des entiers. On s’intéresse ensuite rapidement à quelques
propriétés des ensembles finis avant de considérer les sommes et produits finis de nombres. On
revient ensuite plus longuement sur des questions de dénombrement dans les ensembles finis.

3.1 Raisonnement par récurrence


Le principe de récurrence est un outil qui permet de faire la démonstrations de propriétés
indexées par des entiers. Il est très utile en mathématiques. Il est utilisé depuis très longtemps
sous des formes implicites (on le trouve dans les Éléments d’Euclide), mais c’est Pascal qui l’uti-
lise pour la première fois de manière explicite lorsqu’il rédige son Traité du triangle arithmétique
en 1654.

Théorème 3.1.1 — Principe de récurrence. Soit P(n) une proposition définie pour tout
n ∈ N. Si les deux propositions suivantes sont vraies :

(i) P(0).
(ii) ∀n ∈ N, P(n) ⇒ P(n + 1).

Alors, on a la proposition suivante :

∀n ∈ N, P(n).

R Ce résultat peut être considéré comme un axiome, c’est-à-dire un résultat toujours vrai
sur lequel se fonde le reste des mathématiques. C’est ce que l’on fait dans ce cours et il n’y
a donc pas lieu de le démontrer.

Il existe différentes formulations du principe de récurrence qui sont équivalentes mais qui
peuvent se révéler plus ou moins pratiques selon le contexte.
48 Chapitre 3. Récurrence et ensembles finis

Exercice 3.1 Montrer que ∀n ∈ N :

n(n + 1)
0 + 1 + ... + n = .
2

À partir d’un certain rang


Soit n 0 ∈ N et P(n) une proposition définie pour tout n ≥ n 0 .

(i) P(n 0 )
⇒ ∀n ≥ n 0 , P(n).
(ii) ∀n ≥ n 0 , P(n) ⇒ P(n + 1)

Exercice 3.2 Trouver un rang n 0 à partir duquel la proposition qui suit est vraie et la démon-
trer.
∀n ≥ n 0 , 2n ≥ n 2 .

Récurrence d’ordre 2
Soit n 0 ∈ N et P(n) une proposition définie pour tout n ≥ n 0 .

(i) P(n 0 ) et P(n 0 + 1)


⇒ ∀n ≥ n 0 , P(n).
(ii) ∀n ≥ n 0 , P(n) et P(n + 1) ⇒ P(n + 2)

Exercice 3.3 On pose F0 = F1 = 1 et ∀n ∈ N, Fn+2 = Fn + Fn+1 . Montrer que ∀n ∈ N, Fn ≥ 0. ■


3.2 Ensembles finis 49

Récurrence forte
Soit n 0 ∈ N et P(n) une proposition définie pour tout n ≥ n 0 .

(i) P(n 0 )
⇒ ∀n ≥ n 0 , P(n).
(ii) ∀n ≥ n 0 , (P(n 0 ) et P(n 0 + 1) et ... et P(n)) ⇒ P(n + 1)

2
Exercice 3.4 On pose u 1 = π et ∀n ∈ N∗ , u n+1 = n (u 1 + u 2 + ... + u n ). Montrer que ∀n ∈
N∗ , u n = nπ. ■

Exercice 3.5 Montrer que chacune des formulations proposées peut être déduite du prin-
cipe de récurrence. ■

3.2 Ensembles finis


On a dit qu’un ensemble non vide E est de cardinal fini n ∈ N s’il est en bijection avec ‚1, nƒ.
Propriété 3.2.1 Soit E un ensemble fini de cardinal n et A une partie de E. Alors A est de cardinal
fini et |A| ≤ n, avec égalité si et seulement si A = E.

Démonstration. Soit E un ensemble fini de cardinal n, alors il existe une bijection de E vers
‚1, nƒ. Si A est une partie propre de E (i.e. A ⊂ E, A 6= ;, E), f définit une bijection de A sur f (A)
par restriction et f (A) est une partie stricte de ‚1, nƒ (sinon f ne serait pas injective). Si on
montre que f (A) est en bijection avec ‚1, pƒ où 0 < p < n, alors A sera transitivement en bijection
avec ‚1, pƒ. Mais c’est clairement le cas, il suffit de compter les éléments de f (A) dans l’ordre
croissant. ■

Théorème 3.2.2 — Principe des tiroirs. Soient E et F deux ensembles finis et f : E −→ F. Alors
on a les propositions suivantes :

(i) f injective ⇒ |E| ≤ |F|.


(ii) f surjective ⇒ |E| ≥ |F|.
50 Chapitre 3. Récurrence et ensembles finis

Démonstration. Pour démontrer (i), on suppose que f est injective. Alors, E est en bijection avec
f (E), d’où |E| = | f (E)|. Comme f (E) est une partie de F, on obtient le résultat via la proposition
précédente. Maintenant, pour démontrer (ii), on suppose que f est surjective. Mais dans ce cas,
on a une bijection entre F et une partie A de E, ce qui démontre le résultat. ■

Théorème 3.2.3 Soient E et F deux ensembles finis de même cardinal n et f : E −→ F. On a


équivalence des propositions suivantes :

(i) f injective.
(ii) f surjective.
(iii) f bijective.

Démonstration. On suppose f injective. Alors E est en bijection avec f (E). Mais alors | f (E)| = n
et par la propriété 3.2.1 f (E) = F. Ainsi f est surjective et donc bijective. Maintenant, si f est
surjective, on a une bijection induite par f entre une partie A de E et F. Mais cela entraine que
A = E et donc f est bien bijective. ■

3.3 Sommes finies de nombres


Les résultats qui suivent portent tous sur des sommes de nombres complexes. Ils sont donc,
a fortiori, valables pour les réels.

3.3.1 Notation
Si n ∈ N et x 0 , x 1 , ..., x n sont des nombres complexes, on utilise la lettre grecque Σ pour
désigner la somme de tout ces nombres.

n
X
x 0 + x 1 + ... + x n = xk
k=0

Si p ∈ ‚0, nƒ, on peut faire commencer la somme à partir de l’indice p.

n
X
x p + x p+1 + ... + x n = xk
k=p

Plus généralement, si E est une partie finie de N et (x k )k∈E une famille indexée par E, on note
P
la somme de tous les éléments de la famille (x k )k∈E . Si l’ensemble E est défini par une
k∈E
n
P
proposition comme suit E = {k ∈ ‚0, nƒ | P(k)}, alors on peut aussi noter x k , ou simplement
k=0
P(k)
P P n
P
x k . On peut ainsi noter x k pour xk .
P(k) 0≤k≤n k=1

P
R Si E est vide, alors on pose x k = 0. Cette convention permet de ne pas exclure l’ensemble
k∈E
vide dans l’énoncé de résultats généraux sur les sommes. En particulier, si n < p, comme il
n
P
n’y a pas d’entiers k tels que p ≤ k ≤ n, on a x k = 0.
k=p
3.3 Sommes finies de nombres 51

3.3.2 Sommes à connaître


Les sommes qui suivent sont à connaître absolument par cœur !
Propriété 3.3.1 Soient λ ∈ C, n ∈ N et p ∈ ‚0, nƒ.
n
P (somme à terme
(i) 1 = (n − p + 1).
k=p constant)
n
P n(n+1)
(ii) k= 2 . (somme arithmétique)
k=0
n
n(n+1)(2n+1)
k2 =
P
(iii) 6 . (somme d’Euler)
k=0
n n + 1 si λ = 1
½
k
λ = 1−λn+1
P
(iv) . (somme géométrique)
k=0 1−λ si λ 6= 1

Exercice 3.6 Démontrer la propriété précédente. ■

n
k 3.
P
Exercice 3.7 Calculer la somme ■
k=0
52 Chapitre 3. Récurrence et ensembles finis

3.3.3 Règles de calcul


Propriété 3.3.2 — Linéarité. Soient (x k )k∈E et (y k )k∈E deux familles finies de nombres com-
plexes et λ un nombre complexe. On a les propositions suivantes :
µ ¶
(λx k ) = λ
P P
(i) xk .
k∈E k∈E
µ ¶ µ ¶
P P P
(ii) (x k + y k ) = xk + yk .
k∈E k∈E k∈E

Démonstration. Elle découle directement des règles de calculs sur les complexes qui permettent
de factoriser dans le premier cas et de réorganiser les éléments des sommes dans le deuxième.

Exercice 3.8 Calculer les sommes suivantes :


— 1 × 2 + 2 × 3 + ... + 100 × 101.
Pn
— (k − p)(n − k).
k=p

Propriété 3.3.3 — Sommation par paquets. Soient (x k )k∈E une famille finie de nombres com-
plexes et E = E1 ∪ E2 une partition de E. On a :
X X X
xk = xk + xk .
k∈E k∈E1 k∈E2

Corollaire 3.3.4 — Relation de Chasles. Soient 0 ≤ p ≤ q ≤ n et (x k )k∈‚p,nƒ une famille de


nombres complexes. On a :

n
X q
X n
X q−1
X n
X
xk = xk + xk = xk + xk .
k=p k=p k=q+1 k=p k=q

Démonstration. La propriété de sommation par paquets est un simple regroupement des termes
de la somme en deux « paquets ». Pour la relation de Chasles, il suffit de voir que ‚p, nƒ =
‚p, qƒ ∪ ‚q + 1, nƒ = ‚p, q − 1ƒ ∪ ‚q, nƒ sont des partitions de ‚p, nƒ et d’appliquer la propriété. ■

Propriété 3.3.5 — Changement d’indice. Soient 0 ≤ p ≤ n, q ∈ N et (x k )k∈‚p,nƒ une famille de


nombres complexes. On a :
n
X n+q
X
xk = x k 0 −q .
k=p k 0 =p+q
3.3 Sommes finies de nombres 53

Propriété 3.3.6 — Retournement d’indice. Soient 0 ≤ p ≤ n et (x k )k∈‚p,nƒ une famille de


nombres complexes. On a :
n
X n−p
X
xk = x n−k 0 .
k=p k 0 =0

Démonstration. Il suffit de remarquer que les applications f et g , définies comme suit, sont
bijectives

f : ‚p + q, n + qƒ −→ ‚p, nƒ g : ‚0, n − pƒ −→ ‚p, nƒ


et .
k 0 7−→ k 0 − q k 0 7−→ n − k 0

C’est bien le cas. En effet, elles sont toutes les deux injectives car strictement monotone. Par
ailleurs, une application injective d’un ensemble fini de cardinal m vers un ensemble fini de
même cardinal m est bijective, ce qui permet de conclure. ■

Propriété 3.3.7 — Somme télescopique. Soient 0 ≤ p ≤ n et (x k )k∈‚p,n+1ƒ une famille de


nombres complexes. On a :
Xn
(x k+1 − x k ) = x n+1 − x p .
k=p

Démonstration. On obtient le résultat en utilisant la linéarité, puis en faisant un changement


d’indice. Ce qui donne :

n
X n
X n
X n+1
X n
X n
X n
X
(x k+1 −x k ) = x k+1 − xk = xk 0 − x k = x n+1 + xk 0 − x k −x p = x n+1 −x p .
k=p k=p k=p k 0 =p+1 k=p k 0 =p+1 k=p+1

n
k.k! pour tout n ∈ N∗ .
P
Exercice 3.9 Calculer ■
k=1

3.3.4 Sommes doubles


On s’intéresse dans cette section aux sommes sur des familles indexées par des parties de N2 .
Comme précédemment, si E est une partie de N2 la somme de tous les éléments d’une famille
P
(x k,l )(k,l )∈E est notée x k,l . On va considérer particulièrement quelques types de parties de
(k,l )∈E
N2 .

Théorème 3.3.8 — Fubini. Soient 0 ≤ m ≤ n, 0 ≤ p ≤ q, E = ‚m, nƒ × ‚p, qƒ et (x k,l )(k,l )∈E une
famille de nombres complexes. Alors, on note :
X X
x k,l := x k,l
m≤k≤n (k,l )∈E
p≤l ≤q
54 Chapitre 3. Récurrence et ensembles finis

et on a : Ã ! Ã !
X n
X q
X q
X n
X
x k,l = x k,l = x k,l .
m≤k≤n k=m l =p l =p k=m
p≤l ≤q

Démonstration. Il suffit d’écrire les éléments de la famille dans un tableau à n − m + 1 lignes


et q − p + 1 colonnes. Le théorème de Fubini signifie alors que la somme de l’ensemble des
éléments du tableau est égal à la somme sur les colonnes des sommes des éléments de chaque
colonne, ce qui est aussi égal à la sommes sur les lignes des sommes des éléments de chaque
ligne. ■

P P
Exercice 3.10 Calculer les sommes (k + l ) et (k × l ). ■
1≤k≤n 1≤k≤n
1≤l ≤q 1≤l ≤q
3.3 Sommes finies de nombres 55

Théorème 3.3.9 — Fubini. Soient n ∈ N et E = {(k, l ) ∈ ‚1, nƒ2 | k ≤ l } et (x k,l )(k,l )∈E une famille
de nombres complexes. Alors, on note :
X X
x k,l := x k,l
1≤k≤l ≤n (k,l )∈E

et on a : Ã ! Ã !
X n
X n
X n
X l
X
x k,l = x k,l = x k,l .
1≤k≤l ≤n k=1 l =k l =1 k=1

De même, pour F = {(k, l ) ∈ ‚1, nƒ2 | k < l } et (y k,l )(k,l )∈F , on note :
X X
y k,l := y k,l
1≤k<l ≤n (k,l )∈E

et on a : Ã ! Ã !
X n−1
X n
X n−1
X lX−l
y k,l = y k,l = y k,l .
1≤k<l ≤n k=1 l =k+1 l =2 k=1

Démonstration. On écrit de la même façon que pour le théorème précédent les différentes
valeurs dans un tableau à n × n entrées et on ajoute les différents éléments du tableaux qui sont
au-dessus de la diagonale (comprise ou non selon qu’il s’agisse d’une simple inégalité ou d’une
inégalité stricte). En ajoutant ligne par ligne ou colonne par colonne on obtient les différentes
écritures. ■

Propriété 3.3.10 Soient n ∈ N et E = {(k, l ) ∈ ‚1, nƒ2 | k + l = n + 1} et (x k,l )(k,l )∈E une famille de
nombres complexes. Alors, on note :
X X
x k,l := x k,l
k+l =n+1 (k,l )∈E

et on a :
X n
X
x k,l = x k,n+1−k .
k+l =n+1 k=1

Démonstration. Il suffit de voir que l’application f , définie comme suit, est une bijection.
f : ‚1, nƒ −→ E
.
k 7−→ (k, n + 1 − k)
C’est clairement le cas, puisqu’elle est injective d’un ensemble fini vers un ensemble fini. ■

2k+l .
P
Exercice 3.11 Calculer la somme ■
1≤k≤l ≤n
56 Chapitre 3. Récurrence et ensembles finis

3.4 Produits finis de nombres


De même que pour la section précédente, les résultats ici sont présentés pour des nombres
complexes et sont donc vrais, a fortiori, pour des nombres réels.

3.4.1 Notation
Si n ∈ N et (x k )k∈‚0,nƒ est une famille de nombre complexes, on utilise la lettre grecque Π
pour désigner le produit de tout les éléments de cette famille.
n
Y
x 0 × x 1 × ... × x n = xk
k=0
n
Q Q n
Q
De même que pour la somme, on a des notations de types xk , x k et xk .
k=p k∈E k=0
P(k)

Q
R Si E est vide, alors on pose x k = 1. Cette convention est à rapprocher du fait que la
k∈E
somme sur un ensemble vide est nulle.

Définition 3.4.1 Soit n ∈ N, on appelle factorielle de n et on note n! l’entier défini par :


n
Y
n! := k.
k=1

R La convention précédente implique que 0! = 1. En effet, l’ensemble des k tels que 1 ≤ k ≤ 0


est vide.

3.4.2 Règles de calcul


Propriété 3.4.1 Soient (x k )k∈E et (y k )k∈E deux familles finies de nombres complexes, λ un
nombre complexe et n ∈ N. On a les propositions suivantes :
µ ¶
(λx k ) = λ |E| Q
Q
(i) xk .
k∈E µ k∈E¶ µ ¶
Q Q Q
(ii) (x k y k ) = xk yk .
k∈E µ k∈E ¶n k∈E
Q n Q
(iii) (x k ) = xk .
k∈E k∈E

Si, de plus, aucun des y k n’est égal à zéro, alors, on a :


Q
xk
Q xk k∈E
(iii) yk = Q
yk .
k∈E k∈E

Démonstration. Les résultats s’obtiennent par simple réarrangement et regroupement des


termes des produits. ■

Comme pour les sommes, on peut également regrouper les éléments par paquets, faire un
changement d’indice et même faire un produit télescopique comme on le voit dans la propriété
qui suit.
Propriété 3.4.2 — Produit télescopique. Soient 0 ≤ p ≤ n et (x k )k∈‚p,n+1ƒ une famille de
nombres complexes tous non nuls. On a :
n µx ¶
x n+1
Y k+1
= .
k=p xk xp
3.5 Combinatoire et dénombrement 57

Démonstration. On peut, entre autres possibilités, montrer ce résultat par récurrence. ■

n
Q
Exercice 3.12 Calculer le produit (2k + 1). ■
k=0

3.4.3 Produits doubles


Toutes les notations et formules présentées pour les sommes doubles sont transposables
aux produits doubles.
Q
Exercice 3.13 Calculer le produit (k × l ). ■
1≤k≤n
1≤l ≤q

3.5 Combinatoire et dénombrement


On revient maintenant aux ensembles finis, plus précisément, on s’intéresse à des pro-
blématiques en combinatoire et en dénombrement. La combinatoire est une branche des
mathématiques qui s’intéresse aux différentes configurations d’ensembles finis d’objets et le dé-
nombrement est une sous-branche de la combinatoire qui s’intéresse au comptage du nombre
de telles configurations.

3.5.1 Parties d’ensembles, produits d’ensembles


Théorème 3.5.1 — Principe des bergers. Soient A et B deux parties d’un ensemble E. Si A
et B sont disjoints, alors on a :

|A ∪ B| = |A| + |B|.
Plus généralement, si (Ai )i ∈‚1,nƒ est une famille finie de parties deux à deux disjointes de E,
alors :
¯ ¯
n
¯n
¯[ ¯ X
¯ Ai ¯ = |A |.
¯
¯i =1 ¯ i =1 i

Démonstration. On pose |A| = p et |B| = q. Si A et B sont disjoints, alors on peut numéroter


les éléments de A de 1 à p et les éléments de B de p + 1 à q + 1 et cela donne une bijection
58 Chapitre 3. Récurrence et ensembles finis

entre A ∪ B et ‚1, p + qƒ. On obtient le deuxième résultat par récurrence en remarquant que
Sn+1 ¡Sn ¢
i =1
A i = i =1
A i ∪ An+1 . ■

Exercice 3.14 Que peut-on dire si la famille (Ai )i ∈‚1,nƒ est une partition de E ? ■

Théorème 3.5.2 — Formule du crible (Poincaré). Soient A et B deux parties d’un ensemble
E. Alors on a :

|A ∪ B| = |A| + |B| − |A ∩ B|.


Plus généralement, si (Ai )i ∈‚1,nƒ est une famille finie de parties de E, alors on a :
¯ ¯ " ¯ ¯#
n
¯n ¯ k
¯[ ¯ X ¯\ ¯
k+1
X
¯ Ai ¯ = (−1) ¯ Ai j ¯ .
¯ ¯
¯i =1 ¯ k=1 1≤i <...<i ≤n j =1
¯ ¯
1 k

S S
Démonstration. On remarque que A ∪ B = (A ∩ B) (B ∩ A) (A ∩ B) est une partition de A ∪ B.
S
Ainsi, |A ∪ B| = |A ∩ B| + |B ∩ A| + |A ∩ B|. De plus A = (A ∩ B) (A ∩ B) est une partition de
A, d’où |A| = |A ∩ B| + |A ∩ B| et, de manière analogue, |B| = |A ∩ B| + |A ∩ B|. Ainsi |A ∪ B| =
(|A|−|A∩B|)+(|B|−|A∩B|)+|A∩B| = |A|+|B|−|A∩B|, ce qui est le résultat souhaité. Le deuxième
résultat s’obtient par récurrence sur n. Comme cette formule n’est pas au programme sous sa
forme généralisée, on ne détaille pas plus sa démonstration. ■

R La formule du crible n’est pas au programme sous sa forme généralisée, mais ses formes
pour n = 2, présentée ci-dessus, et pour n = 3, dans l’exercice ci-dessous, sont au pro-
gramme. Ces formes particulières, comme leurs démonstrations, sont à connaître.

Exercice 3.15 Donner la formule du crible pour trois parties A, B et C d’un ensemble E et
démontrer cette formule. ■
3.5 Combinatoire et dénombrement 59

Théorème 3.5.3 — Cardinal d’un produit cartésien. Soient E et F deux ensembles finis
alors E × F est un ensemble fini et on a :

|E × F| = |E| × |F|.

Démonstration. Si |E| = n et |F| = p alors on a une bijection entre E × F et ‚1, nƒ × ‚1, pƒ. Or on
vérifie facilement que l’application f définie ci-dessous est bijective :

f : ‚1, nƒ × ‚1, pƒ −→ ‚1, npƒ


.
(x, y) 7−→ x + n(y − 1)
¯ ¯
On en déduit donc que ¯‚1, nƒ × ‚1, pƒ¯ = np et donc que |E × F| = np. ■

Corollaire 3.5.4 Soit E un ensemble fini et n un entier naturel, alors on a :

|En | = |E|n .

Démonstration. On obtient le résultat par récurrence, en remarquant que En+1 est en bijection
avec En × E. ■

Ce corollaire amène un premier résultat de dénombrement, donnant le nombre de parties


d’un ensemble fini.

Théorème 3.5.5 — Dénombrement des parties. Soit E un ensemble fini, alors l’ensemble
de ses parties P (E) est un ensemble fini et on a :

|P (E)| = 2|E| .

Démonstration. Soient E = {x 1 , ..., x n } un ensemble fini, n son cardinal et f l’application définie


par :
f : P (E) −→ {0, 1}n
.
X 7−→ f (X) = (1X (x 1 ), ..., 1X (x n ))
Alors, f est bijective. On a donc |P (E)| = |{0, 1}|n = 2n . ■

3.5.2 p -listes
Définition 3.5.1 Soient E un ensemble fini et p un entier. On appelle p-liste d’éléments de E
tout élément de E p .

Théorème 3.5.6 — Dénombrement des p -listes. Soit E un ensemble fini de cardinal n, le


nombre de p-listes de E est égal à n p .

Démonstration. Ce théorème n’est qu’une reformulation du corollaire 3.5.4. ■

R Pour retrouver le résultat rapidement, on peut réfléchir de la manière suivante. On veut


compter le nombre de possibilités différentes d’avoir une liste à p éléments de E. On a
n possibilités pour le premier élément, qui se multiplient avec les n possibilités pour le
deuxième, qui se multiplient avec les n possibilités pour le troisième, et cela p fois. Au
final, on a n p possibilités.

R On considère que le nombre de 0-listes est égal à 1. Ceci est bien compatible avec la
formule et avec l’idée qu’il n’y a qu’une seule liste sans éléments.
60 Chapitre 3. Récurrence et ensembles finis

3.5.3 Arrangements
Définition 3.5.2 Soient E un ensemble fini et p ∈ N. On appelle arrangement de p éléments
p
de E toute p-liste d’éléments de E dont les termes sont deux à deux distincts. On note An
l’ensemble des arrangements de p éléments de ‚1, nƒ.

Exercice 3.16 Déterminer A42 . ■

Théorème 3.5.7 — Dénombrement des arrangements. Soient E un ensemble fini de car-


p
dinal n et p ∈ N. Le nombre d’arrangements de p éléments de E, noté An , est donné par la
formule suivante :
½
n! si p ≤ n
p
An = n × (n − 1) × (n − 2) × ... × (n − p + 1) = (n−p)! .
0 si p > n

Démonstration. On remarque d’abord qu’il suffit de montrer le résultat pour E = ‚1, nƒ. En
effet, la bijection entre E et ‚1, nƒ induit une bijection entre l’ensemble des arrangements de p
p
éléments de E et An . Ces deux ensembles ont donc même cardinal.
Maintenant, si p > n, alors il n’y a aucun arrangement de p éléments de E. En effet, il faudrait
qu’il existe au moins p éléments tous distincts dans E pour obtenir une telle liste. Il n’y en a que
n.
Pour le cas p ≤ n, on démontre le résultat par récurrence. Le résultat est vrai pour p = 1 :
n!
il y a n arrangements de 1 élément de E, un pour chaque élément de E et (n−1)! = n (le cas
n = 0 fonctionne d’ailleurs également). On suppose le résultat vrai pour un entier k tel que
n!
1 ≤ k ≤ n − 1. On a donc Akn = (n−k)! . Soit f l’application définie par :

p p+1
f : An × ‚1, n − pƒ −→ An
((x 1 , ..., x p ), k) 7−→ (x 1 , ..., x p , y)

où y est le k-ième élément de E \ {x 1 , ..., x p } dans l’ordre croissant. Cette application est une
p+1 p p+1
bijection. On en déduit que An = (n − p)An . Par l’hypothèse de recurrence, cela donne An =
n! n!
(n − p) (n−p)! = (n−p−1)! , ce qui permet de conclure. ■

Propriété 3.5.8 — Dénombrement des applications injectives. Soient E et F deux ensembles


finis de cardinaux m et n respectivement. Alors le nombre d’applications injectives de E vers F
est égal à Am
n.

Démonstration. Il suffit de remarquer que toute injection de ‚1, mƒ dans ‚1, nƒ est associée à un
unique arrangement de Anm . ■

3.5.4 Permutations
Définition 3.5.3 Soient E un ensemble fini et n son cardinal. On appelle permutation de E
tout arrangement de n éléments de E. L’ensemble des permutations de ‚1, nƒ est noté Sn .

Théorème 3.5.9 — Dénombrement des permutations. Soient E un ensemble fini et n son


cardinal. Le nombre de permutations de E est égal à n!.

Démonstration. Il s’agit simplement d’un cas particulier de dénombrement d’arrangements. ■


3.5 Combinatoire et dénombrement 61

Propriété 3.5.10 — Dénombrement des bijections. Soient E et F deux ensembles finis de


même cardinal n. Alors le nombre de bijections de E vers F est égal à n!.

Démonstration. Comme précédemment, il suffit de remarquer que toute bijection de ‚1, nƒ


dans lui-même est associée à une unique permutation de ‚1, nƒ. ■

3.5.5 Combinaisons
Définition 3.5.4 Soient E un ensemble fini, n son cardinal et p un entier naturel. On appelle
combinaison de p éléments de E une partie de E de cardinal p.

Théorème 3.5.11 — Dénombrement des combinaisons. Soient E un ensemble fini, n son


p
cardinal et p ∈ ‚0, nƒ. Le nombre de combinaisons de p éléments de E, noté Cn , est donné par
la formule suivante :

p n!
Cn = .
p!(n − p)!

Démonstration. Encore une fois, il suffit de considérer le cas E = ‚1, nƒ. On montre le résultat
p n!
suivant par récurrence sur n : ∀p ∈ ‚0, nƒ, Cn = p!(n−p)! . Pour n = 1, on a C10 = 1 (il n’y a qu’une
seule combinaison à 0 élément de E) et C11 = 1 (il n’y a qu’une seule combinaison à 1 élément de
1! 1!
E). Or on a bien 0!1! = 1!0! = 1. Le résultat est donc vrai pour n = 1. On suppose le résultat vrai
pour un entier naturel n ≥ 1. On pose F = ‚1, n +1ƒ. Soit p ∈ ‚0, n +1ƒ. Si p = 0, alors le résultat est
immédiat et on n’a pas besoin de l’hypothèse de récurrence : il n’y a qu’une seule combinaison
à 0 éléments de F. De la même façon, si p = n + 1, il n’y a qu’une seule combinaison à n + 1
éléments de F et le résultat est obtenu sans l’hypothèse de récurrence. On suppose maintenant
1 ≤ p ≤ n. On cherche à déterminer le cardinal de l’ensemble des parties de F de cardinal p. Or
cet ensemble peut se partitionner en deux ensembles comme suit :
© ª © ª[© ª
X ⊂ F | |X| = p = X ⊂ F | |X| = p et (n + 1) ∈ X X ⊂ F | |X| = p et (n + 1) ∉ X .

On en déduit que :
p ¯© ª¯ ¯© ª¯
Cn+1 = ¯ X ⊂ F | |X| = p et (n + 1) ∈ X ¯ + ¯ X ⊂ F | |X| = p et (n + 1) ∉ X ¯ .

p−1
Or, le premier terme de cette somme vaut Cn (on peut le voir en exhibant une bijection
© ª © ª
entre l’ensemble X ⊂ F | |X| = p et (n + 1) ∈ X et l’ensemble X ⊂ E | |X| = p − 1 ). De plus, le
p
deuxième terme de cette somme vaut Cn (on le voit en exhibant une bijection entre l’ensemble
© ª © ª
X ⊂ F | |X| = p et (n + 1) ∉ X et l’ensemble X ⊂ E | |X| = p ). On déduit donc que :

p p−1 p
Cn+1 = Cn + Cn .

Mais, on peut appliquer l’hypothèse de récurrence, ce qui donne :

n! n! n!
· ¸
p 1 1
Cn+1 = + = +
(p − 1)!(n − p + 1)! p!(n − p)! (p − 1)!(n − p)! p n − p + 1

n! n −
p +1+ p
· ¸
p (n + 1)!
Cn+1 = = .
(p − 1)!(n − p)! p(n − p + 1) p!(n + 1 − p)!
C’est bien le résultat que l’on voulait obtenir ce qui conclut la démonstration. ■
62 Chapitre 3. Récurrence et ensembles finis
p
R Dans cette démonstration, on a utilisé la notation Cn , qui désigne le cardinal d’un en-
semble, pour la différencier de la notation np , qui désigne une fraction (voir ci-dessous).
¡ ¢

C’est nécessaire de faire cette distinction dans la démonstration puisque l’on cherche
justement à montrer l’égalité de ces deux quantités. Par contre, maintenant que l’on a
établi cette
¡ ¢égalité, cette distinction n’est plus nécessaire et on utilise de préférence la
notation np .

3.5.6 Coefficients binomiaux ¡n ¢


Définition 3.5.5 Soit (n, p) ∈ Z2 . On définit le coefficient binomial de p parmi n, noté p et
lu « p parmi n », par :

à !  n! si 0 ≤ p ≤ n
n 
= p!(n − p)! .
p 
sinon

0

Propriété 3.5.12 — Propriétés classiques des coefficients binomiaux. Soient n ∈ N et p ∈


‚0, nƒ. On a les propositions qui suivent.
à ! à !
n n n −1
(i) si p 6= 0, = .
p p p −1
à ! à ! à !
n n n +1 (formule de Pascal)
(ii) + = .
p p +1 p +1
à ! à !
n n (symétrie)
(iii) = .
p n−p

Exercice 3.17 Démontrer ces propositions. ■


3.5 Combinatoire et dénombrement 63

Exercice 3.18 Montrer que les coefficients binomiaux sont tous des entiers. ■

Propriété 3.5.13 — Coefficients binomiaux à connaître. Soit n ∈ N. On a :


à ! à !
n n
(i) = = 1.
0 n
à ! à !
n n
(ii) = = n.
1 n −1
à ! à !
n n n(n − 1)
(iii) = = .
2 n −2 2

Exercice 3.19 Retrouver ces résultats en raisonnant sur le nombres de possibilités de choisir
un certain nombres d’éléments parmi n. ■

Exercice 3.20 La formule de Pascal permet de construire simplement le triangle de Pascal,


un tableau infini qui contient tous les coefficients binomiaux. Remplir le tableau jusqu’à n=6.

p
n 0 1 2 3 4 5
0 1 0 0 0 0 0
1
2
3
4
5

La formule qui suit est très importante et intervient dans tous les domaines de mathéma-
tiques. Vous connaissez tous sa forme pour n = 2. Il faut maintenant connaître sa forme pour
n = 3, 4, 5 et sa forme généralisée.

Théorème 3.5.14 — Binôme de Newton. Soient n ∈ N et (x, y) ∈ C2 . On a :


à ! à !
n n n n
n k n−k
x n−k y k .
X X
(x + y) = x y =
k=0 k k=0 k
64 Chapitre 3. Récurrence et ensembles finis

Exercice 3.21 Démontrer la formule du binôme de Newton. ■

De très nombreux résultats sur les coefficients binomiaux sont connus. Les résultats qui
suivent et leurs démonstrations ne sont pas au programme et ne sont pas à connaître par cœur,
mais leur connaissance peut s’avérer utile.
Propriété 3.5.15 Soient n, p et q trois entiers tels que 0 ≤ q ≤ p ≤ n. On a :
à !à ! à !à !
n p n n−q
= .
p q q p −q

Exercice 3.22 Démontrer cette propriété. De quelle autre propriété du cours est-elle une
généralisation ? ■

Propriété 3.5.16 Soient n, p et q trois entiers tels que 0 ≤ n ≤ p + q. On a :


à !à ! à !
Xn p q p +q
= .
k=0 k n − k n

Exercice 3.23 Démontrer la propriété précédente en raisonnant sur des nombres de combi-
naisons. En déduire une formule pour 2n
¡ ¢
n . ■
3.5 Combinatoire et dénombrement 65

3.5.7 Culture G
La combinatoire permet l’élaboration de nombreux modèles dans des domaines scienti-
fiques très divers, notamment en chimie, en biologie, en cryptologie, en théorie des jeux, en
sociologie, etc.

En biologie, c’est en phylogénie et en génétique que l’on retrouve le plus de modèles issus de
la combinatoire. La phylogénie, c’est l’étude des relations de parenté entre les êtres vivants. La
génétique, c’est l’étude des gènes. En effet, depuis que la structure de la molécule d’ADN a été
décrite par Francis Crick et James Watson en 1953 (ce qui leur valut le prix Nobel de médecine
en 1962), on modélise très généralement les brins d’ADN à l’aide de p-listes de l’ensemble
{C, G, A, T} où l’on associe les éléments C, G, A et T aux molécules de cytosine, guanine, adénine,
thymine respectivement.

Exercice 3.24 Pour chacun des autres domaines scientifiques cités, imaginer un contexte
dans lequel il vous paraitrait raisonnable de faire appel à la combinatoire. ■
4. Suites de nombres réels

4.1 Préliminaires : rappels sur les réels


On rappelle ici quelques notions liées aux nombres réels ainsi que les propriétés associées à
ces notions. Vous connaissez tous déjà ces propriétés, seul le formalisme utilisé est nouveau.

4.1.1 Relation d’ordre


L’ensemble des réels R est un ensemble ordonné, il est muni d’une relation d’ordre ≤.
Propriété 4.1.1 — Relation d’ordre. Soient x, y et z trois réels. On a les propriétés suivantes.

(i) x≤x . (Réflexivité)


(ii) si x ≤ y et y ≤ z alors x ≤ z . (Transitivité)
(iii) si x ≤ y et y ≤ x alors x = y . (Antisymmétrie)

C’est un ensemble totalement ordonné.


Propriété 4.1.2 — Ordre total. Soient x et y deux réels, alors on a :

x ≤ y ou y ≤ x .

Cet ordre est dense.


Propriété 4.1.3 — Ordre dense. Soient x et y deux réels, alors :

x < y ⇒ ∃z ∈ R, x < z < y .


¡ ¢ ¡ ¢

Cet ordre est compatible avec l’opération d’addition.


Propriété 4.1.4 — Addition. Soient x 1 , x 2 , y 1 et y 2 des réels, alors on a :
¡ ¢ ¡ ¢
x 1 < y 1 et x 2 ≤ y 2 ⇒ x 1 + x 2 < y 1 + y 2 .
68 Chapitre 4. Suites de nombres réels

Exercice 4.1 En utilisant la propriété précédente, montrer que les propositions suivantes
sont vraies.
∀x, y, z ∈ R, x < y ⇒ x + z < y + z .
¡ ¢ ¡ ¢

∀x, y ∈ R, x < y ⇔ −y < −x .


¡ ¢ ¡ ¢

Enfin, cet ordre est compatible avec l’opération de multiplication pour les réels positifs.
Propriété 4.1.5 — Multiplication. Soient x 1 , x 2 , y 1 et y 2 des réels, alors on a :

¡ ¢ ¡ ¢
0 < x 1 < y 1 et 0 < x 2 ≤ y 2 ⇒ 0 < x 1 × x 2 < y 1 × y 2 .

Exercice 4.2 En utilisant la propriété précédente, montrer que :


µ ¶
1 1
∀x, y ∈ R, 0 < x < y ⇔ 0 < <
¡ ¢
.
y x

Exercice 4.3 Montrer que :

∀x, y, z ∈ R, x < y et 0 < z ⇒ x × z < y × z .


¡ ¢ ¡ ¢

Pour démontrer toutes les propriétés précédentes, il faudrait constuire R, +, × et ≤. Ceci


n’étant pas au programme, on va admettre ces propriétés. Par contre, il faut toutes les connaître !
4.1 Préliminaires : rappels sur les réels 69

4.1.2 Encadrement
Définition 4.1.1 — Minorant, majorant. Soient E une partie non vide de R et m un réel. On
dit que m est un minorant de E, si ∀x ∈ E, m ≤ x. Si E a un minorant, alors on dit que E est
minorée.

Soit M un réel. On dit que M est un majorant de E, si ∀x ∈ E, x ≤ M. Si E a un majorant, alors


on dit que E est majorée.

Définition 4.1.2 — Partie bornée. Soit E une partie non vide de R. On dit que E est bornée
si elle est minorée et majorée.

Exercice 4.4 Montrer qu’une partie minorée (respectivement majorée) possède une infinité
de minorants (resp. majorants). ■

Théorème 4.1.6 — Théorème de la borne inférieure (resp. supérieure). Toute partie non
vide minorée (resp. majorée) de R possède un unique plus grand minorant (resp. plus petit
majorant).

Définition 4.1.3 — Borne inférieure, borne supérieure. Soit E une partie non vide de R. Si
E est minorée, on appelle borne inférieure de E son plus grand minorant. On note inf(E), lu
« inf de E », cette borne inférieure. Si E n’est pas minorée, on pose inf(E) = −∞.

Si E est majorée, on appelle borne supérieure de E son plus petit majorant. On note sup(E),
lu « sup de E », cette borne supérieure. Si E n’est pas majorée, on pose sup(E) = +∞.

Propriété 4.1.7 Soit E une partie non vide bornée de R. Alors, ∀ε > 0, ∃x ∈ E, inf(E) ≤ x <
inf(E) + ε. De même, ∀ε > 0, ∃x ∈ E, sup(E) − ε < x ≤ sup(E).
Le théorème et la proposition précédents sont admis.

Exercice 4.5 Soit A ⊂ B ⊂ R avec B minoré. Montrer que A est minoré et inf(A) ≥ inf(B). ■

Définition 4.1.4 — Minimum, maximum. Soit E une partie non vide de R. Si E est minorée et
que inf(E) ∈ E, alors on appelle minimum de E la borne inférieure de E. On note alors min(E)
ce minimum.

Si E est majorée et que sup(E) ∈ E, alors on appelle maximum de E la borne supérieure de E.


On note alors max(E) ce maximum.

Exercice 4.6 Montrer que toute partie finie non vide de R possède un minimum et un
maximum. ■
70 Chapitre 4. Suites de nombres réels

4.1.3 Valeur absolue


Définition 4.1.5 On définit l’application valeur absolue de R dans R+ par :

abs : R −→ R+
.
x 7−→ |x| = max(x, −x)

Propriété 4.1.8 Soient x et y deux réels, alors on a les propositions suivantes :

(i) −|x| ≤ x ≤ |x| .


(ii) | − x| = |x| .
(iii) ¯ × y| =¯|x| × |y| .
|x
(iv) ¯|x| − |y|¯ ≤ |x + y| ≤ |x| + |y| . (inégalité triangulaire)

Exercice 4.7 Soit n ∈ N, montrer les deux propositions suivantes :

∀x ∈ R, ¯x n ¯ = |x|n .
¯ ¯

¯ ¯
¯Xn ¯ X n
n
∀(x 1 , ..., x n ) ∈ R , ¯ xk ¯ ≤ |x | .
¯ ¯
¯k=1 ¯ k=1 k

Exercice 4.8 Soit x un réel tel que ∀ε > 0, |x| < ε. Montrer que x = 0. ■

Propriété 4.1.9 — Distance et intervalle. Soient x et y deux réels, δ un réel strictement positif.
On a :
|x − y| < δ ⇔ x ∈]y − δ, y + δ[ ⇔ y ∈]x − δ, x + δ[ .
¡ ¢ ¡ ¢ ¡ ¢

De même, on a :

|x − y| ≤ δ ⇔ x ∈ [y − δ, y + δ] ⇔ y ∈ [x − δ, x + δ] .
¡ ¢ ¡ ¢ ¡ ¢

Démonstration. On montre la première équivalence par dichotomie, les autres se font de même.
D’abord, si y ≤ x alors |x − y| < δ ⇔ x − y < δ ⇔ x < y + δ. D’où y ≤ x < y + δ et on a bien
x ∈ [y, y + δ[ ⊂ ]y − δ, y + δ[.
Maintenant, si x < y alors |x − y| < δ ⇔ y − x < δ ⇔ y − δ < x. D’où y − δ < x < y et on a bien
x ∈]y − δ, y[ ⊂ ]y − δ, y + δ[.

4.2 Suites réelles : les fondamentaux 71

4.1.4 Partie entière


La propriété suivante découle de la construction de R, elle est donc admise.
Propriété 4.1.10 Soit x ∈ R, alors :

∃n ∈ Z, n ≤ x < n + 1 .

Définition 4.1.6 Soit x ∈ R, on appelle partie entière de x et on note bxc l’unique entier tel
que bxc ≤ x < bxc + 1.

4.2 Suites réelles : les fondamentaux


4.2.1 Définition
Définition 4.2.1 On appelle suite réelle toute application u de N dans R. L’ensemble des
suites réels est donc RN .

R Pour une suite, on note généralement u n pour u(n). On identifie alors la suite u à la famille
de nombres réels indexée par N : (u n )n∈N .

Définition 4.2.2 On appelle suite réelle définie à partir du rang n 0 toute application u de
‚n 0 , +∞‚ dans R.

R Pour une suite définie à partir d’un rang n 0 , on identifie la suite u et la famille de nombres
réels indexée par ‚n 0 , +∞‚ : (u n )n≥n0 .

4.2.2 Opérations sur les suites


Définition 4.2.3 — Somme. Soient u et v deux suites réelles. On définit leur somme u + v
comme étant la suite w telle que ∀n ∈ N, w n = u n + v n .

Définition 4.2.4 — Produit. Soient u et v deux suites réelles. On définit leur produit u × v
comme étant la suite w telle que ∀n ∈ N, w n = u n × v n .

Définition 4.2.5 — Multiplication par un scalaire. Soient u une suite réelle et λ un réel. On
définit la multiplication de u par le scalaire λ comme étant la suite w telle que ∀n ∈ N, w n =
λu n .

Définition 4.2.6 — Composition. Soient f une application de D f ⊂ R dans R et u une suite


réelle telle que ∀n ∈ N, u n ∈ D f . On définit la suite composée f (u) comme étant la suite v
telle que ∀n ∈ N, v n = f (u n ).

4.2.3 Propriétés des suites


Définition 4.2.7 — Suite minorée, majorée, bornée. Soit u une suite réelle. On a les défini-
tions suivantes :
u est minorée ⇔ ∃m ∈ R, ∀n ∈ N, m ≤ u n .
u est majorée ⇔ ∃M ∈ R, ∀n ∈ N, u n ≤ M .
u est bornée ⇔ u est majorée et minorée ⇔ ∃(m, M) ∈ R2 , ∀n ∈ N, m ≤ u n ≤ M .

Propriété 4.2.1 Soit u une suite réelle. u est minorée (resp. majorée, bornée) à partir d’un
certain range n 0 si et seulement si u est minorée (resp. majorée, bornée).
72 Chapitre 4. Suites de nombres réels

Démonstration. D’abord, l’implication directe est un corollaire de l’exerice 4.6.


Ensuite, l’implication réciproque est triviale. ■

Propriété 4.2.2 Soit u une suite réelle. u est bornée si et seulement si |u| est majorée.

Démonstration. Si u est bornée, alors ∃(m, M) ∈ R2 , ∀n ∈ N, m ≤ u n ≤ M. D’où ∀n ∈ N, |u n | ≤


max(|m|, |M|) et |u| est majorée.
Réciproquement, si |u| est majorée, alors ∃M ∈ R, ∀n ∈ N, |u n | ≤ M. On a donc ∀n ∈ N, −M ≤
u n ≤ M. ■

R Quant on dit qu’une suite est positive (resp. négative), cela signifie qu’elle est minorée
(resp. majorée) par 0.

Définition 4.2.8 — Suite croissante, décroissante. Soit u une suite réelle. On a les défini-
tions suivantes :
u est croissante ⇔ ∀n ∈ N, u n ≤ u n+1 .
u est décroissante ⇔ ∀n ∈ N, u n+1 ≤ u n .

Définition 4.2.9 — Suite constante. Soit u une suite réelle. On dit que u est constante si :

∃λ ∈ R, ∀n ∈ N, u n = λ .

Exercice 4.9 Soit u une suite réelle. Représenter les implications entre les différentes propo-
sitions données sur le diagramme suivant :

u bornée

u minorée u majorée

u croissante u décroissante

u constante

R Une suite croissante (resp. décroissante, constante) à partir d’un certain rang n’est pas
forcément croissante (resp. décroissante, constante) sur N.

4.3 Convergences des suites réelles


4.3.1 Définitions
Définition 4.3.1 — Suite convergente, divergente. Soit u une suite réelle. On dit que u est
convergente si on a :

∃l ∈ R, ∀ε > 0, ∃n 0 ∈ N, ∀n ≥ n 0 , |u n − l | ≤ ε .

On dit que u est divergente si elle n’est pas convergente.

Exercice 4.10 Quantifier le fait qu’une suite soit divergente. ■


4.3 Convergences des suites réelles 73

Théorème 4.3.1 — Unicité de la limite. Soit u une suite réelle. Si u est convergente alors
il n’existe qu’un seul réel l tel que ∀ε > 0, ∃n 0 ∈ N, ∀n ≥ n 0 , |u n − l | ≤ ε. On dit alors que u
converge vers sa limite finie l .

Démonstration. On suppose qu’il existe deux réels l et l 0 vérifiant tous les deux la proposition
énoncée, c’est-à-dire :

∀ε > 0, ∃n 0 ∈ N, ∀n ≥ n 0 , |u n − l | ≤ ε et ∀ε > 0, ∃n 0 ∈ N, ∀n ≥ n 0 , |u n − l 0 | ≤ ε .

Soit ε > 0, alors ∃n 0 ∈ N, ∀n ≥ n 0 , |u n − l | ≤ ε et ∃n 00 ∈ N, ∀n ≥ n 00 , |u n − l 0 | ≤ ε. Si on pose


N = max(n 0 , n 00 ), alors (|u N −l | ≤ ε et |u N −l 0 | ≤ ε). Or |l −l 0 | = |l −u N +u N −l 0 | = |l −u N −(l 0 −u N )|
d’où par l’inégalité triangulaire |l − l 0 | ≤ |l − u N | + |u N − l 0 | ≤ 2ε.
On a donc montré que, pour tout ε > 0, |l − l 0 | ≤ 2ε. Mais cela implique que |l − l 0 | = 0 (voir
exercice 4.8). D’où l = l 0 ce qui prouve bien l’unicité de la limite. ■

Définition 4.3.2 — Limite infinie. Soit u une suite réelle. On a les définitions suivantes :
u est diverge vers +∞ ⇔ ∀A ∈ R, ∃n 0 , ∀n ≥ n 0 ∈ N, u n ≥ A .
u est diverge vers −∞ ⇔ ∀A ∈ R, ∃n 0 , ∀n ≥ n 0 ∈ N, u n ≤ A .

Dans les deux cas, on dit que u a une limite infinie.

Exercice 4.11 Soit u une suite réelle et l un réel. Compléter les phrases suivantes :

u converge vers l ⇔ Quelque soit le réel positif, il existe un rang à partir duquel ...

u diverge vers +∞ ⇔ Quelque soit le réel, il existe un rang à partir duquel ...

u diverge vers −∞ ⇔ Quelque soit le réel, il existe un rang à partir duquel ...

R On dit que u tend vers une limite finie si u converge vers un réel l et que u tend vers +∞
lim u = l , +∞ ou −∞. Étudier
(resp. −∞) si u diverge vers +∞ (resp. −∞). On note alors n→+∞ n
la nature d’une suite, c’est déterminer si l’on est dans l’une de ces trois configurations ou
pas. Il y a donc 4 natures différentes de suites.

Exercice 4.12 Montrer que si u tend vers +∞ (resp. −∞) alors u est minorée (resp. majorée).

4.3.2 Propriétés des suites convergentes


Théorème 4.3.2 Soit u une suite réelle. On a les implications suivantes :

(i) u est convergente ⇒ u est bornée.


(ii) u est croissante et majorée ⇒ u est convergente.
(iii) u est décroissante et minorée ⇒ u est convergente.
74 Chapitre 4. Suites de nombres réels

Exercice 4.13 Dans chaque point, montrer que l’implication réciproque est fausse. ■

Exercice 4.14 Démontrer le théorème. Pour le premier point, utiliser les propriétés 4.1.9 et
4.2.1 avec la définition de la convergence. Pour le deuxième point, utiliser la propriété 4.1.7
avec la définition de la convergence. Pour le troisième point, le déduire du point précédent. ■

Propriété 4.3.3 Soient u une suite réelle et l un réel, on a :


u converge vers l ⇔ |u n − l | converge vers 0.
Démonstration. Il suffit d’écrire les deux propositions quantifiées pour voir que ce sont les
mêmes. ■

Propriété 4.3.4 Soient l un réel et u une suite croissante convergeant vers l , alors ∀n ∈ N, u n ≤ l .

Démonstration. Soit u une suite croissante. S’il existe un entier n 0 tel que u n0 > l , alors on pose
u n −l
ε = 02 et ∀n ≥ n 0 , |u n − l | = u n − l ≥ u n0 − l > ε. La suite ne converge donc pas vers l et on a le
résultat par contraposition. ■

4.3.3 Limites et opérations


Théorème 4.3.5 — Opérations algébriques. Soient u et v deux suites réelles convergentes,
l et l 0 leurs limites respectives et λ un réel. Alors, on a les propositions suivantes :

(i) u+v est convergente et sa limite est l + l 0.


(ii) u×v est convergente et sa limite est l × l 0.
(iii) λu est convergente et sa limite est λl .

Démonstration. On commence par démontrer la proposition (i). Soit ε > 0, alors on a 2ε > 0 et
donc ∃n 0 ∈ N, ∀n ≥ n 0 , |u n − l | ≤ 2ε et ∃n 00 ∈ N, ∀n ≥ n 00 , |v n − l 0 | ≤ 2ε . On pose N = max(n 0 , n 00 ) et
on a bien ∀n ≥ N, |u n + v n − (l + l 0 )| = |(u n − l ) + (v n − l 0 )| ≤ |(u n − l )| + |(v n − l 0 )| ≤ 2ε + 2ε = ε.
4.3 Convergences des suites réelles 75

On montre maintenant (ii). D’abord, comme u et v sont convergentes, elles sont bornées.
En considérant le maximum de deux bornes de leurs valeurs absolues, il existe un M > 0 tel
ε
que ∀n ∈ N, |u n | ≤ M et |v n | ≤ M. Soit maintenant ε > 0. On a 2M > 0 et donc ∃n 0 ∈ N, ∀n ≥
ε ε
n 0 , |u n − l | ≤ 2M et ∃n 0 ∈ N, ∀n ≥ n 0 , |v n − l | ≤ 2M . On pose N = max(n 0 , n 00 ) et on a bien
0 0 0

∀n ≥ N, |u n v n −l l 0 | = |u n v n −u n l 0 +u n l 0 −l l 0 | = |u n (v n −l 0 )+l 0 (u n −l )| ≤ |u n (v n −l 0 )|+|l 0 (u n −l )| ≤
ε ε
|u n ||(v n − l 0 )| + |l 0 ||(u n − l )| ≤ M 2M + M 2M = ε.
Pour (iii), il suffit de considérer le cas d’une suite v constante égale à λ dans (ii). ■

Théorème 4.3.6 — Composition de limites. Soient I un intervalle de R, x ∈ I, u une suite


d’éléments de I qui converge vers x, et f une fonction de I dans R. Alors on peut définir la
suite composée f (u) et, si la fonction f tend vers une limite y ∈ R = R ∪ {+∞, −∞} en x, alors
la suite f (u) a pour limite y.

Démonstration. Elle sera faite dans le chapitre sur les fonctions réelles. ■

Théorème 4.3.7 Soient u et v deux suites réelles telles que u tend vers +∞. Alors on a les
implications suivantes :

(i) v est minorée ⇒ u + v tend vers +∞.


v est minorée par un réel strictement
(ii) ⇒ u × v tend vers +∞.
positif à partir d’un certain rang
v est majorée par un réel strictement
(iii) ⇒ u × v tend vers −∞.
négatif à partir d’un certain rang

Démonstration. On démontre d’abord la proposition (i). On suppose que v est minorée par un
réel m. Soit A ∈ R, on considère le réel A0 = A−m. Comme u tend vers +∞, il existe un rang n 0 tel
que ∀n ≥ n 0 , u n ≥ A0 . D’où ∀n ≥ n 0 , u n + v n ≥ A0 + m = A. C’est bien ce que l’on voulait montrer.
On démontre maintenant la proposition (ii). On suppose que v est minorée par un réel
m > 0 à partir d’un rang n 0 . Alors la suite u × v est supérieure à la suite mu partir d’un certain
rang. Or la suite mu tend vers +∞ (il suffit de faire le même raisonnement que précédemment
A
en considérant A0 = m ). Or uv = mu + u(v − m) et la suite u(v − m) est minorée par 0 à partir
d’un certain rang, elle est donc minorée (par la propriété 4.2.1). On conclut via la proposition (i).
On obtient la proposition (iii) à partir de la proposition (ii), en remarquant que −v est
minorée par un réel strictement positif à partir d’un certain rang si v est majorée par un réel
strictement négatif à partir d’un certain rang. ■

Exercice 4.15 Pour chacune des propositions du théorème précédent, montrer que les
implications réciproques ne sont pas vérifiées. ■
76 Chapitre 4. Suites de nombres réels

Exercice 4.16 Que peut-on dire si v tend vers une limite ? ■

4.3.4 Limites et inégalités


Précédemment dans ce cours, on a introduit l’ensemble de R := R ∪ {−∞, +∞}. On étend
maintenant l’ordre sur R à R en posant que ∀x ∈ R, −∞ < x < +∞.
Définition 4.3.3 Soient u et v deux suites réelles. On a la définition suivante :

(u ≤ v) ⇔ (∀n ∈ N, u n ≤ v n ) .

Théorème 4.3.8 — Compatibilité ordre et limites. Soient u et v deux suites réelles telles
que u ≤ v. On suppose que u et v tendent chacune vers une limite dans R. On a :

lim lim v .
u n ≤ n→+∞
n→+∞ n

Démonstration. On montre le résultat directement. On a trois possibilités pour n→+∞ lim u : soit
n
lim
c’est −∞, soit c’est un réel, soit c’est +∞. De même, il y a trois possibilités pour n→+∞ v n .
lim u = −∞, alors, quelque soit la valeur de lim v , on a −∞ ≤ lim v . Ce qui est le
Si n→+∞ n n→+∞ n n→+∞ n
résultat souhaité.
lim v = +∞, c’est pareil, quelque soit la valeur de lim u , on a lim u ≤ +∞ et c’est
Si n→+∞ n n→+∞ n n→+∞ n
bien le résultat souhaité.
On suppose donc d’abord que n→+∞ lim u = l ∈ R et que lim 6= +∞. Comme u converge vers
n n→+∞
un réel, elle est minorée, et v est donc minorée également. Elle ne peut donc tendre vers −∞.
lim v = l 0 ∈ R. Or, quelque soit le réel ε strictement positif, il existe un rang à partir du
Ainsi n→+∞ n
quel la suite u soit supérieure à l − ε et un rang à partir duquel v soit inférieure à l 0 + ε. On en
déduit que quelque soit le réel ε strictement positif l − ε ≤ l 0 + ε, ou encore −2ε ≤ l 0 − l . On en
déduit donc que 0 ≤ l 0 − l et on a bien l ≤ l 0 .
On suppose enfin que n→+∞lim u = +∞. Dans ce cas, u n’est pas minorée. Comme on a supposé
n
que v tendait vers une limite, on a forcément n→+∞ lim v = +∞ et on a le résultat. ■
n

R Il faut faire attention : il est supposé dans l’énoncé que les deux suites tendent vers des
limites. Si l’on ne sait pas si les suites convergent, il faut plutôt utiliser l’un des théorèmes
suivants.

Théorème 4.3.9 — Encadrement. Soient u, v et w trois suites réelles telles que u ≤ v ≤ w.


Si u et w convergent vers une même limite finie l , alors v converge vers l .

Démonstration. Comme u converge vers l , quelque soit le réel ε, il existe un rang à partir duquel
u soit supérieure à l − ε. De même, il existe un rang à partir duquel w soit inférieure à l + ε. On
en déduit donc qu’il existe un rang à partir duquel v est comprise entre l − ε et l + ε : v tend vers
l. ■
4.3 Convergences des suites réelles 77

Théorème 4.3.10 Soient u et v deux suites réelles telles que u ≤ v. Si u tend vers +∞ alors v
tend +∞. De même, si v tend vers −∞ alors u tend −∞.

Démonstration. Si u tend vers +∞, alors, quelque soit le réel A, il existe un rang à partir duquel
u est supérieure à A. v est donc également supérieure à A à partir d’un certain rang et on conclut
donc que v tend vers +∞.
Si v tend vers −∞, alors −v tend vers +∞. On peut donc appliquer le résultat précédent via
l’inégalité −v ≤ −u. Cela donne −u tend vers +∞ et finalement u tend vers −∞. ■

4.3.5 Suites adjacentes


Définition 4.3.4 — Suites adjacentes. Soient u et v deux suites réelles. On dit que u et v
sont adjacentes si :

(i) u est croissante


(ii) v est décroissante
(iii) lim
n→+∞ (u n − v n ) = 0

Théorème 4.3.11 — Limite de suites adjacentes. Soient u et v deux suites réelles adja-
centes. Alors u ≤ v et les deux suites tendent vers une même limite l ∈ R.

Démonstration. Soit n ∈ N. Comme u croissante et v décroissante, u n+1 ≥ u n et v n ≥ v n+1 . On a


donc −v n+1 ≥ −v n , puis u n+1 − v n+1 ≥ u n − v n . La suite u − v est donc croissante. Comme elle
tend vers 0, elle est forcément négative (par la propriété 4.3.4). On en déduit donc que u ≤ v.
Maintenant, u 0 ≤ u n ≤ v n ≤ v 0 et ceci quelque soit n donc u est majorée et v est minorée.
Elles convergent donc chacune vers une limite réelle, l et l 0 respectivement.
Enfin, par opération sur les limites, on voit que u − v converge vers l − l 0 . Or, par hypothèse,
u − v tend vers 0. Par unicité de la limite, on a l − l 0 = 0, ce qui donne l = l 0 . On a bien montré
que u et v convergent vers une même limite l ∈ R. ■

u +v
Exercice 4.17 On considère les suites u et v définies par u 0 = 1, v 0 = 2, v n+1 = n 2 n et
2
u n+1 = v n+1 . Montrer que ∀n ∈ N∗ , 1 < u n < u n+1 < v n+1 < v n . En déduire que u et v sont
adjacentes et déterminer leur limite. ■
78 Chapitre 4. Suites de nombres réels

4.4 Suites classiques


4.4.1 Suites arithmétiques
Exercice 4.18 Rédiger cette section. ■
4.4 Suites classiques 79

4.4.2 Suites géométriques


Exercice 4.19 Rédiger cette section. ■
80 Chapitre 4. Suites de nombres réels

4.4.3 Suites arithmético-géométriques


Définition 4.4.1 — Suite arithmético-géométrique. Soient u une suite réelle, q et r deux
réels. On dit que u est arithmético-géométrique de paramètres (q, r ) si ∀n ∈ N, u n+1 =
qu n + r .

Propriété 4.4.1 Soit u une suite arithmético-géométrique réelle de paramètres (q, r ) avec q 6= 1.
Alors on a :
r r
µ ¶
∀n ∈ N, u n = u 0 − qn + .
1−q 1−q
r
Démonstration. On pose λ = 1−q et on définit la suite v := u − λ. Alors, on voit que ∀n ∈
N, v n+1 = u n+1 − λ = qu n + r − λ = q(v n + λ) + r − λ = q v n + λ(q − 1) + r = q v n − r + r = q v n .
La suite v est donc une suite géométrique de raison q. On a donc ∀n ∈ N, v n = v 0 q n , d’où
u n = (u 0 − λ)q n + λ. ■

Exercice 4.20 Déterminer, en fonction de ses paramètres, la nature et, le cas échéant, la
limite d’une suite arithmético-géométrique. ■

4.4.4 Suites récurrentes linéaires d’ordre 2


Définition 4.4.2 — Suite récurrente linéaire d’ordre 2. Soient u une suite réelle, a et b deux
réels. On dit que u est récurrente linéaire d’ordre 2 de paramètres (a, b) si ∀n ∈ N, u n+2 =
au n+1 + bu n .

Définition 4.4.3 — Équation caractéristique. Soit u une suite récurrente linéaire d’ordre 2
réelle de paramètres (a, b). Son équation caractéristique est définie comme étant l’équation
d’inconnue z ∈ C :
z 2 − az − b = 0 .

Théorème 4.4.2 — Terme général d’une suite récurrente linéaire d’ordre 2. Soit u une
suite récurrente linéaire d’ordre 2 réelle d’équation caractéristique (E) : z 2 − az − b = 0. Alors
on a les trois configurations possibles différentes :

1. Si (E) possède deux solutions réelles z 1 et z 2 , alors ∃(λ, µ) ∈ R2 , ∀n ∈ N, u n = λz 1n + µz 2n .

2. Si (E) possède une unique solution réelle z 0 , alors ∃(λ, µ) ∈ R2 , ∀n ∈ N, u n = (λn + µ)z 0n .

3. Si (E) n’a pas de solution réelle, (E) possède deux solutions complexes conjuguées
z 1 = ρe i θ et z 2 = ρe −i θ , et alors ∃(λ, µ) ∈ R2 , ∀n ∈ N, u n = λ cos(nθ) + µ sin(nθ) ρn .
¡ ¢

Démonstration. La démonstration du théorème sera faite dans le cadre du cours sur les matrices.

4.4 Suites classiques 81

Exercice 4.21 Déterminer le terme général des suites u, v et w, récurrentes linéaires d’ordre
2 de paramètres (2, −1), (2, −2) et (3, −2) respectivement, dont les deux premiers termes sont
tous égaux à 1. ■

4.4.5 Limites classiques


Propriété 4.4.3 — Exponentielle. Soit λ ∈ R. On a :

λ
µ ¶
lim 1 +
n→+∞ = eλ .
n
Démonstration. Cette propriété est admise pour le moment. Le cas λ = 1 a été vue en exercice.

Propriété 4.4.4 Soient u une suite réelle à termes strictement positifs et λ ∈ R. On suppose que
lim u n+1 = λ. Alors si λ < 1, u tend vers 0, et si λ > 1, u tend vers +∞.
n→+∞ u n

Démonstration. Cette propriété est admise mais pourra être vue en TD. ■

Théorème 4.4.5 — Croissances comparées. Soient a et b deux réels strictement positifs et


q > 1. On a les propositions suivantes :

lim
(ln(n))b
(i) n→+∞ = 0.
na

lim
na
(ii) n→+∞ = 0.
qn

lim
qn
(iii) n→+∞ = 0.
n!

lim
n!
(iv) n→+∞ = 0.
nn

Démonstration. Les points (ii), (iii) et (iv) peuvent se déduire de la proriété précédente. Le point
(i) est admis. ■
82 Chapitre 4. Suites de nombres réels

4.5 Suites et fonctions


Les résultats dans cette section ne sont pas au programme mais sont très utiles. Il faut donc
savoir les retrouver.

4.5.1 Suite définie par une fonction réelle


Soit f une fonction réelle telle que N ⊂ D f , alors on peut définir la suite u définie par :

∀n ∈ N, u n = f (n) .

Dans ce cas, l’étude de la fonction f peut servir à l’étude de u.


Propriété 4.5.1 Soit f et u comme ci-dessus. Alors, on a les propositions qui suivent.

(i) f positive (resp. négative) ⇒ u positive (resp. négative).


(ii) f minorée (resp. majorée) ⇒ u minorée (resp. majorée).
(iii) f croissante (resp. décroissante) sur R+ ⇒ u croissante (resp. décroissante).
(iv) lim f (x) = λ ∈ R ⇒ n→+∞ u n = λ.
lim
x→+∞

Démonstration. Pour (i), (ii) et (iii), il suffit d’écrire les définitions. Pour (iv), il s’agit d’un cas
particulier du théorème de composition de limites. ■

4.5.2 Suite récurrente définie par une fonction réelle


Soient g une fonction réelle et I ⊂ Dg un intervalle tel que ∀x ∈ I, g (x) ∈ I. Alors, on peut
définir la suite u par :
½
u0 ∈ I
.
∀n ∈ N, u n+1 = g (u n )
Dans ce cas également, l’étude de la fonction g peut servir à l’étude de u.
Propriété 4.5.2 — Cas g croissante. Soient g , I et u comme ci-dessus. On suppose que g est
croissante sur I alors on a trois possibilités :
(i) si u 0 < u 1 alors u est croissante ;
(ii) si u 0 > u 1 alors u est décroissante ;
(iii) si u 0 = u 1 alors u est constante.
Démonstration. On peut montrer les résultats très rapidement par récurrence. ■

Propriété 4.5.3 — Cas g décroissante. Soient g , I et u comme ci-dessus. On suppose que g


est décroissante sur I. Alors la fonction h = g ◦ g est croissante sur I et on a trois possibilités :
(i) si u 0 < u 2 alors (u 2n )n∈N est croissante et (u 2n+1 )n∈N est décroissante ;
(ii) si u 0 > u 2 alors (u 2n )n∈N est décroissante et (u 2n+1 )n∈N est croissante ;
(iii) si u 0 = u 2 alors (u 2n )n∈N et (u 2n+1 )n∈N sont constantes.
Démonstration. Si g est décroissante sur I, alors ∀x, y ∈ I, [x ≤ y] ⇒ [g (x) ≥ g (y)] ⇒ [g (g (x)) ≤
g (g (y))]. D’où h est croissante. On applique ensuite la propriété précédente aux suites (u 2n )n∈N
et (u 2n+1 )n∈N . ■

Propriété 4.5.4 — Cas n→+∞lim u existe et g continue. Soient g , I et u comme ci-dessus. On


n
lim lim u = l où l est un point fixe de
suppose que n→+∞ u n existe et que g est contiue sur I. Alors n→+∞ n
g , i.e. g (l ) = l .

Démonstration. Il s’agit simplement d’un cas d’application du théorème de composition de


limites. ■
5. Matrices et systèmes linéaires

Dans l’ensemble de ce chapitre K désigne un ensemble qui peut-être Q, R ou C.

5.1 Matrices rectangulaires


5.1.1 Définition
Définition 5.1.1 — Matrice. Soient (m, n) ∈ (N∗ )2 et A = a (i , j ) (i , j )∈‚1,mƒ×‚1,nƒ , une famille
¡ ¢

d’éléments de K indexée par ‚1, mƒ × ‚1, nƒ. On dit que A est une matrice à m lignes et n
colonnes d’éléments de K et on utilise la notation matricielle suivante :
 
a 1,1 a 1,2 ··· a 1,n
 a 2,1 a 2,2 ··· a 2,n 
 
A=
 .. .. .. .. .
 . . . . 
a m,1 a m,2 ··· a m,n
On omet très généralement les parenthèses pour les indices des éléments a i , j que l’on appelle
coefficients de la matrice A. Les entiers m et n sont apellés dimensions de la matrice A.

R Si K = R, on parle de matrice réelle, si K = C, on parle de matrice complexe.

Définition 5.1.2 — Ensemble de matrices. L’ensemble des matrices à m lignes et n co-


lonnes est noté Mm,n (K).

Définition 5.1.3 — Matrice colonne, matrice ligne. Les éléments de Mm,1 (K) sont appelés
matrices colonnes. Les éléments de M1,n (K) sont appelés matrices lignes.

Définition 5.1.4 — Matrice nulle. Soit (m, n) ∈ (N∗ )2 . La matrice de Mm,n (K) dont tous les
coefficients sont nuls est appelée la matrice nulle de Mm,n (K). S’il n’y a pas d’ambigüité sur
les dimensions de la matrice, la matrice nulle est notée 0, sinon on la note 0m,n .
84 Chapitre 5. Matrices et systèmes linéaires

5.1.2 Opérations algébriques


Définition 5.1.5 — Addition. Soient (m, n) ∈ (N∗ )2 , A et B deux matrices de Mm,n (K). La
somme de A et B est la matrice C dont les coefficients c i , j vérifient : ∀(i , j ) ∈ ‚1, mƒ ×
‚1, nƒ, c i , j = a i , j + b i , j .
 
a 1,1 + b 1,1 a 1,2 + b 1,2 ··· a 1,n + b 1,n
 a 2,1 + b 2,1 a 2,2 + b 2,2 ··· a 2,n + b 2,n 
 
A+B =  .. .. .. .. .
. . . .
 
 
a m,1 + b m,1 a m,2 + b m,2 ··· a m,n + b m,n

R La somme de deux matrices de dimensions différentes n’est jamais possible ! Cela n’a tout
simplement pas de sens.

Propriété 5.1.1 — Règles de calcul pour l’addition. Soient A, B et C trois matrices de Mm,n (K).
On a les propositions suivantes :

(i) (A + B) + C = A + (B + C) (Associativité)
(ii) A+B = B+A (Commutativité)
(iii) A + 0m,n = 0m,n + A = A (Élément neutre)
(iv) ∃!A0 ∈ Mm,n (K), A + A0 = A0 + A = 0 (Opposé)

Démonstration. Pour vérifier les trois premières propositions, il suffit de vérifier les égalités
coefficients par coefficients. Cela découle alors directement des règles de calcul pour l’addition
dans K. Pour la dernière, on remarque que la matrice A0 définie par ∀(i , j ) ∈ ‚1, mƒ×‚1, nƒ, a i0 , j =
−a i , j est bien l’unique matrice qui vérifie la proposition. ■

Définition 5.1.6 — Multiplication par un scalaire. Soient (m, n) ∈ (N∗ )2 , A une matrice de
Mm,n (K) et λ ∈ K. Le produit de A par le scalaire λ est la matrice B dont les coefficients b i , j
vérifient : ∀(i , j ) ∈ ‚1, mƒ × ‚1, nƒ, b i , j = λa i , j .
 
λa 1,1 λa 1,2 ··· λa 1,n
λa λa 2,2 ··· λa 2,n 
 
 2,1
λA = 
 .. .. .. .. .
 . . . . 
λa m,1 λa m,2 ··· λa m,n

Propriété 5.1.2 — Règles de calcul pour la multiplication par un scalaire. Soient A et B


deux matrices de Mm,n (K), λ et µ deux éléments de K. 0K et 1K désignent le zéro et le un en tant
qu’éléments de K. On a les propositions suivantes :

(i) λ(µA) = (λµ)A (Associativité)


(ii) λ(A + B) = λA + λB (Distributivité)
(λ + µ)A = λA + µA
(iii) 0K A = 0m,n (Éléments neutres)
1K A = A

Définition 5.1.7 — Multiplication de matrices. Soient (m, n, p) ∈ (N∗ )3 , A une matrice de


Mm,n (K) et B une matrice de Mn,p (K). Le produit matriciel AB est la matrice C de Mm,p (K)
5.1 Matrices rectangulaires 85

dont les coefficients c i ,k vérifient :


n
X
∀(i , k) ∈ ‚1, mƒ × ‚1, pƒ, c i ,k = a i , j b j ,k .
j =1

Exercice 5.1 Soient A une matrice de Mm,n (K) et B une matrice de Mn,p (K). On note Ai
la matrice ligne correspondant à la i -ème ligne de la matrice A et Bk la matrice colonne
correspondant à la k-ème colonne de B. Calculer le produit Ai Bk . Que peut-on en déduire ? ■

Pour multiplier deux matrices à la main, on pose souvent la multiplication comme ci-
dessous, la matrice A en bas à gauche, la matrice B en haut à droite, et le résultat en bas à droite.
On considère ensuite les produits de chaque ligne de A avec une colonne de B.

B : n lignes, q colonnes
 

 b 1,1 b 1,2 ... b 1,p 

 
 
 

 b 2,1 b 2,2 ... b 2,p 

 
2
1,

 
b

.. .. ..
×

..
 
.
 
. . .
1

2
2,
+

 
2,
a

 
×

 
2

 
b n,1 b n,2 ... b n,p
2,
a

 
..
.+

,2
bn
×
,n
a2

   
 a 1,1 a 1,2 ... a 1,n   c 1,1 c 1,2 ... c 1,p 
   
   
   
 a a 2,2 ... a 2,n   c c 2,2 ... c 2,p 
 2,1   2,1 
   
   
   
 .. .. .. ..   .. .. .. .. 

 . . . . 


 . . . . 

   
   
 a m,1 a m,2 ... a m,n   c m,1 c m,2 ... c m,p 

A : m lignes, n colonnes C = A × B : m lignes, p colonnes

R Pour pouvoir multiplier deux matrices, il est nécessaire que le nombre de lignes de la
deuxième matrice soit égal au nombre de colonnes de la première matrice.
86 Chapitre 5. Matrices et systèmes linéaires

Exercice 5.2 On considère les matrices suivantes :

1 0
 
µ ¶ µ ¶
1 2 3 0 −2 ¡ ¢
A= , B = −1 1  , C= et D = 2 1 3 .
−1 0 1 1 0
−2 −2
Quels sont les produits de deux matrices possibles à partir de ces quatre matrices ? Calculer
ces produits. Le produit de matrice est-il commutatif ? ■

Propriété 5.1.3 — Règles de calcul pour la multiplication matriciel. Soient A et A0 deux


matrices de Mm,n (K), B et B0 deux matrices de Mn,p (K), C une matrice de Mp,q (K) et λ ∈ K. On
a les propositions suivantes :

(i) (λA)B = A(λB) = λ(AB) (Associativité avec le produit par un scalaire)


(ii) A(BC) = (AB)C (Associativité)
(iii) (A + A0 )B = AB + A0 B (Distributivité)
A(B + B0 ) = AB + AB0

Démonstration. Il suffit de regarder les coefficients des matrices de chaque côté des égalités. ■

R La multiplication (à gauche ou à droite) de n’importe quelle matrice par une matrice nulle
de taille compatible donne une matrice nulle.
5.1 Matrices rectangulaires 87

5.1.3 Transposée
Définition 5.1.8 — Matrice transposée. Soit A = a i , j (i , j )∈‚1,mƒ×‚1,nƒ une matrice de Mm,n (K).
¡ ¢

La transposée de A, notée t A, est la matrice de Mn,m (K) telle que t A = a j ,i (i , j )∈‚1,mƒ×‚1,nƒ .


¡ ¢

Définition 5.1.9 — Transposition. Soit (m, n) ∈ (N∗ )2 . On définit l’application transposée


(ou transposition) comme suit :
t
: Mm,n (K) −→ Mn,m (K)
.
A 7−→ t A

Exercice 5.3 Montrer que la transposition est une bijection. ■

Exercice 5.4 Calculer la transposée de la matrice suivante :


µ ¶
2 −1 34
.
0 2 1

Propriété 5.1.4 — Linéarité de la transposition. Soient A et B deux matrices de Mm,n (K), λ et


µ deux éléments de K. Alors :

t
(λA + µB) = λt A + µt B .
Propriété 5.1.5 — Transposition et produit matriciel. Soient A ∈ Mm,n (K) et B ∈ Mn,p (K).
Alors :

t
(AB) = (t B)(t A) .

Exercice 5.5 Démontrer les deux propriétés qui précèdent. ■


88 Chapitre 5. Matrices et systèmes linéaires

5.2 Matrices carrées


5.2.1 Définitions
Définition 5.2.1 — Matrice carrée. Une matrice carrée est une matrice dont le nombre de
lignes est égal au nombre de colonnes.

Définition 5.2.2 — Ensemble de matrices carrées. Soit n ∈ N∗ , l’ensemble des matrices


carrées à n lignes et n colonnes est noté Mn (K).

Définition 5.2.3 — Coefficients diagonaux, matrice diagonale. Soit M ∈ Mn (K) une ma-
trice carrée. On appelle coefficients diagonaux de M, les coefficients m i ,i pour tout i ∈ ‚1, nƒ.
Si tous les coefficients non diagonaux de M sont nuls, on dit que M est une matrice diagonale.
On note alors M = Diag(m 1,1 , ..., m n,n ).
 
1 0 0 0
0 2 0 0 
■ Exemple 5.1 M =   est une matrice diagonale et M = Diag(1, 2, 0, −1).
 

0 0 0 0 
0 0 0 −1

Définition 5.2.4 — Matrice identité. On appelle matrice identité de Mn (K), la matrice


diagonale de dimension n × n dont les coefficients diagonaux sont tous égaux à 1. On note In
cette matrice.
1 0 0
 

■ Exemple 5.2 I3 = 0 1 0 . ■

0 0 1

Définition 5.2.5 — Matrice triangulaire supérieure (resp. inférieure). Soit M ∈ Mn (K), on


dit que M est triangulaire supérieure (resp. inférieure) si pour tout 1 ≤ j ≤ i ≤ n, m i , j = 0
(resp. pour tout 1 ≤ i ≤ j ≤ n, m i , j = 0). Une matrice triangulaire est dite triangulaire stricte
si tous ses coefficients diagonaux sont nuls.
1 2 3 0 0 0
   

■ Exemple 5.3 0 2 1 est triangulaire supérieure. 2 0 0 est triangulaire inférieure


0 0 1 1 1 0
stricte. ■

5.2.2 Produit de matrices carrées


Comme deux matrices carrées A et B de mêmes dimensions ont le même nombre de lignes
et de colonnes, il est toujours possible de calculer les produits AB et BA.
µ ¶ µ ¶ µ ¶
1 0 0 0 0 1
Exercice 5.6 Calculer AB, BA, AC et CA pour A = ,B= et C = . Que
0 0 0 1 0 0
peut-on en conclure ? ■
5.2 Matrices carrées 89

Propriété 5.2.1 — Produit de matrices diagonales. Soient A et B deux matrices diagonales de


Mn (K), telles que A = Diag(λ1 , λ2 , ..., λn ) et B = Diag(µ1 , µ2 , ..., µn ). Alors, leur produit est donné
par AB = Diag(λ1 µ1 , λ2 µ2 , ..., λn µn ).
n
P
Démonstration. On appelle C la matrice AB et on considère les coefficients c i ,k = a i , j b j ,k .
j =1
Comme A est diagonale, a i , j = 0 si i 6= j . De même pour B. Ainsi, si i 6= k, c i ,k = a i ,i b i ,k +a i ,k b k,k =
0 + 0 = 0. Si i = k, c i ,i = a i ,i b i ,i = λi µi . Ce qui démontre la propriété. ■

Propriété 5.2.2 — Produit de matrices triangulaires supérieures (resp. inférieures). Soient


A et B deux matrices triangulaires supérieures (resp. inférieures) de Mn (K). Alors, leur produit
AB est une matrice triangulaire supérieure (resp. inférieure).
n
P iP
−1 n
P
Démonstration. On appelle C la matrice AB. On a c i ,k = a i , j b j ,k = a i , j b j ,k + a i , j b j ,k =
j =1 j =1 j =i
n
P
a i , j b j ,k car a i , j = 0 si j < i . Ainsi, si k < i alors k < j pour tout j ∈ ‚i , nƒ et b j ,k = 0 pour tout
j =i
j ∈ ‚i , nƒ, d’où c i ,k = 0. ■

1 1 1 1 0 0
  

Exercice 5.7 Calculer le produit 0 1 1 1 1 0. ■

0 0 1 1 1 1

Propriété 5.2.3 — Produit avec l’identité. Soit A ∈ Mn (K), alors AIn = In A = A. Plus générale-
ment, soit B ∈ Mm,n (K), alors Im B = BIn = B.

Démonstration. Il suffit de regarder les coefficients des produits pour arriver au résultat. ■

5.2.3 Puissances d’une matrice carrée


Définition 5.2.6 — Puissance d’une matrice carrée. Soit M une matrice de Mn (K). Alors,
on pose M0 = In et pour tout k ∈ N, Mk+1 = M × Mk = Mk × M. On appelle Mk la k-ème
puissance de M.

¶ µ ¶ µ
1 1 1 0
Exercice 5.8 Calculer (A + B)2 et A2 + 2AB + B2 pour A = et B = . Que peut-on
0 1 1 1
en conclure ? Comment peut-on développer la première expression ? ■
90 Chapitre 5. Matrices et systèmes linéaires

Propriété 5.2.4 — Puissance d’une transposée. Soient A ∈ Mn (K) et k ∈ N, alors :

t
¡t ¢k
(Ak ) = A .

Propriété 5.2.5 Soient A et B deux matrices de Mn (K) qui commutent, k et l deux entiers, alors :

Ak Bl = Bl Ak .

Démonstration. Les deux résultats précédents se montrent facilement par récurrence. ■

Théorème 5.2.6 — Binôme de Newton. Soient n ∈ N et (A, B) ∈ (Mn (K))2 tel que AB = BA.
On a : Ã !
n n
n
Ak Bn−k .
X
(A + B) =
k=0 k

Démonstration. La démonstration suit exactement les mêmes étapes que celles du chapitre
précédent. ■

5.2.4 Matrices symétriques et antisymétriques


Définition 5.2.7 — Matrice symétrique, matrice antisymétrique. Soit M une matrice de
Mn (K). On dit que M est symétrique si M =t M. On dit que M est antisymétrique si M = −t M.

R Les coefficients diagonaux d’une matrice antisymétrique sont tous nuls. En effet, les
coefficients diagonaux d’une matrice carrée sont égaux aux coefficients diagonaux de sa
transposée, pour une matrice antisymétrique ils sont aussi opposés, donc nuls.

Définition 5.2.8 — Ensemble des matrices symétriques (resp. antisymétriques). L’en-


semble des matrices symétriques (resp. antisymétriques) de Mn (K) est noté S n (K) (resp.
An (K)).

Exercice 5.9 Soit A ∈ Mm,n (K). Montrer que At A et t AA sont bien définies et préciser leurs
dimensions. Montrer, de plus, que ces matrices sont symétriques. ■

Exercice 5.10 Soient A et B deux matrices symétriques de même dimensions. Montrer que
A et B commutent si, et seulement si, AB est symétrique. ■
5.2 Matrices carrées 91

5.2.5 Matrices inversibles


Définition 5.2.9 — Matrice inversible. Soit A ∈ Mn (K). On dit que A est inversible s’il existe
B ∈ Mn (K) telle que AB = BA = In . Un tel B est appelé un inverse de A.

R La matrice nulle 0n ∈ Mn (K) n’est clairement pas inversible. En effet, pour tout B ∈ Mn (K),
B × 0n = 0n × B = 0n 6= In .

Définition 5.2.10 — Ensemble des matrices inversibles. L’ensemble des matrices inver-
sibles de Mn (K) est noté GLn (K).

R La notation GLn (K) vient de l’expression « groupe linéaire ». C’est un terme d’algèbre issue
de la théorie des groupes.

Propriété 5.2.7 — Unicité de l’inverse. Soit A ∈ Mn (K) inversible, alors A possède un unique
inverse. On note cet inverse A−1 .

Démonstration. Si B et C sont deux inverses de A, alors AB = BA = In et AC = CA = In . Ainsi


CAB = (CA)B = In B = B mais également CAB = C(AB) = CIn = C. D’où B = C. ■

Propriété 5.2.8 — Inverse à gauche ou à droite. Soient A, B ∈ Mn (K). Les propositions sui-
vantes sont équivalentes.

(i) AB = In
(ii) BA = In
(iii) B = A−1

Démonstration. L’implication de (iii) vers (i) et de (iii) vers (ii) découle de la définition. Les
implications réciproques sont, pour l’instant, admises. ■

Propriété 5.2.9 — Règles de calculs pour l’inverse. Soient A et B deux matrices inversibles
de GLn (K), λ ∈ K∗ et k ∈ N. On a les propositions suivantes :

(i) A−1 est inversible et (A−1 )−1 = A.


(ii) AB est inversible et (AB)−1 = B−1 A−1 .
(iii) λA est inversible et (λA)−1 = λ1 A−1 .
(iv) Ak est inversible et (Ak )−1 = (A−1 )k .
t
(v) A est inversible et (t A)−1 = (A−1 )t .

Démonstration. Il suffit de vérifier que les inverses des propositions vérifient la définition de
l’inverse. ■

Exercice 5.11 Soit A, B et C trois matrices inversibles dans GLn (K). Donner la matrice
inverse du produit ABC. ■
92 Chapitre 5. Matrices et systèmes linéaires
µ ¶
a b
Propriété 5.2.10 — Inverse d’une matrice carrée d’ordre 2. Soit M = ∈ M2 (K). Alors
c d
M est inversible si et seulement si ad − bc 6= 0 et sont inverse est donné par :
µ ¶
−1 1 d −b
M = .
ad − bc −c a
µ ¶
d −b
Démonstration. On pose M e= . En posant le produit, on trouve MM e = (ad − bc)I2 .
−c a
Si ad − bc 6= 0, on voit directement que M est inversible, d’inverse M−1 = ad 1−bc M.
e
Si ad − bc = 0, on a MM = 02 . On suppose par l’absurde que M est inversible. On a alors,
e
M−1 MM e = M−1 02 = 02 , mais également M−1 MM e = I2 M
e = M.
e D’où M e = 02 . Par identification,
cela donne que chacun des coefficients de M est nul et donc M est la matrice nulle et n’est donc
pas inversible, CQFD. ■

5.2.6 Culture G : Google et PageRank


Alors qu’ils étaient en train de travailler sur leurs doctorats à l’université de Stanford, Larry
Page et Sergey Brin développent en 1996 l’algorithme PageRank. Cet algorithme est à la base du
moteur de recherche Google. Il permet de classer les pages internet qui correspondent à une
recherche donnée. L’ordre résultant s’est révélé bien plus pertinent que celui proposé par les
autres moteurs de recherche à l’époque, ce qui a grandement contribué à l’essor de Google.
Par rapport aux algorithmes utilisés par les moteurs de recherche antérieurs, l’algorithme
PageRank utilise des mathématiques bien plus complexes, mais tout à fait à la portée d’un
étudiant en ECS ! Et c’est ça qui fait sa force. Sans rentrer dans le détail de cet algorithme, on
présente les bases sur lesquelles il repose.
On considère toutes les pages qui correspondent à une recherche donnée, par exemple,
toutes les pages contenant les expressions « mathématiques », « ECS »et « Dupuy de Lôme ».
On imagine qu’un utilisateur part de n’importe laquelle de ces pages et clique de manière
aléatoire sur un lien qui mène d’une page à une autre page (parmi les mêmes résultats), et
répète ce processus indéfiniment. Ceci peut se modéliser en mathématiques par une marche
aléatoire sur un graphe orienté fini qui représente les résultats. Un graphe orienté, c’est un
objet mathématique qui consiste en un ensemble de nœuds, qui sont mis en relations entre eux
par un ensemble de flèches. Voici un exemple d’un graphe orienté fini :

N1 N2
 
0 0 0 1
1 0 1 1
Un graphe et sa matrice d’ajacence M =  .
 
0 1 0 0
N4 N3 1 0 1 0

Pour savoir quelle est la probabilité qu’un utilisateur se trouve sur une certaine page après
avoir cliqué n fois, il faut considérer les chemins de taille n du graphe. Pour ce faire, on passe
à la matrice adjacence du graphe. La coordonnée m i , j correspond aux nombres de flèches du
nœud Ni vers le nœud N j (ci-dessus, la matrice d’adjacence du graphe en exemple). La raison
pour laquelle on considère cette matrice, c’est parce que la coordonnée (i , j ) de la matrice Mn
donne le nombre de chemins de taille n qui partent de Ni pour arriver à N j . Ceci ce vérifie
facilement par récurrence. C’est donc en calculant la puissance n-ième d’une matrice que l’on
peut connaître la probabilité Pi ,n que l’utilisateur se trouve sur une la page Ni , après avoir cliqué
n fois. Le principe du PageRank repose sur le fait que Pi ,n tend vers une limite finie Pi quand n
tend vers l’infini. Les pages présentées par Google sont ensuite simplement classées par ordre
décroissant de probabilité Pi .
5.3 Systèmes linéaires 93

5.3 Systèmes linéaires


5.3.1 Définitions
Définition 5.3.1 — Système linéaire. Soient m, n ∈ N∗ , a i , j 1≤i ≤m et (b i )1≤i ≤m deux fa-
¡ ¢
1≤ j ≤n
milles d’éléments de K. On appelle système linéaire de m équations à n inconnues x 1 , x 2 , ..., x n ,
¡ ¢
de coefficients a i , j et de second membre (b i ), le n-uplet d’équations linéaires suivant :


 a 1,1 x 1 + a 1,2 x 2 + ··· + a 1,n x n = b1

 a 2,1 x 1

+ a 2,2 x 2 + ··· + a 2,n x n = b2
(S) : .. .. ..


 . . .

a x
m,1 1 + a m,2 x 2 + ··· + a m,n x n = bm

Définition 5.3.2 — Solutions d’un système. Soit (S) un système linéaire, on appelle solution
de (S) tout n-uplet (x 1 , x 2 , ..., x n ) qui est solution des équations de (S). Résoudre le système
(S), c’est déterminer l’ensemble des solutions S de (S). Un système est dit résoluble si
S 6= ;.

Définition 5.3.3 — Système homogène associé. Soit (S) un système linéaire, on appelle
système homogène associé le système linéaire (S 0 ) dont les coefficients sont identiques à
(S) et dont le second membre est nul (i.e. tous les b i sont nuls).

Définition 5.3.4 — Systèmes équivalents. Soient (S) et (S 0 ) deux systèmes linéaires, on dit
qu’ils sont équivalents si leurs ensembles de solutions S et S 0 sont égaux.

Propriété 5.3.1 — Écriture matricielle. Soit (S) un système linéaire défini comme précédem-
x1
 
 .. 
ment. On pose A = a i , j 1≤i ≤m ∈ Mm,n (K), B = (b i )1≤i ≤m ∈ Mm,1 (K) et X =  .  ∈ Mn,1 (K).
¡ ¢
1≤ j ≤n
xn
Alors A est appelée la matrice de (S), B est appelé le vecteur second membre de (S) et on a
l’équivalence :
(S) ⇔ AX = B .

Démonstration. C’est immédiat via la définition du produit matriciel. ■

5.3.2 Opérations élémentaires


Définition 5.3.5 — Opérations élémentaires sur les lignes. Soient (S) un système linéaire
et L1 , ..., Lm ses lignes. On appelle opération élémentaire sur les lignes de (S) toute opération
d’un des types suivants :

(i) Li ↔ L j . (échange de lignes)


(ii) Li ← αLi où α ∈ K∗ . (multiplication par un scalaire non nul)
(iii) Li ← Li + βL j où i 6= j . (addition d’un multiple d’une ligne à une autre)

Théorème 5.3.2 Soient (S) un système linéaire et (S 0 ) un système linéaire obtenu par opéra-
tions élémentaires successives. Alors (S) et (S 0 ) sont équivalents.

Démonstration. Pour démontrer le théorème, il suffit de montrer que c’est le cas pour un
système (S 0 ) obtenu après une seule opération élémentaire, pour chacun des trois types d’opé-
rations élémentaires différentes. En effet, la transitivité de l’équivalence de systèmes permet
ensuite de conclure pour un système (S 0 ) obtenu par opérations élémentaires successives.
94 Chapitre 5. Matrices et systèmes linéaires

Pour cela, il suffit de voir que, pour tout (x 1 , ..., x n ) ∈ Kn :


½ ½
a i ,1 x 1 + ··· + a i ,n x n = bi a j ,1 x 1 + ··· + a j ,n x n = bj
(i) ⇔
a j ,1 x 1 + ··· + a j ,n x n = bj a i ,1 x 1 + ··· + a i ,n x n = bi

(ii) a i ,1 x 1 + ··· + a i ,n x n = b i ⇔ α(a i ,1 x 1 + ··· + a i ,n x n ) = αb i


½
a i ,1 x 1 + ··· + a i ,n x n = bi
(iii)
a j ,1 x 1 + ··· + a j ,n x n = bj

(a i ,1 + βa j ,1 )x 1 + · · · + (a i ,n + βa j ,n )x n = b i + βb j
½

a j ,1 x 1 + ··· + a j ,n x n = bj

C’est facile à voir, puisque pour chacune de ces opérations, on a une opération inverse : Li ↔ L j ,
Li ← α1 Li et Li ← Li − βL j . ■

R En combinant les deux derniers types d’opérations élémentaires, on obtient une opération
Li ← αLi + βL j où α 6= 0 et i 6= j qui transforme (S) en un système linéaire équivalent.

R Les opérations peuvent être réalisées sur les systèmes comme sur les écritures matricielles
associées aux systèmes. On se concentrera principalement sur les écritures matricielles.

5.3.3 Méthode du pivot de Gauss


Définition 5.3.6 — Matrice échelonnée, système échelonné. Soit A = a i , j 1≤i ≤m ∈ M m, n(K).
¡ ¢
1≤ j ≤n
On dit que A est échelonnée si, pour tout k ∈ ‚1, mƒ, dès que les k premiers éléments d’une
ligne sont nuls, les k + 1 premiers éléments des lignes suivantes sonts nuls. Un système est
dit échelonné si sa matrice associée est échelonnée.

Exercice 5.12 Entourer les matrices échelonnées.

1 2 0 0 1 2 0 0 1 2 0 0 1 2 0 0
       
0 2 0 0 0 2 0 0 0 0 0 1  0 0 0 0 
0 0 0 1 0 2 0 1 0 0 2 1 0 0 0 0

Théorème 5.3.3 — Pivot de Gauss. Tout système linéaire est équivalent à un système éche-
lonné.

Démonstration. On se ramène au cas des matrices échelonnées et on montre le résultat par


récurrence sur le nombre de lignes de ces matrices.
- Pour m = 1, il s’agit d’une matrice à une seule ligne et elle est déjà échelonnée.
- On suppose le résultat vrai pour un certain m ≤ 1 et on considère une matrice A à m + 1
lignes et n colonnes. On a alors trois cas distincts.

i ,1 a
CAS 1 : a 1,1 6= 0. Dans ce cas, les opérations successives Li ← Li − a1,1 L1 pour tout 2 ≤ i ≤ m
0
transforme la matrice A en une matrice A dont tous les coefficients de la première colonne,
excepté a 1,1 sont nuls :
5.3 Systèmes linéaires 95

   
a 1,1 a 1,2 ··· a 1,n a 1,1 a 1,2 ··· a 1,n
 L ←L − a2,1 L 0 0
a 2,2 0
a 1,n  L ←L − a3,1 L
a 2,1 a 2,2 ··· a 1,n ···
 
  2 2 a1,1 1   3 3 a1,1 1
 .. .. ..  −−−−−−−−−−→  .. .. ..  −−−−−−−−−−→ · · ·
. . . . . .
   
   
a m+1,1 a m+1,2 ··· a m+1,n a m+1,1 a m+1,2 ··· a m+1,n
 
a 1,1 a 1,2 ··· a 1,n
a 0 0
Lm+1 ←Lm+1 − m+1,1 L1  0 a 2,2 ··· a 1,n
 
a 1,1 
· · · −−−−−−−−−−−−−−−→  .  . . 
 .. .. .. 

0 0
0 a m+1,2 · · · a m+1,n
 
0 0
a 2,2 ··· a 1,n
 . .. 
La matrice A0 = 
 .. .  possède m lignes, on peut donc lui appliquer l’hypothèse

0 0
a m+1,2 · · · a m+1,n
de récurrence, ce qui permet de conclure.

CAS 2 : a 1,1 = 0 et il existe 2 ≤ i ≤ m tel que a i ,1 6= 0. Dans ce cas, on fait l’opération L1 ↔ Li et on


se ramène au premier cas.

CAS 3 : a i ,1 = 0 pour tout 1 ≤ i ≤ m. Alors, si A n’est pas la matrice nulle, on considère la


première colonne C j dont un des coefficients est non nul et on se retrouve dans le même type
de configurations que précédemment en ignorant les j − 1 colonnes nulles de la matrice. Si A est
la matrice nulle, il n’y a rien à faire puisqu’elle est déjà échelonnée. ■

R La méthode détaillée dans la démonstration qui permet d’aboutir à un système échelonné


est connue comme la méthode du pivot de Gauss. C’est un algorithme que vous pourrez
voir en informatique.

Exercice 5.13 Pour chacun des systèmes suivants, donner un système échelonné équivalent.
 
 2x + 2y − z = 5 2x + 6y − z = 5
(S 1 ) : −3x + 3y + 7z = 7 (S 2 ) : x + 3y + 7z = 7
 
x + 3y + 2z = 4 x + 3y + 2z = 4


 x − y + z − t= 1

3x − 2y + z = 5
(S 3 ) :
2x + 2y
 − 6z + 3t = 3
+ 2t = α

 3y − 6z

96 Chapitre 5. Matrices et systèmes linéaires
5.3 Systèmes linéaires 97

5.3.4 Résolution d’un système échelonné


Théorème 5.3.4 — Résolution d’un système échelonné. Soient (S) un système linéaire
échelonné, A la matrice associée à (S) et r ∈ ‚0, mƒ le nombre de lignes non nulles de A. Alors
(S) est résoluble si, et seulement si, b i = 0 pour tout r + 1 ≤ i ≤ m. Si (S) est résoluble alors
S s’exprime comme un ensemble à n − r paramètres. En particulier, si n = r , le système (S)
possède une unique solution.

Démonstration. Cette démonstration est admise pour le moment, en voici l’idée générale. Si
b i 6= 0 pour un i ∈ ‚r + 1, mƒ alors le système n’est pas résoluble et S = ;. Si b i = 0 pour tout
r + 1 ≤ i ≤ m, alors le système est équivalent au système consistant uniquement des r premières
lignes de (S). On résoud ce système en cascade, en partant par le bas et la droite. Les r variables
x j , j correspondant à l’indice du premier terme non nul pour chacune des lignes du système,
sont exprimées en fonction des n − r variables restantes x j 0 et que l’on nomme paramètres. ■

Exercice 5.14 Résoudre les systèmes de l’exercice précédent. ■


98 Chapitre 5. Matrices et systèmes linéaires

5.3.5 Système de Cramer


Définition 5.3.7 — Système de Cramer. Soit (S) un sytème linéaire avec les mêmes nota-
tions que précédemment. On dit que (S) est de Cramer si m = n et que la matrice associée A
est inversible.

Théorème 5.3.5 — Existence et unicité de la solution. Soit (S) : AX = B un système de


Cramer. Alors (S) possède une unique solution et X = A−1 B.

Démonstration. Si (S) est de Cramer alors A est inversible et on a A(A−1 B) = In B = B d’où A−1 B
est solution du système. De plus, si X est une solution du système, on a A−1 (B) = A−1 (AX) = In X =
X. ■

Théorème 5.3.6 — Inversibilité d’une matrice. Soit A une matrice de Mn (K). A est inver-
sible si, et seulement si, pour tout Y ∈ Mn,1 , le système AX = Y possède une unique solution.

Démonstration. L’implication directe correspond au théorème précédent. Pour montrer la


réciproque, il suffit de considérer Y = Ei comme dans le théorème qui suit. ■

Théorème 5.3.7 — Inversion de matrice. Soit A une matrice une matrice inversible de
GLn (K) alors la i -ème colonne de A−1 est donnée par la solution du système (S i ) : AX = Ei où
Ei ∈ Mn,1 (K) et tous ses coefficients sont nuls, excepté celui de sa i -ème ligne qui vaut 1.

Démonstration. Il suffit de regarder le produit AA−1 = In et de remarquer que les colonnes de In


sont les Ei . ■

En pratique, on trouve l’inverse d’une matrice A en faisant la résolution simultanée de tous


ces systèmes. Considérer un système AX = In , où X est une matrice inconnue de dimension
n × n, revient à considérer simultanément n systèmes AX i = Ei ou X i est une matrice colonne
inconnue de taille n × 1. On commence donc par faire des opérations sur le système AX = In
jusqu’à obtenir un système échelonné équivalent A0 X = B0 . Si ce système n’est pas résoluble
alors la matrice n’est pas inversible, sinon la matrice est inversible. Dans ce cas, on continue les
opérations jusqu’à obtenir un système équivalent In X = B00 . Mais cela signifie que l’on a trouvé
une solution X = B00 et donc que A−1 = B00 .

AX = In ⇔ · · · ⇔ A0 X = B0 ⇔ · · · ⇔ In X = B00 donc A−1 = B00 .

Propriété 5.3.8 Soit A une matrice triangulaire supérieure alors A est inversible si, et seulement
si, tous ses coefficients diagonaux sont non nuls.

Démonstration. Si tous les coefficients diagonaux de A sont non nuls, alors A est échelonnée
et l’on se situe dans le cas n = r du théorème de résolution d’un système échelonné. Si un des
coefficients diagonaux est nul, alors on peut se ramener à un systèmé échelonné pour lequel
n − r ≥ 1. Dans les deux cas, on conclut via le théorème d’inversibilité. ■

Propriété 5.3.9 Soit A = Diag(λ1 , ..., λn ) une matrice diagonale, alors A est inversible si, et seule-
ment si, chacun de ses termes diagonaux est non nul et dans ce cas A−1 = Diag( λ1 , ..., λ1 ).
1 n

Démonstration. L’inversibilité est un corollaire du résultat précédent. On vérifie la formule en


utilisation la propriété de multiplication de matrices diagonales. ■
5.3 Systèmes linéaires 99

Exercice 5.15 Montrer que les matrices suivantes sont inversibles et déterminer leurs in-
verses.
     
2 3 −1 1 5 −2 2 1 3 0 0 0
4 7 2 4 6 −2 3 0 0 −2 0 0
A= B= C=
     
2 6 3 2 0 0 1 2 0 0 1 0
  
1 1 0 1 0 0 −1 1 0 0 0 4

6. Nombres complexes et polynômes

6.1 Nombres complexes


L’ensemble des nombres complexes est un ensemble de nombres que vous avez déjà rencon-
tré au lycée. Comme il s’agit de rappels, on ne rentre pas trop dans le formalisme. La construction
de C n’est pas détaillée.

6.1.1 Rappels sur les fonctions trigonométriques


On considère la représentation suivante du cercle trigonométrique C de centre O et de
rayon 1 dans le plan (muni d’un repère orthonormé direct). Chaque point M du cercle C peut
être associé à un angle θ dont la valeur en radian (dans [0, 2π[) correspond à la longueur de l’arc
partant du point O au point M, et réciproquement.

Le cosinus de l’angle θ est l’abscisse du point M, le sinus de l’angle θ est l’ordonnée du


point M. La tangente de l’angle θ est l’ordonnée du point M0 , intersection de la droite (OM) avec
la droite ∆ d’équation x = 1. Comme il n’y a pas d’intersection entre pour les angles θ = π2 et
θ = − π2 , la tangente de ces angles n’est pas définie.

y
1

tan(θ) M0
sin(θ) M

θ x
−1 O cos(θ) 1

C ∆

−1

Les fonctions cosinus, sinus et tangente sont ensuite prolongées sur tout R par 2π-périodicité.
102 Chapitre 6. Nombres complexes et polynômes

Représentation graphique de cosinus


y

x
0 π
− 3π −π − π2 π
2
3π 2π
2 2

−1

Représentation graphique de sinus


y

x
0 π
− 3π −π − π2 π
2
3π 2π
2 2

−1

Représentation graphique de tangente


y

x
0 π
− 3π −π − π2 π
2
3π 2π
2 2

−1

Quelques formules (à connaître parfaitement)

cos2 (θ) + sin2 (θ) = 1 (rien d’autre que le théorème de Pythagore !)


sin(θ)
tan(θ) = (rien d’autre que le théorème de Thalès !)
cos(θ)
6.1 Nombres complexes 103

cos(−θ) = cos(θ) (cosinus est paire.)


sin(−θ) = − sin(θ) (sinus est impaire.)
sin(a + b) = sin(a) cos(b) + cos(a) sin(b)
cos(a + b) = cos(a) cos(b) − sin(a) sin(b)
Une bonne partie des autres égalités classiques peuvent se déduire de ses quatres égalités,
par exemple cos(2a) = cos(a + a) = cos2 (a) − sin2 (a) = cos2 (a) − (1 − cos2 (a)) = 2 cos2 (a) − 1.

Valeurs remarquables (à connaître parfaitement)


y

(0, 1)
³ p ´ ³ p ´
− 12 , 23 1
2, 2
3

³ p p ´ ³p p ´
− 22 , 22 π
2
2 , 2
2
2
2π π
³ p ´ 3 3 ³p ´
− 23 , 12 3π
90◦
π 3 1
2 ,2
4 4
120◦ 60◦
5π π
6 6

150◦ 30◦

(−1, 0) (1, 0)
π 180◦ 0◦ ◦
360 2π x

210◦ 330◦
7π 11π
6 6
³ p 240◦ 300◦ ³p
5π 7π
270◦
´ ´
− 23 , − 12 4 4
3 1
2 ,− 2
4π 5π
3 3
³ p p ´ 3π ³p p ´
− 22 , − 22 2 2
2 ,− 2
2

³ p ´ ³ p ´
− 12 , − 23 1
2 ,− 2
3

(0, −1)

6.1.2 Forme algébrique d’un nombre complexe


Pour ce qui concerne ce cours, un nombre complexe est un nombre de la forme x + i y où x
et y sont réels et i est un nombre, non réel, tel que i 2 = −1.

Théorème 6.1.1 — Forme algébrique. Tout nombre complexe z ∈ C s’écrit de manière


unique sous la forme z = x + i y où x et y sont des réels. On appelle forme algébrique de z
cette écriture. L’unicité de cette forme permet de définir deux applications ℜ et ℑ de C dans R,
appelées partie réelle et partie imaginaire, telles que ∀z ∈ C, z = ℜ(z) + i ℑ(z).

Propriété 6.1.2 — R-linéarité de ℜ et ℑ. Pour tout z, z 0 ∈ C et λ ∈ R :


(i) ℜ(z + z 0 ) = ℜ(z) + Re(z 0 )
(ii) ℑ(z + z 0 ) = ℑ(z) + Im(z 0 )
(iii) ℜ(λz) = λℜ(z)
(iv) ℑ(λz) = λℑ(z)
104 Chapitre 6. Nombres complexes et polynômes

R On parle de R-linéarité parce que cela fonctionne uniquement lorsque l’on considère un
scalaire λ réel.

Définition 6.1.1 — Représentation graphique d’un nombre complexe. La représenta-


tion graphique d’un nombre complexe z = x +i y, où (x, y) ∈ R2 , est le point de coordonnées
cartésiennes (x, y) dans le plan (muni d’un repère orthonormé direct).

ℑ{z}
y z = x +i y

−1 1 ℜ{z}
x

−i

6.1.3 Conjugué d’un nombre complexe


Définition 6.1.2 — Conjugué. Soit z = x + i y ∈ C, un nombre complexe sous sa forme algé-
brique. On note z et on appelle nombre complexe conjugué de z le nombre complexe défini
par z = x − i y.

Propriété 6.1.3 — Règles de calcul. Soient z, z 0 ∈ C. On a les propositions suivantes :

(i) z=z
(ii) z + z0 = z + z0
(iii) zz 0 = zz 0
µ ¶
1 1
(iv) Si z 6= 0, =
z z
Démonstration. C’est direct, il suffit de passer aux formes algébriques. ■

R De (ii) et (iii), on peut déduire la R-linéarité de z 7→ z, i.e. ∀z, z 0 ∈ C, ∀λ ∈ R, z + λz 0 = z +λz 0 .

6.1.4 Module d’un nombre complexe


Définition 6.1.3 — Module. Soit z = x + i y ∈ C, un nombre complexe
p sous sa forme algé-
brique. On définit le module de z, noté |z|, le réel positif |z| = x 2 + y 2 .

Propriété 6.1.4 — Règles de calcul. Soient z, z 0 ∈ C. On a les propositions suivantes :


(i) |z|2 = zz
(ii) |z| = | − z| = |z|
(iii) |zz 0 | = |z||z
¯ ¯|
0
¯1¯ 1
(iv) Si z 6= 0, ¯¯ ¯¯ =
z |z|
(v) z = 0 ⇔ |z| = 0
Démonstration. Encore une fois, il suffit de poser z = x+i y, z 0 = x 0 +i y 0 et de faire les calculs. ■

R On peut se débarasser d’un nombre complexe au dénominateur d’une fraction en multi-


z z
pliant en haute et en bas par son complexe conjugué : 1z = zz = |z| .
6.1 Nombres complexes 105

6.1.5 Forme exponentielle d’un nombre complexe


Définition 6.1.4 — Exponentielle complexe. On pose e i θ = cos(θ) + i sin(θ) pour tout θ ∈ R.
π
En particulier, e i 2 = i .

R La forme exponentielle se justifie pour de nombreuses raisons. On remarque, entre autres,


que la formule e i a + e i b = e i (a+b) est bien vérifiée. En effet, (cos(a) + i sin(a))(cos(b) +
i sin(b)) = cos(a) cos(b)−sin(a) sin(b)+i (sin(a) cos(b)+cos(a) sin(b)) = cos(a+b)+i sin(a+
b). D’ailleurs, cette égalité permet de retrouver rapidement ses formules de trigo oubliées !

Théorème 6.1.5 — Forme exponentielle principale. Tout nombre complexe non nul, z ∈
C∗ , s’écrit de manière unique sous la forme z = ρe i θ où ρ ∈ R+ et θ ∈ [0, 2π[.

Démonstration. On remarque d’abord que si z = ρe i θ alors |z|2 = zz = ρ2 d’où ρ = |z|. Mainte-


nant, si z = x + i y est la forme algébrique de z, alors il suffit de poser ρ = |z|. On remarque alors
y
que ( xρ , ρ ) appartient au cercle trigonométrique et il existe un unique θ dans [0, 2π[ correspon-
dant. ■

Il y a unicité de la forme exponentielle principale. Si z = ρe i θ avec ρ > 0 et θ ∈ [0, 2π[ alors,


d’après la démonstration du résultat précédent, ρ = |z| et θ est unique, on l’appelle l’argument
principal de z. Toutefois, il n’y a pas unicité de l’écriture exponentielle de manière générale.
Si z = ρe i θ est la forme exponentielle principale de z alors, on a également z = ρe i (θ+2kπ) pour
tout k ∈ Z et on appelle argument de z n’importe quelle valeur θk = θ + 2kπ. On peut également
écrire z = −ρe i (θ+(2k+1)π) pour tout k ∈ Z, mais on ne parle pas alors d’argument du nombre
complexe z.
Propriété 6.1.6 — Identité d’Euler.
1 + eiπ = 0 .

R Cette identité est connue comme étant la formule la plus concise comportant les 5 nombres
les plus importants de l’analyse complexe : 0, 1, e, i et π !

6.1.6 Retour à la trigonométrie


Propriété 6.1.7 — Cosinus et sinus. Soit θ ∈ R alors on a :

e i θ + e −i θ e i θ − e −i θ
cos(θ) = et sin(θ) = .
2 2i
e i θ +e −i θ
Démonstration. On a 2 = cos(θ)+i sin(θ)+(cos(θ)−i
2
sin(θ))
= 2 cos(θ)
2 = cos(θ) et, de manière ana-
e i θ −e −i θ cos(θ)+i sin(θ)−(cos(θ)−i sin(θ)) 2i sin(θ)
logue, 2i = 2i = 2i = sin(θ). ■

Théorème 6.1.8 — Formule de Moivre. Soit θ ∈ R et n ∈ Z, alors :

(cos(θ) + i sin(θ))n = cos(nθ) + i sin(nθ) .


¡ ¢n
Démonstration. (cos(θ) + i sin(θ))n = e i θ = e i nθ = cos(nθ) + i sin(nθ). ■

R On peut exprimer cos(nθ) = ℜ ((cos(θ) + i sin(θ))n ) et sin(nθ) = ℑ ((cos(θ) + i sin(θ))n ) en


fonction de cos(θ) et sin(θ) en développant la puissance via le binôme de Newton.
106 Chapitre 6. Nombres complexes et polynômes

On peut également utiliser ces formules pour linéariser des expressions trigonométriques
(i.e. écrire un produit de fonctions trigonométriques en somme de fonctions trigonométriques).
³ i x −i x ´2 ³ i x −i x ´3
2 3 e +e e −e
■ Exemple 6.1 On cherche à linéariser f (x) = cos (x) sin (x). On a f (x) = .
2 2i
e 2i x +1+e −2i x )(e 3i x −3e i x +3e −i x −e −3i x i (e 5i x −2e i 3x +e i x −e −i x +2e −3i x −e −5i x ) − sin(5x)+2 sin(3x)−sin(x)
f (x) = 4×8i 3
= 32 = 16 . ■

La formule qui suit n’est pas à connaître par cœur, mais sa démonstration doit être connue.
Propriété 6.1.9 — Angle moitié. Soit θ ∈ R, on a :

θ iθ
µ ¶

1+e = 2 cos e 2 .
2
θ θ θ θ θ θ θ θ
³ ´
θ
Démonstration. 1 + e i θ = e 0 + e i θ = e i 2 −i 2 + e i 2 +i 2 = e i 2 (e −i 2 + e i 2 ) = 2 cos 2 ei 2 . ■

R La technique de l’angle moitié est souvent utilisée pour additionner deux complexes de
même module (et de même module seulement), en ramenant le problème à la propriété
via diverses manipulations, notamment, en factorisant.

6.1.7 Équations polynomiales du second degré


Théorème 6.1.10 — Racine d’un nombre complexe. Soient Z ∈ C et (E) l’équation définie
pour tout z ∈ C par z 2 = Z. Si Z = 0, (E) possède une unique solution z 0 = 0. Si Z = ρe i θ 6= 0
(avec ρ = |Z| et θ l’argument principal de Z), (E) possède exactement deux solutions distinctes
p θ p θ
z 1 = ρe i 2 et z 2 = − ρe i 2 .

Démonstration. Le cas Z = 0 est évident. Pour le cas Z 6= 0, on voit que z − Z2 = (z − z 1 )(z − z 2 ),


l’équation a donc bien exactement deux solutions z 1 et z 2 . ■

Théorème 6.1.11 — Racines complexes d’un polynôme complexe du second degré.


Soient a, b et c trois complexes avec a 6= 0 et (E) l’équation définie pour tout z ∈ C par
az 2 + bz + c = 0. On pose ∆ = b 2 − 4ac, le discriminant de l’équation. Si ∆ = 0, alors (E)
b
possède exactement une solution z 0 = − 2a . Si ∆ 6= 0, alors (E) possède exactement deux
−b+δ −b−δ
solutions distinctes z 1 = 2a et z 2 = 2a où δ est une racine de ∆.

³ ´ µ ³ ´2 ¶ ³ ´
2
b c b 2 b c b 2
Démonstration. az +bz +c = a z +2 2
az+ a = a (z + 2a ) − 2a + a = a (z + 2a ) − b 4a
−4ac
2 .
Le trinôme ramené ainsi à sa forme canonique, on voit que l’équation (E) est équivalente à
³ ´2 ³ ´2
b δ
z + 2a − 2a = 0, puis à (z − z 1 )(z − z 2 ) = 0. On obtient donc le résultat. ■

Corollaire 6.1.12 — Racines complexes d’un polynôme réel du second degré. Soient
a, b et c trois réels avec a 6= 0, (E) l’équation définie pour tout z ∈ C par az 2 + bz + c = 0
et ∆ = b 2 − 4ac, le discriminant de l’équation. Si ∆ > 0, alors (E) possède pexactement deux
p
∆ ∆
solutions complexes distinctes, toutes deux également réelles, z 1 = −b+
2a et z 2 = −b−
2a .
b
Si ∆ = 0, alors (E) possède exactement une solution complexe, également réelle, z 0 = − 2a .
Si ∆ < 0, alors
p
(E) possède
p
deux solutions complexes distinctes, non réelles et conjuguées,
−b+i −∆ −b−i −∆
z1 = 2a et z 2 = 2a .
6.1 Nombres complexes 107

6.1.8 Autres résolutions d’équations


Cette section regroupe différents exemples utiles de résolution d’équations. Il est plus
important ici de retenir la méthodologie que les résultats présentés.

Racines n -ièmes de l’unité


Soit n ∈ N, on s’intéresse aux solutions de l’équation (En ) définie pour tout z ∈ C par z n = 1.
Si z est une solution alors on pose z = ρe i θ la forme exponentielle principale de z et on a
ρn e i nθ = 1 = e i 0 . D’où ρ = 1 et nθ = 2kπ pour un certain k ∈ Z. Et comme θ ∈ [0, 2π[, on a
2ki π
k ∈ ‚0, n − 1ƒ. Réciproquement, e n est bien solution de (En ) pour tout k ∈ ‚0, n − 1ƒ. Ces
solutions sont appellées les racines n-ièmes de l’unité. En résumé :
2i π 2(n−1)i π
¡ n ¢ ³ n o´ ³ n 2ki π ¯ o´
z = 1 ⇔ z ∈ 1, e n , ..., e n ⇔ z ∈ e n ¯ k ∈ ‚0, n − 1ƒ .
¯

Cercle
Soit z 0 ∈ C et r ∈ R+ . On considère l’équation (C) définie pour tout z ∈ C par |z − z 0 | = r .
Alors z est solution de (C) si et seulement si z − z 0 = r e i θ avec θ ∈ R, soit z = z 0 + r e i θ avec θ ∈ R.
L’ensemble des solutions décrit alors un cercle, de rayon r et de centre z 0 . En résumé :

ℑ{z}

z0
i C

−1 1 ℜ{z}

−i

³ n ¯ o´
(|z − z 0 | = r ) ⇔ z ∈ z 0 + r e i θ ¯ θ ∈ R ⇔ (z ∈ C ) .
¯

Demi-droite
Soit z 0 ∈ C et θ ∈ R. On considère l’équation (D) définie pour tout z ∈ C par z−z 0
|z−z 0 | = e i θ . Alors
z est solution de (D) si et seulement si z − z 0 = ρe i θ avec ρ ∈ R∗+ , soit z = z 0 + ρe avec ρ ∈ R∗+ .

L’ensemble des solutions décrit alors une demi-droite, d’origine z 0 exclus et dont la direction est
donné par l’angle θ. En résumé :

ℑ{z}

ei θ
D z0
i

−1 1 ℜ{z}

−i

z − z0
µ ¶ ³ n ¯ o´

=e ⇔ z ∈ z 0 + ρe i θ ¯ ρ ∈ R∗+ ⇔ (z ∈ D) .
¯
|z − z 0 |
108 Chapitre 6. Nombres complexes et polynômes

6.2 Polynômes
Dans l’ensemble de ce chapitre, K désigne un ensemble de nombre qui peut-être Q, R ou C.

6.2.1 Définitions
Définition 6.2.1 — Polynôme. Soit P une application de K dans K. On dit que P est un
polynôme à coefficients dans K, s’il existe un entier n et un n + 1-uplet (a 0 , a 1 , ..., a n ) ∈ Kn+1
tels que :
n
∀x ∈ K, P(x) = a 0 + a 1 x + a 2 x 2 + ... + a n x n = ak x k .
X
k=0

Définition 6.2.2 — Ensemble des polynômes. L’ensemble des polynômes à coefficients


dans K est noté K[X], lu « K crochet X ».

K −→ K
Notation 6.1. Soit k ∈ N∗ , on note X k le polynôme X k : .
x 7−→ x k
K −→ K n
n ak Xk .
P
Plus généralement, le polynôme P : P k est noté
x 7−→ ak x k=0
k=0

Vocabulaire 6.1 Voici quelques éléments de vocabulaire usuel dans le contexte des polynômes :
— Le polynôme nul est l’application P = 0K[X] définie par ∀x ∈ K, P(x) = 0.
— Les polynômes constants sont les applications constantes définies par ∀x ∈ K, P(x) = a 0 ,
où a 0 ∈ K.
— Un monôme (resp. binôme, resp. trinôme) est un polynôme ayant exactement un (resp.
deux, resp. trois) coefficients non nuls.

6.2.2 Degré d’un polynôme


Théorème 6.2.1 — Unicité des coefficents. Soit P un polynôme à coefficients dans K. On
suppose qu’il existe deux entiers n et m, ainsi qu’un (n + 1)-uplet (a 0 , a 1 , ..., a n ) et un (m + 1)-
uplet (b 0 , b 1 , ..., b m ) tels que a n 6= 0, b m 6= 0 et :
n m
ak Xk = bk Xk .
X X
P=
k=0 k=0

Alors n = m, ∀k ∈ ‚0, nƒ, a k = b k .

Démonstration. Ce résultat est admis. Pour faire la démonstration, on peut se ramener au cas
où P est le polynôme nul, puis on le montre par récurrence sur n en dérivant P. ■

Définition 6.2.3 — Degré d’un polynôme. Soit P ∈ K[X] un polynôme non nul, le degré de
P, noté deg(P), est l’unique entier n tel qu’il existe un (n + 1)-uplet (a 0 , a 1 , ..., a n ) avec a n 6= 0
n
a k X k . a n X n est appelé le terme dominant de P et a n , le coefficient dominant.
P
tel que P =
k=0
Si a n = 1, on dit que P est unitaire.
Par convention, on pose deg(0K[X] ) = −∞.

Définition 6.2.4 — Ensemble Kn [X]. L’ensemble des polynômes à coefficients dans K de


degré inférieur ou égal à n est noté Kn [X].

■ Exemple 6.2 2X 3 est un monôme de degré 3 ; X 5 + 2X est un binôme unitaire de degré 5. ■


6.2 Polynômes 109

6.2.3 Opérations usuelles


Définition 6.2.5 — Opérations. Soient P et Q deux polynômes de K[X] et λ un élément de
K. Alors on peut définir les opérations suivantes sur les éléments de K[X].

(i) P + Q défini par ∀x ∈ K, (P + Q)(x) = P(x) + Q(x) . (addition)


(ii) P × Q défini par ∀x ∈ K, (P × Q)(x) = P(x) × Q(x) . (multiplication)
(iii) λP défini par ∀x ∈ K, (λP)(x) = λP(x) . (multiplication par un scalaire)
(iv) P ◦ Q défini par ∀x ∈ K, (P ◦ Q)(x) = P(Q(x)) . (composition)

n m
a k X k et Q = b k X k deux
P P
Théorème 6.2.2 — Opérations et coefficients. Soient P =
k=0 k=0
polynômes de K[X]. On pose, pour tout k > n, a k = 0 et, pour tout k > m, b k = 0. Alors on a les
formules suivantes pour les coefficients des polynômes obtenues après opérations :

¶ max(n,m)
n m
µ ¶ µ
k k
(a k + b k )X k .
P P P
(i) ak X + bk X =
k=0 k=0 k=0
 
 
n m n+m
µ ¶ µ ¶
k k
P P P  P  k
(ii) ak X × bk X = 
 ai b j 
X .
k=0 k=0 k=0  0≤i ≤n 
0≤ j ≤m
i + j =k
n n
µ ¶
λ ak Xk = λa k X k .
P P
(iii)
k=0 k=0

Démonstration. Il s’agit simplement d’appliquer les règles de calcul sur les sommes et de re-
grouper les termes par puissance de X. ■

Corollaire 6.2.3 — Opérations et degré. Soit (P, Q) ∈ K[X]2 . On a les propositions suivantes :

(i) deg(P + Q) ≤ max(deg(P), deg(Q)) .


(ii) En particulier, si deg(P) 6= deg(Q) alors deg(P + Q) = max(deg(P), deg(Q)) .
(iii) deg(P × Q) = deg(P) + deg(Q) .
(iv) Si P 6= 0K[X] et Q 6= 0K[X] , alors deg(P ◦ Q) = deg(P) × deg(Q) .

Démonstration. Ce résultat découle directement du théorème précédent, il suffit à chaque fois


de considérer le monôme de plus au degré dans les sommes et de vérifier s’il est non nul. ■

6.2.4 Division euclidienne de polynômes


Théorème 6.2.4 — Division euclidienne. Soient A et B deux polynômes de K[X] tels que
B 6= 0K[X] . Alors il existe un unique couple (Q, R) ∈ K[X]2 tel que :

A = B × Q + R et deg(R) < deg(B) .

Q est appelé le quotient de la division euclidienne de A par B et R le reste de la division


euclidienne de A par B.

Démonstration. La démonstration de ce théorème est admise. Elle peut s’obtenir sans trop de
difficultés par récurrence sur deg(A). ■
110 Chapitre 6. Nombres complexes et polynômes

R La division euclidienne pour les polynômes se pose comme la division euclidienne pour
les entiers, c’est-à-dire la division que vous avez appris au primaire !

Exercice 6.1 Effectuer la division euclidienne de 5X 4 + 8X 3 − 2X + 6 par −3X 2 + 7. ■

Définition 6.2.6 — Multiples, diviseurs. Soient A et B deux polynômes de K[X] avec B 6= 0K[X] .
On dit que A est un multiple de B, ou encore que B est un diviseur de A, si le reste de la
division euclidienne de A par B est nul.

Exercice 6.2 Déterminer l’ensembles des diviseurs et des multiples de X 2 +1 dans R[X], puis
dans C[X]. ■

6.2.5 Racines d’un polynôme


Définition 6.2.7 — Racine et multiplicité. Soit P ∈ K[X] et α ∈ K. On dit que α est une racine
de P si X −α est un diviseur de P. L’ordre de multiplicité d’une racine α de P est le plus grand
entier m tel que (X − α)m soit un diviseur de P.

Théorème 6.2.5 — Caractérisation de la racine. Soit P ∈ K[X] et α ∈ K. Alors :

α est racine de P ⇔ P(α) = 0 .

Démonstration. Si α est racine de P, alors il existe Q ∈ K[X] telle que P = (X − α)Q. On a donc
P(α) = (α − α)Q(α) = 0. Réciproquement, si α n’est pas racine de P, alors le reste R de la division
euclidienne par X−α de P est un polynôme non nul de degré strictement inférieur à deg(X−α) = 1.
On en déduit que R est un polynôme constant, non nul. Il s’en suit que P(α) = (α−α)Q(α)+R(α) =
R(α) 6= 0. ■

Corollaire 6.2.6 Soit P ∈ K[X], α ∈ K et m ∈ N. Alors α est racine d’ordre de multiplicité m de


P si et seulement si il existe Q ∈ K[X] tel que P = (X − α)m Q et Q(α) 6= 0.
6.2 Polynômes 111

Démonstration. On obtient facilement le résultat en supposant par l’absurde que Q(α) = 0, puis
en utilisant le théorème. ■

Corollaire 6.2.7 Soit P ∈ K[X] un polynôme de degré d , alors la somme des ordres de multi-
plicité des racines de P est inférieure ou égale à d .

Démonstration. Le résultat peut se montrer aisément par récurrence forte sur d . ■

Théorème 6.2.8 — Racine complexes de polynômes réels. Soit P ∈ R[X] ⊂ C[X]. Si α ∈ C\R
est une racine de P dans C[X] (par la R-linéarité de z 7→ z), alors α est une racine de P dans
C[X].

Démonstration. Il suffit de remarquer que si P est à coefficient réel, alors P(z) = P(z) pour tout
z ∈ C. Ainsi, P(α) = 0 ⇔ P(α) = 0. ■

6.2.6 Factorisation de polynômes


Théorème 6.2.9 — Théorème de d’Alembert-Gauss. Tout polynôme non constant de C[X]
admet au moins une racine.

Démonstration. Ce théorème est admis. Sa démonstration n’est, à ce niveau, pas triviale. ■

Corollaire 6.2.10 — Factorisation dans C[X] . Soit P ∈ C[X] tel que deg(P) = n > 1. Alors, on
peut écrire :
n r
P=λ (X − αk ) = λ (X − βk )mk
Y Y
k=1 k=1

où λ est le coefficient dominant de P, α1 , ..., αn sont les racines (non focrcément distinctes) de
P, et β1 , ..., βr sont les racines deux à deux distinctes de P avec m 1 , ..., m r leurs multiplicités
respectives (on a alors m 1 + m 2 + ... + m r = n).

Démonstration. On peut obtenir le résultat par récurrence, à partir du théorème. ■

R Factoriser un polynôme dans C[X], c’est l’écrire sous la forme ci-dessus. Factoriser un
polynôme dans R[X], c’est l’écrire sous la forme ci-dessous.

Théorème 6.2.11 — Factorisation dans R[X]. Soit P ∈ R[X] de degré n > 1. Alors, on peut
écrire : Ã !Ã !
r q
mk 2 nk
P=λ (X − αk ) (X + βk X + γk )
Y Y
k=1 k=1

où λ est le coefficient dominant de P, α1 , ..., αr sont les racines réelles distinctes de P avec
m 1 , ..., m r leurs multiplicités respectives, X 2 + βk X + γk sont des polynômes réels de dégré 2
sans racine réelle et n 1 , ..., n q des entiers tels que n = m 1 + m 2 + ... + m r + 2n 1 + 2n 2 + ... + 2n q .

Démonstration. Ce théorème se déduit du corollaire précédent et du théorème 6.2.8. Il suffit de


considèrer la factorisation dans C[X] du polynôme P. On regroupe tous les termes contenant les
racines réelles dans le produit de gauche, puis on constate que les racines complexes restantes de
P peuvent être associées deux à deux, avec leurs conjugués. Or (X−α)(X−α) = X 2 −(α+α)X+αα =
X 2 − 2ℜ(α)X + |α|2 ce qui est bien un polynôme réel de dégré 2 sans racine réelle. ■
112 Chapitre 6. Nombres complexes et polynômes

Corollaire 6.2.12 — Racine réelle d’un polynôme réel de degré impair. Tout polynôme
de R[X] de degré impair possède au moins une racine réelle.

Démonstration. On a n = r + 2q donc, si n est impair, r est nécessairement non nul. ■

Pour factoriser un polynôme, on peut chercher certaines de ses racines en utilisant les
moyens classiques (résolution d’une équation de degré 2, racines évidentes, changements de
variables, racines n-ièmes de l’unité,...). Si on trouve des racines, on aura alors un facteur de P et
on pourra faire la division euclidienne de P par ce facteur pour obtenir un polynôme de degré
inférieur. On réitère ensuite le processus sur ce nouveau polynôme. On remarque qu’il peut être
plus aisé, pour réaliser une factorisation dans R[X], de commencer par factoriser le polynôme
dans C[X].

Exercice 6.3 Factoriser les polynômes suivants dans R[X] :

A = X 3 − 2X 2 + 1 B = X6 + 1 C = X4 + X2 + 1 .


7. Introduction aux espaces vectoriels

Les espaces vectoriels sont des structures algébriques que l’on retrouve quasiment partout
en mathématiques et qui sont la structure de base en algèbre linéaire. Vous avez déjà rencontré
de nombreux espaces vectoriels en mathématiques, sans jamais les nommer ainsi. Le but de
ce court chapitre introductif est de vous permettre de reconnaître, en tant que tel, les espaces
vectoriels que vous connaissez déjà, ainsi que quelques objets mathématiques fondamentaux
de l’algèbre linéaire. Dans ce chapitre comme précédemment, K désigne l’ensemble R ou
l’ensemble C.

7.1 Espaces
7.1.1 Espaces vectoriels
Définition 7.1.1 — Espace vectoriel. Soient E un ensemble non vide et deux applications
« + » et « . », notées comme suit :

+: E × E −→ E . : K × E −→ E
et .
(x, y) 7−→ x + y (λ, x) 7−→ λ.x

Alors on dit que E, muni des lois « + » et « . », noté (E, +, .), est un K-espace vectoriel (ou
espace vectoriel sur K), si et seulement si on a les propositions suivantes :

(i +) ∀x, y, z ∈ E, (x + y) + z = x + (y + z) (Associativité de +)
(ii +) ∀x, y ∈ E, x + y = y + x (Commutativité de +)
(iii +) ∃0E ∈ E, ∀x ∈ E, x + 0E = 0E + x = x (Élément neutre pour +)
(iv +) ∀x ∈ E, ∃y ∈ E, x + y = y + x = 0E (Opposé pour +)
(i .) ∀λ, µ ∈ K, ∀x ∈ E, λ.(µ.x) = (λµ).x (Associativité de .)
(ii .) ∀x ∈ E, 1.x = x (Élément neutre pour .)
(i + .) ∀x, y ∈ E, ∀λ ∈ K, λ.(x + y) = λ.x + λ.y (Distributivité de . sur +)
(ii + .) ∀x ∈ E, ∀λ, µ ∈ K, (λ +K µ).x = λ.x + µ.x (Distributivité de +K sur .)
114 Chapitre 7. Introduction aux espaces vectoriels

Les éléments de E sont appelés des vecteurs. Les éléments de K sont appelés des scalaires.
La loi « + » est appellée loi d’addition interne (ou simplement l’addition vectorielle). La loi
« . » est appellée loi de multiplication externe (ou simplement multiplication scalaire).

R Lorsqu’il s’agit d’ensembles bien connus, on omet souvent de préciser les lois « + » et
« . » et on les fait correspondre aux lois usuellement associées à ces ensembles. On parle
alors simplement de l’espace vectoriel E plutôt que de l’espace vectoriel (E, +, .). C’est
notamment le cas pour les espaces de matrices, comme on le verra par la suite.

R On a ici noté +K pour différencier l’addition dans K de l’addition vectorielle. De manière


générale, on simplifie en notant toutes les additions +. De même, on simplifie souvent λ.x
en écrivant λx.

R Si K = R, on parle aussi d’espace vectoriel réel et, si K = C, d’espace vectoriel complexe.

Propriété 7.1.1 — Unicité de l’élément neutre. Soit (E, +, .) un K-espace vectoriel. Alors, il
n’existe qu’un seul élément 0E qui vérifie la propriété (iii +) de la définition.

Démonstration. On suppose qu’il existe deux éléments neutres pour l’addition vectorielle dans
E, que l’on appelle e et e 0 , i.e. pour tout x ∈ E, on a x +e = e +x = x et x +e 0 = e 0 +x = x. Mais ainsi,
en prenant successivement x = e puis x = e 0 , on obtient e + e 0 = e 0 + e = e = e 0 . D’où l’unicité de
l’élément neutre 0E . ■

Propriété 7.1.2 — Unicité de l’opposé. Soit (E, +, .) un K-espace vectoriel. Alors, pour chaque
vecteur x de E, il n’existe qu’un seul vecteur y dans E, tel que x + y = y + x = 0E

Démonstration. Soit x un vecteur de E. On suppose qu’il existe deux vecteurs y et y 0 tels que
x + y = y + x = 0E = x + y 0 = y 0 + x. Mais alors, y 0 = y 0 + 0E = y 0 + (x + y) = (y 0 + x) + y = 0E + y = y.
D’où l’unicité de l’opposé. ■

Propriété 7.1.3 — Produit de facteurs nuls. Soit (E, +, .) un K-espace vectoriel. On a les propo-
sitions suivantes :
(i) ∀x ∈ E, 0.x = 0E
(ii) ∀λ ∈ K, λ.0E = 0E
(iii) ∀λ ∈ K, ∀x ∈ E, [λ.x = 0E ⇔ (λ = 0) ∨ (x = 0E )]

Démonstration. Soit x un vecteur de E. On a x + 0.x = 1.x + 0.x = (1 + 0).x = 1.x = x par (ii .) et
(ii + .). De même, 0.x + x = x. Ainsi, 0.x est un élément neutre pour l’addition vectorielle et donc,
par unicité, 0.x = 0E .
Soit, de plus, λ ∈ K avec λ 6= 0. On a x = 1.x = λ.( λ1 .x) = λ.(0E + λ1 .x) = λ.0E + λ.( λ1 .x) =
λ.0E +1.x = λ.0E +x. On en déduit donc que λ.0E est un élément neutre pour l’addition vectorielle
et, comme précédemment, cela donne λ.0E = 0E .
On considère maintenant, x et λ tels que λ.x = 0E . Si λ 6= 0, alors on peut considérer λ1 . On a
donc x = 1.x = λ1 (λ.x) = λ1 (0E ) = 0E , ce qui permet de conlcure. ■

Exercice 7.1 Montrer que, pour tout vecteur x de E, l’opposé de x est égal à (−1).x. ■

R Ce résultat permet de définir la soustraction de deux vecteurs via x − y = x + (−1).y.


7.1 Espaces 115

Exercice 7.2 Montrer que l’ensemble Kn , muni des lois + et . définies comme suit, est un K
espace vectoriel.

+: Kn × Kn −→ Kn
¡ ¢
(x 1 , ..., x n ), (y 1 , ..., y n ) 7−→ (x 1 + y 1 , ..., x n + y n )

.: K × Kn −→ Kn
et .
(λ, (x 1 , ..., x n )) 7−→ (λx 1 , ..., λx n )

Exercice 7.3 Soient m et n deux entiers strictement positifs. On considère l’ensemble des
matrices de dimension m × n, Mm,n (K). Définir une structure de K-espace vectoriel sur
cet ensemble de la manière la plus naturelle possible. On s’appuiera sur les résultats des
chapitres précédents. Faire de même pour l’ensemble des polynômes à coefficient dans K,
K[X], puis pour l’ensemble des suites réelles RN . ■
116 Chapitre 7. Introduction aux espaces vectoriels

Exercice 7.4 Soit I ⊂ R. On rappelle que RI désigne l’ensemble des applications de I dans R.
Montrer que l’on peut munir RI d’une structure de R-espace vectoriel. ■

Exercice 7.5 Donner d’autres exemples d’espaces vectoriels (penser, entre autres, au « plus
petit » espace vectoriel possible). ■

7.1.2 Sous-espace vectoriel


Définition 7.1.2 — Sous-espace vectoriel. Soient (E, +, .) un K-espace vectoriel et F ⊂ E.
On dit que F est un sous-espace vectoriel de E (muni des lois + et .), si et seulement si les
propositions suivantes sont vérifiées :

(i) F 6= ; (F non vide)


(ii) ∀(x, y) ∈ F2 , x + y ∈ F (F stable pour +)
(iii) ∀λ ∈ K, ∀x ∈ F, λ.x ∈ F (F stable pour .)

On utilise très souvent l’abréviation sev pour parler de sous-espace vectoriel.

Théorème 7.1.4 Soient (E, +, .) est K-espace vectoriel et F un sev de E. Alors F, muni des
restrictions de + (à F × F) et . (à K × F), est un K-espace vectoriel.

Démonstration. On montre simplement les propositions (iii +) et (iv +) de la définition d’un


espace vectoriel, les autres se démontrent très directement. Pour (iii +), comme F 6= ;, il existe
x ∈ F et pour tout λ ∈ K, λ.x ∈ F. En particulier, 0E = 0.x ∈ F. Pour (iv +), pour tout x ∈ F, on a
−x = (−1).x ∈ F, or −x est l’opposé de x dans E, donc x en possède aussi un dans F (le même). ■
7.1 Espaces 117

Montrer qu’un ensemble est un sous-espace vectoriel est très souvent plus rapide que de
montrer qu’un ensemble est un espace vectoriel. Il n’y a en effet que trois propositions à vérifier
(et même que deux via les caractérisations qui suivent) contre huit pour un espace vectoriel. On
pourra donc montrer qu’un certain ensemble est un espace vectoriel, en montrant que c’est un
sous-espace vectoriel d’un espace vectoriel bien connu.

Théorème 7.1.5 — Caractéristation des sev. Soit (E, +, .) un K-ev et F ⊂ E. Alors F est un
sous-espace vectoriel de E si et seulement si :

(i) F 6= ;
(ii) ∀λ ∈ K, ∀x, y ∈ F, λ.x + y ∈ F

R On montre souvent que F 6= ; en montrant que 0E ∈ F. En effet, si F est un sev de E, alors


on a 0E ∈ F, puisque, si x ∈ F, x + (−1).x = 0E ∈ F.

Propriété 7.1.6 — Sous-espaces triviaux. Soit (E, +, .) un K-ev. Alors {0E } est un sev de E. De
même, E est un sev de E.

Exercice 7.6 Démontrer la propriété précédente. ■

Exercice 7.7 Montrer que F1 = (x, y) ∈ R2 ¯ x 2 + y 2 = 1 et F2 = Z2 ne sont pas des sous-


© ¯ ª

espaces vectoriels de R2 muni des lois usuelles. ■

Exercice 7.8 En utilisant les ensembles vus en cours, lister au moins 10 sev de Mn (K). Expli-
quer pourquoi, l’ensemble GLn (K) des matrices inversibles de dimension n × n n’appartient
pas à cette liste. ■
118 Chapitre 7. Introduction aux espaces vectoriels

Exercice 7.9 Montrer que l’ensemble Kn [X] des polynômes à coefficients dans K de de-
gré inférieur ou égal à n est un sev de K[X] mais que l’ensemble des polynômes de degré
exactement n n’est pas un sev de K[X]. ■

Exercice 7.10 Montrer que l’ensemble des suites réelles bornées est un sev de l’ensemble
des suites réelles. Puis que l’ensemble des suites réelles qui convergent vers l ∈ R est un sev
de l’ensemble des suites bornées si et seulement si l = 0. ■

Théorème 7.1.7 — Intersection de sev. Soient (E, +, .) un K-ev, F et G deux sev de E. Alors
F ∩ G est un sev de E.

Démonstration. Comme F et G sont des sev de E, on a 0E ∈ F et 0E ∈ G, d’où 0E ∈ F∩G et F∩G 6= ;.


De plus ∀λ ∈ K, ∀x, y ∈ F ∩ G, x, y ∈ F, donc λ.x + y ∈ F, de même, x, y ∈ G, donc λ.x + y ∈ G, d’où
λ.x + y ∈ F ∩ G. ■

R Attention, cela ne fonctionne pas avec l’union ! F ∪ G n’est en général PAS un sev de E. Un
résultat classique énonce même que ce ne peut être le cas que si l’un des deux sev est
contenu dans l’autre (i.e. F ⊂ G ou G ⊂ F).

Corollaire 7.1.8 — Solution d’un système linéaire homogène. L’ensemble des solutions
d’un système linéaire homogène à coefficients dans K et à m équations et n inconnues est
un sous-espace vectoriel de Kn .

Démonstration. Il suffit de montrer le résultat pour un système homogène à une équation. On


obtient ensuite le résultat par récurrence via le théorème sur l’intersection de deux sous-espaces
vectoriels.
Soit F = (x 1 , ..., x n ) ∈ Kn | a 1 x 1 + ... + a n x n = 0 où a 1 , ..., a n sont des éléments de K. D’abord,
© ª

on a bien 0Kn = (0, .., 0) ∈ F. Ensuite, si λ ∈ K, (x 1 , ..., x n ) ∈ F et (y 1 , ..., y n ) ∈ F alors a 1 (λx 1 + y 1 ) +


... + a n (λx n + y n ) = λ(a 1 x 1 + ... + a n x n ) + (a 1 y 1 + ... + a n y n ) = 0, ce qui démontre le résultat. ■

7.2 Familles de vecteurs


Dans la section qui suit, E désigne un K-ev (dont les lois sont sous-entendues). On s’intéresse
aux familles finies de vecteurs de E, i.e. les p-uplets (v 1 , ..., v p ) de vecteurs de E. Bien qu’il soit
possible de parler de familles infinies, elles sont mises de côté ici : lorsqu’il est écrit « famille de
vecteurs de E », il est sous-entendu « famille finie de vecteurs de E ».
7.2 Familles de vecteurs 119

7.2.1 Combinaison linéaire


Définition 7.2.1 — Combinaison linéaire. Soient F = (v 1 , ..., v p ) une famille de vecteurs de
E et x un vecteur de E. Alors, on dit que x est une combinaison linéaire des vecteurs de F si
et seulement si :
p
∃(λ1 , ..., λp ) ∈ Kp , x = λk .v k .
X
k=1

■Exemple 7.1 Soient v 1 = (1, 2, 3), v 2 = (−1, 0, 1) et v 3 = (1, 6, 11) des vecteurs de R3 . Alors v 3 est
une combinaison linéaire de v 1 et v 2 . En effet, v 3 = 3.v 1 + 2.v 2 . ■

Théorème 7.2.1 — Sous-espace vectoriel engendré par une famille. Soit F = (v 1 , ..., v p )
une famille de vecteurs de E. Alors, l’ensemble des combinaisons linéaires des vecteurs de F
¡ ¢
est un sev de E, noté V ECT (F ) ou V ECT v 1 , ..., v p :
( ¯ )
p ¯
λk .v k ∈ E ¯ ∀k ∈ ‚1, pƒ, λk ∈ K .
¡ ¢ X
V ECT (F ) = V ECT v 1 , ..., v p =
¯
k=1
¯

p
λk .v k est toujours bien défini dans E par la définition d’un espace
P
R On peut voir que
k=1
vectoriel.

p p p
0.v k et, par linéarité de la somme, λ( λk .v k ) + µk .v k =
P P P
Démonstration. On a 0E =
k=1 k=1 k=1
p
(λλk + µk ).v k quelque soit λ, λ1 , ..., λp , µ1 , ..., µp ∈ K, ce qui démontre le théorème.
P

k=1

Exercice 7.11 Vérifier que Kn = V ECT (e 1 , ..., e n ) où e i = (0, ..., 0, 1, 0, ..., 0) pour tout i ∈ ‚1, nƒ.

i -ème position
µ ¶
De même, vérifier que Kn [X] = V ECT 1, X, X 2 , ..., X n et que Mm,n (K) = V ECT Ei , j 1≤i ≤m où,
¡ ¢ ¡ ¢
1≤ j ≤n
pour tout i , j ∈ ‚1, mƒ × ‚1, nƒ, Ei , j est la matrice de taille m, n dont tous les coefficients sont
nuls sauf le coefficient d’indice i , j qui vaut 1 (appelées les matrices élémentaires). ■
120 Chapitre 7. Introduction aux espaces vectoriels

Exercice 7.12 Pour chacun des systèmes linéaires de l’exercice 5.14 du cours, exprimer
l’ensemble des solutions du système linéaire homogène associé en tant que sous-espace
vectoriel engendré par une famille. ■

Théorème 7.2.2 — Plus petit sev contenant F . Soit F = (v 1 , ..., v p ) une famille de vecteurs
de E. Alors V ECT (F ) est le plus petit sev de E contenant F , i.e. :

(i) ∀i ∈ ‚1, pƒ, v i ∈ V ECT (F ),


(ii) si F est un sev de E tel que ∀i ∈ ‚1, pƒ, v i ∈ F, alors V ECT (F ) ⊆ F.

Démonstration. On obtient facilement le premier point en prenant tous les λi nuls sauf un égal
à 1. De plus, si tous les v i appartiennent à un même sev F de E, alors, par la définition d’un sev et
une récurrence immédiate, toute combinaison linéaire des v i est dans F, d’où V ECT (F ) ⊆ F. ■

¡ ¢
Corollaire 7.2.3 Soit v 1 , ..., v p , v p+1 une famille de vecteurs de E. Alors, on a :

¡ ¢ ¡ ¢
(i) V ECT v 1 , ..., v p ⊂ V ECT v 1 , ..., v p , v p+1 .
(ii) Si v p+1 est une combinaison linéaire des autres v i , alors :
¡ ¢ ¡ ¢
V ECT v 1 , ..., v p = V ECT v 1 , ..., v p , v p+1 .
¡ ¢ ¡ ¢
En particulier, V ECT v 1 , ..., v p = V ECT v 1 , ..., v p , 0E .
Si λ 6= 0, alors V ECT v 1 , ..., v p = V ECT v 1 , ..., λ.v p
¡ ¢ ¡ ¢
(iii)
p−1
µ ¶
Si λ1 , ..., λp−1 ∈ K, alors V ECT v 1 , ..., v p = V ECT v 1 , ..., v p + λk .v k .
¡ ¢ P
(iv)
¢ k=1 ¡
Si σ est une permutation de ‚1, nƒ, alors V ECT v 1 , ..., v p = V ECT v σ(1) , ..., v σ(p) .
¡ ¢
(v)

Démonstration. Il s’agit pour chacun de ces points d’une conséquence assez directe du théo-
rème précédent et on laisse leurs démonstrations à faire en entraînement. ■

7.2.2 Famille génératrice, famille libre


Définition 7.2.2 — Famille génératrice. Soit F une famille de vecteurs de E. Alors on dit
que F est une famille génératrice de E, ou que E est engendré par F , si et seulement si :

E = V ECT (F ) .
7.2 Familles de vecteurs 121

R Le corollaire 7.2.3 montre que toutes les sur-familles d’une famille génératrice sont géné-
ratrices et permet de déterminer des sous-familles génératrices d’une famille génératrice.

■ Exemple 7.2 Soient v 1 = (1, 1, 1), v 2 = (1, 1, 0) et v 3 = (0, 1, 1). Alors (v 1 , v 2 , v 3 ) est génératrice
de R3 . En effet, tout vecteur (x, y, z) de R3 s’écrit comme combinaison linéaire de v 1 , v 2 et v 3 , via
(x, y, z) = (y − z).v 1 + (x − y + z).v 2 + (y − x).v 3 . ■

R Dans l’exercice 7.11, vous avez montré que chacune des familles considérées est une
famille génératrice de l’espace vectoriel qui la contient.

Définition 7.2.3 — Famille libre. Soit F = (v 1 , ..., v p ) une famille de vecteurs de E. On dit
que F est libre si et seulement si :
"Ã ! #
p
∀λ1 , ..., λp ∈ K, λk .v k = 0E ⇒ λ1 = ... = λp = 0 .
X ¡ ¢
k=1

On dit que F est liée si et seulement si elle n’est pas libre.

Exercice 7.13 Quantifier le fait qu’une famille F soit liée. ■

Exercice 7.14 Montrer que chacune des familles de l’exercie 7.11 est libre. ■

Définition 7.2.4 — Colinéarité. Soit v 1 et v 2 deux vecteurs de E. On dit que v 1 et v 2 sont


colinéaires s’il existe λ ∈ K tel que v 1 = λv 2 ou v 2 = λv 1 .

Théorème 7.2.4 — Cas p = 1 et p = 2. Soit v 1 et v 2 deux vecteurs de E. Alors :

(i) (v 1 ) est libre si et seulement si v 1 6= 0E .


(ii) (v 1 , v 2 ) est libre si et seulement si v 1 et v 2 ne sont pas colinéaires.

Démonstration. La démonstration est directe et laissée en exercice d’entraînement. ■

Théorème 7.2.5 — Sous-famille d’une famille libre. Toute sous-famille d’une famille libre
est libre.

Démonstration. On considère une famille libre de vecteurs de E, F = (v 1 , ..., v p+1 ). Soit λ1 , ..., λp ∈
p p+1
K tels que λk .v k = 0. Alors, en posant λp+1 = 0, on a λk .v k = 0. Mais, comme F est libre,
P P
k=1 k=1
λ1 = ... = λp = λp+1 = 0, ce qui montre bien que (v 1 , ..., v p ) est libre. ■
122 Chapitre 7. Introduction aux espaces vectoriels

Corollaire 7.2.6 — Sur-famille d’une famille liée. Toute sur-famille d’une famille liée est
liée.

Démonstration. Soit F une famille liée. On suppose qu’elle possède une sur-famille F 0 libre.
Mais F est une sous-famille de F 0 , elle est donc libre par le théorème précédent, ce qui est
contradictoire avec le fait qu’elle soit liée. On a donc bien montré que toute sur-famille de F est
nécessairement liée. ■

Théorème 7.2.7 — Extension d’une famille libre. Soit (v 1 , ..., v p ) une famille libre de vec-
teurs de E et v p+1 un vecteur de E. Alors, on a :
¡ ¢
(v 1 , ..., v p , v p+1 ) est une famille libre si et seulement si v p+1 ∉ V ECT v 1 , ..., v p .

Démonstration. On montre le résultat en passant par la contraposée.


p
Si v p+1 ∈ V ECT v 1 , ..., v p alors il existe λ1 , ..., λp tels que v p+1 = λk .v k . En posant λp+1 =
¡ ¢ P
k=1
p+1
λk .v k = 0E et v 1 , ..., v p , v p+1 est liée.
P ¡ ¢
−1, on obtient
k=1
Réciproquement, si v 1 , ..., v p , v p+1 est liée, il existe λ1 , ..., λp , λp+1 , non tous nuls, tels que
¡ ¢
p+1 p
λk .v k = 0E . Si λp+1 = 0 alors, on a λk .v k = 0E . Ainsi, comme (v 1 , ..., v p ) est libre, tous les
P P
k=1 k=1
λk
λk sont nuls, ce qui est contradictoire. On a donc λp+1 6= 0. Mais alors, on peut poser µk = λp+1
p
µk .v k ∈ V ECT v 1 , ..., v p .
P ¡ ¢
pour tout k et on obtient v p+1 = ■
k=1

7.2.3 Base
Définition 7.2.5 — Base. Soit B = (b 1 , ..., b n ) une famille de vecteurs de E. On dit que B est
une base de E si et seulement si B est libre et génératrice de E.

R Les espaces vectoriels usuels possèdent généralement des bases usuelles que l’on appelle
bases canoniques. Pouvez-vous deviner ce que sont les bases canoniques de Kn , Kn [X]
ou encore Mm,n (K) ?

Théorème 7.2.8 — Coordonnées dans une base. Soit B = (b 1 , ..., b n ) une famille de vec-
teurs de E. Alors, les propositions suivantes sont équivalentes :

(i) B est une base de E.


n
∀x ∈ E, ∃!(λ1 , ..., λn ) ∈ Kn , x = λk .b k .
P
(ii)
k=1

Dans ce cas, les scalaires λ1 , ..., λn sont appelés les coordonnées de x dans la base B.

Démonstration. Si B est une base, alors B est génératrice. On a donc pour tout x ∈ E, λ1 , ..., λn ∈
n n n n
K tels que x = λk .b k . Soient µ1 , ..., µn ∈ K tels que x = µk .b k . Alors, λk .b k − µk .b k =
P P P P
k=1 k=1 k=1 k=1
n
(λk − µk ).b k = 0E . Comme B est libre, cela donne λk = µk pour tout k. On a bien montré
P
k=1
l’existence et l’unicité.
Réciproquement, l’existence des λk montre que tout x de E est une combinaison linéaire des
vecteurs de B, donc E ⊂ V ECT (B), puis E = V ECT (B). B est donc bien une famille génératrice
7.2 Familles de vecteurs 123

de E. L’unicité de cette décomposition, appliquée en x = 0E , montre que B est libre, puisque


n
P
0E = 0.b k . ■
k=1

Théorème 7.2.9 — Dimension finie. Si E admet une base B = (b 1 , ..., b n ) alors toute base de
E est composée d’exactement n vecteurs.

Démonstration. Soient B = (b 1 , ..., b n ) et B 0 = (b 10 , ..., b m


0
) deux bases de E. Il suffit de montrer
que B et B ont même nombre d’éléments.
0

Comme B est une base de E, par le théorème précédent, il existe des uniques scalaires a i , j ,
n
définis pour tout (i , j ) ∈ ‚1, mƒ × ‚1, nƒ, tels que b i0 =
P
a i , j b j pour tout i ∈ ‚1, mƒ. On considère
j =1
la matrice A = a i , j 1≤i ≤m ∈ Mm,n (K). Soit x ∈ E, en décomposant x dans les bases B et B 0
¡ ¢
1≤ j ≤n à !
n m m n n m
µ ¶
λj b j = µi b i =
0
µi µi a i , j b j .
P P P P P P
via le théorème précédent, on a x = ai , j b j =
j =1 i =1 i =1 j =1 j =1 i =1
m
Puis, par unicité des coordonnées dans la base B, λ j = µi a i , j pour tout j ∈ ‚1, nƒ. En posant
P
Ãλ ! Ã µ1 ! i =1
1

Λ = ... et M = ... , cela est équivalent à t AM = Λ. Or, l’unicité des coordonnées dans chacune
λn µm
des bases, donnée par le théorème précédent, permet alors de dire que pour tout Λ, le système
t
AX = Λ possède une unique solution. Comme cela a été vu dans le cours sur les systèmes
linéaires, cela signifie que le système est de Cramer. On a donc n = m et t A est inversible (ce qui
est aussi équivalent à A inversible). ■

R Dans ce cas, on dit que E est de dimension finie n. Les espaces vectoriels de dimension
finie feront l’objet d’un prochain chapitre.
8. Fonctions continues

On s’intéresse dans ce chapitre à la notion de continuité pour les fonctions réelles d’une
variable réelle. La notion de continuité peut aussi être définie dans un cadre plus général et
porter sur d’autres types de fonctions. Vous pourrez découvrir cela en deuxième année pour les
fonctions réelles de plusieurs variables réelles.

En attendant, toutes les fonctions considérées seront des fonctions définies sur un intervalle
I de R et à valeurs dans R. On rappelle que l’ensemble des fonctions définies de I dans R est
identifé à l’ensemble RI des applications de I dans R.

8.1 Limite et continuité d’une fonction en un point


8.1.1 Intervalles de R - Rappels
Définition 8.1.1 — Intervalle. Soient a et b deux réels tels que a ≤ b. Alors, les ensembles
suivants sont appellés des intervalles de R :

(i) ]a, b[ = {x ∈ R | a < x < b}.


(ii) ]a, b] = {x ∈ R | a < x ≤ b}.
(iii) [a, b[ = {x ∈ R | a ≤ x < b}.
(iv) [a, b] = {x ∈ R | a ≤ x ≤ b}.

L’intervalle ]a, b[ est appelé intervalle ouvert, l’intervalle [a, b] est appelé intervalle fermé,
l’intervalle ]a, b] est dit ouvert à gauche, fermé à droite, et l’intervalle [a, b[ est dit ouvert
à droite, fermé à gauche. Les réels a et b sont appelées les extrémités ou bornes de l’inter-
valle. Dans le cas d’un intervalle ouvert à droite (resp. à gauche), on généralise la notion en
admettant également le cas b = +∞ (resp. a = −∞).

Définition 8.1.2 — Intérieur d’un intervalle. Soient a ≤ b deux réels et I un intervalle de



bornes a et b. On définit l’intérieur de I, noté I, comme étant l’intervalle ouvert :

I=]a, b[ .
126 Chapitre 8. Fonctions continues

8.1.2 Limite d’une fonction en un point et en l’infini


Définition 8.1.3 — Limite d’une fonction en un point. Soient I un intervalle non vide de R
et f ∈ RI . Soient x 0 un élément de I ou une extrémité (finie) de I et l un nombre réel. On dit
que f possède une limite l en x 0 si et seulement si on a la proposition suivante :

|x − x 0 | ≤ η ⇒ | f (x) − l | ≤ ε .
£¡ ¢ ¡ ¢¤
∀ε > 0, ∃η > 0, ∀x ∈ I,

R En se rappelant la relation entre distance séparant deux points et valeur absolue, on


remarque que la proposition donnée peut aussi s’écrire :

∀ε > 0, ∃η > 0, ∀x ∈ I ∩ [x 0 − η, x 0 + η], f (x) ∈ [l − ε, l + ε] .

Théorème 8.1.1 — Unicité de la limite. Soient I, f et x 0 comme dans la définition précé-


dente. Si f possède une limite l ∈ R en x 0 , alors l est unique.

Démonstration. On suppose que l et l 0 sont limites de f . Alors on a ∀ε > 0, ∃η, η0 > 0, ∀x ∈


I, |x − x 0 | ≤ η ⇒ | f (x) − l | ≤ ε et |x − x 0 | ≤ η0 ⇒ | f (x) − l 0 | ≤ ε . En posant, η00 = min(η, η0 ),
£¡ ¢ ¡ ¢¤ £¡ ¢ ¡ ¢¤

on obtient donc ∀ε > 0, ∃η00 > 0, ∀x ∈ I, |x − x 0 | ≤ η00 ⇒ | f (x) − l 0 | ≤ ε et | f (x) − l | ≤ ε . Comme


£¡ ¢ ¡ ¢¤

I est non vide, il existe bien un x tel que |x − x 0 | ≤ η00 , mais alors on a |l − l 0 | = |l − x − (l 0 − x)| ≤
|l − x| + |l 0 − x| ≤ 2². Ceci étant vrai pour tout ² > 0, on obtient bien que |l − l 0 | = 0, d’où l = l 0 . ■

Définition 8.1.4 — Limite à gauche, limite à droite. Soient I, f et x 0 comme précédemment.


On dit que f possède une limite à gauche en x 0 si la restriction de f à ] − ∞, x 0 [∩I possède
une limite en x 0 . On dit que f possède une limite à droite en x 0 si la restriction de f à
]x 0 , +∞[∩I possède une limite en x 0 .

Exercice 8.1 Déterminer les limites à gauche et à droite de la fonction partie entière en 0. ■

Définition 8.1.5 — Limite d’une fonction en un point en dehors de D f . Soient I un inter-



valle de R d’intérieur non vide et x 0 ∈I. Soit f une application de I \ {x 0 } dans R. Alors, on dit
que f possède une limite en x 0 si on a la proposition suivante :

|x − x 0 | ≤ η ⇒ | f (x) − l | ≤ ε .
£¡ ¢ ¡ ¢¤
∀ε > 0, ∃η > 0, ∀x ∈ I \ {x 0 },

Exercice 8.2 Montrer que la limite en 0 de l’application f définie comme suit est égale à 0 :

f : R∗ −→ R µ ¶
1 .
x 7−→ x sin
x

8.1 Limite et continuité d’une fonction en un point 127

Définition 8.1.6 — Limite en ±∞. Soient I un intervalle de R dont l’extrémité droite est égale
à +∞, f ∈ RI et l ∈ R. On dit que f tend vers la limite l en +∞ si et seulement si on a la
proposition suivante :

∀² > 0, ∃A ∈ R, ∀x ∈ I, (x ≥ A) ⇒ | f (x) − l | ≤ ε .
£ ¡ ¢¤

De même, on dit que f tend vers la limite l en −∞ si et seulement si on a la proposition


suivante :

∀² > 0, ∃A ∈ R, ∀x ∈ I, (x ≤ A) ⇒ | f (x) − l | ≤ ε .
£ ¡ ¢¤

1
Exercice 8.3 Montrer que la limite en +∞ de la fonction définie sur R+∗ par x 7→ est égale
x
à 0. ■

Définition 8.1.7 — Limite infinie. Soient I un intervalle de R, x 0 un élément ou une extrémité


(finie) de I et f une fonction définie sur I \ {x 0 }. Alors on dit que f possède une limite infinie
positive en x 0 si on a la proposition suivante :

∀M ∈ R, ∃η > 0, ∀x ∈ I, |x − x 0 | ≤ η ⇒ f (x) ≥ M .
£¡ ¢ ¡ ¢¤

De même, on dit que f possède une limite infinie négative en x 0 si on a la proposition


suivante :

∀m ∈ R, ∃η > 0, ∀x ∈ I, |x − x 0 | ≤ η ⇒ f (x) ≤ m .
£¡ ¢ ¡ ¢¤

R On généralise aussi ces notions aux limites en ±∞. Par exemple, si f tend vers −∞ en +∞
cela signifie que :

∀m ∈ R, ∃A ∈ R, ∀x ∈ I, (x ≥ A) ⇒ f (x) ≤ m .
£ ¡ ¢¤

Exercice 8.4 Soit f une fonction définie de R∗ dans R+∗ , telle que f tende vers +∞ en 0.
1
Montrer que l’on peut définir une fonction g = sur R+∗ et que g tend vers 0 en 0. ■
f

R On note lim f (x) pour la limite de f en x 0 , lorsque f est bien définie en x 0 et que x 0
x→x 0
est inclus de la définition comme en 8.1.3. On note lim f (x) lorsque x 0 est exclus de
x→x 0
x6=x 0
la défintion comme en 8.1.5. Pour les limites à gauche et à droite, on note lim f (x) et
x→x 0
x<x 0
lim f (x) respectivement.
x→x 0
x>x 0
128 Chapitre 8. Fonctions continues

8.1.3 Opérations sur les limites


Théorème 8.1.2 — Opérations algébriques. Soient I un intervalle de R et x 0 un élément ou
une extrémité de I. Soient f et g deux fonctions définies sur I et λ ∈ R un scalaire. On suppose
que f et g possèdent des limites finies en x 0 . Alors on a les propostions suivantes :

(i) f +g possède une limite en x 0 et lim f (x) + g (x) = lim f (x) + lim g (x).
x→x 0 x→x 0 x→x 0
(ii) f ×g possède une limite en x 0 et lim f (x) × g (x) = lim f (x) × lim g (x).
x→x 0 x→x 0 x→x 0
(iii) λf possède une limite en x 0 et lim λ f (x) = λ lim f (x).
x→x 0 x→x 0

Exercice 8.5 Retrouver, dans le cours sur les suites, un théorème similaire à ce théorème.
En déduire une démonstration du théorème. ■

R Les résultas précédents ont été énoncés dans le cas de limites finies. Ils demeurent vrais
dans le cas de limites infinies, à condition que les formes obtenues ne soient pas indéter-
minées.

Exercice 8.6 Énoncer un résultat similaire pour l’inverse puis le quotient de deux limites. ■

8.1.4 Limites et inégalités


Exercice 8.7 Retrouver dans le cours des suites une section homonyme et s’en inspirer pour
rédiger cette section. ■
8.1 Limite et continuité d’une fonction en un point 129
130 Chapitre 8. Fonctions continues

8.1.5 Composition de limites


Théorème 8.1.3 — Composition de limites. Soient f une fonction réelle définie sur un
intervalle I et g une fonction définie sur un intervalle J. Soient x 0 ∈ I, y 0 ∈ J et l ∈ R tels que
lim f (x) = y 0 et lim g (y) = l . Alors, g ◦ f possède une limite en x 0 et on a lim (g ◦ f )(x) = l .
x→x 0 y→y 0 x→x 0

Démonstration. Soit ε > 0. Comme g tend vers la limite l en y 0 , il existe un η > 0, tel que pour
tout y ∈ J, |y − y 0 | ≤ η implique |g (y) − l | ≤ ε. On considère un tel η > 0. Mais comme f tend vers
la limite y 0 en x 0 , il existe un µ > 0, tel que pour tout x ∈ I, |x − x 0 | ≤ µ implique | f (x) − y 0 | ≤ η, et
par transitivité |g ( f (x)) − l | ≤ ε. ■

R Le théorème a été éoncé et démontré dans le cas d’une limite finie en un point. Le résultat
se généralise aisément aux cas des limites en l’infini et des limites infinies.

Exercice 8.8 Le théorème 4.3.6 du chapitre sur les suites affirme que si f est une fonction
d’un intervalle I dans R, tendant vers une limite y en x ∈ I, et u une suite d’éléments de I,
convergeant vers x, alors la suite f (u) converge vers y. Démontrer ce résultat. ■

8.1.6 Continuité en un point


Définition 8.1.8 — Continuité d’une fonction réelle en un point. Soient I un intervalle de
R, x 0 ∈ I et f une fonction définie sur I. On dit que f est continue en x 0 si f possède une
limite finie en x 0 et que lim f (x) = f (x 0 ).
x→x 0

Propriété 8.1.4 — Caractérisation de la continuité en un point. Soit I, x et f comme précé-


demment. Les propositions suivantes sont équivalentes :
(i) f est continue en x 0 .
(ii) lim f (x) existe et est égale à f (x 0 ).
x→x 0
x6=x 0
(iii) lim f (x) et lim f (x) existent et sont égales à f (x 0 ).
x→x 0 x→x 0
x>x 0 x<x 0

R La caractérisation précédente peut être utilisée pour montrer qu’une fonction est continue
ou, au contraire, discontinue en un point x 0 ∈ R.

Exercice 8.9 Donner un exemple de fonction discontinue définie sur R telle que :
1. lim f (x) existe mais n’est pas égale à f (x 0 ).
x→x 0
x6=x 0

2. lim f (x) et lim f (x) existent mais ne sont pas égales.


x→x 0 x→x 0
x>x 0 x<x 0
8.2 Continuité d’une fonction sur un intervalle 131

3. Ni lim f (x), ni lim f (x) n’existent.


x→x 0 x→x 0
x>x 0 x<x 0

Définition 8.1.9 — Prolongement par continuité. Soient I un intervalle de R, x 0 ∈ I et f


une fonction définie sur I \ {x 0 }. Si lim f (x) existe et égal à un réel l alors, on définit le
x→x 0
x6=x 0
prolongement par continuité de f en x 0 , g , comme suit :

g: I −→ R
½
f (x) si x 6= x 0 .
x 7−→
l si x = x 0

Exercice 8.10 Quel est le prolongement par continuité sur R de la fonction f définie par :

f : R∗ −→ R µ ¶
1 .
x 7−→ x sin
x

8.2 Continuité d’une fonction sur un intervalle


8.2.1 Propriétés globales des fonctions réelles - Rappels
Les propriétés globales d’une fonction f sont des propriétés de la forme ∀x ∈ D f , P(x),
c’est-à-dire qu’elles correspondent chacune à une proposition dépendant de x qui est vraie en
tout point de l’ensemble de définition de f . On parle également de propriétés locales d’une
fonction f lorsqu’elle est de la forme ∀x ∈ I, P(x), où I est un intervalle ouvert non vide contenu
dans D f . Une propriété globale est donc, a fortiori, une propriété locale, mais le contraire n’est
pas toujours vrai.

Exercice 8.11 Soit f une fonction réelle définie sur un ensemble D f . Quantifier la propriété
globale : f est croissante. Donner, ensuite, sa négation, puis faire de même avec décroissante,
monotone, minorée, majorée, bornée, paire, impaire et périodique. ■
132 Chapitre 8. Fonctions continues

Théorème 8.2.1 — Limite monotone. Soient I =]a, b[ un intervalle ouvert non vide de R
(avec −∞ ≤ a < b ≤ +∞) et f une fonction monotone définie sur I. Alors, en tout point x de I,
f possède une limite finie à droite et une limite finie à gauche.
De plus, f possède des limites, finies ou infinies, en a et en b. Plus précisément si f est
croissante (resp. décroissante) alors f possède une limite finie ou infinie négative en a (resp.
finie ou infinie positive en a) et une limite finie ou infinie positive en b (resp. finie ou infinie
négative en b).

Démonstration. On traite le cas f croissante, le cas f décroissante s’en déduit alors en posant
g = − f et en remarquant que g est ¯croissante.
Soit x 0 ∈ I. On définit Gx0 = f (x) ¯ x ∈ I et x < x 0 . Gx0 est une partie de R majorée par f (x 0 )
© ª

car f est croissante et donc pour tout x ∈ I, x < x 0 implique f (x) ≤ f (x 0 ). Elle est non vide
puisque I est ouvert et donc il existe un x dans I tel que x < x 0 . Ainsi, par le théorème de la borne
supérieure, Gx0 possède une borne supérieure. On appelle g x0 cette borne. On va montrer que f
possède une limite à gauche en x 0 et que lim f (x) = g x0 .
x→x 0
x<x 0
Soit ε > 0. Comme g x0 est la borne supérieure de Gx0 , il existe y 1 ∈ Gx0 tel que g x0 − ε ≤ y 1 ≤ g x0 .
Donc, il existe x 1 ∈ I avec x 1 < x 0 tel que y 1 = f (x 1 ). Mais comme f est croissante, pour tout
x ∈ [x 1 , x 0 [, g x0 − ε ≤ y 1 ≤ f (x) ≤ g x0 . Ainsi, g x0 − x 1 fournit un η qui convient pour la définition
de la limite à gauche, et on a bien le résultat ¯ souhaité.
© ª
De même, on peut définir Dx0 = f (x) x ∈ I et x > x 0 et montrer que f possède une limite à
¯
droite en x 0 qui est la borne inférieure de Dx0 .
Pour la¯ limite en a et en b, on procède de manière analogue en différenciant les cas où J =
© ª
f (x) x ∈ I est minorée ou pas, puis majorée ou pas. Le détail de cette démonstration est
¯
laissée en exercice. ■

8.2.2 Fonctions continues sur un intervalle


Définition 8.2.1 — Continuité d’une fonction réelle sur un intervalle. Soit f une fonction
définie sur un intervalle I de R. On dit que f est continue sur I si pour tout x ∈ I, f est continue
en x.

Définition 8.2.2 — Ensemble des fonctions réelles continues sur I. Soient I et J deux inter-
valles de R. L’ensemble des fonctions continues de I dans J est notée C(I, J) ou C0 (I, J).

R La notation C0 (I, J) prendra son sens dans le cours sur la dérivation et les fonctions déri-
vables.
8.2 Continuité d’une fonction sur un intervalle 133

Théorème 8.2.2 — Opérations algébriques. Soient I un intervalle, f et g deux fonctions de


C(I, R) et λ un réel. Alors, on a les propositions suivantes :

(i) λ. f + g est continue sur I. (C(I, R) est un R-ev)


(ii) f g est continue sur I. (Stabilité pour la multiplication interne)

Démonstration. Ce théorème est une conséquence directe du théorème 8.1.2 portant sur les
opérations algébriques pour les limites. ■

Exercice 8.12 Démontrer que toute fonction polynomiale est continue sur R. ■

Théorème 8.2.3 — Composition. Soient I et J deux intervalles de R, f ∈ C(I, J) et g ∈ C(J, R).


Alors g ◦ f ∈ C(I, R).

Démonstration. Ce théorème est une conséquence directe du théorème 8.1.3 portant sur la
composition de limites. ■

8.2.3 Fonctions continues par morceaux


Définition 8.2.3 — Subdivision d’un segment. Un segment est un intervalle borné, fermé
de R. Soit I = [a, b] un segment de R, une subdivision de I est un (n + 1)-uplet (a 0 , a 1 , ..., a n )
telle que a = a 0 < a 1 < ... < a n = b où n est un entier naturel.

Définition 8.2.4 — Continuité par morceaux. Soient f une fonction définie sur un segment
I = [a, b] de R. On dit que f est continue par morceaux sur I s’il existe un entier naturel n
et une subdivision (a 0 , a 1 , ..., a n ) de I telle que, pour tout i ∈ ‚0, n − 1ƒ, la restriction de f à
]a i , a i +1 [ est continue et admet un prolongement continu au segment [a i , a i +1 ].

R Les fonctions continues par morceaux sont importantes dans la définition de l’intégrale
de Riemann des fonctions réelles qui fera l’objet d’un prochain chapitre.

8.2.4 Théorème des valeurs intermédiaires


Théorème 8.2.4 — TVI. Soient I = [a, b] un intervalle de R et f une fonction continue sur I.
On pose c = min( f (a), f (b)) et d = max( f (a), f (b)). Alors, on a la proposition suivante :

∀y 0 ∈ [c, d ], ∃x 0 ∈ [a, b], f (x 0 ) = y 0 .

Autrement dit, tous les éléments entre f (a) et f (b) possède au moins un antécédent par f .

Démonstration. Soit y 0 ∈ [c, d ]. Si y 0 = c ou y 0 = d , le résultat est immédiat puisqu’il suffit de


prendre x 0 = a ou x 0 = b. On suppose¯ donc que y ∈]c, d [.
© ª 0
On considère l’ensemble A = x ∈ I ¯ f (x) ≤ y 0 . Cet ensemble est non vide puisque c ≤ y et on a
donc a ∈ A ou b ∈ A. De plus, il est majoré par b car c’est une partie de I. Ainsi, par le théorème
134 Chapitre 8. Fonctions continues

de la borne supérieure, il possède une borne supérieure. On appelle x 0 cette borne et on va


montrer par l’absurde que f (x 0 ) = y 0 .
Si f (x 0 ) est strictement inférieur à y 0 , alors il existe un ε > 0, tel que f (x 0 ) = y 0 − 2ε. Dans
ce cas, par la continuité de f , il existe η tel que pour tout x ∈ I, x ∈ [x 0 − η, x 0 + η] implique
f (x) ∈ [ f (x 0 ) − ε, f (x 0 ) + ε] = [y 0 − 3ε, y 0 − ε]. En particulier, on trouve des x plus grand que x 0
tels que f (x) ≤ y 0 , i.e. des éléments de A plus grand que x 0 . Ceci contredit le fait que x 0 soit la
borne supérieure de A.
Maintenant, si f (x 0 ) est strictement supérieur à y 0 , alors il existe un ε > 0, tel que f (x 0 ) = y 0 + 2ε.
Comme précédemment, par la continuité de f , il existe η tel que pour tout x ∈ I, x ∈ [x 0 −η, x 0 +η]
implique f (x) ∈ [ f (x 0 ) − ε, f (x 0 ) + ε] = [y 0 + ε, y 0 + 3ε]. Ainsi, aucun élément de [x 0 − η, x 0 + η]
n’est dans A. Mais comme x 0 est la borne supérieure de A, pour tout η > 0, il existe x 1 ∈ A tel que
x 0 − η ≤ x 1 ≤ x 0 . C’est donc une contradiction et on a bien f (x 0 ) = y 0 . ■

Corollaire 8.2.5 — Image d’un intervalle par une fonction continue. Soient ¯I un intervalle
de R et f une fonction continue sur I. Alors l’image de I par f (i.e. f (I) = f (x) ¯ x ∈ I ) est un
© ª

intervalle.

Démonstration. On pose J = f (I). On montre que J est un intervalle en montrant que si deux
éléments sont dans J, tous les nombres compris entre ces deux éléments sont aussi des éléments
de J. Soient y 0 et y 1 dans J, il existe x 0 et x 1 dans I tels que y 0 = f (x 0 ) et y 1 = f (x 1 ). En appliquant
le TVI à f restreint à l’intervalle compris entre x 0 et x 1 , on voit que tout élément entre y 0 et y 1
possède un antécédent par f et est donc un élément de J. J est donc bien un intervalle. ■

Corollaire 8.2.6 — Image d’un segment par une fonction continue. Soient I = [a, b] un
intervalle de R et f une fonction continue sur I. Alors l’image f (I) de I par f possède un
minimum et un maximum, m = min f (x) et M = max f (x), et f (I) = [m, M].
x∈I x∈I

Démonstration. Cette démonstration n’est pas au programme puisqu’elle utilise des résultats
sur les sous-suites qui n’y figurent pas. On pose J = f (I). Par le corollaire précédent, on sait que J
est un intervalle. On appelle m et M les extrémités, éventuellement infinies, de cet intervalle.
Comme J est un intervalle, il existe une suite (y n )n∈N d’éléments de J qui tendent vers M. Pour
chaque n ∈ N, on choisit un antécédent x n de y n . Ceci permet de définir une suite (x n )n∈N
d’éléments de I. Comme cette suite est bornée, on peut en extraire une sous-suite qui converge.
On appelle x la limite de cette suite et on a x ∈ I. Comme f est continue, on peut appliquer le
théorème de composition des limites et on obtient f (x) = M. On raisonne de même pour m ce
qui permet d’aboutir au résultat. ■

R Le résultat hors-programme de cette démonstration est le théorème de Bolzano-Weierstrass


qui dit que de toute suite réelle bornée on peut extraire une sous-suite qui converge.

8.2.5 Continuité et bijection


Théorème 8.2.7 — Théorème de la bijection monotone. Soit I un intervalle de R. Toute
fonction f définie, continue et strictement monotone sur I réalise une bijection de I sur f (I).
Sa fonction réciproque réalise une bijection de f (I) sur I, continue et de même monotonie
que f .
8.2 Continuité d’une fonction sur un intervalle 135

Démonstration. Comme f (I) est l’ensembles des images des éléments de I par f , tous les élé-
ments de f (I) ont au moins un antécédent dans I. f est donc surjective de I sur f (I).
De plus, comme f (I) est strictement monotone de I vers f (I), f est injective sur de I vers f (I). f
est donc bijective de I vers f (I).Comme f est bijective de I sur f (I), on peut définir sa bijection
réciproque f −1 de f (I) vers I.
On suppose que f est strictement croissante. Soit y 0 et y 1 dans f (I) tels que y 0 < y 1 . Comme
f est bijective, il existe un unique x 0 et un unique x 1 tels que y 0 = f (x 0 ) et y 1 = f (x 1 ) et x 0 6=
x 1 . Comme f est strictement croissante, si x 0 > x 1 , alors y 0 = f (x 0 ) > f (x 1 ) = y 1 , ce qui est
contradictoire. On a donc x 0 < x 1 . Or x 0 = f −1 (y 0 ) et x 1 = f −1 (y 1 ). Ainsi f −1 est bien strictement
croissante. De manière analogue, si f est strictement décroissante, on trouve f −1 strictement
décroissante.
Comme f −1 est strictement monotone, par le théorème de la limite monotone, f −1 possède
des limites à droite et à gauche en tout point. Si f −1 n’est pas continue en un point y, intérieur
à f (I), alors nécessairement sa limite à gauche x g en ce point est strictement inférieure à sa
limite à droite x d en ce point, et on a ]x g , x d [⊂ I. Mais dans ce cas, hormis f −1 (y), les éléments
de ]x g , x d [ ne peuvent pas avoir d’antécédents par f −1 , ce qui contredit le fait que f −1 est une
bijection de f (I) vers I. La fonction f −1 est donc continue en tout point intérieur de f (I). Si
les bornes de I sont incluses, on raisonne de manière similaire pour les extrémités de f (I), en
considérant les valeurs en les extrémités, ainsi que les limites à gauche et à droite selon que l’on
considère l’extrémité supérieure ou inférieure. ■

Représentation graphique
Le théorème de la bijection monotone peut permettre de dresser le tableau de variations
d’une fonction réciproque très rapidement. Mais, lorsqu’il s’agit de représenter graphiquement
une fonction, un tableau de variation ne suffit pas à lui seul. Pour cela, il est très facile de tracer
la représentation graphique d’une réciproque si l’on connait la représentation graphique de la
fonction. Elle s’obtient tout simplement par symétrie autour de l’axe d’équation y = x.

Exercice 8.13 Faire une représentation graphique de la fonction f : x 7→ x 3 pour x ∈ [−2, 2].
Après avoir justifié de l’existence de f −1 et rappelé son nom, tracer sa courbe représentative.

9. Dérivabilité et dérivation

On s’intéresse dans ce chapitre à la dérivabilité et la dérivation des fonctions réelles d’une


variable réelle. Tout comme la continuité, ces notions peuvent être définies dans un cadre plus
général et cela sera vu, en partie, en deuxième année, pour les fonctions réelles de plusieurs
variables réelles. Dans ce chapitre, on considère les fonctions réelles à valeurs dans R.

9.1 Dérivée en un point


9.1.1 Nombre dérivé
Définition 9.1.1 — Dérivabilité et nombre dérivé. Soit f une application d’un intervalle I de
f (x)− f (x 0 )
R dans R. Soit x 0 un point de l’intérieur de I. On dit que f est dérivable en x 0 si lim x−x
x→x 0 0
x6=x 0
existe et est finie. Dans ce cas, on appelle cette limite le nombre dérivé de f en x 0 (ou dérivée
de f en x 0 ) et on la note f 0 (x 0 ).

f (x )− f (x)
R La fraction x00 −x est le taux de variation de f entre x et x 0 . Le nombre dérivé est donc
la limite du taux de variation quand x tend vers x 0 .

f (x 0 + h)
f (x 0 )

x
x0 x0 + h
138 Chapitre 9. Dérivabilité et dérivation
f (x 0 )− f (x) f (x 0 +h)− f (x 0 )
R On utilise très souvent le changement de variable suivant : lim x 0 −x = lim h .
x→x 0 h→0
x6=x 0 h6=0

f (x 0 )− f (x) f (x 0 )− f (x)
R Lorsque l’on considère les limites lim x 0 −x et lim x 0 −x , on parle de dérivée à
x→x 0 x→x 0
x>x 0 x<x 0
droite et de dérivée à gauche.

Exercice 9.1 Montrer que la fonction f : x 7→ |x| possède une dérivée à gauche et à droite en
0 mais n’est pas dérivable en 0 (on dit alors que f possède un point anguleux en 0). ■

9.1.2 Développement limité


Théorème 9.1.1 — Développement limité d’ordre 1. Soient f une fonction réelle définie

sur un intervalle I de R et x 0 ∈ I. Alors, il y a équivalence entre les deux propositions suivantes :

(i) f est dérivable en x 0 .


(ii) Il existe un réel λ et une fonction réelle ε tels que
ε(x)
lim x−x = 0 et ∀x ∈ D f , f (x) = f (x 0 ) + λ(x − x 0 ) + ε(x).
x→x 0 0

Dans ce cas, λ = f 0 (x 0 ) et l’expression f (x) = f (x 0 ) + f 0 (x 0 )(x − x 0 ) + ε(x) est appelé le déve-


loppement limité d’ordre 1 (ou DL1 ) de f en x 0 .

ε(x) f (x)− f (x )
Démonstration. On suppose que (ii) est vrai. Alors x−x0 0 = λ + x−x 0
pour tout x 6= x 0 . Le
passage à la limite donne clairement que f est dérivable en x 0 et que f (x 0 ) = λ.
0
f (x)− f (x 0 )
Réciproquement, si f est dérivable en x 0 alors lim x−x 0 = f 0 (x 0 ). On définit une fonction
x→x 0
x6=x 0
f (x)− f (x )
réelle η via η(x) = x−x0 0 − f 0 (x 0 ). Alors η(x)(x − x 0 ) = f (x) − f (x 0 ) + f 0 (x 0 )(x − x 0 ). On a donc
f (x) = f (x 0 ) + f 0 (x 0 )(x − x 0 ) + η(x)(x − x 0 ). D’où, en posant, ε(x) = η(x)(x − x 0 ), on a bien le
résultat souhaité. ■

R Le développement limité d’ordre 1 permet de donner la tangente à la courbe représentative


de f en x 0 , il s’agit de la droite d’équation y = f (x 0 ) + f 0 (x 0 )(x − x 0 ).


Corollaire 9.1.2 Soient f une fonction réelle définie sur un intervalle I de R et x 0 ∈I. Si f est
dérivable en x 0 alors f est continue en x 0 .

Démonstration. Il suffit de passer à la limite dans l’expression f (x) = f (x 0 )+ f 0 (x 0 )(x − x 0 )+ε(x)


pour voir que la limite de f en x 0 est égale à f (x 0 ). ■
9.1 Dérivée en un point 139

9.1.3 Opérations et dérivées


Théorème 9.1.3 — Opérations usuelles et nombre dérivé. Soient f et g deux fonctions

réelles définies sur un intervalle I de R et x 0 ∈ I. On suppose que f et g sont dérivables en x 0 .
Alors, on a les propositions suivantes :

(i) λ f + g est dérivable en x 0 et (λ f + g )0 (x 0 ) = λ f 0 (x 0 ) + g 0 (x 0 ).


(ii) f g est dérivable en x 0 et ( f g )0 (x 0 ) = f 0 (x 0 )g (x 0 ) + g 0 (x 0 ) f (x 0 ).
µ ¶0
1 1 −g 0 (x 0 )
(iii) Si g (x 0 ) 6= 0 alors est dérivable et (x 0 ) = .
g µ g ¶0 g (x 0 )2
f f f 0 (x 0 )g (x 0 ) − g 0 (x 0 ) f (x 0 )
(iv) Si g (x 0 ) 6= 0 alors est dérivable et (x 0 ) = .
g g g (x 0 )2

Démonstration. On montre (ii) et (iii), les deux autres points sont laissés en exercice.
f (x 0 )g (x 0 )− f (x)g (x)
Pour (ii), on cherche à déterminer l’existence et la valeur de lim x 0 −x . Or,∀x ∈ I\{x 0 },
x→x 0
f (x 0 )g (x 0 )− f (x)g (x)
0 ( f (x )− f (x))g (x )+ f (x)(g (x )−g (x))
0 0 f (x )− f (x) g (x )−g (x)
x 0 −x = x 0 −x = x00 −x g (x 0 )+ f (x) x00 −x . Par passage la
limite, on obtient bien le résultat.
1/g (x 0 )−1/g (x)
Pour (iii), on considère lim x 0 −x . Comme g (x 0 ) est non nul et que g est continue en x 0
x→x 0
(puisque dérivable en x 0 ), g (x) est non nul dans un voisinage autour de x 0 (i.e. un intervalle
ouvert contenant x 0 ). On appelle J ce voisinage. La fraction est donc bien définie pour tout x ∈
1/g (x 0 )−1/g (x) g (x)−g (x ) g (x )−g (x)
J \ {x 0 } et on a x 0 −x = g (x0 )g (x)(x00−x) = − g (x01)g (x) x00 −x . D’où le résultat après passage à
la limite. ■

Exercice 9.2 Faire la démonstration de (i), puis de (iv) en utilisant (ii) et (iii). ■

Théorème 9.1.4 — Composition et nombre dérivé. Soient f une fonction réelle définie sur

un intervalle I de R et x 0 ∈ I. On pose y 0 = f (x 0 ). Soit g une fonction réelle définie sur un

intervalle J de R tel que y 0 ∈ J. On suppose que f est dérivable en x 0 et que g est dérivable en
¢0
y 0 alors g ◦ f est dérivable en x 0 et on a g ◦ f (x 0 ) = g 0 ◦ f (x 0 ) × f 0 (x 0 ) = g 0 f (x 0 ) × f 0 (x 0 ).
¡ ¡ ¢ ¡ ¢

g ( f (x 0 ))−g ( f (x))
Démonstration. On cherche à déterminer l’existence et la valeur de lim x 0 −x . Or, pour
x→x 0
g ( f (x 0 ))−g ( f (x)) g ( f (x 0 ))−g ( f (x)) f (x 0 )− f (x)
tout x 0 ∈ I \ {x 0 }, on a x 0 −x = f (x 0 )− f (x) x 0 −x . On obtient donc, par passage
g ( f (x 0 ))−g ( f (x)) g ( f (x 0 ))−g ( f (x)) f (x 0 )− f (x) g (y 0 )−g (y) 0
à la limite, lim x 0 −x = lim f (x 0 )− f (x) lim x 0 −x = lim y 0 −y f (x 0 ), où le
x→x 0 x→x 0 x→x 0 y→y 0
changement de variable est possible vu la continuité de f et l’existence de la dérivée de g en
y0. ■
140 Chapitre 9. Dérivabilité et dérivation

9.2 Fonction dérivée


9.2.1 Définitions
Définition 9.2.1 — Fonction dérivable, fonction dérivée. Soient I un intervalle de R et f
une fonction définie sur I. On dit que f est dérivable sur I si et seulement si elle est dérivable
en tout point de I. On appelle alors fonction dérivée de f (ou simplement dérivée de f ) la
fonction f 0 : I → R, x 7→ f 0 (x).


df
R De nombreuses écritures différentes sont utilisées pour la fonction dérivée : f 0 , D f , f , d x ,
... Ceci est dû au grand nombre de domaines différents qui utilisent les fonctions dérivées.

Définition 9.2.2 — Ensemble des fonctions dérivables. L’ensemble des fonctions déri-
vables d’un intervalle I dans R est noté D1 (I, R). L’ensemble des fonctions dérivables dont la
dérivée est continue sur I (aussi appelés fonctions de classe C1 ) est noté C1 (I, R).

R On a C1 (I, R) ( D1 (I, R) ( C0 (I, R). De plus, ce sont tous des sev de RR via les propriétés de
linéarité de la continuité et de la dérivabilité.

9.2.2 Dérivées usuelles


La plus part des formules concernant les dérivées des fonctions usuelles que vous connaissez
déjà sont admises pour le moment. En effet, il faudra attendre le cours du second semestre pour
pouvoir les démontrer.
n
a k X k une fonction polynôme, alors la
P
Théorème 9.2.1 — Fonction polynôme. Soit P =
k=0
n n−1
dérivée de P est une fonction polynôme et on a P 0 = ka k X k−1 = (k + 1)a k+1 X k .
P P
k=1 k=0

Ã
à ! ! à !
k k k−1
P k i k−i
k k i k−i k
Démonstration. Pour tout x ∈ R et h ∈ R, (x + h) − x =
P
x h −x = x h =
i =0 i i =0 i
à ! à à ! ! à !
k k k k k k
i −1 k−i +1 i −1 k−i (x+h)k −x k
x i −1 h k−i =
P P P
x h =h x h . Donc lim h = lim
i =1 i − 1 i =1 i − 1 h→0 h→0 i =1 i − 1

kx k−1 . Ainsi la dérivée de X k est égale à kX k−1 . Le résultat général se déduit ensuite par linéarité.

Exercice 9.3 Dresser un tableau de l’ensemble des dérivées usuelles à connaître. ■


9.2 Fonction dérivée 141

Théorème 9.2.2 — Fonction réciproque. Soit f une fonction réelle bijective définie sur un
intervalle ouvert I de R. On suppose que f est dérivable pour tout x ∈ I. Alors f −1 est dérivable
sur f (I) et on a :
¡ −1 ¢0 1
f = 0 −1 .
f ◦f

f −1 (y 0 )− f −1 (y) f −1 ( f (x 0 ))− f −1 ( f (x))


Démonstration. On a, pour tout y 0 ∈ f (I), lim y 0 −y = lim f (x 0 )− f (x) car tout in-
y→y 0 x→x 0
tervalle ouvert contenant y 0 dans f (I) est l’image d’un intervalle ouvert contenant x 0 = f −1 (y 0 )
f −1 (y 0 )− f −1 (y) x 0 −x 1 1
dans I. Mais alors lim y 0 −y = lim = f 0 (x 0 ) = f 0 ( f −1 (y 0 ))
qui est le résultat sou-
y→y 0 x→x 0 f (x 0 )− f (x)
haité. ■

Exercice 9.4 On considère les restrictions suivantes des fonctions trigonométriques : cosi-
nus sur [0, π], sinus sur [− π2 , π2 ] et tangente sur ] − π2 , π2 [. Après avoir justifié que ces fonctions
sont bijectives de leurs domaines de définition vers des intervalles à préciser, déterminer
l’ensemble de dérivabilité et les dérivées de leurs fonctions réciproques arccos, arcsin et
arctan. ■
142 Chapitre 9. Dérivabilité et dérivation

9.3 Dérivation et étude de fonctions


9.3.1 Dérivée et extremum
Théorème 9.3.1 — Condition nécessaire d’extremum local. Soient f une fonction déri-

vable sur un intervalle I de R et x 0 ∈ I. Si f admet un extremum local en x 0 , alors f 0 (x 0 ) = 0.

Démonstration. On suppose que f admet un maximum local en x 0 , le cas d’un minimum local
étant entièrement symétrique. Cela signifie qu’il existe un intervalle J autour de x 0 tel que ∀x ∈ J,
f (x )− f (x) f (x )− f (x)
f (x) < f (x 0 ). On en déduit que f (x 0 ) − f (x) > 0, puis que x00 −x > 0 si x < x 0 et x00 −x > 0
si x > x 0 . Comme f est dérivable en x 0 , sa dérivée à gauche existe en x 0 et est égal à sa dérivée
en x 0 . Par passage à la limite dans l’inégalité, on a donc f 0 (x 0 ) ≥ 0. De même, pour la dérivée à
droite, on obtient f 0 (x 0 ) ≤ 0. Cela donne finalement, f 0 (x 0 ) = 0. ■

R Cette condition est une condition nécessaire mais non suffisante, la dérivée de la fonction
x 7→ x 3 s’annule en 0, mais la fonction n’y admet pas d’extremum local.

R Géométriquement, ce théorème signifie que pour une fonction dérivable, la tangente à sa


courbe représentative au niveau d’un extremum local est horizontale.

Théorème 9.3.2 — Théorème de Rolle. Soit f une fonction réelle définie sur un segment
[a, b] de R. On suppose que f est continue sur [a, b], dérivable sur ]a, b[ et que f (a) = f (b).
Alors, il existe c ∈]a, b[ tel que f 0 (c) = 0.

Démonstration. Dans le cours sur la continuité, on a vu qu’une fonction continue sur un seg-
ment [a, b] atteignait son maximum et son minimum sur cet intervalle. Si f atteint son maximum
ou son minimum en un c ∈]a, b[ alors on conclut via le théorème précédent. Sinon, cela signifie
que f atteint son maximum et son minimum en les bornes de l’intervalle : a et b. Mais comme
f (a) = f (b), cela signifie que f est constante et en conséquence f 0 (x) = 0 pour tout x ∈]a, b[. ■

9.3.2 Théorème des accroissement finis


Théorème 9.3.3 — TAF. Soit f une fonction réelle définie sur un segment [a, b] de R. On
suppose que f est continue sur [a, b] et dérivable sur ]a, b[. Alors, il existe c ∈]a, b[ tel que
f (b)− f (a)
f 0 (c) = b−a .

f (b)− f (a)
Démonstration. On considère la fonction ϕ : t 7→ f (t )− b−a (t −a). Cette fonction est définie
f (b)− f (a)
continue sur [a, b], dérivable sur ]a, b[ et vérifie ϕ(a) = f (a) et ϕ(b) = f (b) − b−a (b − a) =
f (a). On peut donc appliquer le théorème de Rolle à cette fonction et il existe c ∈]a, b[ tel que
f (b)− f (a) f (b)− f (a)
ϕ0 (c) = 0. Or ϕ0 (t ) = f 0 (t ) − b−a pour tout t ∈]a, b[. Ainsi f 0 (c) = b−a . ■

Le théorème des accroissements finis est une généralisation du théorème de Rolle dans
laquelle on supprime l’hypothèse f (a) = f (b). Géométriquement, le théorème de Rolle permet
de dire que la courbe représentative de f possède une tangente horizontale, alors que le TAF
permet de dire qu’elle possède une tangente parallèle à la corde entre (a, f (a)) et (b, f (b)). Dans
le cas où f (a) = f (b), cette corde est elle-même horizontale ce qui montre bien que le théorème
de Rolle est un cas particulier du TAF. On peut voir, ci-dessous, deux schémas permettant
d’illustrer le cas particulier du théorème de Rolle, à gauche, et le cas général du TAF, à droite.
9.3 Dérivation et étude de fonctions 143

y y
f (b)

f (a) = f (b) f (a)

x x
a c b a c b

Corollaire 9.3.4 — Inégalité des accroissements finis (IAF). Soit f une fonction réelle
définie sur un intervalle I de R. On suppose que f est dérivable et que pour tout x ∈ I,
m ≤ f 0 (x) ≤ M (i.e. f 0 est bornée sur I). Alors pour tout (x, y) ∈ I2 , on a :

f (y) − f (x)
x 6= y ⇒ m ≤ ≤M.
y −x

Démonstration. Le corollaire est immédiat. S’il y avait un couple (x, y), x < y, pour lequel le
taux de variation serait en dehors de l’intervalle [m, M] alors, par le TAF, il y existerait un c ∈]x, y[
tel que f 0 (c) serait en dehors de l’intervalle. Or, c’est impossible par hypothèse. ■

R L’inégalité des accroissements finis apparait sous différentes formes, une forme alternative
utile consiste à dire que si | f 0 (x)| ≤ M ∈ R+ , alors ∀(x, y) ∈ I2 , | f (y) − f (x)| ≤ M|y − x|.

9.3.3 Dérivation et monotonie


Théorème 9.3.5 — Dérivée et monotonie (non stricte). Soit f une fonction réelle définie
sur un segment [a, b] de R. On suppose que f est continue sur [a, b] et que f est dérivable sur
]a, b[. Alors, on a les propositions suivantes :

(i) ∀x ∈]a, b[, f 0 (x) ≥ 0 ⇔ f est croissante sur [a, b].


(ii) ∀x ∈]a, b[, f 0 (x) ≤ 0 ⇔ f est décroissante sur [a, b].
(iii) ∀x ∈]a, b[, f 0 (x) = 0 ⇔ f est constante sur [a, b].

Démonstration. On montre uniquement (i), la démonstration pour (ii) est alors totalement
symétrique et (iii) est une conséquence de (i) et (ii).
On suppose que f est croissante sur [a, b], alors ∀x, y ∈]a, b[, x < y ⇒ f (x) ≤ f (y). Ainsi
f (y)− f (x)
x−y ≥ 0. Comme f est dérivable en tout x ∈]a, b[, on obtient, par passage à la limite,
0
f (x) ≥ 0.
Réciproquement, on procède par contraposition. On suppose que f n’est pas croissante sur
[a, b]. Il existe donc a 0 et b 0 dans [a, b] tels que a 0 < b 0 et f (b 0 ) > f (a 0 ). Mais alors, par application
f (b 0 )− f (a 0 )
du TAF, il existe c ∈]a, b[ tel que f 0 (c) = b 0 −a 0 < 0. Ce qui démontre le résultat. ■

µ ¶ ½ π
1 si x > 0
Exercice 9.5 Démontrer que ∀x ∈ R , arctan(x) + arctan

= 2π . ■
x −2 si x < 0
144 Chapitre 9. Dérivabilité et dérivation

Théorème 9.3.6 — Dérivée et monotonie stricte. Soit f une fonction réelle définie sur un
segment [a, b] de R. On suppose que f est continue sur [a, b] et que f est dérivable sur ]a, b[.
Alors, on a les propositions suivantes :

(i) ∀x ∈]a, b[, f 0 (x) > 0 ⇒ f est strictement croissante sur [a, b].
(ii) ∀x ∈]a, b[, f 0 (x) < 0 ⇒ f est strictment décroissante sur [a, b].

Démonstration. On montre (i). On suppose que ∀x ∈]a, b[, f 0 (x) > 0, par le théorème précédent,
cela signifie que f est croissante. Si f n’est pas strictement croissante, alors cela signifie qu’il
existe x et y dans [a, b] tels que x < y et f (x) = f (y). Mais alors, par le théorème de Rolle, on
aurait c ∈]x, y[ tel que f 0 (c) = 0 ce qui est impossible. f est donc strictement croissante. La
proposition (ii) se montre de manière analogue. ■

Exercice 9.6 Dans le théorème qui ci-dessus, les propositions sont des implications et non
des équivalences comme dans le théorème qui précèdait. Donner un contre-exemple qui
montre que l’implication réciproque est fausse dans le de cas d’une monotonie stricte. ■
10. Intégration

On s’intéresse dans ce chapitre à l’intégrabilité et à l’intégration des fonctions réelles d’une


variable réelle. Tout comme les notions de continuité, de dérivabilité et de dérivation, les notions
d’intégrabilité et d’intégration peuvent également être définies dans un cadre plus général.
Toutefois, cela dépasse l’étendu du programme de ECS et, en fonction du parcours que vous
choisissez, vous pourriez découvrir cela dans la suite de vos études.

10.1 Généralités
10.1.1 Intégrale d’une fonction continue
Définition 10.1.1 — Primitive. Soit f une fonction définie continue d’un intervalle I de R
dans R. On appelle primitive de f toute fonction F définie de I dans R telle que F0 = f .

Théorème 10.1.1 — Existence et unicité (à une constante près) d’une primitive. Toute
fonction continue sur un intervalle admet une primitive sur cet intervalle. Une telle primitive
est unique à une constante additive près.

Démonstration. Le résultat concernant l’existence n’est pas, à ce niveau, très aisé. Il est donc
admis. L’unicité, par contre, se démontre très facilement. Si F et G sont deux primitives de f ,
alors F0 = G0 , puis (F − G)0 = 0. D’où F − G est une constante. ■

Définition 10.1.2 — Intégrale sur un segment. Soit f une fonction continue sur un inter-
valle I. Alors, pour tout (a, b) ∈ I2 , on définit l’intégrale de f de a à b par :
Z b
f (t )d t = F(b) − F(a) = [F(t )]ba
a

où F est une primitive de f .


146 Chapitre 10. Intégration

R Cette définition a un sens parce qu’elle est indépendante du choix de la primitive via le
théorème qui précède.

2
Rb Ra
R R a déduit directement de la définition que pour tout (a, b) ∈ I ,
On a f (t )d t = − b f (t )d t et
a f (t )d t = 0.

R
R Lorsque l’on utilise la notation intégrale sans ses bornes (i.e. f (t )d t ), c’est pour parler
d’une primitive de f .

10.1.2 Propriétés de l’intégrale


Théorème 10.1.2 — Relation de Chasles. Soit f une fonction continue sur un intervalle I.
Alors, pour tout (a, b, c) ∈ I3 , on a :
Z b Z c Z c
f (t )d t + f (t )d t = f (t )d t .
a b a

Démonstration. Soit F une primitive de f sur I. On a F(b) − F(a) + F(c) − F(b) = F(c) − F(a). ■

Théorème 10.1.3 — Linéarité de l’intégrale. Soient f et g deux fonctions continues sur un


intervalle et (a, b) ∈ I2 , λ et µ deux réels. Alors, on a :
Z b¡ Z b Z b
λ f (t ) + µg (t ) d t = λ f (t )d t + µ
¢
g (t )d t .
a a a

Démonstration. Il suffit de remarquer que si F est une primitive de f et G une primitive de g ,


alors par la linéarité de la dérivation λF + µG est une primitive de λ f + µg . ■

Théorème 10.1.4 — Positivité de l’intégrale. Soit f une fonction définie, continue et positive
sur un segment I = [a, b] non réduit à un point (i.e. a < b). Alors, on a :
Z b Z b
f (t )d t ≥ 0 et f (t )d t = 0 ⇔ ∀t ∈ [a, b], f (t ) = 0 .
a a

Démonstration. Soit F une primitive de f sur [a, b]. Comme f est positive, F est croissante.
Ainsi F(b) − F(a) ≥ 0. De plus, si l’intégrale est nulle, cela signifie que F(b) = F(a), puis que F est
constante sur [a, b]. D’où f est nulle sur [a, b]. ■

Théorème 10.1.5 — Croissance de l’intégrale. Soient f et g deux fonctions définies conti-


nues sur un segment [a, b]. On suppose que f ≤ g (i.e. ∀t ∈ [a, b], f (t ) ≤ g (t )). On a alors :
Z b Z b
f (t )d t ≤ g (t )d t .
a a

Démonstration. Il suffit d’appliquer le résultat précédent à la fonction g − f . On conclut via la


linéarité de l’intégrale. ■
10.1 Généralités 147

Exercice 10.1 — Inégalité de la moyenne. Soit f une fonction continue sur [a, b] avec
a < b. Montrer que l’on a :

1
Z b
min f (t ) ≤ f (t )d t ≤ max f (t ) .
a≤t ≤b b−a a a≤t ≤b

Théorème 10.1.6 — Inégalité triangulaire pour l’intégrale. Soit f une fonction continue
sur un segment [a, b]. Alors, on a :

b b¯
¯Z ¯ Z
¯ ¯ ¯
¯
¯ f (t )d t ¯¯ ≤ ¯ f (t )¯ d t .
a a

Démonstration. On décompose f en f = f + + f − , avec ∀t ∈ [a, b], f + (t ) = max( f (t ), 0) et f − (t ) =


min( f (t ), 0). Ces fonctions sont continues sur [a, b], on peut ¯R donc considérer
¯ ¯R ¡ leurs intégrales de
¯ b ¯ ¯ b ¢ ¯¯
a à b qui sont, respectivement, positive et négative. Ainsi ¯ a f (t )d t ¯ = ¯ a f + (t ) + f − (t ) d t ¯ =
¯R ¯ ¯R ¯ ¯R ¯
¯ b Rb ¯ ¯ b ¯ ¯ b
¯ a f + (t )d t + a f − (t )d t ¯ ≤ ¯ a f + (t )d t ¯ + ¯ a f − (t )d t ¯ par l’inégalité triangulaire pour les réels.
¯
¯R ¯ ¯R ¯ R
¯ b ¯ ¯ b b Rb Rb¡ ¢ Rb¯ ¯
Mais ¯ a f + (t )d t ¯ + ¯ a f − (t )d t ¯ = a f + (t )d t − a f − (t )d t = a f + (t ) − f − (t ) d t = a ¯ f (t )¯ d t .
¯

10.1.3 Intégrale d’une fonction continue par morceaux


Définition 10.1.3 — Intégrale sur un segment. Soit f une fonction continue par morceaux
sur un intervalle I, associée à une subdivision a = a 0 < a 1 < ... < a n = b de I. Pour tout
i ∈ ‚1, nƒ, on note g i le prolongement par continuité de f |]ai −1 ,ai [ à [a i −1 , a i ]. On définit alors
l’intégrale de f de a à b par :
Z b n Z
X ai Z a1 Z a2 Z b
f (t )d t = g i (t )d t = g 1 (t )d t + g 2 (t )d t + · · · + g n (t )d t .
a k=1 a i −1 a a1 a n−1

R Cette définition est bien indépendante de la subdivision choisie et donc compatible avec
la définition précédente, via la relation de Chasles.

Exercice 10.2 Justifier que la fonction partie entière peut être intégrée entre 0 et n ∈ N, puis
calculer la valeur de cette intégrale. ■
148 Chapitre 10. Intégration

Exercice 10.3 Montrer que toutes les propriétés qui ont été démontrées dans la section
précédente peuvent être adaptées aux cas des fonctions continues par morceaux. ■

10.2 Calcul intégral


10.2.1 Primitives usuelles
Exercice 10.4 Dresser un tableau des primitives usuelles à connaitre. ■

10.2.2 Intégration par parties


Théorème 10.2.1 — IPP. Soient u et v deux fonctions de classe C1 sur [a, b]. On a :
Z b Z b
u 0 (t )v(t )d t = [u(t )v(t )]ba − u(t )v 0 (t )d t .
a a

Démonstration. Il suffit de remarquer que uv est une primitive de u 0 v + uv 0 . ■

R1
Exercice 10.5 Calculer 0 t 2 e 3t d t . ■
10.2 Calcul intégral 149
R1
Exercice 10.6 Calculer 0 e t cos(t )d t . ■

10.2.3 Changement de variables


Théorème 10.2.2 — Changement de variables. Soient ϕ et f deux fonctions telles que ϕ
est de classe C1 sur un segment [a, b] et f est continue sur le segment [ϕ(a), ϕ(b)]. Alors, on a :
Z b Z ϕ(b)
f ϕ(s) ϕ0 (s)d s =
¡ ¢
f (t )d t .
a ϕ(a)

Démonstration. Il suffit de remarquer que si F est une primitive de f , alors F◦ϕ est une primitive
¤b ϕ(b)
de f ◦ ϕ × ϕ0 , puis que F ◦ ϕ(s) a = [F(t )]ϕ(a) .
£

R Dans un tel cas, on dit qu’on opère le changement de variables t = ϕ(s).

R1p
Exercice 10.7 Calculer 0 1 − t 2 d t . On pourra poser t = si n(s). ■

Exercice 10.8 Soit f une fonction continue sur R et T-périodique, avec T > 0. Montrer que,
Rb R b+nT
pour tout (a, b) ∈ R2 et n ∈ Z, on a a f (t )d t = a+nT f (t )d t . Montrer, de plus, que pour tout
R a+T RT
a ∈ R, a f (t )d t = 0 f (t )d t . ■
150 Chapitre 10. Intégration

Exercice 10.9 Soit f une fonction définie continue sur un segment [−a, a], où a > 0. Montrer
Ra Ra R0
que si f est paire, alors −a f (t )d t = 2 0 f (t )d t = 2 −a f (t )d t . Montrer que si f est impaire,
Ra
alors −a f (t )d t = 0. ■

10.2.4 Sommes de Riemann à pas constant


Définition 10.2.1 — Somme de Riemann à pas constant. Soient f une fonction définie
sur un segment [a, b] et n ∈ N∗ . La somme de Riemann à pas constant de f d’ordre n est le
réel, noté S n ( f , a, b), tel que :
n
b−a X
µ
b−a

S n ( f , a, b) = f a +k .
n k=1 n

Théorème 10.2.3 — Convergence des sommes de Riemann. Soit f une fonction définie
continue sur un segment [a, b]. On alors :

1
Z b
lim S n ( f , a, b) = f (t )d t .
n→+∞ b−a a

Démonstration. Seule la démonstration du cas où f est de classe C1 est au programme. Le cas


f continue, non C1 , est admis.
Si f est de classe C1 , alors il existe m et M tels que, pour tout t ∈ [a, b], m ≤ f 0 (t ) ≤ M. On pose
Ra
a k = a + k b−a n pour tout k ∈ ‚0, nƒ. Pour tout k ∈ ‚0, n − 1ƒ, on a b−a n f (a k ) = akk+1 f (a k )d t , d’où
R ak+1 R ak+1 ¡
f (t )d t − b−a
¢
ak n f (a k ) = a k f (t ) − f (a k ) d t . Or par l’IAF, pour tout t ∈ [a k , a k+1 ], on a m(t −
2
a k ) ≤ f (t )− f (a k ) ≤ M(t −a k ). Ainsi, par croissance de l’intégrale, on obtient l’inégalité m (b−a)
2n 2
=
(t −a k )2 a k+1 (t −a k )2 a k+1
h i h i
R ak+1 b−a (b−a)2
m 2 ≤ ak f (t )d t − n f (a k ) ≤ M 2 = M 2n 2 . Ainsi, en sommant pour
ak ak
2 b (b−a)2
k allant de 0 à n − 1, on obtient m (b−a)
R
2n ≤ a f (t )d t − S n ( f , a, b) ≤ M 2n . On conclut via le
théorème des gendarmes. ■
10.2 Calcul intégral 151

Dans le graphique ci-dessus, on peut voir deux illustrations de sommes de Riemann à pas
constant pour une même fonction, l’une d’ordre 10, l’autre d’ordre 20. La somme de Riemann
est égal, dans chacun des cas, à l’aire contenue dans les rectangles. En effet, dans la somme de
Riemann, chaque terme f (a + k b−a n ) correspond à la hauteur d’un rectangle et le coefficient
b−a
n correspond à la largeur commune de tous les rectangles. Intuitivement, lorsque n tend vers
l’infini, l’aire contenue dans les rectangles tend vers l’aire sous la courbe. Ainsi, l’intégrale d’une
fonction correspond à l’aire de la surface entre la courbe et l’axe des abscisses. Attention, cela
ne fonctione que pour les intervalles pour lesquels la fonction est positive. Pour un intervalle
sur lequel la fonction est négative, l’intégrale vaut l’opposé de l’aire entre la courbe et l’axe des
abscisses.

10.2.5 Fractions rationnelles


L’étude formelle des fractions rationnelles (i.e. des fonctions définies en tant que quotient
de deux polynômes) et de leurs primitives n’est pas au programme mais il peut être utile de
connaître les méthodes qui suivent afin de pouvoir aborder certains exercices sans grande
difficulté. On présente ces méthodes à travers des exemples, sans formaliser les résultats.

dx
quand ∆ = 0
R
Calcul de ax 2 +bx+c

3 3 4 · ¸4
dx dx du −1 1
Z Z Z
2
= = = = .
1 x + 2x + 1 1 (x + 1)2 2 u 2 u 2 4

dx
quand ∆ > 0
R
Calcul de ax 2 +bx+c

Z 4 dx
Z 4 dx
Z 4 1
µ
1 1

1h i4 ln(2)
2
= = − dx = ln (x − 1) − ln (x + 2) = .
2 x +x −2 2 (x − 1)(x + 2) 2 3 x −1 x +2 3 2 3

dx
quand ∆ < 0
R
Calcul de ax 2 +bx+c

Z 4 dx
Z 4 dx
Z 5 du h i5
2 + 2x + 2
= = = arctan(u) = arctan(5) .
−1 x −1 (x + 1)2 + 1 0
2
u +1 0
152 Chapitre 10. Intégration
2ax+b
R
Calcul de ax 2 +bx+c
dx
Z 1 2x + 3 h ¡ ¢ i1
2
d x = ln x + 3x + 2 = ln(3) .
0 x 2 + 3x + 2 0

Calcul de ax 2P(x)
R
+bx+c
dx
Pour tout P ∈ R[X] et aX 2 + bX + c ∈ R2 [X], on peut faire la division euclidienne de P par
aX + bX + c. On obtient P = (aX 2 + bX + c)Q + R avec Q, R ∈ R[X] et deg(R) ≤ 1. On peut alors
2
R αx+β
poser R = αX + β, avec α, β ∈ R. On en déduit que ax 2P(x)
R R
+bx+c
d x = Q(x)d x + ax 2 +bx+c d x. Le
R R αx+β
calcul de Q(x)d x est aisé et, pour le cacul de ax 2 +bx+c d x, on peut toujours se ramener à une
combinaison linéaire du cas précédent et d’un des trois premiers cas.

Exercice 10.10 Calculer les intégrales suivantes :

4 3x 3 + 2x 2 + x + 1 2 3x 3 + 2x 2 + x + 1 1 3x 3 + 2x 2 + x + 1
Z Z Z
I1 = dx , I2 = dx , I3 = dx .
2 x 2 − 2x + 1 1 x2 + x 0 2x 2 + x + 2

11. Modélisation et probabilités finies

Jusqu’à ce point, le contenu du cours a porté presqu’uniquement sur des mathématiques en


tant que telles. Les objets que l’on a décrits et manipulés sont des objets mathématiques, les
phrases utilisées dans les propriétés, les théorèmes et les démonstrations sont des propositions
mathématiques. Ce chapitre marque une différence avec les chapitres précédents. Dans celui-
ci, la plus part des exercices qui vous seront présentés seront formulés dans un cadre non-
mathématique. Ce sera à vous de les transformer de manière à vous ramener à un exercice de
mathématiques à proprement parler.

11.1 Modélisation mathématique


11.1.1 Qu’est-ce qu’une modélisation ?
Modéliser une situation, c’est l’exprimer de manière simple dans un cadre qui permet le
raisonnement. La modélisation est le nom que l’on donne à la fois au fait de modéliser et au
résultat de cette action. Les mathématiques sont un cadre qui permet le raisonnement et une
modélisation mathématique est une modélisation dans ce cadre. Une situation peut-être mo-
délisée de multiples façons différentes. La modélisation en tant que résultat est, elle-même, une
situation qui peut êre modélisée à son tour. On peut ainsi opérer plusieurs modélisations de ma-
nière successives à partir d’une seule situation initiale. Voici un exemple de deux modélisations
successives d’une situation réelle dont la dernière étape est une modélisation mathématique.

Situation réelle Modélisation physique Modélisation mathématique

La réalité intangible Une baignoire d’une Soit f définie par


de ma baignoire qui capacité de 150L se f : R+ −→ R
.
se remplit. Dans com- remplit à raison de x 7−→ 15x
bien de temps vais-je 15L par minutes. Au Quelle est la plus pe-
bien pouvoir profiter bout de combien de tite valeur de x pour
de mon bain ? temps est-elle pleine ? laquelle f (x) = 150 ?
154 Chapitre 11. Modélisation et probabilités finies

Dans cet exemple, on peut clairement identifier une correspondance entre les objets ma-
thématiques et les notions physiques respectivement présents dans les deux modélisations. Un
réel positif x correspond au temps en minutes écoulé depuis le début du remplissage. L’image
f (x) correspond au volume d’eau dans la baignoire après x minutes. L’équation f (x) = 150 cor-
respond au fait que la baignore est pleine. Dans le cadre mathématiques, on résoud l’équation
et on trouve x = 10. On conclut alors que la baignoire sera pleine au bout de 10 minutes en
repassant à la modélisation physique. Si on suppose que la modélisation physique proposée est
une bonne modélisation, on peut alors conclure que je pourrais profiter de mon bain dans une
dizaine de minutes.

Pour faire une bonne modélisation, celle-ci doit satisfaire plusieurs principes :
— pour chaque objet de la modélisation, on doit pouvoir expliciter clairement une corres-
pondance avec des objets de la situation ;
— la modélisation doit permettre de tirer des conclusions qui peuvent être extrapolées au
niveau de la situation ;
— la modélisation doit être la moins complexe possible amenant à ces conclusions (principe
du rasoir d’Ockham) ;
— si la modélisation permet de modéliser une situation réelle, la conclusion obtenue via
la modélisation, puis extrapolée à la situation réelle, doit être suffisamment proche des
conséquences réelles correspondantes d’une telle situation.

En classe préparatoire ECS, on ne s’intéressera qu’à des modélisations mathématiques pour


lesquelles la correspondance peut-être établie de manière immédiate. On s’intéressera tout
particulièrement aux modélisations mathématiques qui s’inscrivent dans la partie probabilités
du cours de mathématiques.

11.1.2 Expérience aléatoire


Une expérience aléatoire est une situation qui décrit un processus menant à un résultat qui
n’est pas connu mais pour lequel tous les résultats peuvent être mis en correspondance avec
les éléments d’un ensemble, au sens mathématique. Dans un tel contexte, on appelle univers
l’ensemble mathématique, généralement noté Ω, qui modélise tous les résultats possibles.
■Exemple 11.1 Un lancer d’un dé à 6 faces est une expérience aléatoire dont les résultats
peuvent être modélisés par l’ensemble ‚1, 6ƒ. ■

■ Exemple 11.2 Le tirage d’une carte dans un jeu de 52 cartes est une expérience aléatoire dont
les résultats peuvent être modélisés par l’ensemble ‚1, 4ƒ × ‚1, 13ƒ. ■

■ Exemple 11.3 Soit n ∈ N∗ . Le lancer d’une pièce, répété n fois de suite, est une expérience
aléatoire dont les résultats peuvent être modélisés par l’ensemble {0, 1}n . ■

■ Exemple 11.4 Soient n et p deux entiers. On considère une urne contenant n boules, numé-
rotées de 1 à n.
— Si on effectue p tirages successifs avec remise, il s’agit d’une expérience aléatoire dont les
résultats peuvent être modélisées par l’ensemble ‚1, nƒp .
— Si l’on effectue p tirages successifs sans remise, il s’agit d’une expérience aléatoire dont
p
les résultats peuvent être modélisées par l’ensemble An des arrangements de p éléments
de ‚1, nƒ.
— Si l’on effectue p tirages simultanés, il s’agit d’une expérience aléatoire dont les résultats
p
peuvent être modélisées par l’ensemble C n des combinaisons de p éléments de ‚1, nƒ.

11.1 Modélisation mathématique 155

Exercice 11.1 Donner le nombre d’éléments des univers pour chacun des exemples. ■

Les expériences aléatoires considérées ici sont elles-mêmes des modélisations de situations
réelles. Dans ce cas, une même expérience aléatoire peut être associée à un grand nombre
de situations réelles différentes (par exemple, un grand nombre de lancer de dés). Ces situa-
tions amènent différents résultats qui se repartissent parmi toutes les différentes possibilités
de résultats. La théorie des probabilités affirme qu’elle peut offrir de bonnes modélisations
mathématiques pour la répartition de ces résultats.

11.1.3 Évènements aléatoires et évènements mathématiques


On appelle évènement aléatoire toute collection de résultats d’une expérience aléatoire.
Un évènement aléatoire peut ainis être modélisée par un sous-ensemble de l’univers Ω et on
appelle évènement mathématique un tel sous-ensemble. Une pratique courante en probabili-
tés consiste à confondre ces deux objets, ce qui revient à confondre l’expérience aléatoire et la
modélisation mathématique. On s’efforcera dans ce cours à ne pas tomber dans ce travers. Les
évènements aléatoires seront notés entre guillemets.

On peut faire des « opérations » sur les évènements aléatoires qui se modélisent par les
opérations usuelles sur les sous-ensembles vues dans le tout premier chapitre.
On considère une expérience aléatoire dont les résultats sont modélisés par un univers Ω.
On considère deux évènements aléatoires « A » et « B », modélisés par des sous-ensembles A et
B de Ω. Alors, l’évènement aléatoire « A ou B » est modélisé par le sous-ensemble A ∪ B de Ω.
De même, l’évènement aléatoire « A et B » est modélisé par le sous-ensemble A ∩ B de Ω. Un
évènement aléatoire impossible est modélisé par l’ensemble vide ;. Un évènement aléatoire
certain est modélisé par l’univers Ω. On dit que deux évènements aléatoires sont incompatibles
s’il est impossible qu’ils surviennent simultanément. Ainsi, le fait que « A » et « B » soient
incompatibles est modélisé par l’équation A ∩ B = ;.

Exercice 11.2 Proposer une modélisation des résultats de l’expérience aléatoire suivante :
« on lance deux dés, numérotés de 1 à 6 ».
Donner les sous-ensembles correspondants aux évènements aléatoires suivants :
— « A : la somme des faces visibles est égale à 10 » ;
— « B : les dés ne sont pas tombés sur la même face » ;
— « C : un dé est tombé sur un 6, l’autre est tombé sur un 5 » ;
— « D : au moins un des dés est tombé sur un 6 ».

Enfin, on parle de système complet d’évènements fini pour une collection finie d’évène-
ments qui est modélisée par une famille finie formant une partition de Ω.
156 Chapitre 11. Modélisation et probabilités finies

11.2 Probabilités finies


On revient maintenant aux mathématiques à proprement parler. La notion de modélisation
sera cantonnée aux exercices et à quelques remarques.

11.2.1 Généralités
Avant de pouvoir définir une probabilité, il faudrait définir la notion d’espace probabilisable.
Une telle définition est prématurée à ce stade. On admettra, pour le moment, que pour tout
ensemble Ω, le couple (Ω, P (Ω)) est un espace probabilisable.
Définition 11.2.1 — Probabilité finie. Soit Ω un ensemble fini. Une probabilité finie sur
l’espace probabilisable (Ω, P (Ω)) est une application P de P (Ω) vers [0, 1] telle que :

(i) P(Ω) = 1.
(ii) ∀A, B ⊂ Ω, A ∩ B = ; ⇒ P(A ∪ B) = P(A) + P(B).

On dit alors que (Ω, P (Ω), P) est un espace probabilisé fini.

Théorème 11.2.1 — Propriétés d’une probabilité. Soient (Ω, P (Ω), P) un espace probabilisé
fini, A, B ⊂ Ω. Alors on a les propositions suivantes :

(i) P(A) = 1 − P(A)


(ii) P(;) = 0
(iii) P(A \ B) = P(A) − P(A ∩ B)
(iv) B ⊂ A ⇒ P(B) ≤ P(A)

Démonstration. On montre chacun des points dans l’ordre.


On a 1 = P(Ω) = P(A ∪ A) = P(A) + P(A). D’où (i). En appliquant (i) à Ω, on obtient (ii).
Comme A = (A \ B) ∪ (A ∩ B) est une réunion disjointe, P(A) = P(A \ B) + P(A ∩ B), d’où (iii).
Si B ⊂ A, alors A ∩ B = B, d’où P(A \ B) = P(A) − P(B) par (iii). Mais P est à valeur dans [0, 1] donc
P(A \ B) ≥ 0. Ce qui donne (iv). ■

Exercice 11.3 Soient (Ω, P (Ω), P) un espace probabilisé ¶fini, n ∈ N et A1 , ..., An ⊂ Ω. Mon-

n
µ
n
S P
trer que si les Ai sont deux à deux disjoints, alors P An = P(Ai ). ■
i =1 i =1

Exercice 11.4 — Formule des probabilités totales. On considère un espace probabilisé


fini (Ω, P (Ω), P) et une famille finie (A1 , ..., An ) formant une partition de Ω (i.e. correspondant
n
à un système complet d’évènements fini). Montrer que, ∀B ⊂ Ω, P(B) =
P
P(B ∩ Ai ). ■
i =1
11.2 Probabilités finies 157

Exercice 11.5 Soient (Ω, P (Ω), P) un espace probabilisé fini et A, B, C ⊂ Ω. Montrer que :

P(A ∪ B) = P(A) + P(B) − P(AUB)


P(A ∪ B ∪ C) = P(A) + P(B) + P(C) − P(A ∩ B) − P(A ∩ C) − P(B ∩ C) + P(A ∩ B ∩ C) .

R Cet exercice donne les cas particuliers pour n = 2, 3 de la formule du crible pour les
probabilités. Cette formule généralise la formule du crible pour les cardinaux, vue au
théorème 3.5.2.

Définition 11.2.2 — Équiprobabilité. Soit (Ω, P (Ω), P) un espace probabilisé fini. Soient
A, B ∈ Ω. On dit que A et B sont équiprobables si :

P(A) = P(B) .

On dit que la probabilité P est uniforme si tous les singletons d’éléments de Ω sont équipro-
bables :
∀ω, ω0 ∈ Ω, P({ω}) = P({ω0 }) .

R L’équiprobabilité est le choix par défaut pour la modélisation lorsque l’on ne dispose pas
d’informations supplémentaires. Par exemple, pour un lancer de dé à six face, on suppose
que les chances que le dé tombe sur une face sont les mêmes pour les six faces.

Propriété 11.2.2 — Probabilité uniforme. Soit (Ω, P (Ω), P) un espace probabilisé fini avec P
uniforme. Alors, on a :
|A|
∀A ⊂ Ω, P(A) = .
|Ω|
Démonstration. Il suffit de remarquer que, si n = |Ω|, on a Ω = {ω1 , ..., ωn }, et que les {ωi }
forment une partition de Ω. On en déduit P({ω}) = n1 , puis le résultat. ■

11.2.2 Probabilités conditionnelles


Définition 11.2.3 — Probabilité conditionnelle. Soient (Ω, P (Ω), P) un espace probabilisé
fini et A ⊂ Ω tel que P(A) 6= 0. Alors, pour tout B ⊂ Ω, on définit la probabilité conditionnelle
de B sachant A, notée P(B | A), via :

P(A ∩ B)
P(B | A) = .
P(A)

R On peut définir une application PA : P (Ω) → [0, 1], B 7→ PA (B) = P(B | A). Cette application
est une probabilité sur l’espace probalisable fini (Ω, P (Ω)).
158 Chapitre 11. Modélisation et probabilités finies

R La probabilité conditionnelle PA permet de modéliser une situation pour laquelle l’évène-


ment aléatoire associé à A s’est produit de manière certaine.

Théorème 11.2.3 — Formule de Bayes. Soient (Ω, P (Ω), P) un espace probabilisé fini et
A, B ⊂ Ω. On suppose que P(A) et P(B) sont non nuls, alors on a :

P(B | A)P(A)
P(A | B) = .
P(B)

Démonstration. La définition de la probabilité conditionnelle donne P(A | B)P(B) = P(A ∩ B) =


P(B | A)P(A) ce qui permet de conclure. ■

Théorème 11.2.4 — Formule des probabilités composées. Soient (Ω, P (Ω), P) un espace
probabilisé fini, n un entier supérieur ou égal à 2 et A1 , ..., An ⊂ Ω. On suppose que P(A1 ∩ ... ∩
An−1 ) 6= 0, alors on a :

P(A1 ∩ ... ∩ An ) = P(A1 )PA1 (A2 )PA1 ∩A2 (A3 )...PTn−1 Ai (An )
i =1
Tn−1
= P(A1 )P(A2 | A1 )P(A3 | A1 ∩ A2 )...P(An | i =1
Ai ) .

Démonstration. On montre le résultat par récurrence. Le résultat pour n = 2 provient direc-


tement de la définition de la probabilité conditionnelle, en multipliant de chaque côté par le
dénominateur de la fraction.
On suppose le résultat vrai pour un certain n ≥ 2. Alors, via la définition de la probabilité
conditionnelle, on a P(A1 ∩ ... ∩ An ∩ An+1 ) = P(A1 ∩ ... ∩ An )P(An+1 | A1 ∩ ... ∩ An ), ce qui permet
de conclure via l’hypothèse de récurrence. ■

Théorème 11.2.5 — Formule des probabilités totales. Soient (Ω, P (Ω), P) un espace proba-
bilisé fini, n un entier supérieur ou égal à 1 et (A1 , ..., An ) une partition de Ω telle que P(Ai ) 6= 0
pour tout i ∈ ‚1, nƒ. Alors, pour tout B ⊂ Ω, on a :
n
P
P(B) = P(B ∩ Ai )
i =1
Pn
= P(Ai )PAi (B)
i =1
Pn
= P(Ai )P(B | Ai ) .
i =1

Démonstration. La première égalité a été montrée en exercice. Les suivantes ne sont qu’une
conséquence directe de la définition d’une probabilité conditionnelle. ■

Exercice 11.6 On considère un espace probabilisé fini et une partition (A1 , ..., An ) de Ω telle
que P(Ai ) 6= 0 pour tout i ∈ ‚1, nƒ. Montrer que pour tout B ⊂ Ω et tout i ∈ ‚1, nƒ, on a

P(B | Ai )P(Ai )
P(Ai | B) = n
.
P
P(B | A j )P(A j )
j =1


11.2 Probabilités finies 159

Exercice 11.7 Un test est réalisé pour détecter une maladie génétique rare. On sait que
dans la population, une personne sur 100.000 est atteinte de cette maladie. La notice du
test précise que lorsque le test est réalisé sur une personne atteinte de la maladie, le test est
positif dans 99, 8% des cas. De même, lorsque le test est réalisé sur une personne qui n’est
pas atteinte de la maladie, le test est négatif dans 99, 6% des cas. Déterminer la probabilité
qu’une personne soit malade, sachant que le test est positif. ■

11.2.3 Indépendance en probabilités


Définition 11.2.4 — Indépendance. Soient (Ω, P (Ω), P) un espace probabilisé fini et A, B ⊂
Ω. On dit que A et B sont indépendants en probabilité si :

P(A ∩ B) = P(A)P(B) .

R Pour comprendre le sens de cette définition, il faut revenir au contexte d’une expérience
aléatoire et de sa modélisation par un espace probabilisé fini à probabilité uniforme.
On imagine alors que la même expérience aléatoire est réalisée simultanément dans
deux univers (au sens physique) différents et donc avec des résultats « indépendants ».
Ce système est lui-même une expérience aléatoire, que l’on peut à son tour modéliser
par un espace probabilisé fini à probabilité uniforme. En considérant tous les résultats
possibles pour cette expérience aléatoire, on voit que la modélisation pour la réalisation
d’un évènement, dans le premier univers, et d’un autre évènement, dans le deuxième
univers, vérifie la propriété d’indépendance définie.

Propriété 11.2.6 — Critère d’indépendance. Soient (Ω, P (Ω), P) un espace probabilisé fini et
A, B ⊂ Ω avec P(A) 6= 0. Alors A et B sont indépendants si et seulement si :

PA (B) = P(B) .

Démonstration. Il suffit de diviser de chaque côté par P(A) dans la définition de l’indépendance
pour obtenir le résultat. ■

Définition 11.2.5 — Indépendance mutuelle. Soient (Ω, P (Ω), P) un espace probabilisé


fini, n ∈ N∗ et A1 , ..., An ⊂ Ω. Alors, on dit que les Ai sont mutuellement indépendants si :
à !
\ Y
∀I ⊂ ‚1, nƒ, P Ai = P(Ai ) .
i ∈I i ∈I

Définition 11.2.6 — Indépendance deux à deux. Soient (Ω, P (Ω), P) un espace probabi-
lisé fini, n ∈ N∗ et A1 , ..., An ⊂ Ω. On dit que les Ai sont deux à deux indépendants si :

∀i , j ∈ ‚1, nƒ, i 6= j ⇒ Ai et A j sont indépendants.


160 Chapitre 11. Modélisation et probabilités finies

Exercice 11.8 On considère une urne contenant 12 boules numérotées de 1 à 12, dans
laquelle on tire une boule. En considérant les évènements « le numéro de la boule tirée est
un chiffre impair », « le numéro de la boule tirée est inférieur ou égal à 6 » et « le numéro de la
boule tirée contient les chiffres 1,2 ou 3 », montrer que trois évènements peuvent être deux à
deux indépendants sans être mutuellement indépendants. Qu’en est-il de la réciproque ? ■

Propriété 11.2.7 Soient (Ω, P (Ω), P) un espace probabilisé fini, n ∈ N∗ et A1 , ..., An ⊂ Ω mu-
tuellement indépendants. Alors il en de même pour B1 , ..., Bn ⊂ Ω tels que, pour tout i ∈ ‚1, nƒ,
Bi = Ai ou Bi = Ai .

Démonstration. On montre que B1 = A1 , ..., B j −1 = A j −1 , B j = A j , B j +1 = A j +1 , Bn = An sont mu-


tuellement indépendants. En effet, il suffit d’une séquence finie de transformations de ce type
T
pour passer de A1 , ..., An à n’importe quels B1 , ..., Bn . Si I ⊂ ‚1, nƒ avec j ∉ I, alors P( i ∈I Bi ) =
T Q Q T T
P( i ∈I Ai ) = i ∈I P(Ai ) = i ∈I P(Bi ). Si I ⊂ ‚1, nƒ avec j ∈ I, alors on a P( i ∈I Bi ) = P( i ∈I\{ j } Ai ) −
T Q Q Q Q
P( i ∈I Ai ) = i ∈I\{ j } P(Ai ) − i ∈I P(Ai ) = (1 − P(A1 )) i ∈I\{ j } P(Ai ) = i ∈I P(Bi ). On a donc bien le
résultat. ■

11.2.4 Culture G : Le problème de Monty Hall


Le problème de Monty Hall est une célèbre énigme mathématique qui a troublé un grand
nombre de personnes, y compris des scientifiques, mathématiciens et staticiens. C’est pourtant
une énigme très courte et dont la solution est très simple. Mais, pour beaucoup, cette solution
est contre-intuitive. Cette énigme est devenue célèbre après qu’elle a été publiée dans une
rubrique d’énigme d’un magazine américain à grand tirage (Parade) en 1990. La présentation de
la solution a été contestée par plus de 10.000 lecteurs dont 1.000 possédaient un doctorat. Voici
une traduction de cette version du problème :

Imaginez que vous êtes sur le plateau d’un jeu télévisé et que l’on vous propose de
choisir entre trois portes : derrière une porte, il y a une voiture ; derrière les autres,
des chèvres. Disons que vous choisissez la porte 1, et que le présentateur, qui sait ce
qu’il y a derrière les portes, ouvre une autre porte, disons la 3, révèlant une chèvre.
Il vous demande alors : « Voulez-vous choisir la porte 2 ? ». Est-ce à votre avantage
de changer votre choix ?

Contrairement à ce que l’on peut penser, il faut bien changer et choisir la porte 2. La difficulté
d’appréhension de la solution provient du fait qu’il faut comprendre que l’action du présentateur
est totalement dépendante du choix initial.

Exercice 11.9 Faire un arbre de décision qui permet d’illustrer la solution au problème. De
combien augmente-t-on ses chances si l’on modifie son choix ? ■
12. Variables aléatoires réelles discrètes finies

12.1 Généralités
12.1.1 Définitions et notations
Définition 12.1.1 — VARDF. Soit (Ω, P (Ω)) un espace probabilisable fini. On appelle variable
aléatoire réelle discrète finie sur Ω (VARDF sur Ω) toute application X de RΩ .

■ Exemple 12.1 On modélise le lancer de deux dés par une probabilité uniforme sur l’ensemble
‚1, 6ƒ2 . Alors, la somme des numéros obtenus sur les deux dés se modélise par la VARDF, notée
X, définie par X : ‚1, 6ƒ2 → R, (i , j ) 7→ i + j . ■

Notation 12.1. Pour X une VARDF sur Ω, comme pour toute application, on peut considérer
l’image directe d’un sous-ensemble de Ω par X et l’image réciproque d’un sous-ensemble de R par
X. Dans le cadre des probabilités, la notation standard pour l’image directe ne diffère pas de celle
utilisée ailleurs en mathématiques. Par exemple, on note :

X(Ω) = X({ω1 , ..., ωn }) = {X(ω1 ), ..., X(ωn )} .

Par contre, la notation standard en probabilités pour l’image réciproque diffère de celle utilisée
ailleurs en mathématiques. En probabilités, les images réciproques sont notées avec des crochets.
Ainsi, on a :
X −1 (A) = [X ∈ A] = {ω ∈ Ω | X(ω) ∈ A} .
Cette notation se généralise à n’importe quelle proposition Q portant sur des éléments de R :

[X vérifie Q] = {ω ∈ Ω | X(ω) vérifie Q} .

■ Exemple 12.2 On reprend les mêmes objets que ceux de l’exemple précédent. On a alors
[X = 3] = {(1, 2), (2, 1)} ou encore [X ≤ 3] = {(1, 1), (1, 2), (2, 1)}. ■

Notation 12.2. Une application constante sur Ω est une VARDF sur Ω. On la note généralement
a : Ω −→ R
via la valeur de sa constante, i.e. pour un réel a, on note .
ω 7−→ a
162 Chapitre 12. Variables aléatoires réelles discrètes finies

Théorème 12.1.1 — Opérations usuelles. Soient X et Y deux VARDF sur un espace probabi-
lisable fini (Ω, P (Ω)). Soient λ ∈ R et f une fonction réelle définie sur un intervalle I de R tel
que X(Ω) ⊂ I. Alors, on peut définir les VARDF suivantes :

X + Y : Ω −→ R (addition)
(i)
ω 7−→ X(ω) + Y(ω)
λ.X : Ω −→ R (multiplication par un scalaire)
(ii)
ω 7−→ λ × X(ω)
X × Y : Ω −→ R (multiplication)
(iii)
ω 7−→ X(ω) × Y(ω)
f ◦ X : Ω −→ R (transfert)
(iv)
ω 7−→ f (X(ω))

Démonstration. Ceci découle directement des résultats usuels sur les applications réelles. ■

R On remarque que l’on ne parle pas de composition pour les VARDF mais de transfert. C’est
dû au fait que l’on utilise une fonction f qui permet de passer d’une VARDF à une autre (i.e.
X à f ◦ X), mais que f n’est pas, en soi, une VARDF : ce n’est qu’une fonction de transfert.

Théorème 12.1.2 — Système complet associés à une VARDF. Soit X une VARDF sur un
espace probabilisable fini (Ω, P (Ω)). La famille ([X = x])x∈X(Ω) forme une partition de Ω.

Démonstration. C’est très direct. Si ω ∈ Ω alors, par la définition d’une application, l’image de ω
par X, X(ω), est définie de manière unique dans X(Ω). Ainsi, ω appartient à un unique ensemble
de la famille ([X = x])x∈X(Ω) . ■

12.1.2 Loi de probabilité et fonction de répartition


Définition 12.1.2 — Loi de probabilité. Soit X une VARDF sur un espace probabilisé fini
(Ω, P (Ω), P). On appelle loi de probabibilité de X l’application L X définie par :

L X : X(Ω) −→ [0, 1]
.
x 7−→ P([X = x])

Notation 12.3. Pour simplifier, on note souvent P(X = x) et, plus généralement, P(X vérifie Q) au
lieu de P([X = x]) et P([X vérifie Q]).

Exercice 12.1 Déterminer la loi de probabilité L X , où X est la VARDF de l’exemple 12.1. ■


12.2 Espérance et variance 163

Définition 12.1.3 — Égalité en loi. Soient X et Y des VARDF sur un espace probabilisé fini
L
(Ω, P (Ω), P). On dit que X et Y sont égales en loi si L X = L Y . On note alors, X = Y.

Exercice 12.2 On modélise un lancer de pièce par une probabilité uniforme sur un ensemble
{p, f }. Déterminer la loi de X, définie par X(p) = 0 et X( f ) = 1, puis de Y = 1 − X, définie par
Y(p) = 1 et Y( f ) = 0. En déduire qu’il peut y avoir égalité en loi sans avoir égalité. ■

Définition 12.1.4 — Fonction de répartition. Soit X une VARDF sur un espace probabilisé
fini (Ω, P (Ω), P). On appelle fonction de répartition de X et on note FX la fonction définie
par :
FX : R −→ [0, 1]
.
x 7−→ P(X ≤ x)

Exercice 12.3 Faire la représentation graphique, pour x ∈ [0, 15], de la fonction de répartition
de X, définie comme dans l’exemple 12.1. ■

Théorème 12.1.3 — Caractérisation de la loi par la fonction de répartition. Soient X et Y


deux VARDF sur un espace probabilisé fini (Ω, P (Ω), P). On a l’équivalence suivante :

L
X = Y ⇔ ∀x ∈ R, FX (x) = FY (x) .

Démonstration. Il suffit d’écrire X(Ω) = {x 1 , ..., x n } avec x 1 < x 2 < ... < x n . On remarque alors
P
que FX (x) = P(X = x i ). Réciproquement, on a P(X = x 1 ) = FX (x 1 ) et, si i ∈ ‚2, nƒ, on a
1≤i ≤n
x i ≤x
P(X = x i ) = FX (x i ) − FX (x i −1 ). Donc FX est définie entièrement par sa loi et réciproquement. ■

12.2 Espérance et variance


12.2.1 Espérance mathématique
Définition 12.2.1 — Espérance mathématique d’une VARDF. Soit X une VARDF sur un
espace probabilisé fini (Ω, P (Ω), P) telle que X(Ω) = {x 1 , ..., x n }. On appelle espérance mathé-
164 Chapitre 12. Variables aléatoires réelles discrètes finies

matique de X (ou simplement espérance de X) le réel, noté E(X), tel que :


n
X
E(X) = x i P(X = x i ) .
i =1

R L’espérance mathématique permet souvent de modéliser le gain moyen dans un jeu de


hasard.

R On déduit directement de la définition de l’espérance que deux VARDF qui sont égales en
loi ont la même espérance.

Exercice 12.4 Calculer l’espérance de X, où X est la VARDF de l’exemple 12.1. ■

Théorème 12.2.1 — Théorème de transfert. Soient X une VARDF sur un espace probabilisé
fini (Ω, P (Ω), P) telle que X(Ω) = {x 1 , ..., x n } et g une fonction réelle définie sur X(Ω). On a :
n
X
E(g (X)) = g (x i )P(X = x i ) .
i =1

Démonstration. La démonstration de ce théorème n’étant pas au programme, on l’admet. Mais


elle ne présente pas de difficulté particulière. ■

Exercice 12.5 Retrouver le résultat de l’exercice précédent en posant Y = 14 − X. ■

12.2.2 Variance
Définition 12.2.2 — Variance d’une VARDF. Soit X une VARDF sur un espace probabilisé
fini (Ω, P (Ω), P). On appelle variance de X le réel, noté V(X), tel que :

V(X) = E (X − E (X))2 .
£ ¤

R De même que pour l’espérance, on déduit directement de la définition de la variance que


deux VARDF de même loi ont même variance.
12.2 Espérance et variance 165

Théorème 12.2.2 — Positivité de la variance. Soit X une VARDF sur un espace probabilisé
fini (Ω, P (Ω), P). Alors, on a :

(i) V(X) ≥ 0
(ii) V(X) = 0 ⇔ P(X = E(X)) = 1 (on dit que X est presque surement égale à E(X)).

Démonstration. Il suffit d’utiliser le théorème de transfert appliqué à la formule de la variance.


n
Ceci permet d’écrire V(X) = (x i − E(X))2 P(X = x i ) ≥ 0, car c’est une somme de termes positifs.
P
i =1
On voit alors que x i = E(X) tant que P(X = x i ) 6= 0, ce qui permet de conclure pour le cas
V(X) = 0. ■

Théorème 12.2.3 — Formule de Koenig-Huygens. Soit X une VARDF sur un espace proba-
bilisé fini (Ω, P (Ω), P). Alors, on a :

V(X) = E(X 2 ) − (E(X))2 .

n n
(x i − E(X))2 P(X = x i ) = (x i2 − 2E(X)x i + E(X)2 )P(X = x i ) =
P P
Démonstration. On a V(X) =
i =1 i =1
n n n
x i2 P(X = x i ) − 2E(X) x i P(X = x i ) + E(X)2 P(X = x i ) = E(X 2 ) − 2E(X)2 + E(X)2 = E(X 2 ) −
P P P
i =1 i =1 i =1
E(X)2 . ■

Exercice 12.6 Calculer la variance de X, où X est la VARDF de l’exemple 12.1. ■

Définition 12.2.3 — Écart-type d’une VARDF. Soit X une VARDF sur un espace probabilisé
fini (Ω, P (Ω), P). On appelle écart-type de X le réel, noté σ(X), tel que :
p
σ(X) = V(X) .

12.2.3 Transferts usuels


Théorème 12.2.4 — Transfert linéaire. Soient X une VARDF sur un espace probabilisé fini
(Ω, P (Ω), P) et a, b deux réels. Alors, on a :

(i) E(aX + b) = aE(X) + b


(ii) V(aX + b) = a 2 V(X)

Démonstration. Pour l’espérance, il suffit d’utiliser le théorème de transfert puis la linéarité de


la somme. Pour la variance, il suffit de passer par la formule de Koenig-Huygens ainsi que la
formule (i). ■
166 Chapitre 12. Variables aléatoires réelles discrètes finies

Exercice 12.7 Donner le détail des étapes décrites dans la démonstration du théorème
précédent. ■

Définition 12.2.4 — Variable centrée et réduite. Soit X une VARDF sur un espace probabi-
lisé fini (Ω, P (Ω), P). On dit que X est centrée lorsque E(X) = 0. On dit que X est centrée et
réduite lorsque E(X) = 0 et V(X) = 1. Si V(X) 6= 0, on appelle variable centrée réduite associée
à X la VARDF, notée X ∗ , définie par :

X − E(X)
X∗ = .
σ(X)

R Les propriétés des transferts linéaires permettent de vérifier que X ∗ est bien une variable
centrée et réduite.

12.3 Lois usuelles


12.3.1 Loi certaine
Définition 12.3.1 Soit X une VARDF sur un espace probabilisé fini (Ω, P (Ω), P). On dit que X
suit une loi certaine de paramètre a ∈ R si P(X = a) = 1.

Théorème 12.3.1 Soit X une VARDF suivant une loi certaine de paramètre a ∈ R. Alors, on a :

E(X) = a et V(X) = 0 .

Démonstration. Pour l’espérance, c’est immédiat. Pour la variance, il suffit d’appliquer le théo-
rème sur la positivité de la variance. ■

12.3.2 Loi uniforme


Définition 12.3.2 Soient X une VARDF sur un espace probabilisé fini (Ω, P (Ω), P) et E une
partie finie non vide de R. On dit que X suit une loi uniforme sur E si X(Ω) = E et, pour tout
1
x ∈ E, P(X = x) = |E| . On note alors X ,→ U (E).

Théorème 12.3.2 Soit X une VARDF telle que X ,→ U (‚1, nƒ). Alors, on a :

n +1 n2 − 1
E(X) = et V(X) = .
2 12
³ ´ ³P ´
k2
Démonstration. On a E(X) = nk=1 nk = n1 n(n+1) = n+1 2 2 n
P
2 2 et V(X) = E(X ) − E(X) = k=1 n −
³ ´
(n+1)2 1 n(n+1)(2n+1) 2 2

4 = n 6 − (n+1)
4 = (n + 1) 2(2n+1)−3(n+1)
12 = (n+1)(n−1)
12 = n12−1 . ■
12.3 Lois usuelles 167

Exercice 12.8 Soient a, b ∈ Z tels que a < b et X une VARDF telle que X ,→ U (‚a, bƒ). Dé-
terminer l’espérance et la variance de X. On posera X = g (Y) où Y ,→ U (‚1, nƒ) et g est une
fonction de transfert linéaire. ■

12.3.3 Loi de Bernoulli


Définition 12.3.3 Soient X une VARDF sur un espace probabilisé fini (Ω, P (Ω), P) et p ∈]0, 1[.
On dit que X suit une loi de Bernoulli de paramètre p si X(Ω) = {0, 1}, P(X = 1) = p et P(X =
0) = 1 − p. On note alors X ,→ B(p).

Théorème 12.3.3 Soit X une VARDF telle que X ,→ B(p). Alors, on a :

E(X) = p et V(X) = p(1 − p) .

Démonstration. On a E(X) = 0×(1− p)+1× p = p et V(X) = E(X 2 )−E(X)2 = p − p 2 = p(1− p). ■

12.3.4 Loi binomiale


Définition 12.3.4 Soient X une VARDF sur un espace probabilisé fini (Ω, P (Ω), P), n ∈ N∗ et
p ∈]0, 1[. On dit que X suit une loi binomiale de paramètres n et p si X(Ω) = ‚0, nƒ et, pour
tout k ∈ ‚0, nƒ, P(X = k) = nk p k (1 − p)n−k . On note alors X ,→ B(n, p).
¡ ¢

R Une loi de Bernoulli est une loi binomiale de paramètres 1 et p. Qui plus est, une VARDF
de loi binomiale de paramètres n et p permet de modéliser les résultats cumulés de n
itérations d’une expérience aléatoire dont les résultats sont modélisés par une VARDF de
loi de Bernoulli de paramètre p.

Théorème 12.3.4 Soit X une VARDF telle que X ,→ B(n, p). Alors, on a :

E(X) = np et V(X) = np(1 − p) .

Démonstration. On a E(X) = nk=0 k nk p k (1 − p)n−k = nk=1 k nk p k (1 − p)n−k . Or, ∀k ∈ ‚1, nƒ,


P ¡ ¢ P ¡ ¢

k k = n k−1 . D’où E(X) = nk=1 n n−1


¡n ¢ ¡n−1¢ P ¡ ¢ k n−k Pn−1 ¡n−1¢ k n−1−k
k−1 p (1 − p)¡ ¢ = np k=0 k p (1 − p) = np(p +
2 n k
n−1 2 P n n−k P n−1
¡n−1¢ k
1 − p) = np. De même, on a E(X ) = k=0 k k p (1 − p) = np k=0 (k + 1) k p (1 −
n−1−k 2
p) = np(1 + (n − 1)p). Ainsi, V(X) = np(1 + (n − 1)p) − (np) = np(1 − p). ■

Exercice 12.9 On considère une urne de N boules avec b boules blanches et N − b boules
noires. Les boules blanches sont gagnantes et rapporte un euro, les boules noires ne rap-
portent rien. On effectue le tirage d’une boule. Comment peut-on modéliser les gains obte-
nus ? Même question si on effectue n tirages successifs avec remise. ■
Intersemestre
13. Entracte

Les cours du premier semestre de votre première année de prépa ECS sont maintenant
terminés. C’est une bonne occasion pour faire le point. Prenez le temps de revoir les différentes
notions présentes dans chacun des chapitres qui ont été traités et vérifiez qu’elles sont bien
acquises. Reprenez vos définitions et vos propriétés, faites des exercices en lien avec ces points.
Si vous vous rendez compte que vous avez des difficultés avec certains d’entre eux, concentrez
vos efforts sur ceux-ci et n’hésitez surtout pas à me poser des questions. Il évident que vous
pouvez me poser des questions sur n’importe quel point d’un chapitre, même si nous avons vu
celui-ci en tout début d’année ! En mathématiques, on construit chaque nouveau savoir sur les
savoirs construits précédemment. Il est donc essentiel d’être capable de faire le point sur ce que
vous savez pour pouvoir avancer de manière sereine et durable.

Il peut être intéressant pour vous de prendre le temps pour réfléchir à votre méthodologie
de travail. Avez-vous mis en place une stratégie pour bien apprendre et maitriser les notions du
cours ? Êtes-vous satisfaits par celle-ci ? Et comment pouvez-vous l’améliorer ? Quelles stratégies
ont été mises en place par vos condisciples et comment pouvez-vous vous en inspirer ? Voilà un
certain nombre de questions qu’il peut vous être utile de vous poser à ce stade.

N’oubliez pas que savoir travailler, c’est non seulement adopter des stratégies et des outils
qui vous permettent, à vous, d’apprendre et de progresser de manière efficace et durable, mais
également savoir se donner les moyens et le temps de mettre en place ces stratégies et d’utiliser
ces outils. Bien réussir en classe préparatoire nécessite une certaine discipline de vie. Il faut
pouvoir s’imposer un rythme de travail, apprendre à respecter les règles que l’on s’impose de
manière quotidienne, et savoir déroger à ces règles de manière exceptionnelle lorsque c’est
nécessaire. Si vous dérogez systématiquement aux consignes que vous vous êtes imposées pour
l’organisation de votre temps de travail, c’est qu’il faut repenser votre système de gestion du
temps et revoir vos priorités.

Ne vous découragez surtout pas. Les mathématiques ne sont pas toujours faciles. Pour
s’approprier certaines notions, cela demande un grand effort de réflexion, d’abstraction et
beaucoup de travail, pour vous comme pour les autres. Et cela n’a vraiment rien de surprenant.
172 Chapitre 13. Entracte

Comme le rappelle le caricaturiste scien-


tifique Zach Weiner - que je remercie
pour avoir autorisé la reproduction de
cette planche spécialement pour votre
cours -, certaines de ces notions ont mis
des années avant d’être pleinement ac-
ceptées par la communauté scientifique.
Il ne faut donc pas s’étonner que l’on
ne saisisse pas au premier abord l’entiè-
reté du contenu d’un cours de mathéma-
tiques que l’on découvre. Mais ce n’est
pas parce que vous butez sur certains
points que vous n’êtes pas capable de les
comprendre. Au contraire, si vous êtes
dans cette classe, c’est que l’on a estimé
que chacun d’entre vous est en capa-
cité de comprendre ce cours, à condition,
bien sûr, de fournir les efforts et le travail
qui conviennent en classe préparatoire.

Le second semestre commence et


le rythme va s’accélèrer en mathéma-
tiques comme dans les autres matières.
J’ai confiance en chacun d’entre vous
pour vous adapter à ce changement an-
noncé et pour tenir compte des recom-
mandations qui vous sont faites. Bon tra-
vail à tous !
II
Second semestre

14 Espaces vectoriels et dimension finie . . . 175


14.1 Espaces vectoriels de dimension finie
14.2 Sommes de sous-espaces vectoriels
14.3 Sous-espaces vectoriels de Kn

15 Comparaisons asymptotiques . . . . . . . . . 185


15.1 Comparaisons asymptotiques de suites réelles
15.2 Comparaisons asymptotiques de fonctions

16 Séries numériques . . . . . . . . . . . . . . . . . . . 193


16.1 Généralités
16.2 Théorèmes de convergence

17 Probabilités sur un univers quelconque . . 201


17.1 Un exemple
17.2 Espaces probabilisés
17.3 Variables aléatoires réelles
17.4 Variables aléatoires réelles discrètes
17.5 Lois usuelles

18 Applications linéaires . . . . . . . . . . . . . . . . . 219


18.1 Cas général
18.2 Dimension finie

19 Intégration sur un intervalle quelconque 233


19.1 Intégrales généralisées
19.2 Cas des fonctions positives
19.3 Intégrales classiques

20 Dérivées successives . . . . . . . . . . . . . . . . . 241


20.1 Dérivées p -ièmes
20.2 Développements asymptotiques

21 Compléments d’analyse . . . . . . . . . . . . . . 249


21.1 Points critiques
21.2 Fonctions convexes

22 Variables aléatoires à densité . . . . . . . . . 253


22.1 Introduction
22.2 VAR à densité usuelles

23 Convergences et approximations en probas


263
23.1 Convergence en probabilité
23.2 Convergence en loi
14. Espaces vectoriels et dimension finie

Ce chapitre vient compléter les notions vues dans le chapitre introductif sur les espaces
vectoriels en mettant l’accent sur les espaces vectoriels de dimension finie. Dans l’intégralité de
ce chapitre, K pourra désigner l’ensemble R ou l’ensemble C.

14.1 Espaces vectoriels de dimension finie


14.1.1 Définition et théorèmes fondamentaux
On rappelle quil a été démontré dans le chapitre d’introduction aux espaces vectoriels que si
un espace vectoriel E amet une base composée de n vecteurs alors toute base de E est composée
de n vecteurs. Ce théorème permet la définition suivante.
Définition 14.1.1 — Espace vectoriel de dimension finie n . Soient E un K-ev et n ∈ N∗ . On
dit que E est un espace vectoriel de dimension finie n s’il existe une base de E composée de
n vecteurs. On appelle alors n la dimension de E et on note dim(E) = n. Si E = {0E } alors on
dit que E est de dimension 0. Dans tout autre cas, on dit que E est de dimension infinie.

Théorème 14.1.1 — Espace finiment engendré. Soit E un K-ev non réduit à {0E } et F =
(v 1 , ..., v m ) une famille génératrice finie de vecteurs de E. Alors E est de dimension finie n ≤ m
et il existe une sous-famille de n vecteurs de F qui forme une base de E.

Démonstration. On procède par récurrence sur m. Si m = 1 alors F est composé d’un seul
vecteur. Ce vecteur ne peut être nul puisque F est génératrice de E et que E 6= {0E }. Or une
famille composée d’un seul vecteur est libre si et seulement si ce vecteur est non nul (voir
théorème 7.2.4). Ainsi F est libre et c’est donc une base de E. On a donc le résultat pour m = 1.
On suppose donc le résultat vrai pour toute famille de taille m et on considère une famille F
de taille m + 1. Si F est libre, c’est une base et le résultat est immédiat. Sinon, cela signifie qu’il
existe une vecteur v i ∈ F qui est une combinaison linéaire de tous les autres v j avec j 6= i . On a
alors une sous-famille F 0 = v j j 6=i de F , qui est toujours génératrice de E (voir 7.2.3 (ii) ). Par
¡ ¢
176 Chapitre 14. Espaces vectoriels et dimension finie

l’hypothèse de récurrence, cette famille F 0 possède une sous-famille qui est une base de E ce
qui permet de conclure. ■

R Le théorème qui précède affirme qu’un espace vectoriel finiment engendré est de dimen-
sion finie.

Exercice 14.1 Vérifier que la famille suivante est génératrice de R3 et en extraire une base.

1 2 0 2 1
         

F = 0 , 0 , 0 , 0 , 1 .


1 2 1 1 1

Théorème 14.1.2 — Théorème de la base incomplète. Soient E un K-ev de dimension


finie n ∈ N∗ et F = (v 1 , ..., v m ) une famille libre de vecteurs de E. Alors, m ≤ n et il existe des
vecteurs v m+1 , ..., v n tels que la famille (v 1 , ..., v n ) soit une base de E.

Démonstration. Si F est une base de E, c’est fini. Sinon, on considère une base B = (b 1 , ..., b n ) de
E. Comme F n’est pas une base, il existe i 1 ∈ ‚1, nƒ tel que b i 1 ∉ V ECT (F ). On pose alors v m+1 =
b i 1 et F1 = (v 1 , ..., v m , v m+1 ). Cette famille est libre par le théorème 7.2.7. Si elle est génératrice,
c’est une base de E et on a le résultat. Sinon, on peut réitérer le processus et construire une
sur-famille F2 de F qui est libre. Il suffit donc de réitérer le processus jusqu’à obtenir une
famille génératrice de E, ce qui arrive nécessairement. En effet, si pour tout i ∈ ‚1, n −1ƒ, Fi n’est
pas génératrice de E alors Fn est composée de l’intégralité des vecteurs de F et des vecteurs de
B. Dans ce cas, E = V ECT (B) ⊂ V ECT (Fn ) ⊂ E et Fn est génératrice de E. ■

Exercice 14.2 Vérifier que la famille suivante est libre puis la compléter en une base de
R3 [X].
F = X 2 + X, X, X 3 .
¡ ¢


14.1 Espaces vectoriels de dimension finie 177

Corollaire 14.1.3 Soit E un K-ev de dimension finie n ∈ N∗ , alors :

(i) Toute famille libre L de E est composée d’au plus n vecteurs.


(ii) Toute famille génératrice G de E est composée d’au moins n vecteurs.

Démonstration. Le résultat concernant les familles génératrices est une conséquence directe du
théorème 14.1.1. Celui concernant les familles libre est une conséquence directe du théorème
14.1.2. ■

Corollaire 14.1.4 — Caractérisation des bases en dimension finie. Soient E un K-ev de


dimension finie n ∈ N∗ et F une famille finie de n vecteurs de E. Alors, les propositions
suivantes sont équivalentes :

(i) F est une famille libre de E ;


(ii) F est une famille génératrice de E ;
(iii) F est une base de E.

Démonstration. Clairement, (iii) implique à la fois (i) et (ii).


De plus, (ii) implique (iii) via le théorème 14.1.1. En effet, si F est génératrice, elle admet une
sous-famille F 0 qui est une base de E. Or, comme E est de dimension n, cette sous-famille est
composée de n vecteurs. On a donc F 0 = F .
Enfin, (i) implique (iii). En effet, si F est libre, alors pour tout vecteur v ∈ E, la famille Fv ,
composée des vecteurs de F et de v, est forcément liée puisqu’elle est composée de n + 1
vecteurs (par le corollaire 14.1.3). Or cela implique que v ∈ V ECT (F ) (voir théorème 7.2.7). ■

14.1.2 Dimension et sous-espaces vectoriels


Définition 14.1.2 — Dimension d’un sev. Soient E un K-ev et F un sev de E. Alors, la dimen-
sion de F est sa dimension en tant que K-ev.

Théorème 14.1.5 Soient E un K-ev et F un sev de E. Alors, dim(F) ≤ dim(E) avec égalité si et
seulement si E = F.

Démonstration. Toute famille libre de F est également une famille libre de E. Ainsi, si F est
une base de F (composée a fortiori de dim(F) vecteurs), c’est une famille libre de E et, par le
corollaire 14.1.3, elle est composée de moins de dim(E) vecteurs. D’où dim(F) ≤ dim(E). De plus,
si dim(F) = dim(E) alors F est une base de E par le corollaire 14.1.4. D’où E = V ECT (F ) = F. ■

Définition 14.1.3 — Rang d’une famille finie de vecteurs. Soit E un K-ev et F une famille
finie de vecteurs de E alors le rang de F , noté rg(F ), est la dimension de V ECT (F ).

Exercice 14.3 Soit E un K-ev de dimension finie p ∈ N. On considère une suite (v i )i ∈N∗ de
vecteurs de E et on pose, pour tout k ∈ N∗ , Fk = V ECT (v 1 , ..., v k ) et r k = rg(v 1 , ..., v k ). Montrer
que la suite (r k )k∈N∗ est croissante et stationnaire à partir d’un certain rang. En déduire qu’il
existe n 0 ∈ N tel que, pour tout k, l ≥ n 0 , Fk = Fl . ■
178 Chapitre 14. Espaces vectoriels et dimension finie

14.2 Sommes de sous-espaces vectoriels


14.2.1 Sommes de deux sous-espaces vectoriels
Définition 14.2.1 — Somme de deux sev. Soient E un K-ev, F et G deux sev de E. Alors on
définit la somme des deux sev F et G de E, notée F + G, via :
© ¯ ª
F+G = x + y ∈ E ¯ x ∈ F∧ y ∈ G .

Propriété 14.2.1 — Somme de deux sev. Soit E un K-ev. La somme de deux sev de E est un
sev de E.

Exercice 14.4 Démontrer la proriété précédente. ■

Théorème 14.2.2 — Propriétés de la somme de sev. Soient E un K-ev, F, G et H trois sev


de E. On a les propositions suivantes :

(i) F + (G + H) = (F + G) + H (associativité)
(ii) F+G = G+F (commutativité)
(iii) F + {0E } = {0E } + F = F (élément neutre)
(iv) F+E = E+F = E (élément absorbant)
(v) F + G est le plus petit sev de E contenant F et G (minimalité)

Démonstration. Les trois premiers points se déduisent directement des propriétés de l’addition
dans un espace vectoriel.
On montre d’abord (v). On sait que F + G est un sev de E par la propriété précédente. De plus
F = {x + 0E | x ∈ F} ⊂ F + G. De même, G ⊂ F + G. D’où F ∪ G ⊂ F + G. F + G contient donc bien F et
G. Maintenant, si H est un sev de E tels que F ∪ G ⊂ H, alors, pour tout x ∈ F et tout y ∈ G, x ∈ H
et y ∈ H. Comme H est un sev, on a x + y ∈ H. D’où F + G ⊂ H. On en déduit que F + G est bien le
plus petit sev de E contenant F et G.
On déduit de (v) que F+E contient E. Or F+E est un sev de E. D’où F+E = E et on a bien (iv). ■

R On déduit du théorème que, si F et G sont des sev de E, on a F ∩ G ⊂ F ⊂ F + G ⊂ E. En


dimension finie, cela peut être habilement combiné avec le théorème 14.1.5.

Définition 14.2.2 — Somme directe de deux sev. Soient E un K-ev, F et G deux sev de E.
Alors on dit que F et G sont en somme directe si pour tout vecteur z ∈ F + G, il existe une
unique décomposition z = x + y telle que x ∈ F et y ∈ G. Dans ce cas, on note F ⊕ G pour F + G.

Théorème 14.2.3 — Caractérisation de la somme directe de deux sev. Soient E un K-ev,


F et G deux sev de E. Alors F et G sont en somme directe si et seulement si F ∩ G = {0E }.

Démonstration. On suppose que F et G sont en somme directe et on considère z ∈ F ∩ G. On a


alors z = 0E + z = z + 0E et, par unicité de la décomposition de z en somme de vecteurs de F et G,
on bien obtient z = 0E . D’où, F ∩ G = {0E }.
14.2 Sommes de sous-espaces vectoriels 179

Réciproquement, on suppose que F ∩ G = {0E }. Soit z ∈ F + G, on considère deux décompositions


de z en somme de deux vecteurs de F et G : z = x + y = x 0 + y 0 . Alors x − x 0 = y 0 − y. Or x − x 0 ∈ F
et y 0 − y ∈ G, d’où x − x 0 = y 0 − y = 0E et on a bien unicité de la décomposition. ■

14.2.2 Sommes de k sous-espaces vectoriels


Définition 14.2.3 — Somme de k sev. Soient E un K-ev, k un entier supérieur ou égal à 2 et
k
P
F1 , ..., Fk des sev de E. On définit la somme des sev F1 , ..., Fk , notée Fi , via :
i =1
( ¯ )
k
X k
X ¯
Fi = x i ∈ E ¯ ∀i ∈ ‚1, kƒ, x i ∈ Fi .
¯
i =1 i =1
¯

Propriété 14.2.4 — Somme de k sev. Soient E un K-ev et k un entier supérieur ou égal à 2. La


somme de k sev de E est un sev de E.

Exercice 14.5 Démontrer la proriété précédente. ■

Définition 14.2.4 — Somme directe de k sev. Soient E un K-ev, k un entier supérieur ou


égal à 2 et F1 , ..., Fk des sev de E. Alors on dit que les F1 , ..., Fk sont en somme directe si pour
k
P Pk
tout vecteur x ∈ Fi , il existe une unique décomposition x = x i telle que x i ∈ Fi pour
i =1 i =1
k
L k
P
tout i ∈ ‚1, kƒ. Dans ce cas, on note Fi pour Fi .
i =1 i =1

R Dans le cas de k sev, on ne dispose pas d’une caractérisation aussi simple de la propriété
de somme directe que dans le cas de 2 sev comme on peut le voir dans l’exercice 14.6.

14.2.3 Sommes de sous-espaces vectoriels en dimension finie


Théorème 14.2.5 — Dimension d’une somme directe de deux sev. Soient E un K-ev de
dimension finie n, F et G deux sev de E en somme directe. Alors, on a :

dim(F ⊕ G) = dim(F) + dim(G) .

Démonstration. Comme E est de dimension finie n, les sev F et G sont également de dimensions
finies (inférieures ou égales à n). On pose p = dim(F) et q = dim(G). Soit F = (u 1 , ..., u p ) une
base de F et G = (v 1 , ..., v q ) une base de G. Alors B = (u 1 , ..., u p , v 1 , ..., v q ) est une base de F ⊕ G.
Pp Pq
En effet, si z ∈ F ⊕ G alors z = x + y = i =1 λi .u i + j =1 µ j .v j donc B est génératrice de F ⊕ G. De
Pp Pq Pp Pq
plus, si i =1 λi .u i + j =1 µ j .v j = 0E alors i =1 λi .u i = − j =1 µ j .v j ∈ F ∩ G = {0E }, car F et G sont
en somme directe. D’où λ1 = ... = λp = µ1 = ... = µq = 0, car F et G sont libres. D’où B est libre
et c’est donc une base de F ⊕ G. On en déduit que dim(F ⊕ G) = p + q = dim(F) + dim(G). ■
180 Chapitre 14. Espaces vectoriels et dimension finie

Corollaire 14.2.6 — Dimension d’une somme directe de k sev. Soient E un K-ev de


dimension finie n, k un entier supérieur ou égal à 2 et F1 , ..., Fk des sev de E en somme
directe. Alors, on a : Ã !
k
M k
X
dim Fi = dim(Fi ) .
i =1 i =1

Démonstration. Ce résultat est un corollaire direct du théorème précédent. Il s’obtient par


récurrence sur k via ki=1 Fi =
L ¡Lk−1 ¢
i =1 Fi ⊕ Fk . ■

Exercice 14.6 On considère les sev F1 = V ECT ((1, 0)), F2 = V ECT ((0, 1)) et F3 = V ECT ((1, 1))
de R2 . Montrer que F1 ∩ F2 = F2 ∩ F3 = F1 ∩ F3 = {0} et que R2 = F1 + F2 + F3 mais qu’il ne s’agit
pas d’une somme directe. ■

Corollaire 14.2.7 — Formule de Grassmann. Soient E un K-ev de dimension finie n, F et


G des sev de E. Alors, on a :

dim(F + G) = dim(F) + dim(G) − dim(F ∩ G) .

Démonstration. Comme E est de dimension finie n, les sev F, G et F ∩ G sont également de


dimensions finies (inférieures ou égales à n). On pose p = dim(F), q = dim(G) et r = dim(F ∩ G).
Soit (u 1 , ..., u r ) une base de F∩G. Par le théorème de la base incomplète, on peut compléter cette
¡ ¢ ¡ ¢
famille en une base u 1 , ..., u r , v 1 , .., v p−r de F, ainsi qu’en une base u 1 , ..., u r , w 1 , .., w q−r de G.
On pose F0 = V ECT v 1 , .., v p−r et G0 = V ECT w 1 , .., w q−r . Alors F + G = F ∩ G ⊕ F0 ⊕ G0 . En effet, si
¡ ¢ ¡ ¢

on considère deux décompositions x + y + z = x 0 + y 0 + z 0 d’un même vecteur dans F ∩ G + F0 + G0 ,


on a x − x 0 + y − y 0 = z 0 − z d’où z 0 − z ∈ F ∩ G puis z 0 − z = 0E et z 0 = z. De même, on obtient
y 0 = y, puis x 0 = x. On en déduit donc que F ∩ G, F0 et G0 sont en somme directe, puis que
dim(F + G) = r + (p − r ) + (q − r ) = p + q − r = dim(F) + dim(G) − dim(F ∩ G) . ■

R La formule de Grassmann est le pendant, pour la dimension des sev, de la formule du


cardinal d’une union (formule du crible), via le dénombrement des éléments des bases.

Exercice 14.7 Soient V et W deux sev d’un espace vectoriel U tels que dim(V) = 4, dim(W) =
5 et dim(U) = 7. Trouver les dimensions possibles de V ∩ W. ■

Pour démontrer les résultats précédents, on a procédé en choisissant une base pour chacun
des sev en somme directe, puis on a concaténé ces bases. La concaténation de deux listes est
14.3 Sous-espaces vectoriels de Kn 181

l’opération qui consiste à ajouter à la fin de la première liste les éléments de la seconde liste. Pour
une somme directe de k sev de E, on construit ainsi une base de E par concaténation successive,
on dit que cette base est adaptée à la somme directe. De manière réciproque, à toute partition
d’une base de E, on peut associer une décomposition de E en somme directe.

14.2.4 Sous-espaces supplémentaires


Définition 14.2.5 — Sev supplémentaire. Soient E un K-ev, F et G deux sev de E. Alors on
dit que F et G sont supplémentaires si et seulement si les deux propositions suivantes sont
satisfaites :
(i) F et G sont en somme directe ;
(ii) F + G = E.

R Par les résultats précédents, deux sev sont supplémentaires si et seulement F ∩ G = {0E } et
F + G = E, ou encore, si et seulement si tout vecteur de E se décompose de manière unique
comme somme de deux vecteurs de F et G.

Exercice 14.8 Donner un supplémentaire du sev de R2 [X] engendré par X. Ce supplémen-


taire est-il unique ? ■

Théorème 14.2.8 — Existence d’un supplémentaire en dimension finie. Soient E un K-ev


de dimension finie n et F un sev de E. Alors F possède un sev supplémentaire dans E.

Démonstration. Il suffit de considérer une base F de F que l’on complète en une base B de E.
Les vecteurs ajoutés à F pour former B engendrent alors un supplémentaire de F dans E. ■

Théorème 14.2.9 — Caractérisation du supplémentaire en dimension finie. Soient E un


K-ev de dimension finie n, F et G des sev de E. Alors F et G sont supplémentaires si et
seulement si on a les propositions suivantes :

(i) F ∩ G = {0E } ;
(ii) dim(F) + dim(G) = dim(E).

Démonstration. F et G sont supplémentaires si et seulement si F ∩ G = {0E } et F + G = E. Mais


dim(F + G) = dim(F) + dim(G) − dim(F ∩ G). Ainsi, si F et G sont supplémentaires, on a bien
dim(E) = dim(F + G) = dim(F) + dim(G). Réciproquement, si dim(E) = dim(F) + dim(G) et F ∩
G = {0E }, alors dim(E) = dim(F + G). D’où E = F + G par le théorème 14.1.5, ce qui permet de
conclure. ■

14.3 Sous-espaces vectoriels de Kn


Dans cette section, on présente rapidement quelques savoir-faire attendus à partir d’exemples.
À ce stade, la plupart des sous-espaces vectoriels de E = Kn que vous pourrez rencontrer seront
présentés sous l’une des deux formes suivantes (ou une combinaison de celles-ci) : l’ensemble
des solutions d’un système d’équations linéaires homogènes ou bien le sous-espace vectoriel
182 Chapitre 14. Espaces vectoriels et dimension finie

engendré par une famille de vecteurs. Les sous-espaces F et G ci-dessous sont tous deux des sev
de R4 :
  ¯         
 x ¯  1 1 −1 0

  ¯ x +y −2z = 0


y   2  −1  0   1 
 ¯         
F =   ∈ R4 ¯ 2x −y +t = 0 et G = V ECT   ,   ,   ,   .
¯
 z  ¯   0  −1  0  −1


 t ¯ 3x +3y −z +t = 0  
¯  −1 −1 1 0

En s’appuyant sur ces deux exemples, on illustre comment :


— passer d’une écriture à l’autre et vice versa ;
— déterminer leur intersection ;
— déterminer leur somme ;
— déterminer leurs dimensions.
.

Des équations à une famille de vecteurs


On commence par réduire le système en utilisant la méthodologie vue au chapitre 5. On a :
     
x  x  x
1 1 −2 0   0 1 1 −2 0   0
     
y  y y
  ∈ F ⇐⇒ 2 −1 0 1   = 0 ⇐⇒ 0 −3 4 1   = 0 .
     
z  z  z 
3 3 −1 1 0 0 0 −5 1 0
t t t

Une fois le système réduit de la sorte, on peut exprimer ses solutions en fonction du seul
paramètre t . On a :
  ¯    ¯    ¯ 
 x  x  −t
¯ ¯ ¯
= − 5t
     
¯ x
 ¯ = −y +2z 
  ¯ x 
  ¯ 

 y    y  ¯   3t  ¯ 
4¯ 4¯ 4¯
F =   ∈ R ¯ −3y = −4z −t =  ∈R ¯ y = 3t5 =  ∈R ¯ t ∈R .
     
 z   z   t 
= 5t
¯   ¯   ¯ 


 t ¯ −5z = −t 

  t ¯ z 

  5t ¯ 


¯ ¯ ¯
 
−1
 3 
D’où F = V ECT  .
 
 1 
5

D’une famille
  de vecteurs
  à des équations
      
x x 1 1 −1 0
y  y  2 −1 0 1
On a   ∈ G ⇐⇒   = α   + β   + γ   + δ   avec α, β, γ et δ des réels. Et
           
z  z  0 −1 0 −1
t t −1 −1 1 0
α α
      
1 1 −1 0 x
β  2 −1 0 1  β  y 
on a alors   qui est solution du système :     =  , qui est équivalent,
      
γ  0 −1 0 −1 γ  z 
δ −1 −1 1 0 δ t
α
    
1 1 −1 0 x
0 −1 0 −1 β  z 
par réduction, au système :    =  . Or ce système possède des
    
0 0 2 4  γ  y − 2x − 3z 
0 0 0 0 δ x +t
  ¯ 

 x ¯
¯ 


 y  ¯ 

4
solutions si et seulement si x + t = 0. On en déduit donc que G =   ∈ R ¯ x + t = 0 .
  ¯

 z  ¯ 


 t ¯ 

¯
14.3 Sous-espaces vectoriels de Kn 183

L’intersection
Déterminer l’intersection de deux sev de Kn est très aisé lorsqu’ils s’expriment comme des
ensembles de solutions de systèmes linéaires homogènes. Il suffit alors de concaténer les deux
systèmes d’équations. Ici, on peut écrire :
  ¯ 

 x ¯x
¯  +y −2z = 0

 y  ¯ 
4 ¯ 2x −y +t = 0 

F∩G =   ∈ R ¯ .
 

 z  ¯ 3x +3y −z +t = 0 

 t ¯ 

¯ x
 +t = 0 

Bien évidemment, il vaut mieux utiliser l’écriture équivalente de F la plus


 réduite ¯possible pour
¯ x = − t 
  
 x
 y = 3t5 

 ¯  
 y  ¯ 
ne pas répéter les mêmes calculs deux fois. On écrit donc plutôt : F∩G =   ∈ R4 ¯ 5
  ¯
t

 z  ¯ z =5 

 t ¯ 

¯ x =t 
 
0
0
et on obtient rapidement F ∩ G =  .
 
0
0

La somme
De manière complémentaire, il est très facile de décrire la somme de deux sev lorsqu’ils sont
engendrés par des familles de vecteurs. Il suffit alors de concaténer les deux familles. Ici, cela
donne :          
1 1 −1 0 −1
 2  −1  0   1   3 
F + G = V ECT   ,   ,   ,   ,   .
         
 0  −1  0  −1  1 
−1 −1 1 0 5
Encore une fois, il vaut mieux prendre la forme
 laplus réduite
  possible
 pour G pour ne pas se
1 1 −1 −1
 2  −1  0   3 
répéter. On écrit donc plutôt F + G = V ECT   ,   ,   ,  . En réduisant à nouveau,
       
 0  −1  0   1 
−1 −1 1 5
on trouve F + G = E.

On remarque qu’il y a de nombreuses possibilités pour atteindre ce résultat. Ici, il on pouvait


également utiliser la formule de Grassmann : dim(F + G) = dim(F) + dim(G) − dim(F  ∩ G) = 1 +
−1
3
3 − 0 = 4 = dim(E). D’où F + G = E. De même, on vérifie facilement que le vecteur   ne vérifie
 
1
5
       
1 1 −1 −1
 2  −1  0   3 
pas l’équation x + t = 0, il n’appartient donc pas à G et la famille   ,   ,   ,   est
       
 0  −1  0   1 
−1 −1 1 5
donc libre. Comme son cardinal vaut 4, c’est bien une base de E.

Dimensions
La question de la dimensionalité de ces sous-espaces vectoriels est bien évidemment traité
dans les points précédents. Toutefois, il n’est pas nécessaire d’aller au bout des calculs si l’on ne
s’intéresse qu’à cette question.
184 Chapitre 14. Espaces vectoriels et dimension finie

Dans le cas d’un sev défini par un système d’équations linéaires homogène, il est aisé de
voir que pour un système échelonné à n inconnues et p équations (toutes non nulles), on peut
écrire une base des solutions avec n − p vecteurs. Il est donc suffisant de réduire le système pour
déterminer la dimension de son ensemble de solutions, sans avoir besoin de le résoudre.

De même, dans le cas d’un sev engendré par une famille de vecteurs, on peut s’arrêter sans
compléter chacune des étapes du  calcul.
  Dans l’exemple  considéré, la réduction
   dusystème
α α

1 1 −1 0 0 1 1 −1 0 0
 2 −1 0 1  β 0
    
0 −1 0 −1 β 0
     
homogène :     =  , au système :     =  , montre

 0 −1 0 −1 γ 0 0 0 2 4  γ 0
−1 −1 1 0 δ 0 0 0 0 0 δ 0
que la famille considérée est liée. Par contre, la sous-famille composée des vecteurs associés aux
pivots de ce système échelonné est une base de G. Cette méthode permet donc de déterminer le
rang d’une famille de vecteurs de Kn en réduisant un système homogène associé.

Exercice 14.9 On considère les sev F = (x, y, z) ∈ R3 ¯ −9x − 3y + 5z = 0 et G = V ECT ((1, 1, 1))
© ¯ ª

de R3 . Montrer que F ⊕ G = R3 . ■
15. Comparaisons asymptotiques

L’étude par comparaisons asymptotiques est une branche de l’analyse en mathématiques


qui regroupe les différentes méthodes permettant de comparer le comportement d’une fonction
au voisinage d’un point ou en l’infini aux comportements de fonctions usuelles bien connues.
On commence d’abord par s’intéresser au cas du comportement des suites réelles en l’infini,
puis au cas plus général des fonctions réelles.

15.1 Comparaisons asymptotiques de suites réelles


15.1.1 Petit « o » de Landau
Définition 15.1.1 — Suite négligeable devant une autre. Soient (u n )n∈N et (v n )n∈N deux
suites réelles. On dit que (u n )n∈N est négligeable devant (v n )n∈N au voisinage de l’infini s’il
existe un rang n 0 ∈ N et une suite (εn )n∈N tels que :

(i) lim
n→+∞εn = 0 ;
(ii) ∀n ≥ n 0 , u n = εn v n .

Dans ce cas, on note u n = o(v n ) ou simplement u n = o(v n ).


n→+∞

R La notation précédente fait partie des notations de Landau et se lit petit « o ». Les notations
de Landau sont toutes très utilisées, notamment en algorithmique.

Exercice 15.1 Parmi les propositions suivantes, lesquelles sont vraies ?

1
sin(n) = o(e n ) , n 2 + 1 = o(n) , n ln(n) = o(n 2 ) , = o((−1)n ) .
n2

186 Chapitre 15. Comparaisons asymptotiques

Théorème 15.1.1 — Caractérisation de la négligeabilité. Soient (u n )n∈N et (v n )n∈N deux


suites réelles telles que v n 6= 0 à partir d’un certain rang. Alors :

lim
un
u n = o(v n ) ⇔ n→+∞ =0.
vn

un
Démonstration. Il suffit de poser εn = vn . ■

lim u = 0.
Exercice 15.2 Montrer que u n = o(1) ⇔ n→+∞ n ■

Théorème 15.1.2 — Règles de calcul. Soient (u n )n∈N , (v n )n∈N , (w n )n∈N et (t n )n∈N des suites
réelles et λ ∈ R. On a les propositions suivantes :

(i) u n = o(v n ) et v n = o(w n ) ⇒ u n = o(w n ) (transitivité)


(ii) u n = o(w n ) et v n = o(w n ) ⇒ u n + v n = o(w n ) (somme)
(iii) u n = o(v n ) et w n = o(t n ) ⇒ u n × w n = o(v n × t n ) (produit)
(iv) u n = o(v n ) ⇒ λ.u n = o(v n ) (multiplication par un scalaire)
(v) u n = o(v n ) ⇒ u n × w n = o(v n × w n ) (multiplication par une suite)

Exercice 15.3 Démontrer chacun de ces résultats. ■

15.1.2 Suites équivalentes


Définition 15.1.2 — Suites équivalentes. Soient (u n )n∈N et (v n )n∈N deux suites réelles. On
dit qu’elles sont équivalentes s’il existe une suite (αn )n∈N et un entier n 0 ∈ N tels que :

(i) lim
n→+∞αn = 1 ;
(ii) ∀n ≥ n 0 , u n = αn v n .

Dans ce cas, on note u n ∼ v n ou simplement u n ∼ v n .


n→+∞

Exercice 15.4 Parmi les propositions suivantes, lesquelles sont vraies ?

p
µ ¶
1 1 p 5
sin(n) ∼ cos(n) , n 2 + 1 ∼ 2n 2 − ln(n) , sin ∼ , n + 1 ∼ n2 n + 1 .
n n

15.1 Comparaisons asymptotiques de suites réelles 187

Exercice 15.5 Vérifier que ∼ définit bien une relation d’équivalence (i.e. une relation tran-
sitive, symétrique et réflexive). ■

Théorème 15.1.3 — Caractérisation de l’équivalence. Soient (u n )n∈N et (v n )n∈N deux


suites réelles telles que v n 6= 0 à partir d’un certain rang. Alors :

lim
un
u n ∼ v n ⇔ n→+∞ =1.
vn
un
Démonstration. Il suffit de poser αn = vn . ■

Théorème 15.1.4 — Équivalence et notation de Landau. Soient (u n )n∈N et (v n )n∈N deux


suites réelles. Alors :

u n ∼ v n ⇔ u n − v n = o(v n ) ⇔ u n = v n + o(v n ) .

Démonstration. Il suffit de pose εn = αn − 1. ■

lim v = l ∈ R. Montrer que


Exercice 15.6 Soient u et v deux suites telles que u n ∼ v n et n→+∞ n
lim
l’on a alors n→+∞ u n = l . ■

Théorème 15.1.5 — Règles de calcul. Soient (u n )n∈N , (v n )n∈N , (w n )n∈N et (t n )n∈N des suites
réelles et β ∈ R. On a les propositions suivantes :

(i) u n ∼ v n et w n ∼ t n ⇒ u n × w n ∼ v n × t n (produit)
un vn
(ii) u n ∼ v n et w n ∼ t n ⇒ ∼ (si les suites sont bien définies) (quotient)
wn tn
(iii) u n ∼ v n ⇒ (u n )β ∼ (v n )β (si les suites sont bien définies) (puissance)

Démonstration. Soient u n ∼ v n et w n ∼ t n , avec u n = αn v n et w n = βn t n . On a alors u n × w n =


(αn βn )v n × t n et n→+∞
lim α β = 1. D’où (i).
n n
α
Le point (ii) se démontre de même en considérant βnn .
De même que le point (iii), via (αn )β . ■

R Additionner des suites équivalentes n’est, en règle général, pas une très bonne idée. Il vaut
mieux, pour cela, passer à la notation de Landau.
188 Chapitre 15. Comparaisons asymptotiques

15.1.3 Suites usuelles


Exercice 15.7 — Croissances comparées. Réécrire le théorème des croissances compa-
rées en termes de petit « o ». ■

Théorème 15.1.6 — Polynômes. Soient (x n )n∈N une suite réelle et P ∈ R[X]. On suppose que
P = a p X p + ... + a q X q , avec p ≤ q, a p 6= 0 et a q 6= 0 les coefficients de plus grand et plus petit
degré de P. Alors :

(i) lim x = 0, alors P(x ) ∼ a (x )p ;


si n→+∞ n n p n
(ii) lim x = +∞, alors P(x ) ∼ a (x )q .
si n→+∞ n n q n

a p+1 aq
Démonstration. Si x n tend vers 0, alors il suffit de poser αn = 1 + a p x n + ... + a p (x n )q−p .
Si x n tend vers +∞, on peut utiliser la caractérisation de l’équivalence sans problème. ■

Théorème 15.1.7 — Équivalents usuels. Soient (x n )n∈N une suite convergente vers 0 et β ∈ R.
On a alors les équivalences suivantes :

(i) ln(1 + x n ) ∼ x n , (ii) tan(x n ) ∼ x n , (iii) sin(x n ) ∼ x n ,


x n2
(iv) 1 − cos(x n ) ∼ 2 , (v) e xn
− 1 ∼ xn , (vi) (1 + x n )β − 1 ∼ βx n .

f 1 (x) 1
Démonstration. On considère la fonction f 1 : x 7→ ln(1 + x). On a lim x = f 10 (0) = 1+0 = 1 en
x→0
utilisant le nombre dérivé. On peut définir une suite de terme général αn avec αn = 1 si x n = 0 et
f (x )
αn = 1xnn sinon. On a alors bien f 1 (x n ) = αn x n et n→+∞
lim α = 1.
n
On obtient les autres résultats de même, via l’utilisation du nombre dérivé d’une fonction
particulière en 0. ■

Exercice 15.8 Finir la démonstration du théorème. ■


15.2 Comparaisons asymptotiques de fonctions 189

15.1.4 Culture G : Barack Obama et la complexité algorithmique


L’algorithmique est une branche de l’informatique dans laquelle on utilise beaucoup les
comparaisons asymptotiques de suites. En effet, si on prend un problème qui est résoluble via
un algorithme, il est toujours intéressant de pouvoir considérer l’algorithme le plus rapide pour
résoudre le problème. Pour cela, on modélise le temps d’exécution d’un algorithme par une
suite qui dépend de différents paramètres liés au contexte d’exécution de l’algorithme. On parle
alors de complexité algorithmique de l’algorithme.

Dans l’exemple de la recherche du nombre d’occurences d’un mot dans un texte, plus le
texte est long, plus il va falloir de temps pour compter toutes les occurrences du mot. Le nombre
total n de lettres dans le texte est un paramètre variable que l’on pourra prendre en compte
pour caractériser, de manière pertinente, la longueur du texte dans une modélisation du temps
d’éxécution d’un algorithme de recherche.

Parmi les différents problèmes à résoudre qui apparaissent en informatique, l’un de ceux
qui a été le plus étudié est la question du tri des éléments d’une liste. On considère une liste de
nombre et on cherche à ordonner les éléments de cette liste. Le paramètre essentiel dans ce
problème est le nombre n d’éléments dans cette liste. Il existe de très nombreux algorithmes
pour effectuer cette tâche (près d’une cinquantaine sont listés sur la page Wikipedia : Sor-
ting_algorithm). La connaissance d’un certain nombre d’entre eux fait partie des savoirs de base
d’un étudiant en informatique et on pourrait aller jusqu’à dire qu’il s’agit là de culture générale.

En 2007, lorsque Barack Obama était en campagne pour les élections présidentielles amé-
ricaines, il rencontra Eric Schmidt, alors PDG de Google, pour un entretien télévisé (vidéo
disponible sur Youtube : Barack Obama - Computer Science Question). Au début de cet entre-
tien, Eric Schmidt pensait pouvoir taquiner Barack Obama en lui demandant quel algorithme
choisir pour trier un million d’entiers de 32 bits. Le futur président des États-Unis surprend
alors tout le monde en répondant que le tri à bulles n’est certainement pas la bonne façon de
procéder. Et, en effet, le tri à bulles est bien connu des informaticiens pour être l’un des plus
mauvais algorithmes de tri, en termes de complexité algorithmique. Que nous apprend cette
histoire ? Si vous aspirez à devenir président des États-Unis, mieux vaut connaître la complexité
des vos algorithmes de tri, cela pourra toujours être utile !

15.2 Comparaisons asymptotiques de fonctions


Dans la section qui suit, on généralise les notions vues dans la section précédente aux
fonctions. Dans le cas des suites, seul le comportement asymptotique au voisinage de l’infini est
considéré. Dans le cas des fonctions, il est possible de considérer le comportement asymptotique
d’une fonction au voisinage de +∞, mais aussi de −∞ et de n’importe quel point dans l’intérieur
du domaine de définition de la fonction. On précise ces notions de voisinage dans R dans la
définition suivante.
Définition 15.2.1 — Voisinage. Soit x 0 ∈ R, on appelle voisinage de x 0 tout sous-ensemble V
de R qui contient un intervalle ouvert de R contenant x 0 . On appelle voisinage de +∞ (resp.
−∞) tout sous-ensemble de R qui contient un intervalle ouvert de R ayant pour borne +∞
(resp. −∞).

Ce point mis à part, cette section est quasiment identique à la section précédente. Il est donc
utile de pouvoir faire des parallèles entre les deux.
190 Chapitre 15. Comparaisons asymptotiques

15.2.1 Petit « o » de Landau


Définition 15.2.2 — Fonction négligeable devant une autre. Soient f et g deux fonctions
réelles définies sur un intervalle I ⊂ R et x 0 ∈ R. On dit que f est négligeable devant g au
voisinage de x 0 s’il existe un voisinage V de x 0 et une fonction ε, définie sur V, tels que :

(i) ε(x) = 0 ;
lim
x→x 0
(ii) ∀x ∈ V ∩ I, f (x) = ε(x)g (x).

Dans ce cas, on note f (x) = o(g (x)) ou simplement f (x) =x0 o(g (x)).
x→x 0

Théorème 15.2.1 — Caractérisation de la négligeabilité. Soient x 0 ∈ R, f et g deux fonc-


tions réelles définies sur un voisinage de V de x 0 . On suppose que g ne s’annule pas sur V \{x 0 }.
Alors :
lim
f (x)
f (x) =x0 o(g (x)) ⇔ x→x =0.
0
g (x)

f
Démonstration. Il suffit de poser ε = g sur V \ {x 0 } et ε(x 0 ) = 0. ■

lim f (x) = 0.
De manière analogue au cas des suites, on a f (x) =x0 o(1) ⇔ x→x
R 0

Théorème 15.2.2 — Règles de calcul. Soient x 0 ∈ R, f , g , h et i des fonctions réelles définies


sur un voisinage de x 0 et λ ∈ R. On a les propositions suivantes :

(i) f (x) =x0 o(g (x)) et g (x) =x0 o(h(x)) ⇒ f (x) =x0 o(h(x)) (transitivité)
(ii) f (x) =x0 o(h(x)) et g (x) =x0 o(h(x)) ⇒ f (x) + g (x) =x0 o(h(x)) (somme)
(iii) f (x) =x0 o(g (x)) et h(x) =x0 o(i (x)) ⇒ f (x) × h(x) =x0 o(g (x) × i (x)) (produit)
(iv) f (x) =x0 o(g (x)) ⇒ λ. f (x) =x0 o(g (x)) (multiplication par un scalaire)
(v) f (x) =x0 o(g (x)) ⇒ f (x)×h(x) =x0 o(g (x)×h(x)) (multiplication par une fonction)

Démonstration. Il suffit d’adapter la démonstration du théorème 15.1.2 faite en exercice au


contexte des fonctions. ■

R Il faut faire attention lorsque l’on manipule ces notions. Le symbole =x0 accompagné
d’une petit « o » ne fonctionne pas tout à fait comme le signe égal habituel. Par exemple,
o(x) − o(x) =0 o(x) et non 0 comme on pourrait l’imaginer.

15.2.2 Fonctions équivalentes


Définition 15.2.3 — Fonctions équivalentes. Soient f et g deux fonctions réelles définies
sur un intervalle I ⊂ R et x 0 ∈ R. On dit qu’elles sont équivalentes au voisinage de x 0 s’il existe
un voisinage V de x 0 et une fonction α, définie sur V, tels que :

(i) limα(x) = 1 ;
x→x 0
(ii) ∀x ∈ V ∩ I, f (x) = α(x)g (x).

Dans ce cas, on note f (x) ∼ g (x) ou simplement f (x) ∼x0 g (x).


x→x 0

R De même que pour les suites, on vérifie facilement que ∼x0 définit une relation d’équiva-
lence (i.e. une relation transitive, symétrique et réflexive).
15.2 Comparaisons asymptotiques de fonctions 191

Théorème 15.2.3 — Caractérisation de l’équivalence. Soient x 0 ∈ R, f et g deux fonctions


réelles définies sur un voisinage de V de x 0 . On suppose que g ne s’annule pas sur V \ {x 0 }.
Alors :
lim
f (x)
f (x) ∼x0 g (x) ⇔ x→x =1.
0
g (x)

Exercice 15.9 Démontrer le théorème précédent. ■

Théorème 15.2.4 — Équivalence et notation de Landau. Soient x 0 ∈ R, f et g deux fonc-


tions réelles définies sur un voisinage de V de x 0 . Alors :

f (x) ∼x0 g (x) ⇔ f (x) − g (x) =x0 o(g (x)) ⇔ f (x) =x0 g (x) + o(g (x)) .

Exercice 15.10 Démontrer le théorème précédent. ■

R Si f est continue en x 0 alors on a f (x) =x0 f (x 0 ) + o(1). En particulier, si f est continue en


x 0 et f (x 0 ) ∈ R∗ , on a f (x) ∼x0 f (x 0 ). Attention ! Ce n’est pas le cas si f (x 0 ) = 0.

Théorème 15.2.5 — Règles de calcul. Soient x 0 ∈ R, f , g , h et i des fonctions réelles définies


sur un voisinage de x 0 et β ∈ R. On a les propositions suivantes (à conditions que les quotients
et puissances soient bien définis) :

(i) f (x) ∼x0 g (x) et h(x) ∼x0 i (x) ⇒ f (x) × h(x) ∼x0 g (x) × i (x) (produit)
f (x) g (x)
(ii) f (x) ∼x0 g (x) et h(x) ∼x0 i (x) ⇒ ∼x 0 (quotient)
¡ ¢β ¡ h(x)
¢β i (x)
(iii) f (x) ∼x0 g (x) ⇒ f (x) ∼x0 g (x) (puissance)

Démonstration. Il suffit d’adapter la démonstration du théorème 15.1.5 au contexte des fonc-


tions. ■

R Comme pour les suites, il est déconseillé d’additionner des fonctions équivalentes et on
conseille plutôt de passer à la notation de Landau pour les additions.

Théorème 15.2.6 — Changement de variables. Soient x 0 , y 0 ∈ R, f et g des fonctions


réelles définies sur un voisinage V de x 0 et ϕ une fonction définie sur un voisinage V 0 de y 0 et
à valeurs dans V. Alors :
³ ´
lim ϕ(y) = x ⇒ f ϕ(y) ∼ g ϕ(y) .
¡ ¢ ¡ ¢
f (x) ∼x0 g (x) et y→y 0 0 y0

Démonstration. Si, pour tout x ∈ V, f (x) = α(x)g (x) avec x→x


lim α(x) = 1 et lim ϕ(y) = x alors on a,
0 y→y 0 0
pour tout y ∈ V , f (ϕ(y)) = α(ϕ(y))g (ϕ(y)) et, par composition de limites, y→y
0 lim α(ϕ(y)) = 1.
0

192 Chapitre 15. Comparaisons asymptotiques

15.2.3 Fonctions usuelles


Exercice 15.11 — Croissances comparées. Réécrire le théorème des croissances compa-
rées dans le contexte des fonctions. ■

Théorème 15.2.7 — Polynômes. Soit P ∈ R[X]. On suppose que P = a p X p + ... + a q X q , avec


p ≤ q, a p 6= 0 et a q 6= 0 les coefficients de plus grand et plus petit degré de P. Alors :

(i) P(x) ∼0 a p x p ;
(ii) P(x) ∼+∞ a q x q .

Démonstration. Il suffit d’adapter la démonstration du théorème 15.1.6 au contexte des fonc-


tions. ■

Théorème 15.2.8 — Équivalents usuels en 0. On a les équivalences suivantes :

(i) ln(1 + x) ∼0 x , (ii) tan(x) ∼0 x , (iii) sin(x) ∼0 x ,


2
(iv) 1 − cos(x) ∼0 x2 , (v) e x − 1 ∼0 x , (vi) (1 + x)β − 1 ∼0 βx (β ∈ R).

Démonstration. Il suffit d’adapter la démonstration du théorème 15.1.7 au contexte des fonc-


tions. ■

³ ´x
lim 1 + λ
Exercice 15.12 Soit λ ∈ R. Montrer que x→+∞ = e λ. ■
x
16. Séries numériques

Ce chapitre s’intéresse à des suites particulières, définies par des sommes, que l’on appelle
séries. Il est important, pour aborder ce chapitre de manière sereine, de bien maitriser les notions
sur les suites vues au cours des chapitres précédents, notamment le chapitre 4 et le chapitre 15.

16.1 Généralités
16.1.1 Définition
Définition 16.1.1 — Série numérique. Soit (u n )n∈N une suite réelle. On appelle série de
P
terme général u n et on note u n , la suite (S n )n∈N définie par :
n≥0

n
∀n ∈ N, S n =
X
uk
k=0

Pour tout n ∈ N, le réel S n est appelé la somme partielle de rang n, associée à la série
P
un .
n≥0

P
R On rajoute bien évidemment à cette définition les séries n≥p u n dontPle terme général
n’est défini qu’à partir d’un certain p ∈ N et on pose alors ∀p ≥ n, S n = nk=p u n .

Exemple 16.1 Une des séries les plus célèbres est la série harmonique : n≥1 n1 ; qui corres-
P

¡Pn 1 ¢
pond à la suite k=1 k n∈N∗ . ■

P 1
■ Exemple 16.2 La série n≥0 2n est une série géométrique. Ces séries sont étudiés plus en
détail dans la suite du cours. ■

■ Exemple 16.3 Pour étudier la suite (v n )n∈N , on peut s’intéresser à la série de terme général
v n+1 − v n . En effet, les sommes partielles S n de la série sont des sommes téléscopiques et on a
S n = v n+1 − v 0 . ■

R Une série est une suite bien particulière mais reste une suite. Tous les résultats s’appliquant
à une suite sont donc vrais dans le cas d’une série.
194 Chapitre 16. Séries numériques

16.1.2 Convergence
Définition 16.1.2 — Convergence et nature. Une série est dite convergente si et seulement
si la suite de ses sommes partielles est convergente. La nature d’une série est la nature de la
suite de ses sommes partielles.

Exercice 16.1 Rappeler les quatre natures possibles d’une suite. ■

Exercice 16.2 Soient n 0 ∈ N et n≥0 u n une série. Montrer que l’on ne modifie pas la nature
P

d’une série en changeant ses n 0 premiers termes. ■

Exercice 16.3 Déterminer la nature des séries proposées en exemple en tout début de
chapitre. ■

P
Définition 16.1.3 — Somme d’une série convergente. Soit n≥0 u n une série convergente.
La somme de cette série est la limite de la suite de ses sommes partielles. On la note +∞
P
n≥0 u n .

P
Définition 16.1.4 — Reste d’une série congergente. Soit n≥0 u n une série convergente et
S sa somme. Pour tout réel n ∈ N, le réel Rn = S − S n est appelé le reste de rang n de la série.

P
R Le reste de rang n 0 d’une série convergente n≥0 u n peut être vu comme la somme
P+∞ P
u
n=n 0 +1 n de la série convergente u
n>n 0 n . La suite des restes (Rn )n∈N converge vers 0.

16.2 Théorèmes de convergence


Un certain nombre de résultats permettent de lier l’étude de la nature de séries à l’étude de
leurs termes généraux. Ce sont ces résultats qui font tout l’intérêt de ce cours sur les séries.

16.2.1 Résultats directs


Théorème 16.2.1 — Condition nécessaire de convergence. La suite des termes généraux
d’une série convergente tend vers 0.
P
Démonstration. Si l’on considère une série convergente n≥0 u n , alors u n = S n+1 − S n et, par
lim u = S − S = 0.
linéarité du passage à la limite, n→+∞ ■
n
16.2 Théorèmes de convergence 195

lim u = 0.
P
R Le théorème peut s’écrire : n≥0 u n converge ⇒ n→+∞ n

P n
■ Exemple 16.4 La série n≥1 (−1) ln(n) est divergente car la suite de ses termes généraux ne
tend pas vers 0. ■

Exercice 16.4 Donner un contre-exemple à la réciproque de ce théorème. ■

P P
Théorème 16.2.2 — Linéarité de la somme. Soient n≥0 u n , n≥0 v n des suites conver-
gentes et λ ∈ R. Alors la série n≥0 (λu n + v n ) est convergente et on a :
P

+∞ µ +∞ +∞ ¶
(λu n + v n ) = λ
X X X
un + vn .
n=0 n=0 n=0

Démonstration. Ce résultat provient directement de la linéarité des sommes finies appliquées


aux sommes partielles et de la linéarité du passage à la limite. ■

R En remarquant que l’ensemble des séries numériques est un R-ev, le théorème qui précède
permet de déduire que l’ensemble des séries numériques convergentes en est un sev.

16.2.2 Comparaison des séries à termes positifs


On s’intéresse aux séries à termes positifs, c’est-à-dire pour lesquelles le terme général est
toujours positif.
P
Exercice 16.5 Montrer qu’une série n≥0 u n est croissante (i.e. la suite de ses sommes
partielles est croissante) si et seulement si ∀n ∈ N∗ , u n ≥ 0. ■

Exercice 16.6 Déduire de l’exercice précédent la nature d’une série à termes positifs, selon
que la suite de ses sommes partielles est majorée ou pas. Proposer un encadrement de la
somme de la série dans le cas convergeant. ■

Théorème 16.2.3 — Inégalité et convergence. Soient (u n )n∈N et (v n )n∈N deux suites réelles
telles que, pour tout n ∈ N, 0 ≤ u n ≤ v n . Alors :
X X
v n converge ⇒ u n converge .
n≥0 n≥0
196 Chapitre 16. Séries numériques
+∞
P +∞
P
Dans ce cas, on a 0 ≤ un ≤ vn .
n=0 n=0

Démonstration. On note S n et Tn les somme partielles de rang n des séries de terme généraux
u n et v n respectivement. On suppose que Tn converge vers T ∈ R+ . D’après l’exercice qui précède,
Tn ≤ T. Mais, on a également S n ≤ Tn . Donc, toujours d’après l’exercice S n converge vers une
limite T telle que 0 ≤ S ≤ T. ■

Exercice 16.7 Énoncer la contraposée du théorème. ■

P 1 P 1
Exercice 16.8 En considérant la série n≥1 n(n+1) , montrer que la série n≥0 (n+1)2 est
convergente. ■

P 1
Exercice 16.9 Montrer que la série n≥1 pn est divergente. ■

Corollaire 16.2.4 — Négligeabilité et convergence. Soient (u n )n∈N et (v n )n∈N deux suites


réelles positives telles que u n = o(v n ). Alors :
X X
v n converge ⇒ u n converge.
n≥0 n≥0

Démonstration. On a v n − u n = v n + o(v n ) = v n (1 + o(1)). Comme o(1) tend vers 0, on a 1 + o(1)


positive à partir d’un certain rang n 0 et donc v n − u n est positive à partir de ce rang. On peut
P P
donc appliquer le théorème pour les séries n≥n0 u n et n≥n0 v n . Mais changer les premiers
termes d’une série ne change pas sa nature (exercice 16.2) ce qui permet de conclure. ■

Corollaire 16.2.5 — Équivalence et convergence. Soient (u n )n∈N et (v n )n∈N deux suites


réelles positives telles que u n ∼ v n . Alors :
X X
v n et u n sont de même nature.
n≥0 n≥0

Démonstration. On a u n = v n + o(v n ), puis 2v n − u n = v n + o(v n ) qui est positive à partir d’un


P P
certain rang comme dans la démonstration précédente. Or, si n≥0 v n est convergente, n≥0 2v n
16.2 Théorèmes de convergence 197
P
l’est également. On conclut donc dans ce cas que n≥0 u n est convergente via le théorème 16.2.3.
La réciproque s’obtient ensuite par symétrie. ■

16.2.3 Convergence absolue


P
Définition 16.2.1 — Convergence absolue. Soit n≥0 u n une série numérique. On dit que
P P
n≥0 u n est absolument convergente si la série n≥0 |u n | converge.

Théorème 16.2.6 — Convergence des séries absolument convergentes. Une série abso-
lument convergente est convergente.

Démonstration. On considère une série convergente de terme général |u n |. Alors la série de


terme général 2|u n | est également convergente. De plus, pour tout n ∈ N, on a 0 ≤ |u n | − u n ≤
2|u n |. On peut donc appliquer le théorème 16.2.3 et la série de terme général |u n | − u n est
convergente. On en déduit, par linéarité, que la série de terme général u n est convergente car,
pour tout n ∈ N, u n = |u n | − (|u n | − u n ). ■

Exercice 16.10 Montrer que, pour tout p ∈ N, on a :

2p p µ
(−1)k X

X 1 1
= − .
k=1 k k=1 2k 2k − 1

En déduire que la réciproque du théorème est fausse. ■

Exercice 16.11 Montrer qu’une série absolument convergente est la différence de deux
séries à termes positifs convergentes. ■

Corollaire 16.2.7 — Négligeabilité et convergence (version forte). Soient (u n )n∈N et


(v n )n∈N deux suites réelles telles que (v n )n∈N positive et u n = o(v n ). Alors :
X X
v n converge ⇒ u n converge.
n≥0 n≥0

Démonstration. Comme u n = o(v n ), on a |u n | = o(v n ). On déduit donc du corollaire 16.2.4 que


la série de terme général |u n | est convergente. Ainsi la série de terme général u n est absolument
convergente donc convergente. ■
198 Chapitre 16. Séries numériques

R Il s’agit d’une version plus forte du corollaire 16.2.4 car il n’est pas nécessaire, pour pouvoir
l’appliquer, que la suite (u n )n∈N soit positive.

16.2.4 Convergences et divergences classiques


Définition 16.2.2 — Séries de Riemann. Pour tout α ∈ R, on définit la série de Riemann de
paramètre α comme étant la série n≥1 n1α .
P

Théorème 16.2.8 — Convergence des séries de Riemann. Soit α ∈ R, on a :


X 1
α
converge ⇔ α > 1 .
n≥1 n

Démonstration. Pour α = 1, il s’agit de la série harmonique et on sait que celle-ci diverge. Dans
le cas α < 1, on a n1 = o( n1α ) et on conclut via le corollaire 16.2.4.
R n+1
On considère maintenant α > 1. D’une part, n t1α d t ≥ (n+1) 1
α par décroissance de t 7→ t α .
1
³ ´ h in+1 ³ ´
t 1−α
R k+1 R n+1 1
D’autre part, nk=1 k t1α d t = 1 1 1 1
P
t α d t = 1−α 1 = 1−α (n+1)α−1
− 1 ≤ α−1 . Ainsi, la série
P 1 1
n≥1 n α est positive, majorée par 1 + α−1 , elle converge donc. ■

1
On note ζ(α) = +∞
P
R n=1 n α lorsqu’il y a convergence. Cela permet de définir la fameuse
fonction ζ de Riemann qui fascine de nombreux mathématiciens.

Définition 16.2.3 — Séries géométriques. Pour tout x ∈ R, on définit la série géométrique


de paramètre x comme étant la série n≥0 x n .
P

Définition 16.2.4 — Dérivées 1 et 2 des séries géométriques. Pour tout x ∈ R, on dé-


finit la première dérivée de la série géométrique de paramètre x comme étant la série
P n−1
n≥1 nx et la deuxième dérivée de la série géométrique de paramètre x comme étant
la série n≥2 n(n − 1)x n−2 .
P

Théorème 16.2.9 — Convergence des séries géométriques et de leurs dérivées. Soit


x ∈ R, alors on a : P n
(i) |x| < 1 ⇔ x converge,
n≥0
P n−1
(ii) ⇔ nx converge,
n≥1
n(n − 1)x n−2 converge.
P
(iii) ⇔
n≥2

Dans le cas de la convergence, celle-ci est absolue, et on a :


+∞ 1
xn =
P
(iv) ,
n=0 1−x
+∞ 1
nx n−1 =
P
(v) ,
n=1 (1 − x)2
+∞ 2
n(n − 1)x n−2 =
P
(vi) .
n=2 (1 − x)3

Démonstration. Pour (i) et (iv), on peut utiliser la formule pour la somme des termes d’une suite
n+1
géométrique. On obtient alors nk=0 x k = 1−x
P
1−x ce qui induit facilement les résultats.
16.2 Théorèmes de convergence 199
Pn
Pour tout n ∈ N, la fonction x 7→ f n (x) = k=0
x k , définie sur tout R, est dérivable sur R. En
n nx n+1 − (n + 1)x n + 1
dérivant, on obtient, pour tout x ∈ R, f n0 (x) = kx k−1 =
P
, puis à nouveau,
k=1 (1 − x)2
n −n(n − 1)x n+2 + (n 2 − 1)x n+1 − n(n + 1)x n + 2
pour tout x ∈ R, f n00 (x) = k(k − 1)x k−2 =
P
. On
k=2 (1 − x)3
peut ensuite conclure sur les points restants du théorème. ■

Définition 16.2.5 — Série exponentielle. Pour tout x ∈ R, on définit la série exponentielle


n
de paramètre x comme étant la série n≥0 xn! .
P

Théorème 16.2.10 — Convergence de la série exponentielle. La série exponentielle


converge absolument, pour tout x ∈ R, et on a :
+∞ xn
= ex .
X
n=0 n!

Démonstration. Ce résultat est admis pour le moment. Il sera démontré dans un prochain
chapitre d’analyse. ■

16.2.5 Culture G : le paradoxe de Zénon


Le philosophe grec Zénon d’Élée (Ve siècle av. J.-C.) est surtout connu aujourd’hui pour l’un
des paradoxes qui lui est attribué : le paradoxe d’Achille et de la tortue. Ce paradoxe est illustré
par l’histoire qui suit. Une course en ligne droite est organisée entre Achille, le héros grec, et une
tortue. Comme Achille sait qu’il va gagner, il laisse une certaine avance à l’animal, disons 100
mètres. On sait bien qu’Achille va rattraper la tortue, mais avant cela il doit arriver au point de
départ de la tortue. Pendant le temps qu’il arrive à ce point, qui représente une durée non nulle,
la tortue aura avancé et Achille sera toujours derrière la tortue. Achille doit ensuite arriver à ce
nouveau point où se situe la tortue mais, encore une fois, la tortue aura avancé et se trouvera
plus en avant. En réitérant le processus, on voit bien qu’à chaque instant suivant considéré
Achille n’a toujours pas rejoint la tortue.

Que pensez-vous alors que Zénon en a déduit ? Pour lui c’est simple : Achille ne va jamais
rattraper la tortue. Or l’on sait bien qu’Achille rejoint la tortue. Il en conclut donc que le mouve-
ment est impossible et que toute notre réalité physique n’est qu’une illusion ! C’est certes assez
radical comme position mais il faut bien dire que son raisonnement a été suivi par un certain
nombre de personnes à son époque et par la suite.

Aujourd’hui, la plupart des mathématiciens considère que Zénon ne disposait tout simple-
ment pas des outils mathématiques pour comprendre que ce paradoxe n’en est pas un. Cet
outil manquant, ce sont les séries convergentes. S’il avait conçu que la somme d’une infinité
de nombres positifs, correspondant aux durées successives considérées dans la course, peut
donner un nombre qui lui est bien fini, alors il n’aurait sans doute pas vu de paradoxe. Alors, si
jamais vous avez perdu tout espoir, que vous ne croyez plus en rien et que vous pensez que tout
n’est qu’illusion, n’oubliez pas que les mathématiques sont là et qu’elles peuvent vous sauver.
17. Probabilités sur un univers quelconque

Jusqu’à présent dans ce cours, il n’a été question que de probabilités sur un univers fini.
Dans ce chapitre, on reprend les notions abordées dans ce cadre et on les généralise au cas
d’un univers quelconque (i.e. fini ou infini). Les points de ce chapitre ressemblent ainsi, pour
beaucoup, à ceux des chapitres 11 et 12 vus à la fin du premier semestre.

17.1 Un exemple
L’objectif des probabilités est, comme cela a été présenté précédemment, d’offrir un cadre
mathématique adéquat pour la modélisation d’expériences aléatoires. Pour cela, on met en
relation deux à deux les résultats possibles de l’expérience aléatoire avec des sous-ensembles
d’un ensemble mathématique. Si l’on ne considère que des ensembles finis, cela signifie que
l’on ne peut considérer que des expériences aléatoires dont le nombre de résultats possibles est
fini. Or il existe de très nombreux problèmes que l’on souhaiterait considérer pour lesquels le
nombre d’issues possibles n’est pas fini.
On imagine que l’on souhaite modéliser la réponse d’une personne à qui l’on demande de
choisir un entier naturel au hasard en utilisant les probabilités. Le nombre de réponses possibles
que cette personne peut apporter est infini : elle peut tout à fait répondre 1, comme 42, comme
2250000 , comme be 467 c!. A priori, il y a autant de réponses possibles que d’entiers naturels. En
l’occurrence, il serait très compliqué de mettre en place une bonne modélisation de ce problème.
Une réponse à cette question dépend certainement de la familiarité et de l’affinité de la personne
interrogée vis-à-vis des entiers naturels et cela constitue une problématique de modélisation
bien trop complexe à ce niveau.
On va donc considérer un problème similaire mais on remplace l’humain trop complexe par
un automate probabiliste. L’automate choisi au hasard un chiffre entre 1 et 9, puis il tire à pile
ou face. S’il tombe sur pile, il s’arrête. Sinon, il choisit à nouveau un chiffre entre 0 et 9, cette fois.
Puis, il tire à nouveau à pile ou face pour s’avoir s’il s’arrête. S’il tombe sur pile, il s’arrête. S’il
tombe sur face, il reprend au niveau de la deuxième étape. Une fois qu’il s’est arrêté, l’automate
renvoie le nombre entier constitué de la juxtaposition des différents chiffres qu’il a tiré, dans
l’ordre du tirage.
202 Chapitre 17. Probabilités sur un univers quelconque

Exercice 17.1 Écrire un programme en pseudo-code qui réalise le processus décrit ci-dessus.
Réécrire ce programme en language Scilab et vérifier qu’il tourne correctement. ■

Exercice 17.2 Quelles sont les chances que le programme renvoie : le nombre 7 ; le nombre
1000 ; un nombre supérieur ou égal à 1000 ? Est-il certain que le programme va s’arrêter à un
moment ? ■

On pourra remarquer que l’exemple qui a été décrit ici peut facilement être modélisé grâce
aux variables aléatoires réelles discrètes étudiées dans la suite de ce chapitre.

17.2 Espaces probabilisés


17.2.1 Tribus
Définition 17.2.1 — Tribu ou σ-algèbre. Soient Ω un ensemble et A un sous-ensemble
de P (Ω). Alors on dit que A est une tribu (ou σ-algèbre) sur Ω si et seulement si on a les
propositions suivantes :

(i) Ω∈A ;
(ii) ∀A ∈ A , A ∈ A ;
+∞
∀ (An )n∈N ∈ A N , An ∈ A .
S
(iii)
n=0

Exercice 17.3 Soient


n Ω unoensemble et A ⊂ Ω. Montrer que chacun des trois ensembles
A1 = {;, Ω}, A2 = ;, A, A, Ω et A3 = P (Ω) est une tribu sur Ω. ■
17.2 Espaces probabilisés 203

Théorème 17.2.1 — Règles de calcul. Soit A une tribu sur un ensemble Ω. Alors on a les
propositions suivantes :

(i) ;∈A ;
(ii) ∀(A, B) ∈ A 2 , A ∪ B ∈ A ;
(iii) ∀(A, B) ∈ A 2 , A ∩ B ∈ A ;
(iv) ∀(A, B) ∈ A 2 , A \ B ∈ A ;
+∞
∀ (An )n∈N ∈ A N , An ∈ A .
T
(v)
n=0

Exercice 17.4 Démontrer le théorème. ■

On rappelle qu’un système complet d’évènements fini est une collection finie d’évènements
qui est modélisée par une famille finie formant une partition de Ω. Cette notion peut être
utilement élargie, dans le cas où Ω infini, à une notion plus générale de systèmes complets
d’évènements pour laquelle on admet également les partitions dénombrables de Ω (i.e. les
partitions de Ω qui peuvent être indexées par N).

Théorème 17.2.2 — Tribu engendrée par une partition. Soit (Ai )i ∈I une partition d’un
ensemble Ω telle que I fini ou I = N. Alors, il existe une plus petite tribu A sur Ω telle que,
pour tout i ∈ I, Ai ∈ A . Dans ce cas, on parle de tribu engendrée par la partition (Ai )i ∈I .

Démonstration. Ce théorème est admis. ■

R On parlera également, de manière abusive, de tribu engendrée par un système complet


d’évènements, lorsque l’on confond les évènements avec les sous-ensembles qui les mo-
délisent.

17.2.2 Probabilités et espaces probabilisés


Définition 17.2.2 — Espace probabilisable. Soit A une tribu sur un ensemble Ω. Alors on
dit que (Ω, A ) est un espace probabilisable.
204 Chapitre 17. Probabilités sur un univers quelconque

Définition 17.2.3 — Probabilité. Soit (Ω, A ) un espace probabilisable. Une probabilité sur
(Ω, A ) est une application P de A vers [0, 1] telle que :

(i) P(Ω) = 1 ; µ µ ¶ ¶
+∞ +∞
N
∀ (An )n∈N ∈ A , ∀i 6= j , Ai ∩ A j = ; ⇒ P
¡ ¢ S P
(ii) An = P(An ) . (σ-additivité)
n=0 n=0

On dit alors que (Ω, A , P) est un espace probabilisé.

Théorème 17.2.3 — Propriétés d’une probabilité. Soient (Ω, A , P) un espace probabilisé,


A, B ∈ A . Alors on a les propositions suivantes :

(i) P(;) = 0 ;
(ii) A ∩ B = ; ⇒ P(A ∪ B) = P(A) + P(B) ;
(iii) P(A) = 1 − P(A) ;
(iv) P(A \ B) = P(A) − P(A ∩ B) ;
(v) B ⊂ A ⇒ P(B) ≤ P(A) ;
(vi) P(A ∪ B) = P(A) + P(B) − P(A ∩ B).

+∞
S
Démonstration. On commence par montrer (i). Comme ; ∩ ; = ; et que ; = ;, en appli-
n=0
+∞
quant la σ-additivité, on a, P (;) =
P
P(;). On en déduit que P(;) = 0.
n=0
On montre maintenant (ii). Soient A, B ∈ A tels que A ∩ B = ;. On peut alors considérer la suite
(A, B, ;, ;, ...) d’éléments de A et on obtient, via la σ-additivité, P(A ∪ B) = P(A) + P(B).
Les autres points se démontrent alors exactement comme dans le cas des probabilités finies. ■

Définition 17.2.4 — P-négligeable, P-presque sûr. Soit (Ω, A , P) un espace probabilisé et


A ∈ A . On dit que A est P-négligeable si et seulement si P(A) = 0. On dit que A est P-presque
sûr si et seulemennt si P(A) = 1.

17.2.3 Limite monotone


Théorème 17.2.4 — Limite monotone. Soient (Ω, A , P) un espace probabilisé et (An )n∈N ∈
A N . Alors, on a :

µ ¶
+∞
(∀n ∈ N, An ⊂ An+1 ) ⇒ P lim P(A )
S
(i) An = n→+∞ n (cas (An )n∈N croissante)
µn=0 ¶
+∞
(∀n ∈ N, An+1 ⊂ An ) ⇒ P lim P(A )
T
(ii) An = n→+∞ n (cas (An )n∈N décroissante)
n=0

Démonstration. On commence par le cas croissant. On remarque que, dans ce cas, la suite
+∞
S
(P(An ))n∈N est croissante, majorée par 1, donc converge. On pose A = An , B0 = A0 et, pour
n=0
+∞
tout n ∈ N, Bn+1 = An+1 \ An . Alors, A =
S
Bn et, pour tout i 6= j , Bi ∩ B j = ;. On a donc,
µ ¶ n=0
+∞
S +∞
P +∞
P +∞
P
P(A) = P Bn = P(Bn ) = P(A0 ) + P(An \ An−1 ) = P(A0 ) + (P(An ) − P(An−1 ∩ An )) =
n=0 n=0 n=1 n=1
+∞
lim P(A ) − P(A ) = lim P(A ).
P
P(A0 ) + (P(An ) − P(An−1 )) = P(A0 ) + n→+∞ n 0 n→+∞ n
n=1
Pour le cas décroissant, on se ramène au cas croissant en passant µ au ¶complémentaire. En
+∞ ³ ´
effet, si ∀n ∈ N, An+1 ⊂ An , alors ∀n ∈ N, An ⊂ An+1 . On a donc P lim P A . Mais,
S
An = n→+∞ n
n=0
17.2 Espaces probabilisés 205
µ ¶ µ ¶
+∞ +∞ +∞ +∞ ³ ´
lim P A =
T S T S
par les lois de De Morgan, An = An . D’où, P An = 1 − P An = 1 − n→+∞ n
³ ³ ´´ n=0 n=0 n=0 n=0
lim lim P (A ).
n→+∞ 1 − P A n = n→+∞ n ■

Corollaire 17.2.5 Soient (Ω, A , P) un espace probabilisé et (An )n∈N ∈ A N . Alors, on a :


µ ¶ µ ¶
+∞ n
lim P
S S
(i) P An = n→+∞ Ak
µn=0 ¶ µk=0 ¶
+∞ n
lim P
T T
(ii) P An = n→+∞ Ak
n=0 k=0

n n
Démonstration. On pose, pour tout n ∈ N, Bn =
S T
Ak et Cn = Ak . On a alors, pour tout
k=0 k=0
+∞ +∞
n ∈ N, Bn ⊂ Bn+1 et Cn+1 ⊂ Cn . On peut donc appliquer le théorème. Or
S S
An = Bn et
n=0 n=0
+∞
T +∞
T
Cn = An , ce qui permet de conclure. ■
n=0 n=0

Exercice 17.5 — Suite infinie de pile ou face. On considère l’expérience aléatoire consis-
tant à lancer une pièce une infinité de fois de manière successive. On modélise les résultats
de l’expérience par l’ensemble Ω = {0, 1}N .

1. Soit i ∈ N∗ . À quoi correspond l’ensemble Ai = Ã(ωn )n∈N! ∗ ∈ Ω ωi = 1 ?


© ¯ ª
¯
iT
−1
2. Soit i ∈ N∗ . À quoi correspond l’ensemble Bi = A j ∩ Ai ?
j =1
3. Soit (1n )n∈N∗ la suite constante égale à 1. On pose B0 = {(1n )n∈N∗ }. Montrer que (Bi )i ∈N
forme une partition de Ω.
On note B la tribu engendrée par la partition (Bi )i ∈N et on admet qu’il existe une unique
probabilité P sur (Ω, B) telle que P(Ai ) = 12 pour tout i ∈ N∗ .
4. Trouver un sous-ensemble C 6= ; dans B et un sous-ensemble D 6= Ω dans B tels que
C est P-négligeable et D est P-presque sûr. ■
206 Chapitre 17. Probabilités sur un univers quelconque

17.2.4 Probabilités conditionnelles


Cette section est quasi-identique à la section 11.2.2 qui a été faite dans le contexte des
probabilités finies. On pourra donc s’inspirer de cette précédente section pour rédiger les
démonstrations qui sont demandées ici.
Définition 17.2.5 — Probabilité conditionnelle. Soient (Ω, A , P) un espace probabilisé et
A ∈ A tel que P(A) 6= 0. Alors, pour tout B ∈ A , on définit la probabilité conditionnelle de B
sachant A, notée P(B | A), via :
P(A ∩ B)
P(B | A) = .
P(A)

R De même que dans le cas fini, l’application définie par PA : P (Ω) → [0, 1], B 7→ PA (B) =
P(B | A) est une probabilité sur l’espace probalisable (Ω, A ).

Théorème 17.2.6 — Formule de Bayes. Soient (Ω, A , P) un espace probabilisé et A, B ∈ A .


On suppose que P(A) et P(B) sont non nuls, alors on a :

P(B | A)P(A)
P(A | B) = .
P(B)

Exercice 17.6 Démontrer le théorème. ■

Théorème 17.2.7 — Formule des probabilités composées. Soient (Ω, A , P) un espace pro-
babilisé, n un entier supérieur ou égal à 2 et A1 , ..., An ∈ A . On suppose que P(A1 ∩...∩An−1 ) 6= 0.
Alors on a :

P(A1 ∩ ... ∩ An ) = P(A1 )PA1 (A2 )PA1 ∩A2 (A3 )...PTn−1 Ai (An )
i =1
Tn−1
= P(A1 )P(A2 | A1 )P(A3 | A1 ∩ A2 )...P(An | i =1
Ai ) .

Exercice 17.7 Démontrer le théorème. ■


17.2 Espaces probabilisés 207

Exercice 17.8 Énoncer une généralisation du théorème donnant la formule des probabilités
totales dans le cadre d’un espace probabilisé (Ω, A , P) et d’une partition finie (A1 , ..., An ) ∈ A n
de Ω. ■

Théorème 17.2.8 — Formule des probabilités totales (partition dénombrable). Soient


(Ω, A , P) un espace probabilisé et (An )n∈N ∈ A N une partition de Ω telle que P(An ) 6= 0 pour
tout n ∈ N. Alors, pour tout B ∈ A , la série
P P
P(B∩An ) (aussi égale à la série P(An )PAn (B) =
P n≥0 n≥0
P(An )P(B | An )) converge et on a :
n≥0

+∞
P
P(B) = P(B ∩ An )
n=0
+∞
P
= P(An )PAn (B)
n=0
+∞
P
= P(An )P(B | An ) .
n=0

µ ¶
+∞ +∞
Démonstration. On a B = B ∩ Ω = B ∩ (B ∩ An ). De plus, pour tout i , j ∈ N tels que
S S
An =
¢n=0 n=0
i 6= j , (B µ∩ Ai ) ∩ B ∩ A¶ j = B ∩ Ai ∩ A j = ;. On peut donc utiliser la σ-additivité de P et on a
¡ ¢ ¡
+∞
S +∞
P
P(B) = P (B ∩ An ) = P (B ∩ An ). Les égalités suivantes découlent alors directement de la
n=0 n=0
définition de la probabilité conditionnelle. ■

Exercice 17.9 On dispose d’une infinité dénombrable d’urnes indexées par N∗ et telles que,
pour tout n ∈ N∗ , l’urne Un possède n! boules numérotées de 1 à n!. On tire d’abord une urne,
puis on tire une boule dans cette urne. Pour choisir l’urne, on tire à pile ou face jusqu’à ce
que l’on tombe sur pile : l’urne choisie porte le numéro correspondant au nombre de tirages
que l’on a dû réaliser pour obtenir pile. La boule est tirée au hasard dans l’urne. Déterminer
la probabilité de tirer une boule numérotée 1. ■
208 Chapitre 17. Probabilités sur un univers quelconque

17.2.5 Indépendance en probabilités


Exercice 17.10 Rappeler les définitions d’indépendance, d’indépendance mutuelle et d’in-
dépendance deux à deux, en les adaptant au contexte d’un espace probabilisé (Ω, A , P).
Généraliser ces deux dernières notions de manière à pouvoir considérer des familles finies et
infinies dénombrables. ■
17.3 Variables aléatoires réelles 209

17.3 Variables aléatoires réelles


17.3.1 Généralités
Définition 17.3.1 Soit (Ω, A ) un espace probabilisable. Une variable aléatoire réelle sur
(Ω, A ) (VAR sur (Ω, A )) est une application X de Ω dans R telle que, pour tout réel x, l’image
inverse de [x, +∞[ par X est dans la tribu A . Autrement dit :

∀x ∈ R, [X ≤ x] = X −1 (] − ∞, x]) = {ω ∈ Ω | X(ω) ≤ x} ∈ A .

R Par rapport à la définition d’une variable aléatoire réelle finie, on rajoute une condition
qui correspond à l’idée que l’application X est compatible avec la tribu A . Cette condition
n’est pas nécessaire dans le cas où A = P (Ω) car toute application de Ω dans R vérifie
alors cette condition.

Exercice 17.11 Soient X une VAR sur un espace probabilisable (Ω, A ), a, b, x ∈ R et I ⊂ R.


Rappeler le sens des notations [X ∈ I], [X = x] et [X ≤ x]. Montrer que [a < X ≤ b] ∈ A et
[X = b] ∈ A . ■

Exercice 17.12 Rappeler les quatre opérations usuelles définies dans le cadre des VARDF.
Ces opérations sont aussi valables dans le cadre des VAR. Démontrer le pour l’addition et la
multiplication par un scalaire. ■
210 Chapitre 17. Probabilités sur un univers quelconque

Le schéma qui suit donne un aperçu du principe d’une variable aléatoire réelle. Les éléments
de Ω sont associés à des réels via la variable aléatoire X (flèches en pointillés). Dans Ω, les
éléments peuvent être regroupés dans des sous-ensembles définis par les images de leurs
éléments par X. Ces sous-ensembles, notés ici Ai , appartiennent à la tribu A définissant l’espace
probabilisable considéré. La probabilité de ces sous-ensembles, définies par l’application P
(flèches à pointes pleines), sont également obtenues en partant directement des sous-ensembles
de R correspondant aux images de leurs éléments par X (flèches à pointes vides). Ainsi, plus
besoin de se préoccuper de la structure de Ω, il suffit de considérer l’ensemble des réels.

£ ¤ £ ¤

A4 = X ≤ x 4 A1 = X = x 1

¡ ¢ ¡ ¢
P A1 = P X = x 1
£ ¤ ¡ ¢ ¡ ¢
A3 = X = x 3 P A4 = P X ≤ x 4

¡ ¢ ¡ ¢
P A3 = P X = x 3

£ ¤
A2 = X = x 2 ¡ ¢ ¡ ¢
P A2 = P X = x 2

R
x4 x3 0 x2 x1

17.3.2 Loi de probabilité et fonction de répartition


La définition qui suit utilise la notion de tribu borélienne de R, notée B. Cette tribu est la
tribu sur R engendrée par les intervalles ouverts de R. Une définition de la tribu des boréliens
dépasse largement le cadre de ce programme et on n’attend pas à ce que celle-ci soit connue.
On pourra comprendre B de manière simplifiée comme l’ensemble des intervalles de R, ainsi
que de n’importe quelle union ou intersection dénombrable d’intervalles de R.
Définition 17.3.2 — Loi de probabilité. Soit X une VAR sur un espace probabilisé (Ω, A , P).
On appelle loi de probabibilité de X la fonction L X définie par :

L X : B −→ [0, 1]
.
B 7−→ P(X ∈ B)
17.4 Variables aléatoires réelles discrètes 211

Définition 17.3.3 — Égalité en loi. Soient X et Y des VAR sur un espace probabilisé (Ω, A , P).
L
On dit que X et Y sont égales en loi si L X = L Y . On note alors, X = Y.

Définition 17.3.4 — Fonction de répartition. Soit X une VAR sur un espace probabilisé
(Ω, A , P). On appelle fonction de répartition de X et on note FX la fonction définie par :

FX : R −→ [0, 1]
.
x 7−→ P(X ≤ x)

Théorème 17.3.1 — Propriétés de la fonction de répartition. Soient X une VAR sur un


espace probabilisé (Ω, A , P) et FX sa fonction de répartition. Alors, on a les propositions
suivantes :
(i) FX est croissante,
(ii) FX est continue à droite en tout point x de R,
(iii) lim lim
x→−∞ FX (x) = 0 et x→+∞ FX (x) = 1.

Démonstration. Pour tout x, y ∈ R, (x ≤ y) ⇒ [X ≤ x] ⊂ [X ≤ y] , puis FX (x) ≤ FX (y). Ce qui


¡ ¢

montre la croissance.
Le théorème de la limite monotone 8.2.1 (celui d’analyse, pas celui de probabilités !) assure
que la fonction croissante FX possède une limite à droite en tout point x de R. On remarque
1 1 lim P X ≤ x + 1
ensuite que +∞
S £ ¤ ¡S+∞ £ ¤¢ ¡ ¢
n=1 X ≤ x + n = [X ≤ x]. D’où FX (x) = P n=1 X ≤ x + n = n→+∞ n
lim P X ≤ x + 1 =
¡ ¢
par le théorème de la limite monotone (celui de probabilités cette fois !). Or n→+∞ n
lim+ P (X ≤ x + h) = lim+ F (x + h). Ainsi, F est bien continue à droite en x.
h→0 h→0 X X
Toujours par le théorème de la limite motone 8.2.1, les limites x→−∞ lim F (x) et lim F (x)
X x→+∞ X
existent. De plus, on remarque que n=1 [X ≤ −n] = ; et n=1 [X ≤ n] = [X ∈ R] = Ω. On en déduit
T+∞ S+∞
¡T+∞ ¢
donc que x→−∞lim F (x) = lim F (−n) = P
X n→+∞ X n=1 [X ≤ −n] = P (;) = 0 ¡grâce
S+∞
au théorème de la limite
¢
lim F (x) = lim F (n) = P
monotone des probabilités. De même, x→+∞ X n→+∞ X n=1 [X ≤ n] = P (Ω) = 1. ■

R Il est possible de montrer une forme de réciproque à ce théorème : toute fonction réelle
vérifiant ces trois propositions est la fonction de répartition d’une variable aléatoiré réelle.
Elle n’est toutefois pas au programme.

Théorème 17.3.2 — Caractérisation de la loi par la fonction de répartition. Soient X et Y


deux VAR sur un espace probabilisé (Ω, A , P). On a l’équivalence suivante :

L
X = Y ⇔ ∀x ∈ R, FX (x) = FY (x) .

Démonstration. Ce théorème est admis. ■

17.4 Variables aléatoires réelles discrètes


17.4.1 Ensembles discrets
La notion d’ensemble discret est une notion qui dépasse un peu le cadre de ce programme.
On la définit tout de même dans le cadre des réels puisqu’elle est indispensable si l’on veut
pouvoir définir ensuite la notion de variable aléatoire réelle discrète.
Définition 17.4.1 — Partie discrète de R. Soit A un sous-ensemble de R. On dit que A est
une partie discrète de R si pour tout x ∈ A, il existe ε > 0 telle que A ∩ [x − ε, x + ε] = {x}.
212 Chapitre 17. Probabilités sur un univers quelconque

R En termes mathématiques plus élaborés, on dit que les éléments de A sont tous des points
isolés.

Exercice 17.13 Lesquels des ensembles suivants sont des parties discrètes de R ?
½ ¯ ¾
1 ¯¯ ∗
A= n ∈ N , B = [0, 1] , C = Z, D = Q .

On admettra que toute partie discrète de R est au plus dénombrable (finie ou infinie dénom-
brable).

17.4.2 Définitions
Définition 17.4.2 — Variable aléatoire réelle discrète. Soient (Ω, A ) un espace probabi-
lisable et X une VAR sur (Ω, A ). On dit que X est une variable aléatoire réelle discrète sur
(Ω, A ) (VARD sur (Ω, A )) si son image X(Ω) est une partie discrète de R.

■ Exemple 17.1 Le nombre aléatoire donné par le programme défini en 17.1 peut être modélisé

par une VARD X dont l’image est N∗ . ■

Le théorème sur les opérations usuelles peut être partiellement adapté au contexte des
VARD dans le sens où la somme des deux VARD est une VARD, la multiplication d’un scalaire par
une VARD est une VARD et la multiplication de deux VARD est une VARD. Toutefois, le transfert
d’une VARD par une fonction de transfert, même s’il s’agit bien d’une VAR, n’est pas a priori une
VARD (l’image d’une partie discrète de R par une fonction réelle n’est pas forcément une partie
discrète). En pratique, il s’agit de cas peu usuels et les transferts de VARD que l’on considère
donne tous des VARD.

Théorème 17.4.1 — Caractérisation la fonction de répartition. Soient X et Y deux VARD


sur un espace probabilisé (Ω, A , P). On a l’équivalence suivante :

(∀x ∈ R, P(X = x) = P(Y = x)) ⇔ ∀x ∈ R, FX (x) = FY (x) .

Démonstration. Ce théorème est admis. ■

Exercice 17.14 Quelle valeur donne-t-on à P(X = k) si X modélise le nombre aléatoire


renvoyé par le programme défini en 17.1 et k ∈ N∗ ? ■
17.4 Variables aléatoires réelles discrètes 213

17.4.3 Espérance mathématique


Définition 17.4.3 — Espérance mathématique d’une VARD. Soit X une VARD sur un es-
pace probabilisé (Ω, A , P). On dit que X admet une espérance mathématique si la série
P
x∈X(Ω) xP(X = x) est absolument convergente. L’espérance mathématique de X, notée E(X)
est la somme de cette série.

Comme X(Ω) est une partie discrète de R, c’est un ensemble au plus dénombrable et il
peut être indexé par une partie de N. Si X(Ω) est infini, ceci permet de considérer une série
P
i ≥0 x i P(X = x i ) et dans le cas où celle-ci est absolument convergente, on peut montrer que
sa somme ne dépend pas de l’ordre d’indexation choisi pour les éléments de X(Ω). Si X(Ω), on
peut également considérer la même série, en supposant que P(X = x i ) = 0 pour tout i supé-
rieur à un certain rang. Ainsi, pour une variable aléatoire qui admet une espérance, on pourra
P
systématiquement considérer une série i ≥0 x i P(X = x i ) pour le calcul de cette espérance.

Exercice 17.15 On considère la variable aléatoire de l’exercice précédent.


1. Montrer que la série de l’espérance mathématique diverge vers +∞ pour cette variable.
2. On modifie légèrement l’expérience aléatoire. Cette fois-ci la pièce est truquée et
tombe sur pile avec une probabilité p > 12 . Pour quelle valeur de p la variable aléatoire
admet-elle une espérance ? Donner la valeur de cette espérance le cas échéant. ■

Théorème 17.4.2 — Théorème de transfert. Soient X une VARD sur un espace probabilisé
(Ω, A , P) et g une fonction réelle définie sur X(Ω). Alors g (X) admet une espérance mathé-
P
matique si et seulement si la série x∈X(Ω) g (x)P(X = x) est absolument convergente. On a
alors : Ã !
X
E(g (X)) = lim g (x)P(X = x) .
x∈X(Ω)

Démonstration. La démonstration de ce théorème est admise. ■

17.4.4 Variance
Définition 17.4.4 — Variance d’une VARD. Soit X une VARD sur un espace probabilisé
(Ω, A , P) telle que X admet une espérance. On dit que X admet une variance si (X − E (X))2
214 Chapitre 17. Probabilités sur un univers quelconque

admet une espérance mathématique. La variance de X est le réel, noté V(X), tel que :

V(X) = E (X − E (X))2 .
£ ¤

Théorème 17.4.3 — Positivité de la variance. Soit X une VARD sur un espace probabilisé
(Ω, A , P). On suppose que X admet une variance. Alors, on a :

(i) V(X) ≥ 0
(ii) V(X) = 0 ⇔ P(X = E(X)) = 1 (on dit que X est presque surement égale à E(X)).

Exercice 17.16 Démontrer le théorème. ■

Théorème 17.4.4 — Formule de Koenig-Huygens. Soit X une VARD sur un espace probabi-
lisé (Ω, A , P) telle que X admet une variance. Alors, on a :

V(X) = E(X 2 ) − (E(X))2 .

Exercice 17.17 Démontrer le théorème. ■

Définition 17.4.5 — Écart-type d’une VARD. Soit X une VARD sur un espace probabilisé
(Ω, A , P) telle que X admet une variance. On appelle écart-type de X le réel, noté σ(X), tel
que : p
σ(X) = V(X) .

17.4.5 Transferts usuels


Théorème 17.4.5 — Transfert linéaire. Soient X une VARD sur un espace probabilisé (Ω, A , P)
et a, b deux réels. On suppose que X admet une espérance et une variance. Alors, aX + b
adment une espérance et une variance, et on a :
17.4 Variables aléatoires réelles discrètes 215

(i) E(aX + b) = aE(X) + b


(ii) V(aX + b) = a 2 V(X)

Exercice 17.18 Démontrer le théorème. ■

Définition 17.4.6 — Variable centrée et réduite. Soit X une VARD sur un espace probabilisé
(Ω, A , P). On dit que X est centrée lorsque X admet une espérance et E(X) = 0. On dit que X
est centrée et réduite lorsque X admet une espérance et une variance, et E(X) = 0 et V(X) = 1.
Si X admet une variance et V(X) 6= 0, on appelle variable centrée réduite associée à X la
VARD, notée X ∗ , définie par :
X − E(X)
X∗ = .
σ(X)

17.4.6 Moments
Définition 17.4.7 — Moment d’ordre r . Soient X une VARD sur un espace probabilisé
(Ω, A , P) et r ∈ N. On dit que X admet un moment d’ordre r si X r admet une espérance
mathématique. Le moment d’ordre r de X est le réel, noté m r (X), tel que m r (X) = E(X r ). Le
moment centré d’ordre r de X est le réel, noté µr (X), tel que µr (X) = E ((X − E(X))r ).

R Le moment d’ordre 1 de X est l’espérance de X. Son moment centré d’ordre 2 est sa


variance.

Théorème 17.4.6 Soient X une VARD sur un espace probabilisé (Ω, A , P) et r ∈ N∗ . Si X admet
un moment d’ordre r alors on a :
(i) X admet un moment d’ordre s, pour tout s ∈ ‚0, r ƒ,
(ii) X admet un moment centré d’ordre r .

Démonstration. La démonstration est admise mais elle ne présente pas de difficulté théorique
à ce niveau et peut-être traitée en exercice. ■

R Ainsi, si E(X 2 ) existe, on peut utiliser le théorème pour montrer dire que E(X) et V(X)
existent.
216 Chapitre 17. Probabilités sur un univers quelconque

17.5 Lois usuelles


17.5.1 VARDF
Exercice 17.19 Donner les quatre lois usuelles présentées dans le chapitre 12 avec les
formules des espérances et des variances. ■

17.5.2 Loi géométrique


Définition 17.5.1 Soient X une VARD sur un espace probabilisé (Ω, A , P) et p ∈]0, 1[. On dit
que X suit une loi géométrique de paramètre p si X(Ω) = N∗ et, pour tout k ∈ N∗ , P(X = k) =
p(1 − p)k−1 . On note alors X ,→ G (p).

Exercice 17.20 Justifier l’affirmation suivante : « Une loi géométrique est la loi du rang
d’apparition d’un premier succès dans un processus de Bernoulli sans mémoire ». ■

+∞
P
Exercice 17.21 Vérifier que l’on a bien P(X = k) = 1. ■
k=1
17.5 Lois usuelles 217

Théorème 17.5.1 Soit X une VARD telle que X ,→ G (p). Alors, on a :

1 1−p
E(X) = et V(X) = .
p p2

kp(1 − p)k−1 converge par le théorème des séries géométrique et


P
Démonstration. La série
k≥1
+∞ +∞ p
k(1 − p)k−1 = (1−(1−p))2 = p1 . De même, la série
k−1
k p(1 − p)k−1
P P P 2
E(X) = kp(1 − p) =p
k=1 k=1 µ ¶ µ k≥1 ¶
+∞ +∞ +∞
converge et on a E(X 2 ) = k p(1−p)k−1 = k(k − 1)p(1 − p)k−1 + kp(1 − p)k−1 = p(1−
P 2 P P
µ k=1
¶ k=1 k=1
+∞ p(1−p) 1−p
k−2 1 1
+ E(X) = (1−(1−p))3 + p = p 2 . On a donc V(X) = E(X 2 ) − E(X)2 = p 2 . ■
P
p) k(k − 1)(1 − p)
k=2

17.5.3 Loi de Poisson


Définition 17.5.2 Soient X une VARD sur un espace probabilisé (Ω, A , P) et λ ∈ R. On dit que
X suit une loi de Poisson de paramètre λ ∈ R si X(Ω) = N et, pout tout k ∈ N, P(X = k) = λk! e −λ .
k

On note alors X ,→ P (λ).

+∞
P
Exercice 17.22 Vérifier que l’on a bien P(X = k) = 1. ■
k=0

Théorème 17.5.2 Soit X une VARD telle que X ,→ P (λ). Alors, on a :

E(X) = λ et V(X) = λ .

k λk! e −λ converge (résultats sur les séries exponentielles) et on a


P k
Démonstration. La série
k≥0
+∞ +∞ +∞ +∞ +∞
k λk! e −λ k λk! = e −λ λk λk−1 λk
k k
−λ
= e −λ λ = e −λ λ = λ. De même, la
P P P P P
E(X) = =e (k−1)! (k−1)! k!
k=0 k=1 k=1 k=1 k=0
+∞ +∞
k(k − 1) λk! e −λ converge et on a E(X(X − 1)) = k(k − 1) λk! e −λ = e −λ k(k − 1) λk! =
P k P k P k
série
k≥0 k=0 k=2
+∞ +∞
−λ 2 λk−2 −λ 2 λk
λ λ = λ . On a donc V(X) = E(X ) −E(X) = E(X(X −1)) +E(X) −E(X)2 =
2 2 2
P P
e (k−2)! =e k!
k=2 k=0
λ2 + λ − λ2 = λ. ■

17.5.4 Culture G : La ruine du joueur


Au début des années 2000, le nombre de sites internets dédiés aux jeux d’argents (paris
sportifs, poker en ligne, etc.), ainsi que leur fréquentation, s’est très largement développé pour
représenter rapidement un marché de plusieurs milliards d’euros. Et avec le développement de
ce nouveau marché, comme c’est le cas dès qu’un nouveau marché s’ouvre sur internet, on a vu
le développement d’une multitude d’arnaques autour de ce marché. Parmi les arnaqueurs, un
certain nombre prétendait présenter des méthodes permettant de gagner de manière presque
sûre au poker. Cela incitait fortement les internautes à s’inscrire sur les sites de poker en ligne
proposés et à y dépenser leur argent alors que les méthodes étaient bien évidemment complète-
ment bidons. Parmi ces méthodes bidon, la plus célèbre est la méthode du doublement de la
218 Chapitre 17. Probabilités sur un univers quelconque

mise. Le principe est le suivant.

Un joueur joue uniquement sur des tables à deux joueurs de telle façon que s’il gagne, il
récupère le double de sa mise. Le joueur commence sur une table où chaque joueur mise 1$. S’il
gagne, il empoche 2$ et a donc gagné 1$ net. Il continuera ensuite à jouer sur une table à 1$. Par
contre, s’il perd, il rejoue sur une table à 2$. Dans ce cas, s’il gagne, il empoche 4$ et aura donc
gagné 1$ net, vu qu’il a misé d’abord 1$, puis 2$. L’idée est que le joueur doit doubler la mise à
chaque fois jusqu’à ce qu’il gagne, de manière à ce qu’il gagne 1$ net à la fin de chaque série de
défaite couronnée par une victoire. Si l’on suppose que le joueur gagne une fois sur deux, il est
presque sûre que chaque série de défaite va éventuellement se terminer par une victoire, et qu’il
sera bien 1$ plus riche à la fin de la série.

En dehors du fait que tous les joueurs n’ont pas forcément une chance sur deux de gagner à
une partie de poker, que le raisonnement ne comptabilise pas le pourcentage de la mise reversé
au site pour chaque partie et qu’il y a forcément une mise maximale que l’on peut jouer sur le
site de telle sorte qu’il y a un nombre maximal de fois que l’on pourra doubler sa mise, en dehors
de toutes ces raisons qui justifieraient déjà largement de ne pas suivre ce stratagème, on peut
montrer que le joueur qui le suit est presque sûr de se retrouver ruiné.
18. Applications linéaires

Ce chapitre s’intègre dans le cadre général de l’algèbre linéaire. Jusqu’à présent, les chapitres
d’algèbre linéaire précédents doivent donc parfaitement être maitrisés afin de bien comprendre
les notions que l’on introduit ici. Dans l’intégralité de ce chapitre comme dans ces chapitres
précédents, K pourra désigner l’ensemble R ou l’ensemble C.

18.1 Cas général


18.1.1 Définition et premières propriétés
Définition 18.1.1 — Application linéaire. Soient E et F deux K-ev et f une application de E
dans F. On dit que f est une application linéaire si :

(i) ∀(u, v) ∈ E2 , f (u + v) = f (u) + f (v),


(ii) ∀(λ, v) ∈ K × E, f (λ.v) = λ. f (v).

L’ensemble des applications linéaires de E dans F est noté L (E, F).

Exercice 18.1 Préciser de quelles lois « + » et « . » il s’agit dans cette définition. ■

Exercice 18.2 Montrer que l’on peut combiner les deux propositions de la définition d’une
application linéaire en un seul critère de linéarité et énoncer ce critère. ■

Exercice 18.3 — Application nulle. Soient E et F deux K-ev. Montrer que l’application Θ,
définie par ∀u ∈ E, Θ(u) = 0F , est une application linéaire. ■
220 Chapitre 18. Applications linéaires

Exercice 18.4 Soit E = RN l’ensemble des suites réelles. On considère l’application ϕ : E →


R; u 7→ u 0 . Décrire ϕ et montrer qu’il s’agit d’une application linéaire. ■

Exercice 18.5 Soient E = R3 et F = R2 . Montrer que l’application f de E dans F, définie par


¡ ¢
∀(x, y, z) ∈ E, f (x, y, z) = (2x − 3z, x − y + 2z) est linéaire. ■

Exercice 18.6 Soit E = C([0, 1], R) l’ensemble des fonctions continues de [0, 1] dans R. On
R1
considère l’aplication ϕ : E → R; u 7→ 0 u(t )d t . Montrer que ϕ est une application linéaire. ■

Théorème 18.1.1 — Propriétés des applications linéaires. Soient E et F des K-ev, et f ∈


L (E, F). On a les propositions qui suivent.

(i) f (0E ) = 0F .
(ii) ∀(u, v) ∈ E2 , f (u − v) = f (u) − f (v) .
n n
µ ¶
∀n ∈ N∗ , ∀ (u 1 , ..., u n ) ∈ En , ∀ (λ1 , ..., λn ) ∈ Kn , f λk .u k = λk . f (u k ) .
P P
(iii)
k=1 k=1

Démonstration. D’abord, on a f (0E + 0E ) = f (0E ) + f (0E ) = f (0E ). D’où f (0E ) = 0F .


Ensuite, f (u − v) = f (u + (−1).v) = f (u) + (−1). f (v) = f (u) − f (v).
Enfin, le dernier point s’obtient par récurrence immédiate à partir de la définition. ■

18.1.2 Opérations usuelles


Théorème 18.1.2 — Opérations. Soient E, F et G des K-ev, f , g ∈ L (E, F), h ∈ L (F, G) et λ ∈ K.
Alors les applications qui suivent, définies par opérations, sont des applications linéaires.

(i) f + g : E → F; v 7→ ( f + g )(v) = f (v) + g (v) . (addition)


(ii) λ. f : E → F; v 7→ (λ. f )(v) = λ. f (v) . (multiplication par un scalaire)
(iii) h ◦ f : E → G; v 7→ (h ◦ f )(v) = h( f (v)) . (composition)
18.1 Cas général 221

Exercice 18.7 Démontrer le théorème. ■

Corollaire 18.1.3 — Espace vectoriel L (E, F). Soient E et F deux K-ev. L’ensembles des
applications linéaires de E dans F est un K-ev.

Démonstration. L’ensemble L (E, F) est non vide car il contient toujours l’application nulle. Le
résultat découle alors immédiatement des deux premiers points du théorème précédent. ■

18.1.3 Noyau et Image


Définition 18.1.2 — Noyau. Soient E et F des K-ev, et f ∈ L (E, F). On appelle noyau de f et
on note ker( f ) le sous-ensemble de E défini par :

ker( f ) = f −1 ({0F }) = u ∈ E ¯ f (u) = 0F .


© ¯ ª

Définition 18.1.3 — Image. Soient E et F des K-ev, et f ∈ L (E, F). On appelle image de f et
on note im( f ) le sous-ensemble de F défini par :
© ¯ ª
im( f ) = f (E) = v ∈ F ¯ ∃u ∈ E, v = f (u) .

R Le noyau de f est l’image réciproque de {0F } par f . L’image de f est l’image directe de E
par f .

Théorème 18.1.4 — Le noyau et l’image sont des K-ev. Soient E et F des K-ev, et f ∈
L (E, F). Alors ker( f ) est un sev de E et im( f ) est un sev de F.

Démonstration. Soient u 1 , u 2 ∈ ker( f ) et λ ∈ K. Alors f (u 1 +λ.u 2 ) = f (u 1 )+λ. f (u 2 ) = 0F +λ.0F =


0F + 0F = 0F , d’où u 1 + λ.u 2 ∈ ker( f ). De plus, f (0E ) = 0F , donc 0E ∈ ker( f ) 6= ;.
Soient v 1 , v 2 ∈ im( f ) et λ ∈ K. Il existe u 1 , u 2 ∈ E tels que f (u 1 ) = v 1 et f (u 2 ) = v 2 , d’où v 1 +λ.v 2 =
f (u 1 ) + λ. f (u 2 ) = f (u 1 + λ.u 2 ) ∈ im( f ). De plus, f (0E ) = 0F donc 0F ∈ im( f ) 6= ;. ■

Théorème 18.1.5 — Critères d’injectivité et de surjectivité. Soient E et F des K-ev, et f ∈


L (E, F). On a les propositions qui suivent.

(i) f injective ⇔ ker( f ) = {0E } .


(ii) f surjective ⇔ im( f ) = F .
222 Chapitre 18. Applications linéaires

Exercice 18.8 Rappeler la définition de l’injectivité et de la surjectivité puis démontrer le


théorème. ■

18.1.4 Isomorphismes
Définition 18.1.4 — Isomorphisme. Soient E et F des K-ev, et f ∈ L (E, F). On dit que f est
un isomorphisme si elle est bijective. On dit alors que E et F sont isomorphes (i.e. il existe
un isomorphisme de E dans F).

Théorème 18.1.6 — Réciproque d’un isomorphisme. Soient E et F des K-ev, et f un iso-


morphisme de E dans F. Alors la bijection réciproque de f , f −1 , est un isomorphisme de F
dans E.

Démonstration. Soient v 1 , v 2 ∈ F et λ ∈ K. Comme f est un isomorphimse, il existe un unique


u 1 ∈ E et un unique u 2 ∈ E tels que v 1 = f (u 1 ) et v 2 = f (u 2 ). Ainsi, on voit que f −1 (v 1 + λ.v 2 ) =
f −1 f (u 1 ) + λ. f (u 2 ) = f −1 f (u 1 + λ.u 2 ) = u 1 + λ.u 2 = f −1 (v 1 ) + λ. f −1 (v 2 ) et f −1 est bien une
¡ ¢ ¡ ¢

application linéaire de F dans E. ■

Théorème 18.1.7 — K-ev de dimension n . Soit n ∈ N un K-ev est de dimension n si et


seulement si il est isomorphe à Kn .

Démonstration. Soit E un K-ev isomorphe à Kn et f un isomorphisme de Kn dans E. Soit


(e 1 , ..., e n ) la base canonique de Kn . Alors, on peut montrer que B = f (e 1 ), ..., f (e n ) est une base
¡ ¢

de E. Soit u ∈ E, alors f −1 (u) ∈ Kn , on peut donc décomposer fµ−1 (u) dans ¶ la base (e 1 , ..., e n ). Soit
n n n
−1
λk .e k sa décomposition. On a u = f f (u) = f λk .e k = λk . f (e k ). Donc u
P ¡ −1 ¢ P P
f (u) =
k=1 k=1 k=1
n
se décompose bien dans B (i.e. la famille B est génératrice de E). De plus, si λk . f (e k ) = 0,
P
k=1
n n
µ ¶
λk .e k = 0. Or f est bijective, donc ker( f ) = 0. On en déduit donc que λk .e k = 0
P P
alors f
k=1 k=1
ce qui implique que λ1 = ... = λn = 0. La famille est donc libre. On conclut bien que B est une
base de E.
Réciproquement, si E est un K-ev de dimension n, alors on peut définir un isomorphisme f de E
vers Kn . En effet, on considère µ une base¶ B = (u 1 , ..., u n ) de E et on pose f l’application telle que
n n
pour tout (λ1 , ..., λn ) ∈ Kn , f λk .u k = λk .e k . On peut ensuite vérifier assez facielement
P P
k=1 k=1
que f est un isomorphisme de E dans Kn . ■
18.1 Cas général 223

R Le théorème précédent induit que deux K-ev de dimension finie sont isomorphes si et
seulement si ils ont même dimension. L’image par un isomorphisme f : E → F d’un sev de
E dimension n est donc un sev de F de dimension n.

18.1.5 Endomorphismes
Définition 18.1.5 — Endomorphisme, automorphisme. Soit E un K-ev. Une application
linéaire de E dans E est appelé un endomorphisme. L’ensemble des endomorphismes de E
est noté L (E). Un endomorphisme bijectif est appelé un automorphisme. L’ensemble des
automorphismes de E est noté GL(E) et appelé le groupe linéaire de E.

R L (E) est un K-ev par le corollaire 18.1.3. Par contre, si E n’est pas réduit à 0E , alors GL(E)
muni des opérations usuelles n’est pas un espace vectoriel, car l’application nulle n’est
alors jamais bijective.

Propriété 18.1.8 — Identité. Soit E un K-ev. L’application identité de E définie comme suit est
un automorphisme.
i d E : E −→ E
.
v 7−→ v

Exercice 18.9 Démontrer le résultat. ■

Définition 18.1.6 — Puissance d’un endomorphisme. Soient E un K-ev et f ∈ L (E). On


pose f 0 = i d E et ∀k ∈ N, f k+1 = f ◦ f k .

Propriété 18.1.9 — Règles de calcul. Soient E un K-ev, f ∈ L (E) et (m, n) ∈ N2 . On a les


propositions qui suivent.

(i) f n ◦ f m = f n+m = f m ◦ f n .
¡ n ¢m ¡ ¢n
(ii) f = f nm = f m .

Exercice 18.10 Démontrer la propriété précédente. ■

−n
R ¡ −1 ¢nle cas d’un automorphisme f , on peut définir les puissances négatives via f
Dans =
f et les règles de calcul se généralise alors à tout entier dans Z.
224 Chapitre 18. Applications linéaires
¢n
Pour deux endomorphismes f et g de E, on n’a pas a priori f ◦g = g ◦ f , ni f ◦ g = f n ◦g n .
¡
R

Théorème 18.1.10 — Binôme de Newton. Soient E un K-ev, f et g deux endomorphismes


de E. Si f ◦ g = g ◦ f , alors :
à ! à !
¢n Xn n n n
k n−k
∀n ∈ N, f + g = . f n−k ◦ g k .
¡ X
.f ◦ g =
k=0 k k=0 k

Exercice 18.11 Démontrer le théorème. ■

18.1.6 Projecteurs
Définition 18.1.7 — Projecteur. Soient E un K-ev et F et G deux sev de E tels que E = F⊕G. On
considère les applications p et q de E dans E telles que, pour tout u ∈ E, u = p(u) + q(u) avec
p(u) ∈ F et q(u) ∈ G. L’application p est le projecteur sur F parallèlement à G et l’application
q est le projecteur sur G parallèment à F.

R Les applications p et q sont bien définies car F et G sont supplémentaires. Ainsi, tout
vecteur de E se décompose de manière unique comme somme d’un vecteur de F et d’un
vecteur de G.

Théorème 18.1.11 — Propriétés des projecteurs. Soient E un K-ev et F et G deux sev de E


tels que E = F ⊕ G. On pose p le projecteur sur F parallèlement à G et q le projecteur sur G
parallèlement à F. Alors, on a les propostions qui suivent.

(i) p et q sont des endomorphimses de E.


(ii) p + q = i dE .
(iii) p ◦ q = q ◦ p = 0.
(iv) p ◦ p = p et q ◦ q = q.
(v) ker(p) = im(q) = G et ker(q) = im(p) = F.

Démonstration. Soient u, v ∈ E et λ ∈ K. On a u = p(u) + q(u) et v = p(v) + q(v), d’où u + λ.v =


¡ ¢
p(u)+q(u)+λ. p(v) + q(v) = p(u)+λ.p(v)+q(u)+λ.q(v). Ainsi, par unicité de la décomposition
selon la somme directe, p(u + λ.v) = p(u) + λ.p(v) et q(u + λ.v) = q(u) + λ.q(v). D’où p et q sont
bien des endomorphismes de E.
La définition donne directement le point (ii).
18.2 Dimension finie 225

On commence par montrer (v). Soit u ∈ F. La décomposition de u selon F ⊕ G est u = p(u) + 0.


Donc F ⊂ ker(q). Maintenant si u ∈ ker(q), alors q(u) = 0, puis u = p(u). D’où ker(q) ⊂ im(p).
Enfin, si u ∈ im(p), on a u ∈ F par définition. Ainsi on a bien ker(q) = im(p) = F. Par symétrie, on
montre ker(p) = im(q) = G.
Soit u ∈ E. On a q(u) ∈ im(q) = ker(p). D’où p ◦ q(u) = 0. De même, on obtient q ◦ p(u) = 0. Ce
qui donne (iii).
¡ ¢ ¡ ¢
Enfin, soit u ∈ E. On a p ◦ p(u) − p(u) = p p(u) − u = −p q(u) = 0. D’où p ◦ p = p. De même,
q ◦ q = q. Ce qui montre (iv). ■

Théorème 18.1.12 — Caractérisation des projecteurs. Soient E un K-ev et p ∈ L (E) telle


que p ◦ p = p. Alors E = im(p) ⊕ ker(p) et p est le projecteur sur im(p) parallèlement à ker(p).

Démonstration. Soit u ∈ E. On a u = p(u) + u − p(u) avec p(u) ∈ im(p) et u − p(u) ∈ ker(p). En


effet, p(u −p(u)) = p(u)−p 2 (u) = 0. Ainsi, E = im(p)+ker(p). De plus, si u ∈ ker(p)∩im(p), alors
u = p(v) avec v ∈ E et p(u) = 0. D’où 0 = p(u) = p 2 (v) = p(v) = u. On a bien E = im(p) ⊕ ker(p).
Puis, par unicité de la décomposition en somme directe, p est bien le projecteur de sur im(p)
parallèlement à ker(p). ■

18.2 Dimension finie


18.2.1 Rang d’une application linéaire
Exercice 18.12 Soient E un K-ev de dimension finie n ∈ N, F un K-ev et f ∈ L (E, F). Montrer
¡ ¢
que si (e 1 , ..., e n ) est une famille génératrice de E, alors f (e 1 ), ..., f (e n ) engendre im( f ). En
déduire que im( f ) et ker( f ) sont de dimension finie. ■

R Pour définir une application linéaire d’un espace de dimension finie E vers un espace F, il
est suffisant de définir l’application sur une base de E.

Définition 18.2.1 Soient E un K-ev de dimension finie n ∈ N, F un K-ev et f ∈ L (E, F). On


appelle rang de f , noté rg( f ), la dimension de l’image de f .

R Le rang de f est bien défini car l’image de f est un espace vectoriel de dimension finie.

Exercice 18.13 Montrer que rg( f ) = 0 si et seulement si f est l’application nulle. ■


226 Chapitre 18. Applications linéaires

Théorème 18.2.1 — Théorème du rang. Soient E un K-ev de dimension finie n ∈ N, F un


K-ev et f ∈ L (E, F). On a :
¡ ¢
rg( f ) = n − dim ker( f ) .

Démonstration. Soient p = dim(ker( f )) et F = e 1 , ..., e p une base de ker( f ). Comme ker( f )


¡ ¢

est un sev de E, F est une famille libre de E que l’on peut compléter en une base de E (par
le théorème de la base incomplète). Soit B = (e 1 , ..., e n ) une telle base. On va montrer que
¡ ¢ ¡ ¢
f (e p+1 ), ..., f (e n ) est une base de im( f ). En effet, par l’exercice qui précède, f (e 1 ), ..., f (e n )
¡ ¢
engendre im( f ), mais comme f (e 1 ) = ... = f (e p ) = 0, f (e p+1 ), ..., f (e n ) engendre
à im( f!). De plus,
n n n
soit λp+1 , ..., λn ∈ Kn−p tel que λk f (e k ) = 0. On a λk f (e k ) = f λk e k = 0, d’où
¡ ¢ P P P
k=p+1 k=p+1 k=p+1
n n
λk e k ∈ ker( f ). Or ker( f ) ⊕ V ECT e p+1 , ..., e n = E. D’où λk e k = 0 et λp+1 = ... = λn = 0.
P ¡ ¢ P
k=p+1 k=p+1
¡ ¢
Ainsi, la famille f (e p+1 ), ..., f (e n ) est bien libre et c’est une base de im( f ). On a donc rg( f ) =
n − p = n − dim(ker( f )). ■

R On peut
¡ retenir
¢ facilement le théorème du rang sous sa forme plus symétrique : dim(E) =
dim im( f ) + dim(ker( f )).

Corollaire 18.2.2 — Rang et injectivité. Soient E un K-ev de dimension finie n ∈ N, F un


K-ev et f ∈ L (E, F). On a :
f injective ⇔ rg( f ) = n .

Démonstration. Il s’agit d’un corollaire direct du théorème du rang ainsi que du critère d’injec-
tivité des applications linéaires. En effet, f est injective si et seulement si ker( f ) = {0E }, ce qui
¡ ¢
équivalent à dim ker( f ) = 0, puis à rg( f ) = n via le théorème du rang. ■

Corollaire 18.2.3 — Bijectivité des endomorphismes en dimension finie. Soient E un


K-ev de dimension finie et f ∈ L (E). On a :

f injective ⇔ f surjective ⇔ f bijective.

Démonstration. Soit n = dim(E). Comme im( f ) est un sev de E, on a im( f ) = E si et seulement


si rg( f ) = n. Ceci donne donc f surjective si et seulement si f injective. La dernière équivalence
est alors immédiate. ■

18.2.2 Formes linéaires et hyperplans


Définition 18.2.2 — Forme linéaire. Soit E un K-ev. On appelle forme linéaire de E toute
application linéaire de E dans K (i.e. tout élément de L (E, K)).

R Cette définition n’est pas limitée au contexte des espaces vectoriels de dimension finie
mais on se limitera à ce contexte dans le cadre du programme.

Définition 18.2.3 — Hyperplan. Soit E un K-ev de dimension finie n ∈ N. On appelle hyper-


plan de E tout sev de E de dimension n − 1.
18.2 Dimension finie 227

Théorème 18.2.4 — Caractérisation des formes linéaires. Soient E un K-ev de dimension


finie n ∈ N et f ∈ L (E, K) une forme linéaire non nulle. Alors ker( f ) est une hyperplan de E.
Réciproquement, tout hyperplan de E est le noyau d’une forme linéaire de E.

Démonstration. On suppose que f est une forme linéaire non nulle. Alors im( f ) est un sev de
K non réduit à 0, on a donc forcément im( f ) = K et rg( f ) = 1. D’où, par le théorème du rang,
¡ ¢
dim ker( f ) = n − 1, et ker( f ) est un hyperplan de E.
Réciproquement, si H est un hyperplan de E alors, on considère (e 1 , ..., e n−1 ) une base de H et on
la complète une une base (e 1 , ..., e n ) de E. Alors l’application linéaire définie par f (e i ) = 0 pour
tout i ∈ ‚1, n − 1ƒ et f (e n ) = 1 définit bien une forme linéaire de E de noyau H. ■

18.2.3 Matrice d’une application linéaire


Définition 18.2.4 — Matrice d’une application linéaire. Soient E et F deux K-ev de dimen-
sion de finie n et p respectivement et g ∈ L (E, F). On considère une base BE = (e 1 , ..., e n )
p
de E et une base BF = f 1 , ..., f p de F. Pour tout j ∈ ‚1, nƒ, on considère g e j =
¡ ¢ ¡ ¢ P
m i , j f i la
i =1
décomposition de g e j dans la base BF . Alors, la matrice de l’image par g de la base BE
¡ ¢

dans la base BF est la matrice, notée MatBF ,BE (g ), définie par :


¡ ¢
MatBF ,BE (g ) = m i , j (i , j )∈‚1,pƒ×‚1,nƒ .

R L’application ϕ : L (E) → Mp,n (K); g 7→ MatBE ,BF (g ) est un isomorphisme. En particulier,


les opérations d’addition et de multiplication par un scalaire sont préservées lors du
passage à l’écriture matricielle.

Exercice 18.14 À quoi correspond la j -ème colonne de MatBF ,BE (g ) ? ■

Exercice 18.15 Que peut-on dire de la matrice d’une forme linéaire ? ■

Exercice 18.16 On considère E = R3 [X], F = R2 [X] et ∆ : E → F l’application de dérivation.


Déterminer la matrice de ∆ dans les bases canoniques de E et F. ■

Définition 18.2.5 — Vecteur des coordonnées. Soient E un K-ev de dimension de finie


n
n et v ∈ E. On considère une base B = (e 1 , ..., e n ) de E et la décomposition v = λ j e j de
P
j =1
v dans la base B. Alors, le vecteur colonne des coordonnées de v dans B est la matrice
228 Chapitre 18. Applications linéaires

colonne, notée MatB (v), définie par :

λ1
 
 . 
MatB (v) =  ..  .
λn

R L’application ϕ : E → Kn ; v 7→ MatB (v) est un isomorphisme.

Théorème 18.2.5 — Produit matriciel. Soient E, F et G trois K-ev de dimension finie, f ∈


L (E, F), g ∈ L (F, G) et v ∈ E. On considère des bases BE , BF et BG de E, F et G respectivement.
Alors :
¡ ¢
(i) MatBF f (v) = MatBF ,BE ( f ) × MatBE (v).
¡ ¢
(ii) MatBG ,BE g ◦ f = MatBG ,BF (g ) × MatBF ,BE ( f ).

Exercice 18.17 Démontrer le théorème. ■

18.2.4 Application linéaire d’une matrice


Théorème 18.2.6 — Application linéaire d’une matrice. Soient (p, n) ∈ (N∗ )2 et A ∈ Mp,n (K).
Alors, l’application f A définie par :

f A : Mn,1 (K) −→ Mp,1 (K)


X 7−→ AX

est une application linéaire, appelée l’application linéaire associée à la matrice A.

Démonstration. La linéarité découle directement des propriétés du produit matriciel. ■

R De manière plus générale, la multiplication à gauche (resp. à droite) par une matrice A, de
Mn,m dans Mp,m (resp. Mm,p dans Mm,n ), est une application linéaire pour tout m ∈ N∗ .

Définition 18.2.6 — Noyau, image et rang d’une matrice. Le noyau (resp. l’image, resp.
le rang) d’une matrice est le noyau (resp. l’image, resp. le rang) de son application linéaire
associée.
18.2 Dimension finie 229

Exercice 18.18 Justifier que l’image d’une matrice est le sev engendré par ses vecteurs
colonnes. ■

1 2 1
 

Exercice 18.19 Déterminer une base du noyau, puis de l’image de A = 3 4 5. ■

1 0 3

Théorème 18.2.7 — Rang de la transposée. Une matrice et sa transposée ont même rang.

Démonstration. Ce théorème est admis. ■

Théorème 18.2.8 — Rang d’une application linéaire. Soient E et F deux K-ev de dimension
finie et g ∈ L (E, F). Alors, le rang de f est égal au rang de sa matrice MatBF ,BE (g ) dans
n’importe quelles bases BE de E et BF de F.

x1
 
 . 
Démonstration. Soient X =  .. , BE = (e 1 , ..., e n ) une base de E et BF = f 1 , ..., f p une base de
¡ ¢

xn
n
P
F. On pose M = MatBF ,BE (g ) et u = x k e k de sorte que X = MatBE (u). Alors, on a X ∈ ker(M) ⇔
¡ ¢ k=1
MX = 0 ⇔ MatBF g (u) = 0 ⇔ g (u) = 0 ⇔ u ∈ ker(g ). Ainsi, ker(M) est isomorphe à ker(g ) via la
restriction de u 7→ MatBE (u) à ker(g ). Ces deux espaces ont donc même dimension. On conclut
via le théorème du rang. ■
230 Chapitre 18. Applications linéaires

18.2.5 Endomorphismes et matrices carrées


Définition 18.2.7 — Matrice d’un endomorphisme. Soient E un K-ev de dimension de finie
n et f ∈ L (E). On considère une base B = (e 1 , ..., e n ) de E. Alors, la matrice de f dans B est
la matrice MatB ( f ) ∈ Mn (K) de l’image par f de B dans B.

Théorème 18.2.9 — Automorphismes et matrices inversibles. Soient E un K-ev de dimen-


sion de finie n et f ∈ L (E). On considère une base B = (e 1 , ..., e n ) de E et on note M la matrice
de f dans B. Alors M est inversible si et seulement si f est un automorphisme. Dans ce cas,
M−1 = MatB ( f −1 ).

Démonstration. On remarque d’abord que, pour tout g ∈ L (E), MatB (g ) = In si et seulement si


g = i dE .
Ainsi, si f est un automorphisme, on a MatB ( f )×MatB ( f −1 ) = MatB ( f ◦ f −1 ) = MatB (i d E ) = In .
De même MatB ( f −1 ) × MatB ( f ) = In . Ainsi M est inversible et M−1 = MatB ( f −1 ).
Réciproquement, si M est inversible, alors on pose M−1 = a i , j (i , j )∈‚1,nƒ2 . On définit ensuite
¡ ¢
n
l’endomorphisme g ∈ L (E) par g (e j ) = a i , j e i de manière à ce que M−1 = MatB (g ). Ceci
P
i =1
donne alors In = MatB (g ◦ f ) = MatB ( f ◦ g ). Ainsi, g ◦ f = f ◦ g = i d E et f −1 = g . ■

Théorème 18.2.10 — Caractérisations des automorphismes. Soient E un K-ev de dimen-


sion finie n et f , g ∈ L (E). Alors, les propositions qui suivent sont équivalentes.

(i) g ◦ f = f ◦ g = i dE .
(ii) g ◦ f = i dE .
(iii) f ◦ g = i dE .

Démonstration. On remarque qu’il suffit de montrer que (ii) ⇔ (iii).


On montre que (ii) implique (iii). Si g ◦ f = i d E alors f est injective. En effet, soient x 1 , x 2 ∈ E
tels que f (x 1 ) = f (x 2 ). Alors, g ◦ f (x 1 ) = g ◦ f (x 2 ) = x 1 = x 2 . Or, par le corollaire 18.2.3, si f est
injective, elle est bijective. Ainsi, par le théorème de la bijection réciproque, on déduit que f est
inversible puis que f −1 = g ◦ f ◦ f −1 = g .
On montre que (iii) implique (ii). Si f ◦ g = i d E alors f est sujective. En effet, soit y ∈ E, y =
f ◦ g (y) ∈ im( f ). Or, par le corollaire 18.2.3, si f est surjective, elle est bijective. On conclut de
manière analogue au cas précédent. ■

Exercice 18.20 Soit A ∈ Mn (K), à l’aide des différents théorèmes du chapitre, donner six
propositions mathématiques équivalentes à la proposition « A ∈ GLn (K) ». ■
18.2 Dimension finie 231

Définition 18.2.8 — Polynôme d’endomorphisme. Soit E un K-ev. On appelle polynôme


d’endomorphismes de L (E) toute application P définie par :

P : L (E) −→ L (E)
m
ak f k
P
f 7−→ P( f ) =
k=0

où m ∈ N et a k ∈ K pour tout k ∈ ‚0, mƒ.

Définition 18.2.9 — Polynôme annulateur. Soit E un K-ev, P un polynôme d’endomor-


phismes de L (E) et f ∈ L (E). On dit que P est annulateur de f si P( f ) est l’endomorphisme
nul.

R De la même façon, on définit la notion de polynôme de matrices de Mn (K) et de poly-


nôme annulateur d’une matrice de Mn (K).

Définition 18.2.10 — Opérations. Soient E un K-ev, P et Q deux polynômes d’endomor-


phismes de E et λ un élément de K. Alors on peut définir les opérations qui suivent.

(i) P + Q défini par ∀ f ∈ L (E), (P + Q)( f ) = P( f ) + Q( f ) . (addition)


(ii) λP défini par ∀ f ∈ L (E), (λP)( f ) = λP( f ) . (multiplication par un scalaire)
(iii) P × Q défini par ∀ f ∈ L (E), (P × Q)( f ) = P( f ) ◦ Q( f ) . (multiplication)

R Dans la définition, la multiplication des polynômes d’endomorphismes correspond à


la composition des endomorphismes. Ceci est nécessaire pour que les formules sur les
coefficients des polynômes d’endomorphismes soient énoncées de la même façon que
pour le théorème 6.2.2. On laisse cette vérification en exercice.

Dans la suite, on illustre via des exemples l’utilisation de polynômes annulateurs pour
déterminer l’inverse ou une puissance k-ième d’un endomorphisme ou d’une matrice.

Polynôme annulateur et calcul de l’inverse


On considère un endomorphisme f d’un K-ev E tel que P( f ) = 2 f 5 − 2 f 3 + 3 f 2 = 0, par
exemple, et il s’agit de calculer la réciproque de f (si elle existe). On peut d’abord remarquer que
P( f ) = f 2 ◦ (2 f 3 − 2 f + 3i d E ) = 0.
Si l’on sait que f est inversible, on obtient 2 f 3 − 2 f + 3i d E = 0 par multiplication à gauche
par f −2 . On peut ensuite déterminer f −1 comme polynôme de f en passant le terme constant
à droite, ce qui donne 2 f 3 − 2 f = −3i d E puis f ◦ (− 23 f 2 + 32 i d E ) = i d E . On conclut alors que
f −1 = − 23 ( f 2 − i d E ).
Si l’on ne sait pas si f est inversible, il faudra calculer 2 f 3 − 2 f + 3i d E . Si l’on obtient l’endo-
morphisme nul, alors on pourra conclure à l’inversibilité en déterminant son inverse comme
précédemment. Par contre, si l’on obtient un endomorphisme non nul, alors il faudra conclure
que f est non inversible.
Bien évidemment, ce principe peut être adapté à n’importe quel polynôme annulateur de f ,
ainsi qu’au cas d’une matrice annulée par un polynôme.
232 Chapitre 18. Applications linéaires
 
0 1 1 1
1 0 1 1 
Exercice 18.21 Soit M =  . Calculer M2 − 2M − 3I4 . En déduire que M est inver-
 
1 1 0 1 
1 1 1 0
−1
sible et donner M . Montrer, par ailleurs, que M − 3I4 n’est pas inversible. ■

Polynôme annulateur et calcul d’une puissance


Dans cet exemple, on considère un endomorphisme f d’un K-ev E tel que P( f ) = f 5 − f = 0.
Il s’agit ici de déterminer f 20 . On considère alors la division euclidienne du polynôme X 20 par
X 5 − X, i.e. X 20 = Q(X)(X 5 − X) + R(X) avec deg(R) < 5. En substituant X par f , on obtient alors
f 20 = Q( f ) ◦ P( f ) + R( f ) = R( f ). Le reste se calcule en utilisant les techniques à notre disposition
que l’on peut retrouver dans le cours sur les polynômes (chapitre 6). Dans cet exemple, on
obtient R(X) = X 4 et donc f 20 = f 4 .

Exercice 18.22 On considère la même matrice M que dans l’exercice précédent. En utilisant
le polynôme annulateur de M, déterminer Mn pour tout n ∈ N. ■
19. Intégration sur un intervalle quelconque

Dans ce chapitre, on généralise les notions qui ont été abordées au chapitre 10 de manière à
pouvoir considérer l’intégrale d’une fonction qui n’est pas forcément continue aux bornes de
cette intégrale.

19.1 Intégrales généralisées


19.1.1 Définitions
Définition 19.1.1 — Intégrale sur un intervalle semi-ouvert. Soient a, b ∈ R avec a < b et f
Z b Z x
une application continue sur [a, b[. On dit que l’intégrale f (t )d t converge si lim− f (t )d t
a x→b a
existe et est finie, et diverge sinon. Dans le cas convergeant, on pose :
Z b Z x
f (t )d t = lim− f (t )d t .
a x→b a

De manière analogue, soit g une application continue sur ]a, b]. On dit que l’intégrale
Z b Z b
g (t )d t converge si lim+ g (t )d t existe et est finie, et diverge sinon. Dans le cas conver-
a x→a x
geant, on pose :
Z b Z b
g (t )d t = lim+ g (t )d t .
a x→a x

R Cette définition est compatible avec la définition introduite au chapitre 10 dans le sens
où, si f est prolongeable par continuité en b, alors l’intégrale de f sur le segment [a, b] est
égale à l’intégrale de f sur l’intervalle semi-ouvert [a, b[.
234 Chapitre 19. Intégration sur un intervalle quelconque

Exercice 19.1 Lesquelles de ces intégrales convergent ?


Z +∞ dt
Z +∞ dt
1. 2. p .
1 t3 1 t

Théorème 19.1.1 — Intégrale sur un intervalle ouvert. Soient a, b ∈ R avec a < b et f une
application continue sur ]a, b[. Alors, les propositions suivantes sont équivalentes.
Z c Z b
(i) ∃c ∈]a, b[, f (t )d t et f (t )d t convergent.
a c
Z c Z b
(ii) ∀c ∈]a, b[, f (t )d t et f (t )d t convergent.
a c
Z c Z b
Dans ce cas, la somme f (t )d t + f (t )d t est indépendante de c. On dit alors que l’inté-
Z b a c

grale f (t )d t est convergente et on pose :


a
Z b Z c Z b
f (t )d t = f (t )d t + f (t )d t .
a a c

Démonstration. L’implication (ii) ⇒ (i) est triviale. Pour montrer la réciproque, on considère
Z c Z b
c ∈]a, b[ tel que f (t )d t et f (t )d t convergent, et c 0 ∈]a, b[. Alors on a, pour tout x ∈]a, b],
a c
Z c0 Z c Z c0 Z c0 Z c Z c0
f (t )d t = f (t )d t + f (t )d t . D’où f (t )d t converge vers f (t )d t + f (t )d t . De
x Z b x c Z c aZ b a c

même, f (t )d t converge vers f (t )d t + f (t )d t . On conclut en sommant les limites. ■


c0 c0 c

Exercice 19.2 Lesquelles de ces intégrales convergent ?


Z +∞ dt
Z +∞
1. 2. ln(t )d t .
0 t3 0


19.1 Intégrales généralisées 235

Définition 19.1.2 — Intégrale sur un intervalle ouvert privé d’un nombre fini de points.
n
S
Soient n ≥ 2, a 1 , ..., a n ∈ R avec a 1 < ... < a n et f une application continue sur ]a k , a k+1 [.
k=1
Z b Z ak+1
On dit que f (t )d t converge si, pour tout k ∈ ‚1, n − 1ƒ, f (t )d t converge, et diverge
a ak
sinon. Dans le cas convergeant, on pose :
Z b n−1
X Z ak+1
f (t )d t = f (t )d t .
a k=1 a k

Z b Z a Z b
R Comme dans le chapitre 10, si f (t )d t converge, on pose f (t )d t = − f (t )d t .
a b a

19.1.2 Propriétés fondamentales


Les théorèmes qui suivent sont les généralisations des théorèmes sur les intégrales du
chapitre 10. Les démonstrations ne sont pas fournies mais ne posent pas de grandes difficultés.
Il suffit de revenir à la définition des intégrales convergentes et de faire des passages à la limite.
3
Théorème 19.1.2 — Relation de Chasles. Soient (a, b, c) ∈ R et f une fonction telle que
les intégrales qui suivent sont bien définies. Alors, si au moins deux des intégrales suivantes
convergent, la troisième converge et on a :
Z b Z c Z c
f (t )d t + f (t )d t = f (t )d t .
a b a

De plus, si une de ces intégrales converge et une autre diverge, alors la troisième diverge.

3
Théorème 19.1.3 — Linéarité de l’intégrale. Soient (a, b, c) ∈ R , f et g deux fonctions telles
que les intégrales qui suivent sont bien définies, et λ, µ ∈ R. Alors, si au moins deux des
intégrales suivantes convergent, la troisième converge et on a :
Z b¡ Z b Z b
λ f (t ) + µg (t ) d t = λ f (t )d t + µ
¢
g (t )d t .
a a a

De plus, si une de ces intégrales converge et une autre diverge, alors la troisième diverge.

2
Théorème 19.1.4 — Positivité de l’intégrale. Soient (a, b) ∈ R avec a < b et f une fonction
continue positive sur ]a, b[ (i.e. ∀t ∈]a, b[, f (t ) ≥ 0), d’intégrale convergente sur ]a, b[. Alors,
on a : Z b Z b
f (t )d t ≥ 0 et f (t )d t = 0 ⇔ ∀t ∈]a, b[, f (t ) = 0 .
a a

2
Théorème 19.1.5 — Croissance de l’intégrale. Soient (a, b) ∈ R avec a < b, f et g deux
fonctions définies continues sur ]a, b[, d’intégrales convergentes sur cet intervalle. On suppose
236 Chapitre 19. Intégration sur un intervalle quelconque

que f ≤ g (i.e. ∀t ∈]a, b[, f (t ) ≤ g (t )). Alors, on a :


Z b Z b
f (t )d t ≤ g (t )d t .
a a

19.1.3 Calcul intégral


Aucune généralisation des théorèmes importants du calcul intégral (IPP et changement de
variable) n’est au programme. Pour utiliser ces théorèmes, il faudra d’abord se ramener à des
intégrales sur des segment, puis passer à la limite.

Exercice 19.3 Déterminer la convergence et les valeurs éventuelles des intégrales suivantes.
Z +∞ Z 1 ln(t )
−2t
1. te dt 2. p dt .
0 0 t

19.2 Cas des fonctions positives


Les résultats de cette section sont à rapprocher des théorèmes de convergence des séries à
termes positifs vus à la section 16.2.
2
Exercice 19.4 — Majoration et convergence. Soient (a, b) ∈ R avec a < b et f une fonc-
tion définie continue sur [a, b[. Montrer que :
Z b Z x
f (t )d t converge ⇔ x 7→ f (t )d t est majorée sur [a, b[.
a a

19.2.1 Comparaison des fonctions positives


2
Théorème 19.2.1 — Comparaison par inégalité. Soient (a, b) ∈ R avec a < b, f et g deux
19.2 Cas des fonctions positives 237

fonctions définies continues sur [a, b[ telles que 0 ≤ f ≤ g (i.e. ∀t ∈ [a, b[, 0 ≤ f (t ) ≤ g (t )). On
a alors : Z b Z b
g (t )d t converge ⇒ f (t )d t converge.
a a
Z b Z b
Dans ce cas, on a 0 ≤ f (t )d t ≤ g (t )d t .
a a

Démonstration. La démonstration de ce théorème n’est pas au programme et est donc admise.


2
Théorème 19.2.2 — Comparaison par équivalence. Soient (a, b) ∈ R avec a < b, f et g
deux fonctions définies continues sur [a, b[ telles que f (t ) ∼b g (t ), avec g positive au voisinage
de b, alors : Z b Z b
g (t )d t converge ⇔ f (t )d t converge.
a a

Démonstration. La démonstration de ce théorème n’est pas au programme et est donc admise.


2
Théorème 19.2.3 — Comparaison par négligeabilité. Soient (a, b) ∈ R avec a < b, f et g
¡ ¢
deux fonctions définies continues sur [a, b[ telles que f (t ) =b o g (t ) , avec f et g positives au
voisinage de b, alors :
Z b Z b
g (t )d t converge ⇒ f (t )d t converge.
a a

Démonstration. La démonstration de ce théorème n’est pas au programme et est donc admise.


Exercice 19.5 Énoncer chacun de ces théorèmes sous une forme contraposée. ■

R On peut établir des résultats analogues pour des intervalles de type ]a, b] ou ]a, b[.

Exercice 19.6 Lesquelles de ces intégrales convergent ?


Z +∞ µ
1
¶ Z +∞ µ
1

1. ln 1 + p dt 2. sin dt .
0 1+t 1 t3

238 Chapitre 19. Intégration sur un intervalle quelconque

19.2.2 Convergence absolue


Comme dans le cadre des séries, la convergence absolue permet de ramener, dans certains
cas, l’étude de la convergence d’une intégrale à celle de la convergence de l’intégrale d’une
fonction positive.
2
Définition 19.2.1 — Convergence absolue. Soient (a, b) ∈ R avec a < b et f une fonction
Z b Z b
¯ ¯
continue sur ]a, b[. On dit que f (t )d t est absolument convergente si ¯ f (t )¯ d t est
a a
convergente.

Exercice 19.7 Montrer que toute fonction continue peut s’écrire comme la différence de
deux fonctions continues positives. ■

2
Théorème 19.2.4 — Convergence absolue et convergence. Soient (a, b) ∈ R avec a < b
Z b
et f une fonction continue sur ]a, b[. Si f (t )d t est absolument convergente alors elle est
a
convergente.
¯ ¯ ¡¯ ¯ ¢
Démonstration. Il suffit de remarquer que l’on a, pour tout t ∈]a, b[, f (t ) = ¯ f (t )¯− ¯ f (t )¯ − f (t ) .
Z b Z b
¯ ¯ ¡¯ ¯ ¢
Or si ¯ f (t )¯ d t est convergente, alors ¯ f (t )¯ − f (t ) d t est convergente par le théorème de
a a ¯ ¯ ¯ ¯
comparaison par inégalité puisque, pour tout t ∈]a, b[, 0 ≤ ¯ f (t )¯ − f (t ) ≤ 2 ¯ f (t )¯. On conclut via
le théorème de linéarité de l’intégrale. ■

2
Corollaire 19.2.5 — Inégalité triangulaire. Soient (a, b) ∈ R avec a < b et f une fonction
Z b
continue sur ]a, b[. Si f (t )d t est absolument convergente alors on a :
a

b b¯
¯Z ¯ Z
¯ ¯ ¯
¯
¯ f (t )d t ¯¯ ≤ ¯ f (t )¯ d t .
a a

Démonstration. ¯ On utilise ¯la même décomposition que dans la ¯démonstration précédente et


¯ b ¯ ¯ b¯
Z ¯Z Z b Z b
¯ ¡¯ ¯ ¢ ¯ ¯ ¯
on obtient bien ¯¯ f (t )d t ¯¯ = ¯¯ ¯ f (t )¯ d t − ¯ f (t )¯ − f (t ) d t ¯ ≤
¯
¯ f (t )¯ d t . ■
a a a a

+∞ sin(t 2 ) sin(t 2 ) ¯¯
Z ¯Z +∞ ¯
¯
Exercice 19.8 Montrer que converge et majorer ¯
¯ . ■
0 t2 0 t2 ¯
19.3 Intégrales classiques 239

19.3 Intégrales classiques


19.3.1 Intégrales de Riemann
Théorème 19.3.1 — Intégrales de Riemann. Soient a, b ∈ R+∗ et α ∈ R. Alors, on a :
Z +∞
dt
(i) converge ⇔ α > 1 .
a tα
Z b
dt
(ii)
α
converge ⇔ α < 1 .
0 t

Dans les deux cas, s’il y a convergence, elle est absolue.

b · 1−α ¸b
dt t
Z
Démonstration. Si α 6= 1, on a α
= . On obtient ensuite facilement les résultats
a t 1 −α a
Z b
dt
pour α 6= 1 en faisant tendre soit b vers +∞, soit a vers 0. Enfin, on a = [ln(t )]ba , ce qui
a t
permet de conclure à la divergence des deux intégrales lorsque α = 1. ■

Z +∞ 1
Exercice 19.9 Que peut-on dire de dt ? ■
0 tα

Exercice 19.10 — Intégrale de Riemann translatée. Soient a, b ∈ R avec b > a et α ∈ R.


Z +∞ Z b
dt dt
Que peut-on dire sur la convergence des intégrales α et . ■
b (t − a) a (t − a)α

Z 1
Exercice 19.11 Soit α ∈ R. Montrer que t α ln(t )d t converge si et seulement si α > −1. ■
0
240 Chapitre 19. Intégration sur un intervalle quelconque

19.3.2 Intégrales pour les probabilités


Les intégrales qui suivent seront exploitées dans le prochain chapitre sur les probabilités.

Loi exponentielle
Z +∞
Théorème 19.3.2 — Densité d’une loi exponentielle. Soit λ ∈ R. Alors e −λt d t converge
0
si et seulement si λ > 0. Dans ce cas, elle vaut λ1 .

" #x
x e −λt1³
Z ´
−λt
Démonstration. Si λ 6= 0, on a e dt = − 1 − e −λx . On conclut en faisant
=
0 λ λ
0 Z +∞
tendre x vers +∞. Le cas λ = 0 est trivial, il s’agit de la divergence de 1d t . ■
0

Z +∞
Théorème 19.3.3 — Moments d’une loi exponentielle. Soit λ ∈ R. Si λ > 0, t n e −λt d t
0
converge pour tout n ∈ N.
³ 0
´
Démonstration. Si λ > 0, il existe λ0 tel que 0 < λ0 < λ et on a t n e −λt =+∞ o e −λ t . Ceci permet
de conclure via le résultat précédent. ■

Loi normale
Z +∞ t2
Théorème 19.3.4 — Densité d’une loi normale. L’intégrale définie par e − 2 d t , appelée
p −∞
intégrale de Gauss, converge et est égale à 2π.

Démonstration. La démonstration de ce théorème est admise pour le moment. Elle sera traitée
en devoir. ■

Z +∞ t2
Théorème 19.3.5 — Moments d’une loi normale. Pour tout n ∈ N, t n e − 2 d t converge.
−∞

t2
Démonstration. Par croissance comparée, on a, pour tout n ∈ N, t n e − 2 =+∞ o t12 . On en déduit
¡ ¢
Z +∞
t2
que t n e − 2 converge. On raisonne de même en −∞, ce qui permet de conclure. ■
0
20. Dérivées successives

Ce chapitre vient compléter le chapitre 9 sur la dérivation vu au premier semestre. On


introduit ici la notion de dérivées successives d’une fonction, i.e. la dérivée de la dérivée, puis la
dérivée de cette dernière fonction, etc. Les dérivées successives des fonctions permettent, entre
autres et via l’utilisation des théorèmes de Taylor et des développements limités, une description
très précise des comportements asymptotiques des fonctions réelles.

20.1 Dérivées p -ièmes


20.1.1 Définitions
Définition 20.1.1 — Fonction de classe C p . Soit f une application réelle définie sur un
intervalle I de R et p ∈ N. On dit que f est de classe C p sur I si f est continue, on pose alors
f (0) = f , et, pour tout k ∈ ‚0, p − 1ƒ, l’application f (k) est dérivable, de dérivée continue, on
¢0
pose alors f (k+1) = f (k) . On note C p (I, R) l’ensemble des applications de classe C p sur I.
¡

Définition 20.1.2 — Fonction de classe C∞ . Soit f une application réelle définie sur un
intervalle I de R. On dit que f est de classe C∞ sur I si, pour tout p ∈ N, f est de classe C p .v

Définition 20.1.3 — Fonction dérivable p fois en un point. Soient f une application réelle
définie sur un sous-ensemble I de R, x 0 ∈ I et p ∈ N∗ . On dit que f est dérivable p fois en x 0
s’il existe un voisinage J de x 0 tel que f est de classe C p−1 sur J et f (p−1) est dérivable en x 0 .

R On parle également de l’ensemble Dp (I, R) des fonctions p fois dérivables en tout point de I
mais dont les dérivées p-ième ne sont pas forcément continues. On a ainsi l’emboîtement
suivant de sous-ensembles de RI : C p+1 (I, R) ⊂ Dp+1 (I, R) ⊂ C p (I, R) ⊂ Dp (I, R).

Exercice 20.1 Soit n ∈ N. Montrer que la dérivée (n + 1)-ème d’un polynôme de degré au
plus n est nulle. ■
242 Chapitre 20. Dérivées successives

Exercice 20.2 Montrer que les applications exp, cos, sin et X n sont C∞ sur R et déterminer
toutes leurs dérivées successives. ■

20.1.2 Opérations algébriques


Théorème 20.1.1 — Structure d’espace vectoriel. Soient I ⊂ R et p ∈ N. Les ensembles
C p (I, R) et C∞ (I, R) sont des R-ev.

Exercice 20.3 Démontrer le théorème. ■

Théorème 20.1.2 — Formule de Leibniz. Soient I ⊂ R, p ∈ N, et f et g deux applications


réelles de classe C p sur I (resp. C∞ ). Alors f × g est de classe C p sur I (resp. C∞ ) et on a :
à !
p
(p) p (k)
f (x)g (p−k) (x) .
X
∀x ∈ I, ( f × g ) (x) =
k=0 k

Exercice 20.4 Démontrer le théorème. ■


20.1 Dérivées p -ièmes 243

Exercice 20.5 — Polynômes de Laguerre. On pose pour tout n ∈ N et ∀x ∈ R, f n (x) = e −x x n


et Ln (x) = e x f n(n) (x). Montrer que Ln ∈ R[X] et que son terme dominant est (−1)n X n . ■

Théorème 20.1.3 — Théorème de composition. Soient I, J ⊂ R, p ∈ N, f une application


réelle de classe C p sur I (resp. C∞ ) et g une application réelle de classe C p sur J (resp. C∞ )
telle que g (J) ⊂ I. Alors f ◦ g est de classe C p sur I (resp. C∞ ).

Exercice 20.6 Démontrer le théorème. ■

Corollaire 20.1.4 — Quotient. Soient I ⊂ R, p ∈ N, f et g deux applications réelles de classe


f
C p sur I (resp. C∞ ) telles que g ne s’annule pas sur I. Alors g est une application réelle de
classe C p sur I (resp. C∞ ).

Démonstration. Comme l’application x 7→ x1 est C∞ sur son ensemble de définition, il résulte


du théorème de composition que g1 est de classe C p sur I. On conclut ensuite via le théorème de
la formule de Leibniz. ■

20.1.3 Culture G : Les splines


Vous n’avez probablement jamais entendu parlé des splines et pourtant on les trouve au-
jourd’hui partout. D’ailleurs, en lisant ces lignes, ce sont des splines que vous regardez. En effet,
le format pdf qui est le support de ce cours utilise des splines pour le rendu graphique de la
plupart de son contenu.
Une spline est une fonction polynomiale par morceaux, pour laquelle chaque morceau
est collé bout à bout de manière à ce que la fonction globale obtenue soit de classe C2 . Leur
utilisation permet de coder des motifs (les différentes lettres des mots que vous lisez par exemple)
qui paraissent totalement lisses pour un utilisateur humain, quelque soit l’échelle (si vous
zoomez les lettres ne seront pas pixelisées), et ceci de manière économe en espace de stockage
comme en puissance de calcul.
Si les splines sont aujourd’hui massivement présents dans le domaine informatique, leur
développement est dû à l’industrie automobile française. Dans les années 60, Pierre Béziers,
ingénieur chez Renault, popularisait des splines connues aujourd’hui sous le nom de courbe
244 Chapitre 20. Dérivées successives

de Béziers, alors que le mathématicien Paul de Casteljau étudiait ces mêmes courbes pour le
compte de Citroën. Cela fournit un bon exemple d’une technologie qui, initialement conçue
pour un domaine très spécifique (le dessin de carrosseries), a profité à un tout autre domaine (le
rendu visuel en informatique).

20.2 Développements asymptotiques


20.2.1 Formules de Taylor
Théorème 20.2.1 — Taylor avec reste intégral. Soient p ∈ N et f une application de classe
C p+1 sur un intervalle I de R. Alors, on a :
p
f (k) (a)
Z b (p+1)
k f (t )
2
(b − t )p d t .
X
∀(a, b) ∈ I , f (b) = (b − a) +
k=0 k! a p!

Z b
Démonstration. On montre le résultat par récurrence. Si p = 0, on a f 0 (t )d t = f (b) − f (a)
a
par la définition de l’intégrale, ce qui correspond à la proposition. On suppose donc que la
proposition est vraie à un certain rang p ∈ N et on montre qu’elle est vraie au rang p+1. Soient f ∈
p
f (k) (a)
Z b (p+1)
k f (t )
p+2 2
(I, R) et (a, b) ∈ I . On a f (b) = (b − t )p d t , par hypothèse
X
C (b − a) +
k=0 k! a p!
¸b Z b (p+2)
(b − t )p+1
Z b (p+1) (p+1)
f −f f
·
(t ) p (t )
de récurrence. Or (b − t ) d t = + (b − t )p+1 d t via
a p! (p + 1)! a a (p + 1)!
une intégration par parties, ce qui permet de conclure. ■

Corollaire 20.2.2 — Inégalité de Taylor. Soient p ∈ ¯N, f une application de classe C p+1 sur
un intervalle I de R et M ∈ R+ un majorant de ¯ f (p+1) ¯ sur I. Alors, on a :
¯

¯ ¯
p ¯ M |b − a|p+1
2
¯ X f (k) (a) k¯
∀(a, b) ∈ I , ¯ f (b) − (b − a) ¯ ≤ .
¯
¯ k=0 k! ¯ (p + 1)!

¯ (b − t )p ¯
¯Z b (p+1) ¯ Z b ¯ (p+1) ¯ Z b¯ ¯
¯ f (t ) p
¯ ¯f (t ) p¯
¯
Démonstration. On a ¯ ¯ (b − t ) d t ¯ ≤
¯ ¯ (b − t ) ¯ d t ≤ M ¯ p! ¯ d t .
¯ ¯
a p! a
¯ p! a
¯ (b − t )p ¯
Z b¯ ¯ p+1
Or ¯ ¯ d t = |b − a| , ce qui permet de conclure. ■
¯ p! ¯ (p + 1)!
a

Exercice 20.7 Démontrer la convergence de la série exponentielle (théorème 16.2.10). ■


20.2 Développements asymptotiques 245

Corollaire 20.2.3 — Caractérisation de la multiplicité de la racine d’un polynôme réel.


Soient P ∈ R[X] un polynôme non nul et a ∈ R une racine de P. Alors, a est de multiplicité
m ∈ N∗ si et seulement si, pour tout k ∈ ‚0, m − 1ƒ, P (k) (a) = 0 et P (m) (a) 6= 0.

Démonstration. Soit n le degré de P. Comme P (n+1) = 0, l’application de la formule de Taylor


(k)
donne P = nk=0 P k!(a) (X − a)k . Soit m ∈ N∗ , m ≤ n. La division euclidienne de P par (X − a)m
P

X P (k) (a)
m−1 X P (k+m) (a)
n−m (m)
est P = (X − a)k + (X − a)m (X − a)k = R + (X − a)m Q avec Q(a) = P m!(a) .
k=0 k! k=0 (k + m)!
Or la racine a est de multiplicité m si et seulement si R = 0 et Q(a) 6= 0, ce qui permet de
conclure. ■

Théorème 20.2.4 — Formule de Taylor-Young. Soient p ∈ N, f une application de classe C p


sur un intervalle I de R et a ∈ I. Alors, on a :
p
f (k) (a)
(x − a)k + o (x − a)p .
X ¡ ¢
f (x) =x→a
k=0 k!

Démonstration. La démonstration de ce théorème n’est pas au programme et est donc admise.


20.2.2 Développements limités


Grâce au théorème de Taylor-Young qui précède, on peut décrire le comportement asympto-
tique d’une fonction C p au voisinage d’un point a par un polynôme de degré p et un reste qui
est négligeable devant (x − a)p . Ce type de description correspond à la notion de développement
limité que l’on précise ici.
Définition 20.2.1 — Développement limité en un point. Soient n ∈ N, a ∈ R et f une fonc-
tion réelle définie sur un voisinage de a. Alors, on dit que f admet un développement limité
d’ordre n en a (ou plus simplement un DLn en a ou DLn (a)) s’il existe un polynôme P ∈ Rn [X]
tel que :
f (x) =x→a P(x − a) + o (x − a)n .
¡ ¢

P(x − a) est appelé la partie régulière du développement limité et f (x) − P(x − a) le reste.

R On peut également considérer des DLn à gauche ou à droite, notés alors DLn (a − ) et
DLn (a + ).

Définition 20.2.2 — Développement limité en +∞. Soient n ∈ N et f une fonction réelle


définie sur un voisinage de +∞. Alors, on dit que f admet un développement limité d’ordre
n en +∞ (ou plus simplement un DLn (+∞)) s’il existe un polynôme P ∈ Rn [X] tel que :
µ ¶ µ ¶
1 1
f (x) =x→+∞ P +o n .
x x

R On définit de même la notion de DLn en −∞. En pratique, on se concentrera toutefois sur


les DLn en un point et particulièrement en 0.
246 Chapitre 20. Dérivées successives

Théorème 20.2.5 — Unicité d’un DLn . Soient n ∈ N, a ∈ R et f une fonction réelle définie sur
un voisinage de a. Si f admet un DLn en a, il est unique.

Démonstration. Si f (x) =a P(x − a) +o ((x − a)n ) =a Q(x − a) +o ((x − a)n ) alors on peut dire que
P(x − a) − Q(x − a) =a o ((x − a)n ), puis que (P − Q)(h) =0 o (h n ). Or P − Q est un polynôme de
degré au plus n donc ceci n’est réalisé que si et seulement si P − Q = 0. On a donc bien P = Q. ■

R Un résultat analogue peut-être montré pour les DLn en +∞ et −∞.

Corollaire 20.2.6 — Parité. Soit f une fonction réelle définie sur un intervalle I de R symé-
trique par rapport à 0. On suppose que f admet un DLn en 0 pour un n ∈ N. Alors, si f est
paire (resp. impaire), la partie régulière de f est paire (resp. impaire).

Démonstration. Si f est paire et que f (x) =0 P(x) + o(x n ), on a f (x) = f (−x) =0 P(−x) + o(x n ) et
par unicité du DLn , P(x) = P(−x). On procède de même pour f impaire. ■

Théorème 20.2.7 — Opérations sur les DLn . Soient n ∈ N, a ∈ R, f et g deux fonctions réelles
définies sur un voisinage de a et λ ∈ R. On suppose que f et g possèdent des DLn (a) donnés
par des polynômes P et Q respectivement. Alors, on a :

(i) λ f + g admet un DLn (a),


(ii) f g admet un DLn (a).

Exercice 20.8 Démontrer le théorème précédent en explicitant les DLn (a). ■

R Il existe également des résultats concernant les quotients et compositions pour les déve-
loppements limités mais ceux-ci ne sont pas au programme.

Théorème 20.2.8 — DLn , continuité et dérivabilité. Soient n ∈ N, a ∈ R et f une fonction


réelle définie sur un voisinage de a. On suppose que f admet un DLn (a). Alors, on a les
propositions qui suivent.

(i) Si n ≥ 0, alors f est continue en a.


(ii) Si n ≥ 1, alors f est dérivable en a.

Exercice 20.9 Démontrer le théorème. Montrer que si n ≥ 2, une fonction peut admettre un
20.2 Développements asymptotiques 247
1
x n+1 sin
½ ¡ ¢
xn si x 6= 0
DLn sans être n fois dérivable – on étudiera la fonction f : x 7→ . ■
0 sinon

20.2.3 Développements limités usuels


Théorème 20.2.9 — Exponentielle. Pour tout n ∈ N, le DLn (0) de la fonction exponentielle
est donné par :
x2 x3 xn
e x =0 1 + x + + o xn
¡ ¢
+ +···+
2 6 n!
Xn xk ¡ n¢
=0 +o x .
k=0 k!

Théorème 20.2.10 — Logarithme. Pour tout n ∈ N∗ , le DLn (0) de la fonction x 7→ ln(1 + x)


est donné par :
x2 x3 xn
+ · · · + (−1)n−1 + o xn
¡ ¢
ln(1 + x) =0 x − +
2 3 n
n k
x
(−1)k−1 + o xn .
X ¡ ¢
=0
k=1 k

Théorème 20.2.11 — Puissance. Soit α ∈ R. Pour tout n ∈ N∗ , le DLn (0) de la fonction x 7→


(1 + x)α est donné par :

α(α − 1) 2 α(α − 1) × ... × (α − n + 1) n


(1 + x)α 1 + αx + x + o xn
¡ ¢
=0 x +···+
2 n!
X α(α − 1) × ... × (α − k + 1) k
n
x + o xn .
¡ ¢
=0 1+
k=1 k!
248 Chapitre 20. Dérivées successives

En particulier, on a :

1
1 − x + x 2 − x 3 + · · · + (−1)n x n + o x n
¡ ¢
=0
1+x
n
(−1)k x k + o x n .
X ¡ ¢
=0
k=0
1
1 + x + x2 + x3 + · · · + xn + o xn
¡ ¢
=0
1−x
n
xk + o xn .
X ¡ ¢
=0
k=0
p x x2 x3 (2n)!
+ · · · + (−1)n−1 2n xn + o xn
¡ ¢
1+x =0 1+ − + 2
2 8 16 2 (2n − 1)(n!)
n (2k)!
(−1)k−1 2k
X ¡ n¢
=0 + o x .
k=0 2 (2k − 1)(k!)2

Théorème 20.2.12 — Sinus. Pour tout n ∈ N, le DL2n+2 (0) de la fonction sinus est donné par :

x3 x5 x 2n+1
+ · · · + (−1)n + o x 2n+2
¡ ¢
sin(x) =0 x− +
6 120 (2n + 1)!
n 2k+1
x
(−1)k + o x 2n+2 .
X ¡ ¢
=0
k=0 (2k + 1)!

Théorème 20.2.13 — Cosinus. Pour tout n ∈ N, le DL2n+1 (0) de la fonction cosinus est donné
par :
x2 x4 x 2n
+ · · · + (−1)n + o x 2n+1
¡ ¢
cos(x) =0 1 − +
2 24 (2n)!
n 2k
x
(−1)k + o x 2n+1 .
X ¡ ¢
=0
k=0 (2k)!

Exercice 20.10 Démontrer l’intégralité de ces théorèmes grâce au théorème de Taylor-Young.



21. Compléments d’analyse

Ce chapitre comporte les derniers points d’analyse non encore abordés du programme
d’ECS 1. Une première section traite très brièvement de la notion de point critique. Il s’agit là
d’une introduction à une notion qui sera plus amplement développée en ECS 2. Une deuxième
section traite des fonctions convexes.

21.1 Points critiques


Exercice 21.1 Rappeler les résultats du cours portant sur les extrema (maxima et minima)
des fonctions réelles. ■
250 Chapitre 21. Compléments d’analyse

Définition 21.1.1 — Point critique. Soit f une application réelle définie sur un intervalle I
de R et dérivable en tout point de I. On dit que x 0 ∈ I est un point critique de f si f 0 (x 0 ) = 0.

Théorème 21.1.1 — Condition suffisante d’existence d’un extremum local en un point


critique. Soient f une fonction de classe C2 sur un intervalle ouvert I de R et x 0 un point
critique de f . Si f 00 (x 0 ) > 0 (resp. f 00 (x 0 ) < 0), alors f admet un minimum local en x 0 (resp.
maximum local).

Démonstration. Si f est de classe C2 , on peut utiliser la formule de Taylor-Young et on a


f (x) =x→x0 f (x 0 ) + (x − x 0 ) f 0 (x 0 ) + (x − x 0 )2 f 00 (x 0 ) + o (x − x 0 )2 . Or x 0 est un point critique
¡ ¢

donc on a f (x) =x→x0 f (x 0 )+(x − x 0 )2 f 00 (x 0 )+o (x − x 0 )2 =x→x0 f (x 0 )+(x − x 0 )2 f 00 (x 0 ) + o (1) .


¡ ¢ ¡ ¢

Ainsi, si f 00 (x 0 ) > 0, f (x) − f (x 0 ) est strictement positif sur un voisinage de x 0 exclu. La fonction
f admet donc bien un minimum local en x 0 . ■

R Si f 00 (x 0 ), alors on ne peut rien conclure.

21.2 Fonctions convexes


21.2.1 Définition et premières propriétés
Conformément aux directives du programme, tous les résultats de cette section sont admis.
Elles ne posent toutefois pas de grande difficulté et peuvent être réalisées en entraînement.
Définition 21.2.1 — Fonction convexe, fonction concave. Soit f une application réelle
définie sur un intervalle I de R. On dit que f est convexe sur I si on a :

∀(x 1 , x 2 ) ∈ I2 , ∀(t 1 , t 2 ) ∈ [0, 1]2 tel que t 1 + t 2 = 1, f (t 1 x 1 + t 2 x 2 ) ≤ t 1 f (x 1 ) + t 2 f (x 2 ) .

On dit que f est concave sur I si on a :

∀(x 1 , x 2 ) ∈ I2 , ∀(t 1 , t 2 ) ∈ [0, 1]2 tel que t 1 + t 2 = 1, f (t 1 x 1 + t 2 x 2 ) ≥ t 1 f (x 1 ) + t 2 f (x 2 ) .

R Il découle directement de la définition qu’une fonction f est concave si et seulement si − f


est convexe.

Exercice 21.2 Comment peut-on interpréter géométriquement ces notions ? ■


21.2 Fonctions convexes 251

Théorème 21.2.1 — Inégalité de convexité généralisée. Soit f une application réelle


définie sur un intervalle I de R. On suppose que f est convexe sur I. Alors, on a :
à !
n n n
∗ n n
∀n ∈ N , ∀(t 1 , ..., t n ) ∈ [0, 1] tel que
X X X
t i = 1, ∀(x 1 , ..., x n ) ∈ I , f ti xi ≤ t i f (x i ) .
i =1 i =1 i =1

21.2.2 Fonctions convexes et dérivabilité


Théorème 21.2.2 — Fonctions convexes de classe C1 . Soient f une application réelle
définie de classe C1 sur un intervalle I de R et C la courbe représentative de f . Alors, les
propositions qui suivent sont équivalentes.

(i) f est convexe sur I.


(ii) f 0 est croissante sur I.
(iii) C est au-dessus de ses tangentes.

R Il existe également un résultat analogue pour les fonctions concaves de classe C1 .

Théorème 21.2.3 — Fonctions convexes de classe C2 . Soit f une application réelle définie
de classe C2 sur un intervalle I de R. Alors, on a les propositions qui suivent.

(i) f est convexe sur I ⇔ ∀x ∈ I, f 00 (x) ≥ 0.


(ii) f est concave sur I ⇔ ∀x ∈ I, f 00 (x) ≤ 0.

à !1
1 n n n
n
Exercice 21.3 Soit n ∈ N∗ et (x 1 , ..., x n ) ∈ R∗+ . Montrer que
¡ ¢ X Y
xi ≥ xi . ■
n i =1 i =1

21.2.3 Points d’inflexion


Définition 21.2.2 — Point d’inflexion. Soient f une application réelle définie sur un inter-
valle ouvert I de R, x 0 ∈ I et C la courbe représentative de f . S’il existe α > 0 tel que f est
convexe sur l’un des intervalles ]x 0 − α, x 0 ] et [x 0 , x 0 + α[ et concave sur l’autre, alors on dit
que le point M0 de coordonnées x 0 , f (x 0 ) est un point d’inflexion de C .
¡ ¢

Théorème 21.2.4 — Point d’inflexion C2 . Soient f une application réelle définie sur un
intervalle ouvert I de R, x 0 ∈ I et C la courbe représentative de f . On suppose que f est
de classe C2 sur I et que f 00 s’annule en changeant de signe en x 0 , alors le point M0 de
coordonnées x 0 , f (x 0 ) est un point d’inflexion de C .
¡ ¢
22. Variables aléatoires à densité

Dans ce chapitre de probabilités, on étudie un nouveau type de variable aléatoire réelle,


les variables aléatoires à densité. Ce chapitre s’appuie sur le début du chapitre 17 pour tous
les points généraux portant sur les VAR. Il est donc important de vérifier que le contenu de ce
précédent chapitre est bien intégré avant de s’attaquer à celui-ci.

22.1 Introduction
22.1.1 Définition et premières propriétés
Définition 22.1.1 — Variable aléatoire à densité. Soit X une VAR sur un espace probabilisé
(Ω, A , P). On dit que X est une VAR à densité (ou simplement variable aléatoire à densité)
si sa fonction de répartition FX est continue sur R et C1 sur R éventuellement privé d’un
nombre fini de points.

Définition 22.1.2 — Densité. Soit X une VAR à densité sur un espace probabilisé (Ω, A , P). On
appelle densité de X toute fonction f X , à valeurs postives, et égale à F0X sauf éventuellement
en un nombre fini de points. On a, dans ce cas, la proposition suivante :
Z x
∀x ∈ R, FX (x) = f X (t )d t .
−∞

R Une VARD n’est donc pas une VAR à densité puisque sa fonction de répartition est discon-
tinue en toute valeur prise par X.

Théorème 22.1.1 — Caractérisation de la loi par la (une) densité. Soient X et Y deux VAR
à densité sur un espace probabilisé (Ω, A , P), f X et f Y deux densités associées à ces variables
aléatoires et L X et L Y les lois de X et Y respectivement. Alors on a :

f X = f Y ⇒ LX = LY .
254 Chapitre 22. Variables aléatoires à densité

Démonstration. Ce résultat est admis. ■

Théorème 22.1.2 — Caractérisation d’une densité. Toute fonction f positive, continue sur
Z +∞
R éventuellement privé d’un nombre fini de points, et telle que f (t )d t = 1 est la densité
−∞
d’une variable aléatoire à densité.

Démonstration. Ce résultat est admis. ■

Les théorèmes qui précèdent impliquent que pour étudier une variable à densité, il suffit
de s’intéresser à sa densité, et qu’étudier une densité revient à étudier une fonction postive,
continue et intégrable sur R. On ramène ainsi des problèmes de probabilités à des problèmes
d’intégration.

Théorème 22.1.3 — Propriétés d’une VAR à densité. Soient X une VAR à densité sur un
espace probabilisé (Ω, A , P) et f X une densité de X. Alors, on a les propositions qui suivent.

(i) ∀a ∈ R, P(X = a) = 0.
2
(ii) ∀(a, b) ∈ R tel que a < b,
Z b
P(a < X < b) = P(a ≤ X < b) = P(a < X ≤ b) = P(a ≤ X ≤ b) = f X (t )d t .
a

Démonstration. On a 0 ≤ P(X = a) ≤ P a − n1 < X ≤ a . Or P a − n1 < X ≤ a = FX (a) − FX a − n1


¡ ¢ ¡ ¢ ¡ ¢

qui tend vers 0 lorsque n tend vers +∞ par continuité de FX . Ce qui permet de conclure pour le
point (i).
Le deuxième point découle directement du premier point et de la proposition dans la définition
d’une densité. ■

R Si f X est nulle en dehors de [a, b], on a P(X < a) = P(X > b) = 0. Ainsi, X ∈ [a, b] presque
sûrement.

22.1.2 Espérance et moments


Le programme d’ECS 1 ne traite que de l’espérance des variables à densité tandis que la
variance et les autres moments d’ordre supérieurs ou égaux à 2 sont renvoyés au programme
d’ECS 2. On introduit tout de même la notion de moment ici, afin de se familiariser avec certains
calculs d’intégrales.
Définition 22.1.3 — Espérance. Soient X une VAR à densité sur un espace probabilisé
Z A , P) et f X une densité de X. On dit que X admet une espérance si et seulement si
(Ω,
+∞
t f X (t )d t est absolument convergente. Dans ce cas, on pose :
−∞
Z +∞
E(X) = t f X (t )d t .
−∞

R Cette définition est bien indépendante de la densité de X choisie car deux densités ne
diffèrent qu’en un nombre fini de points.
22.1 Introduction 255

1
Exercice 22.1 — Loi de Cauchy. Soit f la fonction définie par f (x) = π 1+x pour tout x ∈ R.
( 2)
Montrer que f est la densité d’une variable X, puis montrer que X n’admet pas d’espérance. ■

Définition 22.1.4 — Moments. Soient X une VAR à densité sur un espace probabilisé (Ω, A , P)
et r ∈ N∗ . Alors, on dit que X admet un moment d’ordre r si et seulement si X r possède une
espérance. Dans ce cas, le moment d’ordre r de X est E(X r ).

Théorème 22.1.4 — Calcul des moments. Soient X une VAR à densité sur un espace pro-
babilisé (Ω, AZ, P), f X une densité de X et r ∈ N∗ . Alors, X possède un moment d’ordre r si et
+∞
seulement si t r f X (t )d t est absolument convergente. Dans ce cas, on a :
−∞
Z +∞
r
E(X ) = t r f X (t )d t .
−∞

Démonstration. Ce théorème est un corollaire direct du théorème de transfert qui sera traité en
ECS 2. ■

22.1.3 Transferts usuels


Théorème 22.1.5 — Transfert affine. Soient X une VAR à densité sur un espace probabilisé
(Ω, A , P) et (a, b) ∈ R∗ × R. Alors, Y = aX + b est une VAR à densité sur (Ω, A , P). De plus, si FX
et FY sont les fonctions de répartition de X et Y respectivement, on a :
³ ´
(i) a > 0 ⇒ ∀x ∈ R, FY (x) = FX x−ba³ , ´
(ii) a < 0 ⇒ ∀x ∈ R, FY (x) = 1 − FX x−b a .

Enfin, si f X est une densité de X, on a :


³ ´
1 t −b
(iii) f Y , définie pour tout t ∈ R par f Y (t ) = |a| f X a , est une densité de Y.

Démonstration. On suppose a > 0, le cas négatif se montrant de manière analogue. On vérifie


facilement que Y est une VAR. Pour montrer qu’il s’agit d’une variable à densité, on montre
³ (i). On´
x−b
suppose a > 0. Pour tout x ∈ R, on a FY (x) = P(Y ≤ x) = P(aX+b ≤ x) = P(aX ≤ x−b) = P X ≤ a
car a > 0. C’est bien le résultat attendu. On note que FY est bien C1 , sauf éventuellement en un
nombre fini de points, par composition de FX et de la bijection de classe C∞ : x 7→ x−b a .
0
Pour (iii), il suffit de remarquer qu’en tout point pour lequel FY est dérivable, on a FY = f Y comme
définie ci-dessus. Cela permet de conclure. ■

Théorème 22.1.6 — Espérance d’un transfert affine. Soient X une VAR à densité sur un
256 Chapitre 22. Variables aléatoires à densité

espace probabilisé (Ω, A , P) et (a, b) ∈ R∗ × R. On suppose que X possède une espérance. Alors,
Y = aX + b possède une espérance et on a :

E(Y) = aE(X) + b .
Z β Z aβ+b
t −b ax + b
µ ¶
1
Démonstration. Soient α, β ∈ R tels que α < β. On a t f dt = f (x)ad x.
Z +∞ α |a| a Z aα+b |a|
+∞
Or on sait que x f (x) d x converge absolument vers E(X) et que f (x)d x converge
−∞ Z +∞ −∞
t −b
µ ¶
1
absolument vers 1. D’où t f d t converge absolument vers aE(X) + b. ■
−∞ |a| a

Définition 22.1.5 — Variable centrée. Soit X une VAR à densité sur un espace probabilisé
(Ω, A , P). On dit que X est centrée lorsque X admet une espérance et E(X) = 0. Si X admet
une espérance, on appelle variable centrée associée à X la VAR à densité X − E(X).

R Dans ce dernier cas, on a bien évidemment E (X − E(X)) = E(X) − E(X) = 0.

22.2 VAR à densité usuelles


22.2.1 Loi uniforme
Définition 22.2.1 — Loi uniforme. Soient (a, b) ∈ R2 avec a < b et X une VAR sur un espace
probabilisé (Ω, A , P). Alors on dit que X suit une loi uniforme sur [a, b] et on note X ,→ U [a,b]
lorsque X admet pour densité la fonction f X = b−a 1
1[a,b] .

R On a exactement la même définition pour tout type d’intervalle borné (i.e. [a, b[, ]a, b] et
]a, b[).

Exercice 22.2 Vérifer que la fonction f X donnée dans la définition est bien une densité de
probabilité. Représenter graphiquement cette fonction ainsi que la fonction de répartition
de la variable X associée que l’on explicitera. ■
22.2 VAR à densité usuelles 257

Théorème 22.2.1 — Espérance d’une loi uniforme. Soient (a, b) ∈ R2 avec a < b et X une
VAR telle que X ,→ U [a,b] . Alors X admet une espérance et on a :

b+a
E(X) = .
2
· 2 ¸b
+∞ tdt b
1 t b2 − a2 a +b
Z Z
Démonstration. E(X) = t f (t )d t = = = = où l’intégrale
−∞ a b−a b − a 2 a 2(b − a) 2
est bien absolument convergente car la fonction intégrée est continue sur [a, b] et nulle en dehors
de [a, b]. ■

Exercice 22.3 Soient (a, b) ∈ R2 avec a < b, X une VAR et Y = a + (b − a)X. Montrer que
X ,→ U [0,1] ⇔ Y ,→ U [a,b] . ■

Exercice 22.4 — Moments d’une loi uniforme. Soient (a, b) ∈ R2 avec a < b et X une VAR
telle que X ,→ U [a,b] . Montrer que X possède des moments d’ordre r pour tout r ∈ N∗ et
déterminer leur valeur. ■

22.2.2 Loi exponentielle


Définition 22.2.2 — Loi exponentielle. Soient λ ∈ R∗+ et X une VAR sur un espace proba-
bilisé (Ω, A , P). Alors on dit que X suit une loi exponentielle de paramètre λ et on note
X ,→ E (λ) lorsque X admet pour densité la fonction f X définie pour tout t ∈ R par :

λe
½ −λt
si t ≥ 0
f X (t ) =
0 sinon.

Exercice 22.5 Vérifer que la fonction f X donnée dans la définition est bien une densité de
probabilité. Représenter graphiquement cette fonction ainsi que la fonction de répartition
258 Chapitre 22. Variables aléatoires à densité

de la variable X associée que l’on explicitera. ■

Théorème 22.2.2 — Espérance de la loi exponentielle. Soient λ ∈ R∗+ et X une VAR telle
1
que X ,→ E (λ). Alors X admet une espérance et E(X) = .
λ

Démonstration. Il découle du théorème 19.3.3 que X admet une espérance. On la calcule grâce
e −λx − 1
Z x h ix Z x
à une intégration par parties. On a λt e −λt d t = −t e −λt + e −λt d t = −xe −λx −
0 0 0 λ
1
qui tend vers lorsque x tend vers +∞. ■
λ

¡ ¢2
Exercice 22.6 Soit g une application définie sur R+ , décroissante, telle que ∀(x, y) ∈ R+ ,
g (x + y) = g (x) + g (y). Le but de l’exercice est de montrer que ∃λ ∈ R+ , ∀x ∈ R+ , g (x) = −λx.
¡ ¢ g (1)
1. Montrer que pour tout n ∈ N∗ , g n1 = n .
¡ ¢2 1
2. Soient (x, y) ∈ R+ et n ∈ N∗ . On suppose que n+1 < y < n1 . Montrer alors que l’on a
¯ |g (1)|
¯ ¯
¯ g (x+y)−g (x)
¯ y − g (1)¯ ≤ n . En déduire que g est dérivable à droite en tout point.
3. Montrer, de même, que g est dérivable à gauche en tout point et déterminer sa dérivée.
4. Conclure.

22.2 VAR à densité usuelles 259

Théorème 22.2.3 — Caractérisation de la loi exponentielle par l’absence de mémoire.


Soit X une VAR sur un espace probabilisé (Ω, A , P). Alors, X suit une loi exponentielle si et
seulement si :
(i) X(Ω) = R+ ,
¡ ¢2 ¡
∀(x, y) ∈ R+ , P X > x + y ¯ X > y = P(X > x),
¯ ¢
(ii)
(iii) ∀x ∈ R, P (X > x) 6= 0.

Démonstration. On suppose que X ,→ E (λ) avec λ ∈ R∗+ . Sans difficulté, on a (i) et (iii). Soit
(x, y) ∈ R+ , on a P X > x + y ¯ X > y = ([ P X>y
¡ ¢2 ¢ P X>x+y ]∩[X>y ]) P(X>x+y ) e −λ(x+y)
= P X>y = e −λy = e −λx = P (X > x).
¡ ¯
( ) ( )¡ ¢
2
Réciproquement, on suppose (i), (ii) et (iii). Alors, on a ∀(x, y) ∈ R+ , P(X > x + y) = P(X >
x)P(X > y). On pose alors, ∀x ∈ R, g (x) = ln (P(X > x)). Par l’exercice qui précède, on a g (x) = −λx
pour tout x ∈ R+ avec λ ∈ R+ . On a donc, pour tout x ∈ R+ , P(X > x) = e −λx et FX (x) = 1 − e −λx . Or
x→+∞ FX (x) = 1 d’où λ 6= 0. Ce qui permet de conclure.
lim ■

R On peut utiliser la loi exponentielle pour modéliser la durée de vie d’un phénomène sans
mémoire : la probabilité que le phénomène dure au moins x + y heures sachant qu’il a
déjà duré y heures sera la même que la probabilité qu’il dure x heures après qu’il a débuté.

1
Exercice 22.7 Soient λ ∈ R∗+ , X une VAR et Y = X. Montrer que X ,→ E (1) ⇔ Y ,→ E (λ). ■
λ
260 Chapitre 22. Variables aléatoires à densité

22.2.3 Loi normale


Définition 22.2.3 — Loi normale centrée réduite. Soit X une VAR sur un espace probabilisé
(Ω, A , P). Alors on dit que X suit une loi normale centrée réduite et on note X ,→ N (0, 1)
lorsque X admet pour densité la fonction ϕ définie et représentée ci-dessous.

0,4

ϕ : R −→ R
t 2 0,2
t 7−→ p1 e − 2

-4 -2 2 4

La fonction de répartition d’une loi normale centrée réduite est notée Φ.

R La courbe représentative de la densité d’une loi normale est souvent appelée bell curve en
anglais, en référence à sa forme en cloche.

Exercice 22.8 Vérifier que la fonction ϕ donnée dans la définition est bien une densité de
probabilité. ■

Exercice 22.9 Montrer que l’on a, pour tout x ∈ R, Φ(−x) = 1 − Φ(x). Interpréter ce résultat
graphiquement. ■

Théorème 22.2.4 — Espérance d’une loi normale centrée réduite. Soit X une VAR telle
que X ,→ N (0, 1). Alors X admet une espérance et E(X) = 0.

Démonstration. On sait déjà que X admet une espérance (voir théorème 19.3.5). Or l’intégrale
sur R d’une fonction impaire vaut 0 si cette intégrale converge. Comme t 7→ t ϕ(t ) est impaire,
on obtient bien E(X) = 0. ■

Définition 22.2.4 — Loi normale. Soient µ ∈ R, σ ∈ R∗+ et X une VAR sur un espace proba-
bilisé (Ω, A , P). Alors on dit que X suit une loi normale de paramètres µ et σ2 (ou loi de
Laplace-Gauss) et on note X ,→ N (µ, σ2 ) lorsque X admet pour densité la fonction f X définie,
22.2 VAR à densité usuelles 261

pour tout t ∈ R, par :


1 t −µ 2
µ µ ¶ ¶
1
f X (t ) = p exp − .
σ 2π 2 σ

Exercice 22.10 Vérifier que la fonction f X donnée dans la définition est bien une densité de
probabilité. Représenter f X pour µ = 3 et σ2 = 4. ■

X−µ
Exercice 22.11 Soient µ ∈ R, σ ∈ R∗+ , X une VAR et X ∗ = .
σ
1. Montrer que X ,→ N (µ, σ2 ) ⇔ X ∗ ,→ N (0, 1).
2. Que peut-on dire de l’espérance d’une loi normale ?
Soit k ∈ R+ . Montrer que P X ∈ [µ − kσ, µ + kσ] ne dépend que de k.
¡ ¢
3.
À l’aide de Scilab, déterminer P X ∈ [µ − kσ, µ + kσ] pour k = 1, 2 et 3 à 10− 3 près.
¡ ¢
4.
5. Donner une interprétation de ce résultat.

262 Chapitre 22. Variables aléatoires à densité

Lire une table de loi normale


Bien que son utilisation tend à diminuer grâce à une utilisation simplifiée d’outils informa-
tiques, les tables de lois sont encore très souvent utilisées pour calculer la fonction de répartition
d’une loi normale centrée réduite. Généralement, une telle table donne la probabilité qu’une
variable aléatoire X suivant une loi normale centrée réduite soit supérieure à un nombre réel
x positif, en fonction de ses chiffres des unités et des dixièmes d’une part, et des centièmes
d’autre part. Dans le tableau suivant, la première colonne correspond aux chiffres des unités
et des dixièmes de x et la première ligne aux chiffres des centièmes de x. On utilise ensuite la
symétrie de la densité pour les valeurs négatives de x et un changement de variables pour les
lois normales non centrées réduites.

0 0,01 0,02 0,03 0,04 0,05 0,06 0,07 0,08 0,09


0 0,5000 0,5040 0,5080 0,5120 0,5160 0,5199 0,5239 0,5279 0,5319 0,5359
0,1 0,5398 0,5438 0,5478 0,5517 0,5557 0,5596 0,5636 0,5675 0,5714 0,5753
0,2 0,5793 0,5832 0,5871 0,5910 0,5948 0,5987 0,6026 0,6064 0,6103 0,6141
0,3 0,6179 0,6217 0,6255 0,6293 0,6331 0,6368 0,6406 0,6443 0,6480 0,6517
0,4 0,6554 0,6591 0,6628 0,6664 0,6700 0,6736 0,6772 0,6808 0,6844 0,6879
0,5 0,6915 0,6950 0,6985 0,7019 0,7054 0,7088 0,7123 0,7157 0,7190 0,7224
0,6 0,7257 0,7291 0,7324 0,7357 0,7389 0,7422 0,7454 0,7486 0,7517 0,7549
0,7 0,7580 0,7611 0,7642 0,7673 0,7704 0,7734 0,7764 0,7794 0,7823 0,7852
0,8 0,7881 0,7910 0,7939 0,7967 0,7995 0,8023 0,8051 0,8078 0,8106 0,8133
0,9 0,8159 0,8186 0,8212 0,8238 0,8264 0,8289 0,8315 0,8340 0,8365 0,8389
1 0,8413 0,8438 0,8461 0,8485 0,8508 0,8531 0,8554 0,8577 0,8599 0,8621
1,1 0,8643 0,8665 0,8686 0,8708 0,8729 0,8749 0,8770 0,8790 0,8810 0,8830
1,2 0,8849 0,8869 0,8888 0,8907 0,8925 0,8944 0,8962 0,8980 0,8997 0,9015
1,3 0,9032 0,9049 0,9066 0,9082 0,9099 0,9115 0,9131 0,9147 0,9162 0,9177
1,4 0,9192 0,9207 0,9222 0,9236 0,9251 0,9265 0,9279 0,9292 0,9306 0,9319
1,5 0,9332 0,9345 0,9357 0,9370 0,9382 0,9394 0,9406 0,9418 0,9429 0,9441
1,6 0,9452 0,9463 0,9474 0,9484 0,9495 0,9505 0,9515 0,9525 0,9535 0,9545
1,7 0,9554 0,9564 0,9573 0,9582 0,9591 0,9599 0,9608 0,9616 0,9625 0,9633
1,8 0,9641 0,9649 0,9656 0,9664 0,9671 0,9678 0,9686 0,9693 0,9699 0,9706
1,9 0,9713 0,9719 0,9726 0,9732 0,9738 0,9744 0,9750 0,9756 0,9761 0,9767
2 0,9772 0,9778 0,9783 0,9788 0,9793 0,9798 0,9803 0,9808 0,9812 0,9817
2,1 0,9821 0,9826 0,9830 0,9834 0,9838 0,9842 0,9846 0,9850 0,9854 0,9857
2,2 0,9861 0,9864 0,9868 0,9871 0,9875 0,9878 0,9881 0,9884 0,9887 0,9890
2,3 0,9893 0,9896 0,9898 0,9901 0,9904 0,9906 0,9909 0,9911 0,9913 0,9916
2,4 0,9918 0,9920 0,9922 0,9925 0,9927 0,9929 0,9931 0,9932 0,9934 0,9936
2,5 0,9938 0,9940 0,9941 0,9943 0,9945 0,9946 0,9948 0,9949 0,9951 0,9952
2,6 0,9953 0,9955 0,9956 0,9957 0,9959 0,9960 0,9961 0,9962 0,9963 0,9964
2,7 0,9965 0,9966 0,9967 0,9968 0,9969 0,9970 0,9971 0,9972 0,9973 0,9974
2,8 0,9974 0,9975 0,9976 0,9977 0,9977 0,9978 0,9979 0,9979 0,9980 0,9981
2,9 0,9981 0,9982 0,9982 0,9983 0,9984 0,9984 0,9985 0,9985 0,9986 0,9986
3 0,9987 0,9987 0,9987 0,9988 0,9988 0,9989 0,9989 0,9989 0,9990 0,9990

Ici, pour x = 1, 22, on lit P(X ≥ x) ' 0, 8888.

Exercice 22.12 Retrouver le résultat obtenu avec Scilab lors de l’exercice précédent grâce à
la table ci-dessus. ■
23. Convergences et approximations en probas

Dans ce dernier chapitre de probabilités, on aborde un certain nombre de théorèmes fonda-


mentaux en probabilités et statistiques. Ceux-ci sont traités dans des cas particuliers et seront
traités à nouveau en deuxième année dans des cas plus généraux.

23.1 Convergence en probabilité


23.1.1 Inégalités
Les théorèmes de cette section ne sont énoncés et démontrés que dans le cas des VARD mais
ils demeurent vrais quelque soit le type de variables aléatoires considérées.

Théorème 23.1.1 — Inégalité de Markov - cas des VARD. Soit X une VARD sur un espace
probabilsé (Ω, A , P). On suppose que X est positive et qu’elle possède une espérance. Alors,
on a :
E(X)
∀λ ∈ R∗+ , P (X ≥ λ) ≤ .
λ

E(X) X xP(X = x) X xP(X = x)


P(X = x) ≥ P (X ≥ λ). ■
X
Démonstration. On a = ≥ ≥
λ x∈X(Ω) λ x∈X(Ω) λ x∈X(Ω)
x≥λ x≥λ

Exercice 23.1 Montrer l’inégalité de Markov dans le cas d’une variable à densité. ■

Corollaire 23.1.2 — Inégalité de Bienaymé-Tchebychev - cas des VARD. Soit X une


VARD sur un espace probabilsé (Ω, A , P). On suppose que X possède une espérance et une
264 Chapitre 23. Convergences et approximations en probas

variance. Alors, on a :
V(X)
∀ε ∈ R∗+ , P (|X − E(X)| ≥ ε) ≤ .
ε2

V(X) E (X − E(X))2 X − E(X) 2 X − E(X) 2


¡ ¢ µµ ¶ ¶ µµ ¶ ¶
Démonstration. On a 2 = =E ≥P ≥ 1 . Et, de plus,
ε ε2 ε ε
µµ ¶2 ¶
X − E(X)
P ≥ 1 = P (|X − E(X)| ≥ ε), ce qui permet de conclure. ■
ε

23.1.2 Loi faible des grands nombres


Définition 23.1.1 — Convergence en probabilité. Soient X une variable aléatoire sur un
espace probabilisé (Ω, A , P) et (X n )n∈N une suite de variables aléatoires sur (Ω, A , P). On dit
P
que X n converge en probabilité vers X, et on note X n → X, lorsqu’on a :

∀ε ∈ R∗+ , n→+∞
lim P (|X − X| > ε) = 0 .
n

R Les notions de convergence dans le cours de probabilité diffèrent sensiblement des notions
de convergence étudiées précédemment. En particulier, il n’y a pas unicité de la limite.

Théorème 23.1.3 — Loi faible des grands nombres - cas de la loi binomiale. Soit (X n )n∈N
une suite de variables aléatoires sur (Ω, A , P). On suppose qu’il existe p ∈]0, 1[ tel que, pour
Xn
tout n ∈ N, X n ,→ B(n, p). Alors converge en probabilité vers p.
n

Démonstration. Ce théorème est, dans ce cas, ³¯ un corollaire


¯ ´ direct
³ de´ l’inégalité de Bienaymé-
¯ Xn 1 Xn p(1−p)
Tchebychev. En effet, on a, pour tout ε > 0, P ¯ n − p ¯ > ε ≤ ε2 V n = nε2 −→ 0. ■
¯
n→+∞

23.2 Convergence en loi


23.2.1 Définition
Définition 23.2.1 — Convergence en loi. Soient X une variable aléatoire réelle sur un
espace probabilisé (Ω, A , P) et (X n )n∈N une suite de variables aléatoires sur des espaces
probabilisés (Ωn , An , Pn ). On note F la fonction de répartition de X et, pour tout n ∈ N, Fn
L
la fonction de répartition de X n . On dit que X n converge en loi vers X, et on note X n → X,
lorsqu’on a :
n→+∞ Fn (x) = F(x) pour tout x ∈ R où F est continue.
lim

R La convergence en loi possède un cadre plus général que la convergence en probabilité


puisque les variables aléatoires considérées ne sont pas forcément définies sur le même
espace probabilisé. Par contre, il s’agit d’une propriété moins forte au sens où la conver-
gence en probabilité de deux variables aléatoires implique leur convergence en loi. La
démonstration de ce point sera traitée en exercice.

Exercice 23.2 Soient X une VAR et X n des VAR pour tout n ∈ N, toutes à valeur dans N.
L
Montrer que X n → X si et seulement si ∀k ∈ N, n→+∞
lim P (X = k) = P(X = k).
n ■
23.2 Convergence en loi 265

23.2.2 Modélisation de la loi Poisson


Théorème 23.2.1 — Loi Poisson comme limite d’une suite de lois binomiales. Soient λ ∈
R∗+ et (X n )n∈N une suite de VARD telle que, pour tout n ∈ N, X n ,→ B n, p n et n→+∞
lim np = λ.
¡ ¢
n
Alors, on a :
L
X n → X avec X ,→ P (λ) .

lim P(X = k) = e −λ
λk
Démonstration. Par l’exercice qui précède, il suffit de montrer que n→+∞ n pour
à ! k!
n k¡ ¢n−k
tout k ∈ N. Or, pour tout k ∈ N et n ∈ N, on a P (X n = k) = pn 1 − pn . Par ailleurs, on a
k
à !
n nk λ
∼n→+∞ et p n ∼n→+∞ . On en déduit donc, par multiplications des équivalents, que
k k! n
k µ ¶k µ
n λ λ n−k λk λ n λk −λ
¶ µ ¶
P (X n = k) ∼n→+∞ 1− ∼n→+∞ 1− ∼n→+∞ e . ■
k! n n k! n k!

Ce théorème permet de comprendre l’idée première derrière l’utilisation de la loi Poisson


pour modéliser certains phénomènes. On considère un phénomène pour lequel on a une idée
du nombre moyen d’occurence du phénomène au cours d’un temps fixé. Par exemple, un
astronome amateur sait qu’en une heure d’observation du ciel par une nuit claire, il voit en
moyenne une vingtaine d’étoiles filantes. Pour modéliser le nombre d’étoiles filantes qu’il va
observer pendant une heure, on peut découper mentalement cette heure en n tranches de temps
de plus courte durée n1 heure. La fréquence de l’évènement « observer au moins une étoile filante
au cours d’un moment d’une durée n1 heure » est alors équivalent à 20 n lorsque n tend vers +∞.
Comme on peut considérer que les chutes des météorites provoquant les étoiles filantes sont
indépendantes entre elles, on peut modéliser le nombre de moments de durée n1 heure où l’on a
observé des étoiles filantes par une loi binomiale de paramètres n et 20 n . De plus, s’il est possible
d’observer plusieurs étoiles filantes sur une même durée de temps, même si ce temps est court,
chaque apparitition d’étoile filante correspond forcément à des instants différents. Ainsi, plus n
est grand, plus les évènements « observer au moins une étoile filante durant un court moment
d’une durée n1 heure » et « observer exactement une étoile filante durant un court moment d’une
durée n1 heure » se confondent. Ainsi, on peut modéliser le nombre d’étoiles filantes observées
en une heure par une variable aléatoire dont la loi est la limite de lois binomiales de paramètres
n et 20
n lorsque n tend vers +∞. Cette loi, c’est une loi de Poisson de paramètre λ = 20. On note
qu’il est important ici, pour que la modélisation ait un sens, que les évènements considérés
soient associés à des évènements ponctuels (ici l’instant de l’apparition d’une étoile filante) ou,
du moins, d’une durée suffisamment faible par rapport à la durée totale de l’expérience.

23.2.3 Théorème central limite


Le théorème central limite est sans doute l’un des théorèmes avec les implications les plus
importantes en terme de modélisations probabilistes de phénomènes réels de nos jours. On
le voit, dans le cadre du programme d’ECS 1, dans deux cas particuliers dont on admet les
démonstrations. Il sera traité plus généralement en ECS 2.

Théorème 23.2.2 — Théorème central limite - cas de la loi binomiale. Soient p ∈]0, 1[ et
(X n )n∈N une suite de VAR telle que, pour tout n ∈ N, X n ,→ B(n, p). On note, pour tout n ∈ N,
X ∗n la variable centrée réduite associée à X n . Alors, on a :

L
X ∗n → N (0, 1) .
266 Chapitre 23. Convergences et approximations en probas

Théorème 23.2.3 — Théorème central limite - cas de la loi de Poisson. Soient λ ∈ R et


(X n )n∈N une suite de VAR telle que, pour tout n ∈ N, X n ,→ P (nλ). On note, pour tout n ∈ N,
X ∗n la variable centrée réduite associée à X n . Alors, on a :

L
X ∗n → N (0, 1) .

23.2.4 Culture G : pourquoi la courbe de Gauss est-elle partout ?


De toutes les lois de probabilités, la loi normale est de loin la plus utilisée en probabilités
appliquées. On retrouve cette loi dans quasiment toutes les disciplines scientifiques, sous une
forme ou une autre. Cette omniprésence de la loi de Gauss amène certaines personnes à voir
en la distribution de Gauss une forme de loi universelle du hasard (au sens de loi de l’Univers).
Une telle interprétation relève d’une erreur manifeste d’appréciation des fondements de cette
omniprésence.
En effet, l’utilisation de la loi de Gauss découle très généralement d’une modélisation ma-
thématique particulière, utilisée conjointement avec une approximation via le théorème central
limite. Afin de préciser cette idée, il est nécessaire de disposer d’un énoncé plus général du
théorème central limite que celui des deux cas particuliers présentés dans ce cours. On utilise la
formulation qui suit, issue du programme d’ECS 2.

Théorème 23.2.4 — Théorème central limite. Si (X n )n∈N∗ est une suite de variables aléa-
toires indépendantes et de même loi, admettant une espérance µ et une variance σ2 non
X 1 + ... + X n
nulle, et si on note X n = , alors la suite de variables aléatoires centrées réduites
à ! n
∗ p Xn − µ
Xn = n converge en loi vers une variable aléatoire suivant la loi normale centrée
σ
réduite.

Le théorème central limite permet ainsi de justifier l’approximation de la moyenne des X n


de X 1 , ..., X n par une loi normale, à condition que les X n soient indépendantes, qu’elles suivent
la même loi et qu’elles admettent une espérance et une variance non nulle. Pour traduire les
hypothèses en termes de modélisation, on considère un phénomène global que l’on peut modé-
liser par une grande quantité de phénomènes individuels dont les comportements (individuels)
sont semblables, se réalisent indépendamment les uns des autres et se répartissent autour
d’une moyenne sans dispersion exagérée. Alors le théorème central limite permet de justifier
l’utilisation d’une loi normale dans la modélisation de ce phénomène.
La loi normale n’est donc pas une loi magique qui tombe du ciel pour imposer sa conduite au
hasard dans la Nature. Si on la reconnait souvent, cela provient du fait qu’il existe énormément
de phénomènes qui résultent de l’accumulation d’une grande quantité de petits phénomènes
suffisamment semblables agissant de manière suffisamment indépendante les uns des autres.
La loi normale permet simplement une bonne modélisation de tels phénomènes. Son omni-
présence dans la littérature scientifique appuie donc l’idée que beaucoup de choses de notre
Univers se ressemblent et se répètent, beaucoup d’entités possèdent de manière inhérente à
chacune d’entre elles des comportements similaires, aussi bien des entités simples, comme des
électrons, que des entités ultra complexes, comme des êtres humains. Cette constatation est
le fondement même de toute science : sans similarité dans le comportement des électrons, il
n’y pas de physique ; sans similarité dans le comportement des êtres humains, il n’y a pas de
sciences humaines.

Vous aimerez peut-être aussi