Thomas Delacroix
Copyright © 2016 Thomas Delacroix
30 juin 2016
Table des matières
I Premier semestre
1 Les mathématiques en ECS 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.1 Objectifs 13
1.1.1 Les concours . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.1.2 Au-delà des concours . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.2 Le travail 14
1.2.1 Le travail en classe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.2.2 Les colles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.2.3 Les devoirs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.2.4 Le travail personnel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.2.5 Le travail en groupe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.3 Mathématiques et philosophie 15
2 Langage mathématique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.1 Du chinois au grec 18
2.2 Un peu de logique 18
2.2.1 La proposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.2.2 L’équivalence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.2.3 La négation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.2.4 La disjonction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.2.5 La conjonction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.2.6 Quelques propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.2.7 L’implication . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.2.8 Implication et raisonnements . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.2.9 Négation et raisonnements . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.2.10 Culture G : Le dilemme du prisonnier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.3 Théorie des ensembles 27
2.3.1 Définition et notations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.3.2 Quantificateurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.3.3 Inclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.3.4 Propriétés de l’inclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.3.5 Opérations sur les ensembles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.3.6 Quelques propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.3.7 Produit cartésien et famille d’ensembles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.4 Applications 35
2.4.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.4.2 Image directe, image réciproque, graphe . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.4.3 Restricition et prolongement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
2.4.4 Composition d’applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.4.5 Injectivité, surjectivité, bijectivité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.4.6 Culture Gé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.4.7 Cardinalité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.4.8 Fonction caractéristique d’un ensemble . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.4.9 Quelques propriétés supplémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3 Récurrence et ensembles finis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.1 Raisonnement par récurrence 47
3.2 Ensembles finis 49
3.3 Sommes finies de nombres 50
3.3.1 Notation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
3.3.2 Sommes à connaître . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
3.3.3 Règles de calcul . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
3.3.4 Sommes doubles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
3.4 Produits finis de nombres 56
3.4.1 Notation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
3.4.2 Règles de calcul . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
3.4.3 Produits doubles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
3.5 Combinatoire et dénombrement 57
3.5.1 Parties d’ensembles, produits d’ensembles . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
3.5.2 p -listes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
3.5.3 Arrangements . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
3.5.4 Permutations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
3.5.5 Combinaisons . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
3.5.6 Coefficients binomiaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
3.5.7 Culture G . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
4 Suites de nombres réels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
4.1 Préliminaires : rappels sur les réels 67
4.1.1 Relation d’ordre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
4.1.2 Encadrement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
4.1.3 Valeur absolue . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
4.1.4 Partie entière . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
4.2 Suites réelles : les fondamentaux 71
4.2.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
4.2.2 Opérations sur les suites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
4.2.3 Propriétés des suites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
4.3 Convergences des suites réelles 72
4.3.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
4.3.2 Propriétés des suites convergentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
4.3.3 Limites et opérations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
4.3.4 Limites et inégalités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
4.3.5 Suites adjacentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
4.4 Suites classiques 78
4.4.1 Suites arithmétiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
4.4.2 Suites géométriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
4.4.3 Suites arithmético-géométriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
4.4.4 Suites récurrentes linéaires d’ordre 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
4.4.5 Limites classiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
4.5 Suites et fonctions 82
4.5.1 Suite définie par une fonction réelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
4.5.2 Suite récurrente définie par une fonction réelle . . . . . . . . . . . . . . . . . . . . . . . . 82
5 Matrices et systèmes linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
5.1 Matrices rectangulaires 83
5.1.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
5.1.2 Opérations algébriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
5.1.3 Transposée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
5.2 Matrices carrées 88
5.2.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
5.2.2 Produit de matrices carrées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
5.2.3 Puissances d’une matrice carrée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
5.2.4 Matrices symétriques et antisymétriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
5.2.5 Matrices inversibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
5.2.6 Culture G : Google et PageRank . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
5.3 Systèmes linéaires 93
5.3.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
5.3.2 Opérations élémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
5.3.3 Méthode du pivot de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
5.3.4 Résolution d’un système échelonné . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
5.3.5 Système de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
6 Nombres complexes et polynômes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
6.1 Nombres complexes 101
6.1.1 Rappels sur les fonctions trigonométriques . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
6.1.2 Forme algébrique d’un nombre complexe . . . . . . . . . . . . . . . . . . . . . . . . . . 103
6.1.3 Conjugué d’un nombre complexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
6.1.4 Module d’un nombre complexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
6.1.5 Forme exponentielle d’un nombre complexe . . . . . . . . . . . . . . . . . . . . . . . . 105
6.1.6 Retour à la trigonométrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
6.1.7 Équations polynomiales du second degré . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
6.1.8 Autres résolutions d’équations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
6.2 Polynômes 108
6.2.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
6.2.2 Degré d’un polynôme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
6.2.3 Opérations usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
6.2.4 Division euclidienne de polynômes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
6.2.5 Racines d’un polynôme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
6.2.6 Factorisation de polynômes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
7 Introduction aux espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
7.1 Espaces 113
7.1.1 Espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
7.1.2 Sous-espace vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
7.2 Familles de vecteurs 118
7.2.1 Combinaison linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
7.2.2 Famille génératrice, famille libre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
7.2.3 Base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
8 Fonctions continues . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
8.1 Limite et continuité d’une fonction en un point 125
8.1.1 Intervalles de R - Rappels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
8.1.2 Limite d’une fonction en un point et en l’infini . . . . . . . . . . . . . . . . . . . . . . . . 126
8.1.3 Opérations sur les limites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
8.1.4 Limites et inégalités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
8.1.5 Composition de limites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
8.1.6 Continuité en un point . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
8.2 Continuité d’une fonction sur un intervalle 131
8.2.1 Propriétés globales des fonctions réelles - Rappels . . . . . . . . . . . . . . . . . . . . . 131
8.2.2 Fonctions continues sur un intervalle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
8.2.3 Fonctions continues par morceaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
8.2.4 Théorème des valeurs intermédiaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
8.2.5 Continuité et bijection . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
9 Dérivabilité et dérivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
9.1 Dérivée en un point 137
9.1.1 Nombre dérivé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
9.1.2 Développement limité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138
9.1.3 Opérations et dérivées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139
9.2 Fonction dérivée 140
9.2.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
9.2.2 Dérivées usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
9.3 Dérivation et étude de fonctions 142
9.3.1 Dérivée et extremum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
9.3.2 Théorème des accroissement finis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
9.3.3 Dérivation et monotonie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
10 Intégration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
10.1 Généralités 145
10.1.1 Intégrale d’une fonction continue . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
10.1.2 Propriétés de l’intégrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146
10.1.3 Intégrale d’une fonction continue par morceaux . . . . . . . . . . . . . . . . . . . . . 147
10.2 Calcul intégral 148
10.2.1 Primitives usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148
10.2.2 Intégration par parties . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148
10.2.3 Changement de variables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
10.2.4 Sommes de Riemann à pas constant . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150
10.2.5 Fractions rationnelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151
11 Modélisation et probabilités finies . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153
11.1 Modélisation mathématique 153
11.1.1 Qu’est-ce qu’une modélisation ? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153
11.1.2 Expérience aléatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154
11.1.3 Évènements aléatoires et évènements mathématiques . . . . . . . . . . . . . . . . . 155
11.2 Probabilités finies 156
11.2.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
11.2.2 Probabilités conditionnelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157
11.2.3 Indépendance en probabilités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159
11.2.4 Culture G : Le problème de Monty Hall . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160
12 Variables aléatoires réelles discrètes finies . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
12.1 Généralités 161
12.1.1 Définitions et notations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
12.1.2 Loi de probabilité et fonction de répartition . . . . . . . . . . . . . . . . . . . . . . . . . . 162
12.2 Espérance et variance 163
12.2.1 Espérance mathématique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163
12.2.2 Variance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164
12.2.3 Transferts usuels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165
12.3 Lois usuelles 166
12.3.1 Loi certaine . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166
12.3.2 Loi uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166
12.3.3 Loi de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167
12.3.4 Loi binomiale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167
Intersemestre
13 Entracte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171
II Second semestre
14 Espaces vectoriels et dimension finie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175
14.1 Espaces vectoriels de dimension finie 175
14.1.1 Définition et théorèmes fondamentaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175
14.1.2 Dimension et sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177
14.2 Sommes de sous-espaces vectoriels 178
14.2.1 Sommes de deux sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . 178
14.2.2 Sommes de k sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179
14.2.3 Sommes de sous-espaces vectoriels en dimension finie . . . . . . . . . . . . . . . . . 179
14.2.4 Sous-espaces supplémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181
14.3 Sous-espaces vectoriels de Kn 181
15 Comparaisons asymptotiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185
15.1 Comparaisons asymptotiques de suites réelles 185
15.1.1 Petit « o » de Landau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185
15.1.2 Suites équivalentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186
15.1.3 Suites usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 188
15.1.4 Culture G : Barack Obama et la complexité algorithmique . . . . . . . . . . . . . . 189
15.2 Comparaisons asymptotiques de fonctions 189
15.2.1 Petit « o » de Landau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 190
15.2.2 Fonctions équivalentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 190
15.2.3 Fonctions usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 192
16 Séries numériques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193
16.1 Généralités 193
16.1.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193
16.1.2 Convergence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 194
16.2 Théorèmes de convergence 194
16.2.1 Résultats directs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 194
16.2.2 Comparaison des séries à termes positifs . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195
16.2.3 Convergence absolue . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 197
16.2.4 Convergences et divergences classiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . 198
16.2.5 Culture G : le paradoxe de Zénon . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199
17 Probabilités sur un univers quelconque . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201
17.1 Un exemple 201
17.2 Espaces probabilisés 202
17.2.1 Tribus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 202
17.2.2 Probabilités et espaces probabilisés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203
17.2.3 Limite monotone . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 204
17.2.4 Probabilités conditionnelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 206
17.2.5 Indépendance en probabilités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208
17.3 Variables aléatoires réelles 209
17.3.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 209
17.3.2 Loi de probabilité et fonction de répartition . . . . . . . . . . . . . . . . . . . . . . . . . . 210
17.4 Variables aléatoires réelles discrètes 211
17.4.1 Ensembles discrets . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211
17.4.2 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212
17.4.3 Espérance mathématique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213
17.4.4 Variance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213
17.4.5 Transferts usuels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 214
17.4.6 Moments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215
17.5 Lois usuelles 216
17.5.1 VARDF . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 216
17.5.2 Loi géométrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 216
17.5.3 Loi de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 217
17.5.4 Culture G : La ruine du joueur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 217
18 Applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 219
18.1 Cas général 219
18.1.1 Définition et premières propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 219
18.1.2 Opérations usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 220
18.1.3 Noyau et Image . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221
18.1.4 Isomorphismes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 222
18.1.5 Endomorphismes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 223
18.1.6 Projecteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 224
18.2 Dimension finie 225
18.2.1 Rang d’une application linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 225
18.2.2 Formes linéaires et hyperplans . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 226
18.2.3 Matrice d’une application linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227
18.2.4 Application linéaire d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 228
18.2.5 Endomorphismes et matrices carrées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 230
19 Intégration sur un intervalle quelconque . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 233
19.1 Intégrales généralisées 233
19.1.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 233
19.1.2 Propriétés fondamentales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235
19.1.3 Calcul intégral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 236
19.2 Cas des fonctions positives 236
19.2.1 Comparaison des fonctions positives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 236
19.2.2 Convergence absolue . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 238
19.3 Intégrales classiques 239
19.3.1 Intégrales de Riemann . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 239
19.3.2 Intégrales pour les probabilités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 240
20 Dérivées successives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 241
20.1 Dérivées p -ièmes 241
20.1.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 241
20.1.2 Opérations algébriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 242
20.1.3 Culture G : Les splines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 243
20.2 Développements asymptotiques 244
20.2.1 Formules de Taylor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 244
20.2.2 Développements limités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 245
20.2.3 Développements limités usuels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 247
21 Compléments d’analyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 249
21.1 Points critiques 249
21.2 Fonctions convexes 250
21.2.1 Définition et premières propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 250
21.2.2 Fonctions convexes et dérivabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 251
21.2.3 Points d’inflexion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 251
22 Variables aléatoires à densité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 253
22.1 Introduction 253
22.1.1 Définition et premières propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 253
22.1.2 Espérance et moments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 254
22.1.3 Transferts usuels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 255
22.2 VAR à densité usuelles 256
22.2.1 Loi uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 256
22.2.2 Loi exponentielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 257
22.2.3 Loi normale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 260
23 Convergences et approximations en probas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 263
23.1 Convergence en probabilité 263
23.1.1 Inégalités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 263
23.1.2 Loi faible des grands nombres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 264
23.2 Convergence en loi 264
23.2.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 264
23.2.2 Modélisation de la loi Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 265
23.2.3 Théorème central limite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 265
23.2.4 Culture G : pourquoi la courbe de Gauss est-elle partout ? . . . . . . . . . . . . . . 266
I
Premier semestre
2 Langage mathématique . . . . . . . . . . . . . . . 17
2.1 Du chinois au grec
2.2 Un peu de logique
2.3 Théorie des ensembles
2.4 Applications
10 Intégration . . . . . . . . . . . . . . . . . . . . . . . . . . 145
10.1 Généralités
10.2 Calcul intégral
Bienvenue en classe prépa ECS 1 au lycée Dupuy de Lôme de Lorient. Le présent document
constitue le tout début de ce qui sera, tout au long de cette année, le support principal de votre
cours de mathématiques. Il est rédigé par mes soins et vous sera distribué au fur et à mesure
de l’avancement du cours et de son écriture. Il sera aussi régulièrement mis en ligne sur le site
http://cpgedupuydelome.fr. Dans ce bref chapitre introductif, on présentera les objectifs de
ce cours ainsi que des guides sur l’organisation du travail au cours de cette année.
1.1 Objectifs
1.1.1 Les concours
Vous êtes en classe préparatoire aux concours des grandes écoles et votre finalité est certai-
nement d’intégrer une de ces grandes écoles. Pour les étudiants en ECS, un certain nombres de
concours vous sont ouverts. La part que représente les mathématiques, en termes de coefficients,
est variables selon les écoles.
1.2 Le travail
1.2.1 Le travail en classe
L’enseignement de mathématiques en ECS 1 est réparti sur 9 heures de cours hebdomadaires,
auquelles s’ajoute une heure d’informatique qui sera dispensée par Julian Blouch. Ces 9 heures
seront partagées entre des séances de cours à proprement parler et des séances de travaux
dirigés. Les séances de cours suivront largement le présent support. Certains exercices seront
intégrés à ce cours et vous serez amener à les faire pendant le cours. Pendant les séances de
travaux dirigés, vous travaillerez sur des documents annexes. Dans tous les cas, il est vivement
encouragé de poser des questions.
Dans cet extrait des Tusculanes, Cicéron évoque l’anecdote de la création du mot philosophe.
« Par la même raison, sans doute, tous ceux qui se sont attachés depuis aux sciences
contemplatives, ont été tenus pour Sages, et ont été nommés tels, jusques au temps
de Pythagore, qui mit le premier en vogue le nom de philosophes. Héraclide de Pont,
disciple de Platon, et très habile homme lui-même, en raconte ainsi l’histoire. Un jour,
dit-il, Léon, roi des Phliasiens, entendit Pythagore discourir sur certains points avec
tant de savoir et d’éloquence, que ce prince, saisi d’admiration, lui demanda quel
était donc l’art dont il faisait profession ? À quoi Pythagore répondit, qu’il n’en savait
aucun ; mais qu’il était philosophe. Et sur ce, le roi, surpris de la nouveauté de ce nom,
le pria de lui dire qui étaient donc les philosophes, et en quoi ils différaient des autres
hommes. » Cicéron, Tusculanes, V, 3, §8 d’après la traduction dirigée par M. Nisard.
Pythagore qui, en France, est surtout connu en tant que mathématicien serait donc le
premier des philosophes.
Le texte qui suit est extrait de L’Essayeur de Galilée. Il répond ici au Signor Sarsi (Orazio
Grassi de son vrai nom) un Jésuite italien qui s’opposait aux théories de Galilée sur les comètes.
16 Chapitre 1. Les mathématiques en ECS 1
« Je crois, en outre, déceler chez Sarsi la ferme conviction qu’en philosophie il est
nécessaire de s’appuyer sur l’opinion d’un auteur célèbre et que notre pensée, si elle
n’épouse pas le discours d’un autre, doit rester inféconde et stérile. Peut-être croit-il
que la philosophie est l’œuvre de la fantaisie d’un homme, comme L’Iliade et le Roland
furieux, où la vérité de ce qui y est écrit est la chose la moins importante. Il n’en est
pas ainsi, Signor Sarsi. La philosophie est écrite dans cet immense livrre qui se tient
toujours ouvert devant nos yeux, je veux dire l’Univers, mais on ne peut le comprendre
si l’on ne s’applique d’abord à en comprendre la langue et à connaître les caractères
avec lesquels il est écrit. Il est écrit dans la langue mathématique et ses caractères sont
des triangles, des cercles et autres figures géométriques, sans le moyen desquels il est
humainement impossible d’en comprendre un mot. Sans eux, c’est une errance vaine
dans un labyrinthe obscur. Mais admettons que notre entendement doive se faire,
comme le croit Sarsi, l’esclave de celui d’un autre homme [...]. » Galilée, L’Essayeur
d’après la traduction de Christiane Chauviré.
Ainsi, pour Galilée, les mathématiques sont la langue de la nature et leur connaissance est
nécessaire pour comprendre cette nature. Grâce aux mathématiques, on peut s’affranchir de
la pensée des autres et penser de manière autonome puisque l’on ne s’appuie que sur notre
entendement des mathématiques. Peut-être pourriez-vous également, à la suite de ce cours,
ressentir le sentiment d’indépendance d’esprit que procure une maitrise des mathématiques.
Pour ceux qui ne l’aurez pas remarqué, cette dernière citation s’intègre facilement dans le
thème de cette année pour l’enseignement de culture générale.
2. Langage mathématique
Quand on parle aux gens de mathématiques, il n’est pas rare d’entendre : « Les mathéma-
tiques, je n’y comprends rien. Pour moi, tout ça c’est du chinois ! », et pour cause. Les mathé-
matiques utilisent un langage bien à elles et l’apprentissage des mathématiques s’apparente
pour beaucoup à celui d’une langue étrangère. Pour maitriser une langue, il faut connaître
le vocabulaire, les signes typographiques, savoir construire une phrase sans faire de fautes de
grammaire, sans faire de fautes de syntaxe. En mathématiques, c’est presque la même chose avec
une difficulté supplémentaire : les mots que l’on utilise dans le langage mathématique existent
pour la plus part également en langage naturel (dans notre cas en français). Il est donc facile
de penser qu’un mot a le même sens dans un contexte mathématique qu’en français, or c’est
rarement le cas. Heureusement, le langage mathématique est très précis et on prend toujours le
temps de bien définir chacune des nouvelles notions que l’on utilise. C’est pourquoi dans ce
cours, comme dans tout cours de mathématiques, les définitions jouent un rôle primordial. Il
est important de bien les retenir dans leur formulation précise.
Jusqu’à présent, vous avez déjà vu un bon nombre de choses en mathématiques. Vous
connaissez pas mal de mots de vocabulaire et vous savez faire des phrases. Mais, pour la plus
part d’entre vous, vous faites énormément de fautes qui s’apparente à des fautes de grammaire
et de syntaxe, et vous connaissez mal le sens des mots que vous utilisez. Ces fautes vont vous
freiner dans vos raisonnements, parce qu’elles vont entraîner contresens et non-sens. Quelques
petites erreurs de ce type qui se succèdent dans un raisonnement à plusieurs étapes mènent
régulièrement, dans un exercice, à une situation de blocage complet ou à un non-sens total.
Ne parlez pas les mathématiques comme Franck Ribéry parle le français ! Faites des phrases
simples, courtes et précises. Prenez le temps qu’il faut pour vous exprimer correctement. Il vaut
mieux avancer lentement et surement que de foncer droit dans le mur.
Dans ce chapitre, vous trouverez d’abord quelques notations et symboles couramment
utilisés dans un contexte mathématique. On présentera ensuite des notions élémentaires mais
essentielles que l’on utilisera tout au long du cours. Ces notions en logique et théorie des
ensembles sont les outils de base qui vous permettront de construire un discours mathématique
solide.
18 Chapitre 2. Langage mathématique
R Le terme objet mathématique permet de désigner n’importe quel objet que l’on peut
« manipuler » en mathématiques : les nombres, les fonctions, les ensembles en sont des
exemples.
Un autre alphabet fréquemment utilisé en mathématiques est l’alphabet grec. Ce n’est pas le
cas de toutes ses lettres, mais vérifiez que vous connaissez bien toutes celles qui sont surlignées.
Ce serait dommage de se laisser décontenancer simplement parce qu’un symbole n’est pas
familier.
α A alpha ν N nu
β B bêta ξ Ξ xi
γ Γ gamma o O omicron
δ ∆ delta π Π pi
ε E epsilon ρ P rhô
ζ Z zêta σ Σ sigma
η H êta τ T tau
θ Θ thêta υ Υ upsilon
ι I iota ϕ Φ phi
κ K kappa χ X khi
λ Λ lambda ψ Ψ psi
µ M mu ω Ω oméga
2.2.1 La proposition
Définition 2.2.1 Une proposition est une phrase mathématique qui est soit vraie, soit fausse.
■ Exemple 2.2 « Pour tout réel x, x + 1 est positif. » est une proposition fausse. ■
2 5
■ Exemple 2.3 « 3(x + x ) » n’est pas une proposition. ■
2.2 Un peu de logique 19
R Lorsque l’on écrit une proposition mathématique, on considère, sauf mention contraire,
que cette proposition est vraie. Ainsi, on dira plus souvent « on a P » que « P est vraie ».
2.2.2 L’équivalence
Définition 2.2.2 Soient P et Q deux propositions. L’équivalence de P et Q, notée P ⇔ Q et lue
« P équivaut à Q », est la proposition qui est vraie lorsque P et Q ont la même valeur de vérité
et fausse sinon.
R Lorsque l’on considère des opérations logiques sur des propositions, on utilise souvent
une table de vérité. La table de vérité pour l’équivalence est la suivante.
P Q P⇔Q
V V V
V F F
F V F
F F V
2.2.3 La négation
Définition 2.2.3 Soit P une proposition. La négation de P, notée ¬P et lue « non P », est la
proposition qui est vraie si P est fausse et qui est fausse si P est vraie.
P ¬P
V F
F V
2.2.4 La disjonction
Définition 2.2.4 Soient P et Q deux propositions. La disjonction de P et Q, notée P ∨ Q et lue
« P ou Q », est la proposition qui est vraie dès que l’une au moins des propositions P ou Q est
vraie.
P Q P∨Q
V V V
V F V
F V V
F F F
2.2.5 La conjonction
Définition 2.2.5 Soient P et Q deux propositions. La conjonction de P et Q, notée P ∧ Q et
lue « P et Q », est la proposition qui est vraie quand les deux propositions P et Q sont vraies et
fausse sinon.
20 Chapitre 2. Langage mathématique
Exercice 2.1 Vérifier les lois de Morgan en utilisant les tables de vérité. ■
2.2.7 L’implication
Définition 2.2.6 Soient P et Q deux propositions. L’implication de P vers Q, notée P ⇒ Q et
lue « P implique Q, est la proposition qui est vraie si Q est vraie lorsque P est vraie et fausse
sinon.
P Q P⇒Q
V V V
V F F
F V V
F F V
Cette table en a déjà troublé plus d’un. Pourquoi P ⇒ Q serait-elle vraie si P est fausse ?
C’est parce que la condition dans la définition ne porte que sur le cas où P est vraie. Dans
le cas où P est fausse, une implication de P vers Q ne devrait pas permettre de dire quoi
que ce soit sur Q. Ainsi, dans ce cas, que Q soit vraie ou fausse, l’implication reste vraie.
Exercice 2.4 Soit f une fonction croissante de [0, +∞[ dans R. On considère les deux propo-
sitions suivantes :
— P : « f (0) = 1 » ,
— Q : « f est strictement positive » .
Montrer que P implique Q. Pour chacune des 3 cas de véracité de la table ci-dessus, donner
un exemple de fonction illustrant ce cas. ■
22 Chapitre 2. Langage mathématique
L’implication mathématique n’est pas l’analogue de la relation cause vers conséquence dans
le langage naturel. Prenons pour exemple le cas de la fumée et du feu. C’est le feu qui cause la
fumée. Mais si on prend la phrase « Il n’y a pas de fumée sans feu. » alors on se rapproche d’une
proposition de type logique « La fumée implique le feu ». En effet, si le bois est très sec, il n’y a
pas forcément de fumée et donc on peut avoir un feu sans fumée. On peut également être dans
une situation sans feu, ni fumée. Par contre, s’il y a de la fumée alors, forcément, il y a un feu.
Raisonnement direct
Il s’agit du raisonnement dont le principe est le plus simple pour montrer une proposition Q
à partir d’une proposition P.
Transitivité de l’implication
Souvent, il y a besoin de plus d’une étape pour arriver au résultat souhaité. Pour cela on peut
utiliser la propriété de transitivité de l’implication. Si P ⇒ Q et Q ⇒ R alors P ⇒ R.
« Je sais que P ⇒ Q et que je n’ai pas Q. J’en déduis que je ne peux pas avoir P. »
Lorsque l’on cherche à montrer une équivalence entre plusieurs propositions, il suffit de
montrer autant d’implications qu’il y a de propositions. On considère ici le cas de trois proposi-
tions équivalentes.
Exercice 2.7 Montrer qu’un raisonnement par cycle permet bien de montrer l’équivalence
entre trois propositions. ■
24 Chapitre 2. Langage mathématique
« Je veux montrer que P. Je suppose que ¬P et j’arrive à montrer que P. Je ne peux pas avoir
simultanément P et ¬P, c’est une contradiction. Ma supposition était donc fausse et j’ai bien P. »
p
Exercice 2.8 — Ve siècle av. J.-C., École de Pythagore. Montrer que 2 est irrationnel. ■
Exercice 2.9 — IIIe siècle av. J.-C., Éléments d’Euclide. Montrer qu’il existe une infinité
de nombres premiers. ■
2.2 Un peu de logique 25
Il peut également s’agir d’une contradiction avec un résultat connu comme étant vrai.
« Je veux montrer que P et je sais que Q. Je suppose que ¬P et j’arrive à montrer que ¬Q.
C’est une contradiction. Ma supposition était donc fausse et j’ai bien P. »
e x +1
Exercice 2.10 Montrer qu’il n’existe pas de réel x tel que e x +2 = 1. ■
Dichotomie
La dichotomie est le procédé qui consiste à séparer un problème en deux cas qui sont
mutuellement incompatibles mais qui recoupent, à eux deux, toutes les éventualités. En logique,
cela consiste à considérer d’abord qu’une proposition P est vraie, puis qu’elle fausse, pour
aboutir dans les deux cas à deuxième proposition Q.
Exercice 2.11 Montrer qu’il existe deux nombres irrationnels x et y tels que x y soit rationnel.
■
Deux membres d’une organisation criminelle sont arrêtés et emprisonés. Chacun des prison-
niers est placé en cellule d’isolement sans qu’ils puissent communiquer entre eux de quelque
manière que ce soit. Les procureurs n’ont pas assez d’éléments pour les inculper pour des crimes
sérieux, et ils espèrent tous les deux sortir de prison après un an pour des délits mineurs. Les
procureurs font alors, simultanément, une offre à chacun des prisonniers. Ils ont chacun la
possibilité : soit de trahir l’autre prisonnier en témoignant contre lui ; soit de coopérer avec lui
en gardant le silence. Voici le détail de l’offre :
— Si A et B trahissent chacun l’autre prisonnier, alors chacun d’entre eux aura une peine de
deux ans de prison.
— Si A trahit B, mais que B garde le silence, A sera relaché et B aura une peine de trois ans de
prison (et réciproquement).
— Si A et B gardent tous les deux le silence, alors chacun d’entre eux aura une peine de un an
de prison pour délits mineurs.
Il est sous-entendu dans l’énoncé que les prisonniers n’auront pas de moyen de se venger
s’ils se font trahir et que le fait de trahir n’entache en rien leur réputation de gangster. Chaque
prisonnier n’est intéressé que par le fait de sortir le plus rapidement possible. On modélise leur
raisonnement en utilisant de la logique mathématique.
Le prisonnier A considère les deux possibilités d’action de son coéquipier : soit B le trahit ;
soit B se tait. Si B le trahit, alors A peut se taire, dans quel cas il prend pour trois ans, ou alors A
peut parler et il ne prend que pour deux ans. Dans cette situation, A a donc intérêt à parler. Si B
se tait, alors A peut se taire, dans quel cas il prend pour deux ans, ou alors A peut parler et il est
libéré de suite. Dans cette situation, A a donc également intérêt à parler. Ce raisonnement par
dichotomie permet donc de dire que A va parler. Par symétrie du problème, on déduit également
que B va parler. Finalement, chacun prendra pour deux ans, alors que s’ils avaient coopéré, ils
auraient pu s’en tirer avec une peine d’un an chacun.
Bien évidemment, ce modèle n’est qu’un exemple très simple. Il a surtout une valeur pé-
dagogique et il est certainement très mal adapté pour décrire les choix des gangsters. Mais,
sous des formes plus élaborés, de tels modèles peuvent se révéler bien adaptés pour décrire les
mécanismes qui régissent la fixation du prix d’un même produit vendu par deux entreprises
différentes qui ne peuvent se concerter (lois antitrust).
2.3 Théorie des ensembles 27
De nombreuses notations sont utilisées pour les ensembles. Vous en avez déjà rencontrées
un certain nombre, mais vérifiez tout de même que chacune des notations qui suivent vous sont
familières.
■ Exemple 2.4 Un ensemble peut être défini par la liste de ses éléments entre accolades.
— L’ensemble qui ne contient aucun élément est appelé l’ensemble vide. Il est noté {} ou ;.
— Un ensemble qui ne contient qu’un seul élément a est noté {a} et appelé le « singleton a ».
— Lorsqu’un ensemble contient peu d’éléments, il est d’usage de tous les écrire. {1, 5, 7} est
un ensemble à 3 éléments.
— Lorsqu’un ensemble combien beaucoup, voir une infinité d’éléments, on peut utiliser des
poinitillés. Le contexte permet de déterminer ce qui est sous-entendu. Ainsi, {1, 2, ..., 20} dé-
signera vraisemblablement l’ensemble des entiers de 1 à 20 (aussi noté 0, 20), {0, 1, 2, 3, ...}
l’ensemble de tous les entiers naturels (aussi noté N), et {..., −2, −1, 0, 1, 2, ...} l’ensemble de
tous les entiers relatifs (aussi noté Z).
■
L’ordre des éléments dans un ensemble n’importe pas. Deux ensembles sont égaux lorsqu’ils
ont les mêmes éléments. Ainsi, {2, 3, 8} = {8, 2, 3}. Cette notion de l’égalité de deux ensembles
implique que tous les ensembles sans éléments sont égaux. Il n’y a donc qu’un seul ensemble
vide.
■Exemple 2.5 Les ensembles de nombres forment une classe très importante d’ensembles en
mathématiques. Les ensembles suivants sont à connaître.
— N : l’ensemble des entiers naturels.
— Z : l’ensemble des entiers relatifs.
— D : l’ensemble des nombres décimaux.
— Q : l’ensemble des nombres relatifs.
— R : l’ensemble des nombres réels.
— C : l’ensemble des nombres complexes.
■
■ Exemple 2.6 On utilise également des notations standards pour les intervalles dans Z et dans
R.
— Si n ≤ m sont deux entiers, alors n, m est l’ensemble des entiers compris entre n et m
inclus.
— On note n, +∞ l’ensemble des entiers supérieurs ou égaux à n et − ∞, n l’ensemble
des entiers inférieurs ou égaux à n.
— Si x ≤ y sont deux réels, alors [x, y] est l’ensemble des réels compris entre x et y inclus. On
note ]x, y] si on exclut x, [x, y[ si on exclut y, et ]x, y[ si on exclut les deux.
— De même que précédemment, on a les notations ] − ∞, x], ] − ∞, x[, [x, +∞ et ]x, +∞[.
■
28 Chapitre 2. Langage mathématique
R Lorsque l’on considère les ensembles de nombres, on utilise souvent une astérisque en
exposant pour indiquer l’ensemble auquel on a retiré le zéro. Lorsque l’on ne considère
que les nombres positifs ou négatifs, on utilise un signe + ou un signe − en exposant. Ainsi
R+∗ =]0, +∞[.
Les ensembles de nombres sont certes très importants mais il ne faut pas penser que ce
sont les seuls. Dans ce cours, on considèrera, entre autres, des ensembles de fonctions, des
ensembles de matrices et des ensembles d’ensembles.
■ Exemple 2.7 L’ensemble de l’ensemble vide {{}} ou {;} n’est pas vide. Il contient un élément :
l’ensemble vide. On a donc {;} 6= ;. Ce n’est pas la même chose d’avoir une boîte vide que de ne
pas avoir de boîte du tout ! ■
2.3.2 Quantificateurs
Au début du cours, on a abordé la notion de proposition. Maintenant, on va considérer des
propositions qui dépendent d’une variable. Une proposition qui dépend d’une variable x peut
s’écrire P(x). Si la proposition dépend de plusieurs variables, par exemple x et y, on peut l’écrire
P(x, y).
Définition 2.3.2 Soit E un ensemble et P(x) une proposition définie pour tout élément x de
E. Si P(x) est vraie pour tout élément x de E, alors on écrit :
∀x ∈ E, P(x).
Cette proposition se lit « pour tout x appartenant à E, on a P(x) » ou « quelque soit x apparte-
nant à E, on a P(x) ». Le symbole ∀ est appelé quantificateur universel.
Définition 2.3.3 Soit E un ensemble et P(x) une proposition définie pour tout élément x de
E. Si P(x) est vraie pour au moins un élément x de E, alors on écrit :
∃x ∈ E, P(x).
Cette proposition se lit « il existe x appartenant à E tel que P(x) » ou « pour au moins un x
appartenant à E, P(x). Le symbole ∃ est appelé quantificateur existentiel.
R Lorsque l’on souhaite préciser qu’il n’existe qu’un seul x dans E tel que P(x), on utilise un
point d’exclamation. La proposition ∃!x ∈ E, P(x) se lit « il existe un unique x appartenant à
E tel que P(x) » ou « pour exactement un x de E, P(x) ».
R Lorsque l’on utilise plusieurs quantificateurs de suite, l’ordre est très important. Ce n’est
pas la même chose de dire (∀x ∈ E, ∃y ∈ F, P(x, y)) et (∃y ∈ F, ∀x ∈ E, P(x, y)). La deuxième
proposition est en effet plus contraignante, puisqu’il faut qu’un même y de F fonctionne
pour tous les x de E.
R, P(x, y) est vraie (et même complètement banale). Elle signifie simplement que l’application
x 7→ x + 1 est bien définie sur R. Par contre, la proposition ∃y ∈ R, ∀x ∈ R, P(x, y) signifie que
l’application x 7→ x + 1 est constante. Elle est donc clairement fausse. ■
Exercice 2.12 Soit (u n )n∈N une suite de réels. Identifier les propositions suivantes.
— ∃M ∈ R, ∀n ∈ N, u n ≤ M ;
— ∀n ∈ N, u n+1 − u n ≥ 0 ;
2.3 Théorie des ensembles 29
— ∃p ∈ N, ∀n ∈ N, n ≥ p ⇒ u n = u p .
■
Propriété 2.3.1 Soit E un ensemble et P(x) une proposition définie pour tout élément de E.
Alors on a les équivalences qui suivent.
R Cette propriété est très importante. Vous allez devoir l’utiliser très souvent et il faudra
que cela vous semble évident. Si ce ne l’est pas déjà, essayez de réfléchir à des exemples
simples du langage courant. Quelle est la négation de « Toutes les pommes sont rouges. » ?
Lorsque l’on veut montrer qu’une proposition de type ∀x ∈ E, P(x) est fausse, il suffit donc
de montrer que P(x) est fausse pour une valeur particulière x 0 de x. Si on construit une telle
valeur particulière, on dit que x 0 un contre-exemple à la proposition P(x).
2.3.3 Inclusion
Définition 2.3.4 Soient E et F deux ensembles. Si ∀x ∈ E, x ∈ F alors on dit que E est inclus
dans F. On note E ⊂ F l’inclusion de E dans F.
N⊂Z⊂D⊂Q⊂R⊂C
■
30 Chapitre 2. Langage mathématique
Définition 2.3.5 Soit F un ensemble et P(x) une proposition définie pour tout x de F. On peut
définir l’ensemble E des éléments x de F tels que P(x). C’est un sous-ensemble de F et utilise
la notation ci-dessous.
E = {x ∈ F | P(x)}.
Exercice 2.14 Utiliser cette notation pour décrire les ensembles D et Q comme sous-ensembles
de R, ainsi que l’ensemble R en tant que sous-ensemble de C. ■
Exercice 2.15 Montrer que l’ensemble des fonctions continues périodiques de R dans R est
inclus dans l’ensemble des fonctions bornées de R dans R. ■
Définition 2.3.6 L’ensemble des parties de E, noté P (E), est l’ensemble de tous les sous-
ensembles de E.
R Ces propriétés confère à l’inclusion le statut de relation d’ordre. Il s’agit d’une classe
particulière de relations binaires qui permettent d’établir des structures hiérarchiques.
La propriété 2.3.2 (iii) est utilisée très souvent pour montrer l’égalité de deux ensembles.
On dit que l’on montre l’égalité par double inclusion. Cette propriété peut se combiner avec
la propriété de transitivité 2.3.2 (ii) pour montrer des égalités multiples. Dans ce cas, on utilise
2.3 Théorie des ensembles 31
exactement le même principe de raisonnement par cycle que pour les équivalences multiples
(voir 2.2.8).
A ∩ B = {x ∈ E | (x ∈ A) ∧ (x ∈ B)}.
A ∪ B = {x ∈ E | (x ∈ A) ∨ (x ∈ B)}.
Exercice 2.16 Soient A et B deux sous-ensembles d’un ensemble E. Montrer que A et B sont
égaux si et seulement si A ∩ B = A ∪ B. ■
A \ B = A ∩ B = {x ∈ E | (x ∈ A) ∧ (x ∉ B)}.
Lorsque l’on raisonne sur des ensembles, on utilise souvent un diagramme de Venn. Si
A et B sont deux parties d’un ensemble E, le diagramme de Venn correspondant permet de
visualiser toutes les parties de E qui peuvent être construites à partir de A et B et des opérations
ensemblistes précitées. Sur le diagramme de Venn suivant, on a colorié la zone correspondant à
la partie (A ∪ B) \ (A ∩ B).
32 Chapitre 2. Langage mathématique
A B
Exercice 2.17 Représenter les diagrammes de Venn correspondant à A∪B, A∩B, A et A\B. ■
(i) (A ∪ B) ∪ C = A ∪ (B ∪ C) (Associativité)
(A ∩ B) ∩ C = A ∩ (B ∩ C)
(ii) A∪B = B∪A (Commutativité)
A∩B = B∩A
(iii) (A ∩ B) ∪ C = (A ∪ C) ∩ (B ∪ C) (Distributivité)
(A ∪ B) ∩ C = (A ∩ C) ∪ (B ∩ C)
(iv) A∪; = A (Éléments neutres)
A∩E = A
(v) A∪E = E (Éléments absorbants)
A∩; = ;
R Les propriétés d’associativité de l’union et de l’intersection montre qu’il n’est pas nécessaire
de mettre des parenthèses lorsque l’on considère une union d’unions, ou bien lorsque l’on
considère une intersection d’intersections. Par contre, les parenthèses sont essentielles
lorsque l’on considère une intersection d’union ou une union d’intersection.
Propriété 2.3.4 Soit A une partie d’un ensemble E. Le complémentaire de A vérifie les propriétés
qui suivent.
(i) A=A
(ii) A∪A = E
(iii) A∩A = ;
Propriété 2.3.5 — Lois de De Morgan. Soient A et B deux parties d’un ensemble E. On a les
propriétés qui suivent.
R Les différentes propriétés qui précèdent se démontrent très facilement à partir des proprié-
tés équivalentes sur les propositions logiques. Démontrez-en quelques unes pour vous
entrainer.
R Le produit cartésien d’un ensemble E avec lui-même est noté E2 . De la même façon, le
produit cartésien de n fois le même ensemble E est noté En .
Définition 2.3.11 Soient I et E deux ensembles. Pour tout i ∈ I, soit Ai une partie de E. On
appelle famille de parties de E, indexée par I, la famille (Ai )i ∈I .
Définition 2.3.12 Soit (Ai )i ∈I une famille de parties de E indexée par un ensemble I. On
S
appelle réunion de la famille (Ai )i ∈I le sous-ensemble de E, noté Ai , défini par :
i ∈I
[
Ai = {x ∈ E | ∃i ∈ I, x ∈ Ai }.
i ∈I
T
On appelle intersection de la famille (Ai )i ∈I le sous-ensemble de E, noté Ai , défini par :
i ∈I
\
Ai = {x ∈ E | ∀i ∈ I, x ∈ Ai }.
i ∈I
Propriété 2.3.6 Soit (Ai )i ∈I une famille de parties de E indexée par un ensemble I et B une partie
de E. Alors, on a les égalités qui suivent.
T S
(i) i ∈I Ai = i ∈I Ai (Lois de De Morgan)
S T
A = i ∈I Ai
Si ∈I i S
(ii) ( i ∈I Ai ) ∩ B = i ∈I (Ai ∩ B) (Distributivité)
T T
( i ∈I Ai ) ∪ B = i ∈I (Ai ∪ B)
34 Chapitre 2. Langage mathématique
Définition 2.3.13 Soit (Ai )i ∈I une famille de parties de E indexée par un ensemble I. On dit
que cette famille forme une partition de E si et seulement si les trois propositions suivantes
sont vérifiées :
(i) ∀i ∈ I, Ai 6= ;
(ii) ∀(i , j ) ∈ I2 , i 6= j ⇒ Ai ∩ A j = ;
S
(iii) i ∈I Ai = E
2.4 Applications
Les applications sont des objets centraux en mathématiques. Ce sont elles qui permettent
de passer d’un ensemble à un autre.
2.4.1 Définitions
Définition 2.4.1 Soient E et F deux ensembles. Une application de E (l’ensemble de départ)
dans F (l’ensemble d’arrivée) est une relation entre les éléments de ces ensembles qui associe
à chaque élément x de E un unique élément y de F. Si f est une application de E dans F, on
note f : E −→ F et pour plus de précision :
f : E −→ F
x 7−→ f (x)
Ceci se lit « f de E dans F qui à x associe f (x) ». On appelle image de x l’élément y = f (x) et
on dit que x est un antécédent de y. L’ensemble des applications de E dans F est noté FE .
R Une application est caractérisé par le fait que chaque élément de l’ensemble de départ
admet une unique image. Par contre un élément de l’ensemble d’arrivée peut admettre
plusieurs antécédents ou aucun.
■ Exemple 2.13 Soit E un ensemble, on peut toujours définir une application identité de E
dans E via :
Id E : E −→ E
.
x 7−→ x
■
R La notion de fonction est un peu plus générale que la notion d’application puisqu’il n’est
pas nécessaire dans sa défintion que tout élément de E ait une image. Pour une application
si. Une application est, en quelques sortes, une fonction dont l’ensemble de définition est
égal à l’ensemble de départ.
Définition 2.4.2 Deux applications f et g sont égales si et seulement si elles ont le même
ensemble de départ E, le même ensemble d’arrivée F et que :
∀x ∈ E, f (x) = g (x).
R L’image directe de A est l’ensemble des images de tous les éléments de A. L’image réci-
proque de B est l’ensemble des antécédents de tous les éléments de B.
36 Chapitre 2. Langage mathématique
f : R2 −→ R g: R2 −→ R
et .
(x, y) 7−→ max(|x|, |y|) (x, y) 7−→ x 2 + y 2
Reconnaître les formes géométriques associées aux ensembles f −1 ([0, 1]) et g −1 ([0, 1]). ■
f |A : A −→ F
.
x 7−→ f (x)
f : R∗ −→ R
.
x 7−→ x1
■
g◦f : E −→ G
.
x 7−→ g ( f (x))
h ◦ (g ◦ f ) = (h ◦ g ) ◦ f .
f ◦ Id |E = Id |F ◦ f = f .
Injectivité
Définition 2.4.7 Soit f : E −→ F. On dit que f est une injection (ou qu’elle est injective) si et
seulement si :
∀(x 1 , x 2 ) ∈ E2 , f (x 1 ) = f (x 2 ) ⇒ x 1 = x 2 .
Exercice 2.24 Donner une définition équivalente de l’injectivité en utilisant une contrapo-
sée. ■
Exercice 2.25 Montrer que l’application cos : R −→ R n’est pas injective. Donner une restric-
tion de cos qui est injective. ■
Exercice 2.26 Montrer qu’une application strictement monotone de R dans R est injective. ■
Surjectivité
Définition 2.4.8 Soit f : E −→ F. On dit que f est une surjection (ou qu’elle est surjective) si
et seulement si :
∀y ∈ F, ∃x ∈ E, f (x) = y.
R Cette définition est le pendant de la définition de l’injectivité. Elle signifie que tout élément
de F a au moins un antécédent par f .
Bijectivité
Définition 2.4.9 Soit f : E −→ F. On dit que f est une bijection (ou qu’elle est bijective) si et
seulement si est à la fois injective et surjective.
∀y ∈ F, ∃!x ∈ E, y = f (x).
40 Chapitre 2. Langage mathématique
Lorsque ces propriétés sont vérifiées, on dit que g est la réciproque (ou inverse) de f et on la
note f −1 .
Démonstration. On a clairement (iii) ⇒ (ii). On suppose (ii). Comme Id F est bijective, elle est
surjective. Donc f est surjective par la propriété 2.4.4. De même Id E est bijective donc injective
et f est injective par la prporiété 2.4.3. f est donc bijective et on a montré (ii) ⇒ (i). On suppose
(i). On sait que ∀y ∈ F, ∃!x ∈ E, y = f (x). Soit y ∈ F, on appelle g (y) l’unique élément x de E
tel que y = f (x). Cela définit bien une application g : F −→ E qui vérifie les conditions de la
proposition (ii). On suppose qu’une deuxième telle application h : F −→ E vérifie ces conditions.
Soit y ∈ F, comme f est bijective, il existe x tel que y = f (x). Et comme g ◦ f = h ◦ f = Id |E ,
g (y) = g ( f (x)) = x = h( f (x)) = h(y). Ainsi g = h et on a bien montré (iii). On en déduit donc
l’équivalence des trois propositions. ■
(g ◦ f )−1 = f −1 ◦ g −1 .
Exercice 2.33 Pour chacune des fonctions réelles usuelles, donner un intervalle de départ I
et un intervalle d’arrivée J pour lesquels la fonction définit une bijection de I vers J. ■
42 Chapitre 2. Langage mathématique
2.4.6 Culture Gé
L’injectivité est à la base de tout système d’identification. Numéros de sécurité social, plaques
d’immatriculation, codes-barres sont des exemples de tels système. À chaque individu, à chaque
voiture, à chaque produit, on associe un identifiant unique de manière à ce qu’aucun deux iden-
tifiants ne se confondent. C’est bien là la définition d’une application injective. Régulièrement,
des erreurs apparaissent parce que des doublons ont été créés que ce soit par malveillance (une
usurpation d’identité, par exemple) ou par maladresse (une erreur de conception). C’est aussi
pour éviter un défaut d’injectivité que de nouveaux systèmes d’identification remplacent les
anciens.
Un changement important qui a concerné presque tout le monde sans que l’on s’en aper-
çoive vraiment, c’est le passage progressif du système IPv4 au système IPv6. Ces systèmes
permettent d’identifier les adresses des ordinateurs de manière unique afin de pouvoir commu-
niquer sur internet. Internet n’avait à la base pas du tout été conçu pour atteindre l’ampleur
que l’on connait aujourd’hui et on a commencé à s’inquiéter, dès le début des années 90, d’un
épuisement futur des adresses disponibles. En 1998, un nouveau système l’IPv6 est mis en place
puis commercialisé en 2006 pour remplacer progressivement le système IPv4 qui est effecti-
vement arrivé à épuisement en 2011. Ce bouleversement de la structure fondamentale de la
communication sur internet a représenté un travail conséquent pour l’ensemble des acteurs du
web, une très grande collaboration internationale des structures administratives nationales et
supranationales concernées, tout cela pour une simple question d’injectivité.
2.4.7 Cardinalité
Le cardinal d’un ensemble permet de caractériser le nombre d’éléments d’un ensemble. Si
la notion semble banale pour les ensembles finis, elle l’est un peu moins dans le cas d’ensembles
infinis. En effet, qu’est-ce que cela signifie de dire que deux ensembles ont le même nombre
d’élément lorsque ce nombre est infini.
Définition 2.4.10 Soient E et F deux ensembles. On dit que E et F ont même cardinal et on
note s’il existe une bijection de E dans F.
Définition 2.4.11 On dit que l’ensemble vide est de cardinal fini nul. On écrit |;| = 0, lu
« cardinal de l’ensemble vide égal 0 ».
Définition 2.4.12 Soient E un ensemble et n un entier non nul. On dit que E est de cardinal
fini égal à n s’il existe une bijection de 1, n dans E. On écrit |E| = n, lu « cardinal de E égal
n ».
1A : E R
−→ ½
1 si x ∈ A .
x 7−→
0 si x ∉ A
■Exemple 2.14 La fonction caractéristique de Q ⊂ R est un exemple classique de fonction réelle
qui n’est continue en aucun de ses points. ■
Propriété 2.4.7 Soient A et B deux parties d’un ensemble E. On a les propriétés qui suivent.
Exercice 2.34 En utilisant les fonctions caractéristiques, montrer que pour tout (A, B, C) ∈
P (E)3 , on a :
(A \ C) \ (B \ C) = (A \ B) \ C.
■
Le chapitre qui suit porte sur un certains nombres de calculs liés à des ensembles finis. On
commence par revoir la notion de raisonnement par récurrence qui est essentielle pour établir
de nombreux résultats indexés par des entiers. On s’intéresse ensuite rapidement à quelques
propriétés des ensembles finis avant de considérer les sommes et produits finis de nombres. On
revient ensuite plus longuement sur des questions de dénombrement dans les ensembles finis.
Théorème 3.1.1 — Principe de récurrence. Soit P(n) une proposition définie pour tout
n ∈ N. Si les deux propositions suivantes sont vraies :
(i) P(0).
(ii) ∀n ∈ N, P(n) ⇒ P(n + 1).
∀n ∈ N, P(n).
R Ce résultat peut être considéré comme un axiome, c’est-à-dire un résultat toujours vrai
sur lequel se fonde le reste des mathématiques. C’est ce que l’on fait dans ce cours et il n’y
a donc pas lieu de le démontrer.
Il existe différentes formulations du principe de récurrence qui sont équivalentes mais qui
peuvent se révéler plus ou moins pratiques selon le contexte.
48 Chapitre 3. Récurrence et ensembles finis
n(n + 1)
0 + 1 + ... + n = .
2
■
(i) P(n 0 )
⇒ ∀n ≥ n 0 , P(n).
(ii) ∀n ≥ n 0 , P(n) ⇒ P(n + 1)
Exercice 3.2 Trouver un rang n 0 à partir duquel la proposition qui suit est vraie et la démon-
trer.
∀n ≥ n 0 , 2n ≥ n 2 .
■
Récurrence d’ordre 2
Soit n 0 ∈ N et P(n) une proposition définie pour tout n ≥ n 0 .
Récurrence forte
Soit n 0 ∈ N et P(n) une proposition définie pour tout n ≥ n 0 .
(i) P(n 0 )
⇒ ∀n ≥ n 0 , P(n).
(ii) ∀n ≥ n 0 , (P(n 0 ) et P(n 0 + 1) et ... et P(n)) ⇒ P(n + 1)
2
Exercice 3.4 On pose u 1 = π et ∀n ∈ N∗ , u n+1 = n (u 1 + u 2 + ... + u n ). Montrer que ∀n ∈
N∗ , u n = nπ. ■
Exercice 3.5 Montrer que chacune des formulations proposées peut être déduite du prin-
cipe de récurrence. ■
Démonstration. Soit E un ensemble fini de cardinal n, alors il existe une bijection de E vers
1, n. Si A est une partie propre de E (i.e. A ⊂ E, A 6= ;, E), f définit une bijection de A sur f (A)
par restriction et f (A) est une partie stricte de 1, n (sinon f ne serait pas injective). Si on
montre que f (A) est en bijection avec 1, p où 0 < p < n, alors A sera transitivement en bijection
avec 1, p. Mais c’est clairement le cas, il suffit de compter les éléments de f (A) dans l’ordre
croissant. ■
Théorème 3.2.2 — Principe des tiroirs. Soient E et F deux ensembles finis et f : E −→ F. Alors
on a les propositions suivantes :
Démonstration. Pour démontrer (i), on suppose que f est injective. Alors, E est en bijection avec
f (E), d’où |E| = | f (E)|. Comme f (E) est une partie de F, on obtient le résultat via la proposition
précédente. Maintenant, pour démontrer (ii), on suppose que f est surjective. Mais dans ce cas,
on a une bijection entre F et une partie A de E, ce qui démontre le résultat. ■
(i) f injective.
(ii) f surjective.
(iii) f bijective.
Démonstration. On suppose f injective. Alors E est en bijection avec f (E). Mais alors | f (E)| = n
et par la propriété 3.2.1 f (E) = F. Ainsi f est surjective et donc bijective. Maintenant, si f est
surjective, on a une bijection induite par f entre une partie A de E et F. Mais cela entraine que
A = E et donc f est bien bijective. ■
3.3.1 Notation
Si n ∈ N et x 0 , x 1 , ..., x n sont des nombres complexes, on utilise la lettre grecque Σ pour
désigner la somme de tout ces nombres.
n
X
x 0 + x 1 + ... + x n = xk
k=0
n
X
x p + x p+1 + ... + x n = xk
k=p
Plus généralement, si E est une partie finie de N et (x k )k∈E une famille indexée par E, on note
P
la somme de tous les éléments de la famille (x k )k∈E . Si l’ensemble E est défini par une
k∈E
n
P
proposition comme suit E = {k ∈ 0, n | P(k)}, alors on peut aussi noter x k , ou simplement
k=0
P(k)
P P n
P
x k . On peut ainsi noter x k pour xk .
P(k) 0≤k≤n k=1
P
R Si E est vide, alors on pose x k = 0. Cette convention permet de ne pas exclure l’ensemble
k∈E
vide dans l’énoncé de résultats généraux sur les sommes. En particulier, si n < p, comme il
n
P
n’y a pas d’entiers k tels que p ≤ k ≤ n, on a x k = 0.
k=p
3.3 Sommes finies de nombres 51
n
k 3.
P
Exercice 3.7 Calculer la somme ■
k=0
52 Chapitre 3. Récurrence et ensembles finis
Démonstration. Elle découle directement des règles de calculs sur les complexes qui permettent
de factoriser dans le premier cas et de réorganiser les éléments des sommes dans le deuxième.
■
Propriété 3.3.3 — Sommation par paquets. Soient (x k )k∈E une famille finie de nombres com-
plexes et E = E1 ∪ E2 une partition de E. On a :
X X X
xk = xk + xk .
k∈E k∈E1 k∈E2
n
X q
X n
X q−1
X n
X
xk = xk + xk = xk + xk .
k=p k=p k=q+1 k=p k=q
Démonstration. La propriété de sommation par paquets est un simple regroupement des termes
de la somme en deux « paquets ». Pour la relation de Chasles, il suffit de voir que p, n =
p, q ∪ q + 1, n = p, q − 1 ∪ q, n sont des partitions de p, n et d’appliquer la propriété. ■
Démonstration. Il suffit de remarquer que les applications f et g , définies comme suit, sont
bijectives
C’est bien le cas. En effet, elles sont toutes les deux injectives car strictement monotone. Par
ailleurs, une application injective d’un ensemble fini de cardinal m vers un ensemble fini de
même cardinal m est bijective, ce qui permet de conclure. ■
n
X n
X n
X n+1
X n
X n
X n
X
(x k+1 −x k ) = x k+1 − xk = xk 0 − x k = x n+1 + xk 0 − x k −x p = x n+1 −x p .
k=p k=p k=p k 0 =p+1 k=p k 0 =p+1 k=p+1
n
k.k! pour tout n ∈ N∗ .
P
Exercice 3.9 Calculer ■
k=1
Théorème 3.3.8 — Fubini. Soient 0 ≤ m ≤ n, 0 ≤ p ≤ q, E = m, n × p, q et (x k,l )(k,l )∈E une
famille de nombres complexes. Alors, on note :
X X
x k,l := x k,l
m≤k≤n (k,l )∈E
p≤l ≤q
54 Chapitre 3. Récurrence et ensembles finis
et on a : Ã ! Ã !
X n
X q
X q
X n
X
x k,l = x k,l = x k,l .
m≤k≤n k=m l =p l =p k=m
p≤l ≤q
P P
Exercice 3.10 Calculer les sommes (k + l ) et (k × l ). ■
1≤k≤n 1≤k≤n
1≤l ≤q 1≤l ≤q
3.3 Sommes finies de nombres 55
Théorème 3.3.9 — Fubini. Soient n ∈ N et E = {(k, l ) ∈ 1, n2 | k ≤ l } et (x k,l )(k,l )∈E une famille
de nombres complexes. Alors, on note :
X X
x k,l := x k,l
1≤k≤l ≤n (k,l )∈E
et on a : Ã ! Ã !
X n
X n
X n
X l
X
x k,l = x k,l = x k,l .
1≤k≤l ≤n k=1 l =k l =1 k=1
De même, pour F = {(k, l ) ∈ 1, n2 | k < l } et (y k,l )(k,l )∈F , on note :
X X
y k,l := y k,l
1≤k<l ≤n (k,l )∈E
et on a : Ã ! Ã !
X n−1
X n
X n−1
X lX−l
y k,l = y k,l = y k,l .
1≤k<l ≤n k=1 l =k+1 l =2 k=1
Démonstration. On écrit de la même façon que pour le théorème précédent les différentes
valeurs dans un tableau à n × n entrées et on ajoute les différents éléments du tableaux qui sont
au-dessus de la diagonale (comprise ou non selon qu’il s’agisse d’une simple inégalité ou d’une
inégalité stricte). En ajoutant ligne par ligne ou colonne par colonne on obtient les différentes
écritures. ■
Propriété 3.3.10 Soient n ∈ N et E = {(k, l ) ∈ 1, n2 | k + l = n + 1} et (x k,l )(k,l )∈E une famille de
nombres complexes. Alors, on note :
X X
x k,l := x k,l
k+l =n+1 (k,l )∈E
et on a :
X n
X
x k,l = x k,n+1−k .
k+l =n+1 k=1
Démonstration. Il suffit de voir que l’application f , définie comme suit, est une bijection.
f : 1, n −→ E
.
k 7−→ (k, n + 1 − k)
C’est clairement le cas, puisqu’elle est injective d’un ensemble fini vers un ensemble fini. ■
2k+l .
P
Exercice 3.11 Calculer la somme ■
1≤k≤l ≤n
56 Chapitre 3. Récurrence et ensembles finis
3.4.1 Notation
Si n ∈ N et (x k )k∈0,n est une famille de nombre complexes, on utilise la lettre grecque Π
pour désigner le produit de tout les éléments de cette famille.
n
Y
x 0 × x 1 × ... × x n = xk
k=0
n
Q Q n
Q
De même que pour la somme, on a des notations de types xk , x k et xk .
k=p k∈E k=0
P(k)
Q
R Si E est vide, alors on pose x k = 1. Cette convention est à rapprocher du fait que la
k∈E
somme sur un ensemble vide est nulle.
Comme pour les sommes, on peut également regrouper les éléments par paquets, faire un
changement d’indice et même faire un produit télescopique comme on le voit dans la propriété
qui suit.
Propriété 3.4.2 — Produit télescopique. Soient 0 ≤ p ≤ n et (x k )k∈p,n+1 une famille de
nombres complexes tous non nuls. On a :
n µx ¶
x n+1
Y k+1
= .
k=p xk xp
3.5 Combinatoire et dénombrement 57
n
Q
Exercice 3.12 Calculer le produit (2k + 1). ■
k=0
|A ∪ B| = |A| + |B|.
Plus généralement, si (Ai )i ∈1,n est une famille finie de parties deux à deux disjointes de E,
alors :
¯ ¯
n
¯n
¯[ ¯ X
¯ Ai ¯ = |A |.
¯
¯i =1 ¯ i =1 i
entre A ∪ B et 1, p + q. On obtient le deuxième résultat par récurrence en remarquant que
Sn+1 ¡Sn ¢
i =1
A i = i =1
A i ∪ An+1 . ■
Exercice 3.14 Que peut-on dire si la famille (Ai )i ∈1,n est une partition de E ? ■
Théorème 3.5.2 — Formule du crible (Poincaré). Soient A et B deux parties d’un ensemble
E. Alors on a :
S S
Démonstration. On remarque que A ∪ B = (A ∩ B) (B ∩ A) (A ∩ B) est une partition de A ∪ B.
S
Ainsi, |A ∪ B| = |A ∩ B| + |B ∩ A| + |A ∩ B|. De plus A = (A ∩ B) (A ∩ B) est une partition de
A, d’où |A| = |A ∩ B| + |A ∩ B| et, de manière analogue, |B| = |A ∩ B| + |A ∩ B|. Ainsi |A ∪ B| =
(|A|−|A∩B|)+(|B|−|A∩B|)+|A∩B| = |A|+|B|−|A∩B|, ce qui est le résultat souhaité. Le deuxième
résultat s’obtient par récurrence sur n. Comme cette formule n’est pas au programme sous sa
forme généralisée, on ne détaille pas plus sa démonstration. ■
R La formule du crible n’est pas au programme sous sa forme généralisée, mais ses formes
pour n = 2, présentée ci-dessus, et pour n = 3, dans l’exercice ci-dessous, sont au pro-
gramme. Ces formes particulières, comme leurs démonstrations, sont à connaître.
Exercice 3.15 Donner la formule du crible pour trois parties A, B et C d’un ensemble E et
démontrer cette formule. ■
3.5 Combinatoire et dénombrement 59
Théorème 3.5.3 — Cardinal d’un produit cartésien. Soient E et F deux ensembles finis
alors E × F est un ensemble fini et on a :
|E × F| = |E| × |F|.
Démonstration. Si |E| = n et |F| = p alors on a une bijection entre E × F et 1, n × 1, p. Or on
vérifie facilement que l’application f définie ci-dessous est bijective :
|En | = |E|n .
Démonstration. On obtient le résultat par récurrence, en remarquant que En+1 est en bijection
avec En × E. ■
Théorème 3.5.5 — Dénombrement des parties. Soit E un ensemble fini, alors l’ensemble
de ses parties P (E) est un ensemble fini et on a :
|P (E)| = 2|E| .
3.5.2 p -listes
Définition 3.5.1 Soient E un ensemble fini et p un entier. On appelle p-liste d’éléments de E
tout élément de E p .
R On considère que le nombre de 0-listes est égal à 1. Ceci est bien compatible avec la
formule et avec l’idée qu’il n’y a qu’une seule liste sans éléments.
60 Chapitre 3. Récurrence et ensembles finis
3.5.3 Arrangements
Définition 3.5.2 Soient E un ensemble fini et p ∈ N. On appelle arrangement de p éléments
p
de E toute p-liste d’éléments de E dont les termes sont deux à deux distincts. On note An
l’ensemble des arrangements de p éléments de 1, n.
Démonstration. On remarque d’abord qu’il suffit de montrer le résultat pour E = 1, n. En
effet, la bijection entre E et 1, n induit une bijection entre l’ensemble des arrangements de p
p
éléments de E et An . Ces deux ensembles ont donc même cardinal.
Maintenant, si p > n, alors il n’y a aucun arrangement de p éléments de E. En effet, il faudrait
qu’il existe au moins p éléments tous distincts dans E pour obtenir une telle liste. Il n’y en a que
n.
Pour le cas p ≤ n, on démontre le résultat par récurrence. Le résultat est vrai pour p = 1 :
n!
il y a n arrangements de 1 élément de E, un pour chaque élément de E et (n−1)! = n (le cas
n = 0 fonctionne d’ailleurs également). On suppose le résultat vrai pour un entier k tel que
n!
1 ≤ k ≤ n − 1. On a donc Akn = (n−k)! . Soit f l’application définie par :
p p+1
f : An × 1, n − p −→ An
((x 1 , ..., x p ), k) 7−→ (x 1 , ..., x p , y)
où y est le k-ième élément de E \ {x 1 , ..., x p } dans l’ordre croissant. Cette application est une
p+1 p p+1
bijection. On en déduit que An = (n − p)An . Par l’hypothèse de recurrence, cela donne An =
n! n!
(n − p) (n−p)! = (n−p−1)! , ce qui permet de conclure. ■
Démonstration. Il suffit de remarquer que toute injection de 1, m dans 1, n est associée à un
unique arrangement de Anm . ■
3.5.4 Permutations
Définition 3.5.3 Soient E un ensemble fini et n son cardinal. On appelle permutation de E
tout arrangement de n éléments de E. L’ensemble des permutations de 1, n est noté Sn .
3.5.5 Combinaisons
Définition 3.5.4 Soient E un ensemble fini, n son cardinal et p un entier naturel. On appelle
combinaison de p éléments de E une partie de E de cardinal p.
p n!
Cn = .
p!(n − p)!
Démonstration. Encore une fois, il suffit de considérer le cas E = 1, n. On montre le résultat
p n!
suivant par récurrence sur n : ∀p ∈ 0, n, Cn = p!(n−p)! . Pour n = 1, on a C10 = 1 (il n’y a qu’une
seule combinaison à 0 élément de E) et C11 = 1 (il n’y a qu’une seule combinaison à 1 élément de
1! 1!
E). Or on a bien 0!1! = 1!0! = 1. Le résultat est donc vrai pour n = 1. On suppose le résultat vrai
pour un entier naturel n ≥ 1. On pose F = 1, n +1. Soit p ∈ 0, n +1. Si p = 0, alors le résultat est
immédiat et on n’a pas besoin de l’hypothèse de récurrence : il n’y a qu’une seule combinaison
à 0 éléments de F. De la même façon, si p = n + 1, il n’y a qu’une seule combinaison à n + 1
éléments de F et le résultat est obtenu sans l’hypothèse de récurrence. On suppose maintenant
1 ≤ p ≤ n. On cherche à déterminer le cardinal de l’ensemble des parties de F de cardinal p. Or
cet ensemble peut se partitionner en deux ensembles comme suit :
© ª © ª[© ª
X ⊂ F | |X| = p = X ⊂ F | |X| = p et (n + 1) ∈ X X ⊂ F | |X| = p et (n + 1) ∉ X .
On en déduit que :
p ¯© ª¯ ¯© ª¯
Cn+1 = ¯ X ⊂ F | |X| = p et (n + 1) ∈ X ¯ + ¯ X ⊂ F | |X| = p et (n + 1) ∉ X ¯ .
p−1
Or, le premier terme de cette somme vaut Cn (on peut le voir en exhibant une bijection
© ª © ª
entre l’ensemble X ⊂ F | |X| = p et (n + 1) ∈ X et l’ensemble X ⊂ E | |X| = p − 1 ). De plus, le
p
deuxième terme de cette somme vaut Cn (on le voit en exhibant une bijection entre l’ensemble
© ª © ª
X ⊂ F | |X| = p et (n + 1) ∉ X et l’ensemble X ⊂ E | |X| = p ). On déduit donc que :
p p−1 p
Cn+1 = Cn + Cn .
n! n! n!
· ¸
p 1 1
Cn+1 = + = +
(p − 1)!(n − p + 1)! p!(n − p)! (p − 1)!(n − p)! p n − p + 1
n! n −
p +1+ p
· ¸
p (n + 1)!
Cn+1 = = .
(p − 1)!(n − p)! p(n − p + 1) p!(n + 1 − p)!
C’est bien le résultat que l’on voulait obtenir ce qui conclut la démonstration. ■
62 Chapitre 3. Récurrence et ensembles finis
p
R Dans cette démonstration, on a utilisé la notation Cn , qui désigne le cardinal d’un en-
semble, pour la différencier de la notation np , qui désigne une fraction (voir ci-dessous).
¡ ¢
C’est nécessaire de faire cette distinction dans la démonstration puisque l’on cherche
justement à montrer l’égalité de ces deux quantités. Par contre, maintenant que l’on a
établi cette
¡ ¢égalité, cette distinction n’est plus nécessaire et on utilise de préférence la
notation np .
Exercice 3.18 Montrer que les coefficients binomiaux sont tous des entiers. ■
Exercice 3.19 Retrouver ces résultats en raisonnant sur le nombres de possibilités de choisir
un certain nombres d’éléments parmi n. ■
p
n 0 1 2 3 4 5
0 1 0 0 0 0 0
1
2
3
4
5
La formule qui suit est très importante et intervient dans tous les domaines de mathéma-
tiques. Vous connaissez tous sa forme pour n = 2. Il faut maintenant connaître sa forme pour
n = 3, 4, 5 et sa forme généralisée.
De très nombreux résultats sur les coefficients binomiaux sont connus. Les résultats qui
suivent et leurs démonstrations ne sont pas au programme et ne sont pas à connaître par cœur,
mais leur connaissance peut s’avérer utile.
Propriété 3.5.15 Soient n, p et q trois entiers tels que 0 ≤ q ≤ p ≤ n. On a :
à !à ! à !à !
n p n n−q
= .
p q q p −q
Exercice 3.22 Démontrer cette propriété. De quelle autre propriété du cours est-elle une
généralisation ? ■
Exercice 3.23 Démontrer la propriété précédente en raisonnant sur des nombres de combi-
naisons. En déduire une formule pour 2n
¡ ¢
n . ■
3.5 Combinatoire et dénombrement 65
3.5.7 Culture G
La combinatoire permet l’élaboration de nombreux modèles dans des domaines scienti-
fiques très divers, notamment en chimie, en biologie, en cryptologie, en théorie des jeux, en
sociologie, etc.
En biologie, c’est en phylogénie et en génétique que l’on retrouve le plus de modèles issus de
la combinatoire. La phylogénie, c’est l’étude des relations de parenté entre les êtres vivants. La
génétique, c’est l’étude des gènes. En effet, depuis que la structure de la molécule d’ADN a été
décrite par Francis Crick et James Watson en 1953 (ce qui leur valut le prix Nobel de médecine
en 1962), on modélise très généralement les brins d’ADN à l’aide de p-listes de l’ensemble
{C, G, A, T} où l’on associe les éléments C, G, A et T aux molécules de cytosine, guanine, adénine,
thymine respectivement.
Exercice 3.24 Pour chacun des autres domaines scientifiques cités, imaginer un contexte
dans lequel il vous paraitrait raisonnable de faire appel à la combinatoire. ■
4. Suites de nombres réels
x ≤ y ou y ≤ x .
Exercice 4.1 En utilisant la propriété précédente, montrer que les propositions suivantes
sont vraies.
∀x, y, z ∈ R, x < y ⇒ x + z < y + z .
¡ ¢ ¡ ¢
Enfin, cet ordre est compatible avec l’opération de multiplication pour les réels positifs.
Propriété 4.1.5 — Multiplication. Soient x 1 , x 2 , y 1 et y 2 des réels, alors on a :
¡ ¢ ¡ ¢
0 < x 1 < y 1 et 0 < x 2 ≤ y 2 ⇒ 0 < x 1 × x 2 < y 1 × y 2 .
4.1.2 Encadrement
Définition 4.1.1 — Minorant, majorant. Soient E une partie non vide de R et m un réel. On
dit que m est un minorant de E, si ∀x ∈ E, m ≤ x. Si E a un minorant, alors on dit que E est
minorée.
Définition 4.1.2 — Partie bornée. Soit E une partie non vide de R. On dit que E est bornée
si elle est minorée et majorée.
Exercice 4.4 Montrer qu’une partie minorée (respectivement majorée) possède une infinité
de minorants (resp. majorants). ■
Théorème 4.1.6 — Théorème de la borne inférieure (resp. supérieure). Toute partie non
vide minorée (resp. majorée) de R possède un unique plus grand minorant (resp. plus petit
majorant).
Définition 4.1.3 — Borne inférieure, borne supérieure. Soit E une partie non vide de R. Si
E est minorée, on appelle borne inférieure de E son plus grand minorant. On note inf(E), lu
« inf de E », cette borne inférieure. Si E n’est pas minorée, on pose inf(E) = −∞.
Si E est majorée, on appelle borne supérieure de E son plus petit majorant. On note sup(E),
lu « sup de E », cette borne supérieure. Si E n’est pas majorée, on pose sup(E) = +∞.
Propriété 4.1.7 Soit E une partie non vide bornée de R. Alors, ∀ε > 0, ∃x ∈ E, inf(E) ≤ x <
inf(E) + ε. De même, ∀ε > 0, ∃x ∈ E, sup(E) − ε < x ≤ sup(E).
Le théorème et la proposition précédents sont admis.
Exercice 4.5 Soit A ⊂ B ⊂ R avec B minoré. Montrer que A est minoré et inf(A) ≥ inf(B). ■
Définition 4.1.4 — Minimum, maximum. Soit E une partie non vide de R. Si E est minorée et
que inf(E) ∈ E, alors on appelle minimum de E la borne inférieure de E. On note alors min(E)
ce minimum.
Exercice 4.6 Montrer que toute partie finie non vide de R possède un minimum et un
maximum. ■
70 Chapitre 4. Suites de nombres réels
abs : R −→ R+
.
x 7−→ |x| = max(x, −x)
∀x ∈ R, ¯x n ¯ = |x|n .
¯ ¯
¯ ¯
¯Xn ¯ X n
n
∀(x 1 , ..., x n ) ∈ R , ¯ xk ¯ ≤ |x | .
¯ ¯
¯k=1 ¯ k=1 k
■
Exercice 4.8 Soit x un réel tel que ∀ε > 0, |x| < ε. Montrer que x = 0. ■
Propriété 4.1.9 — Distance et intervalle. Soient x et y deux réels, δ un réel strictement positif.
On a :
|x − y| < δ ⇔ x ∈]y − δ, y + δ[ ⇔ y ∈]x − δ, x + δ[ .
¡ ¢ ¡ ¢ ¡ ¢
De même, on a :
|x − y| ≤ δ ⇔ x ∈ [y − δ, y + δ] ⇔ y ∈ [x − δ, x + δ] .
¡ ¢ ¡ ¢ ¡ ¢
Démonstration. On montre la première équivalence par dichotomie, les autres se font de même.
D’abord, si y ≤ x alors |x − y| < δ ⇔ x − y < δ ⇔ x < y + δ. D’où y ≤ x < y + δ et on a bien
x ∈ [y, y + δ[ ⊂ ]y − δ, y + δ[.
Maintenant, si x < y alors |x − y| < δ ⇔ y − x < δ ⇔ y − δ < x. D’où y − δ < x < y et on a bien
x ∈]y − δ, y[ ⊂ ]y − δ, y + δ[.
■
4.2 Suites réelles : les fondamentaux 71
∃n ∈ Z, n ≤ x < n + 1 .
Définition 4.1.6 Soit x ∈ R, on appelle partie entière de x et on note bxc l’unique entier tel
que bxc ≤ x < bxc + 1.
R Pour une suite, on note généralement u n pour u(n). On identifie alors la suite u à la famille
de nombres réels indexée par N : (u n )n∈N .
Définition 4.2.2 On appelle suite réelle définie à partir du rang n 0 toute application u de
n 0 , +∞ dans R.
R Pour une suite définie à partir d’un rang n 0 , on identifie la suite u et la famille de nombres
réels indexée par n 0 , +∞ : (u n )n≥n0 .
Définition 4.2.4 — Produit. Soient u et v deux suites réelles. On définit leur produit u × v
comme étant la suite w telle que ∀n ∈ N, w n = u n × v n .
Définition 4.2.5 — Multiplication par un scalaire. Soient u une suite réelle et λ un réel. On
définit la multiplication de u par le scalaire λ comme étant la suite w telle que ∀n ∈ N, w n =
λu n .
Propriété 4.2.1 Soit u une suite réelle. u est minorée (resp. majorée, bornée) à partir d’un
certain range n 0 si et seulement si u est minorée (resp. majorée, bornée).
72 Chapitre 4. Suites de nombres réels
Propriété 4.2.2 Soit u une suite réelle. u est bornée si et seulement si |u| est majorée.
R Quant on dit qu’une suite est positive (resp. négative), cela signifie qu’elle est minorée
(resp. majorée) par 0.
Définition 4.2.8 — Suite croissante, décroissante. Soit u une suite réelle. On a les défini-
tions suivantes :
u est croissante ⇔ ∀n ∈ N, u n ≤ u n+1 .
u est décroissante ⇔ ∀n ∈ N, u n+1 ≤ u n .
Définition 4.2.9 — Suite constante. Soit u une suite réelle. On dit que u est constante si :
∃λ ∈ R, ∀n ∈ N, u n = λ .
Exercice 4.9 Soit u une suite réelle. Représenter les implications entre les différentes propo-
sitions données sur le diagramme suivant :
u bornée
u minorée u majorée
u croissante u décroissante
u constante
■
R Une suite croissante (resp. décroissante, constante) à partir d’un certain rang n’est pas
forcément croissante (resp. décroissante, constante) sur N.
∃l ∈ R, ∀ε > 0, ∃n 0 ∈ N, ∀n ≥ n 0 , |u n − l | ≤ ε .
Théorème 4.3.1 — Unicité de la limite. Soit u une suite réelle. Si u est convergente alors
il n’existe qu’un seul réel l tel que ∀ε > 0, ∃n 0 ∈ N, ∀n ≥ n 0 , |u n − l | ≤ ε. On dit alors que u
converge vers sa limite finie l .
Démonstration. On suppose qu’il existe deux réels l et l 0 vérifiant tous les deux la proposition
énoncée, c’est-à-dire :
∀ε > 0, ∃n 0 ∈ N, ∀n ≥ n 0 , |u n − l | ≤ ε et ∀ε > 0, ∃n 0 ∈ N, ∀n ≥ n 0 , |u n − l 0 | ≤ ε .
Définition 4.3.2 — Limite infinie. Soit u une suite réelle. On a les définitions suivantes :
u est diverge vers +∞ ⇔ ∀A ∈ R, ∃n 0 , ∀n ≥ n 0 ∈ N, u n ≥ A .
u est diverge vers −∞ ⇔ ∀A ∈ R, ∃n 0 , ∀n ≥ n 0 ∈ N, u n ≤ A .
Exercice 4.11 Soit u une suite réelle et l un réel. Compléter les phrases suivantes :
u converge vers l ⇔ Quelque soit le réel positif, il existe un rang à partir duquel ...
u diverge vers +∞ ⇔ Quelque soit le réel, il existe un rang à partir duquel ...
u diverge vers −∞ ⇔ Quelque soit le réel, il existe un rang à partir duquel ...
R On dit que u tend vers une limite finie si u converge vers un réel l et que u tend vers +∞
lim u = l , +∞ ou −∞. Étudier
(resp. −∞) si u diverge vers +∞ (resp. −∞). On note alors n→+∞ n
la nature d’une suite, c’est déterminer si l’on est dans l’une de ces trois configurations ou
pas. Il y a donc 4 natures différentes de suites.
Exercice 4.12 Montrer que si u tend vers +∞ (resp. −∞) alors u est minorée (resp. majorée).
■
Exercice 4.13 Dans chaque point, montrer que l’implication réciproque est fausse. ■
Exercice 4.14 Démontrer le théorème. Pour le premier point, utiliser les propriétés 4.1.9 et
4.2.1 avec la définition de la convergence. Pour le deuxième point, utiliser la propriété 4.1.7
avec la définition de la convergence. Pour le troisième point, le déduire du point précédent. ■
Propriété 4.3.4 Soient l un réel et u une suite croissante convergeant vers l , alors ∀n ∈ N, u n ≤ l .
Démonstration. Soit u une suite croissante. S’il existe un entier n 0 tel que u n0 > l , alors on pose
u n −l
ε = 02 et ∀n ≥ n 0 , |u n − l | = u n − l ≥ u n0 − l > ε. La suite ne converge donc pas vers l et on a le
résultat par contraposition. ■
Démonstration. On commence par démontrer la proposition (i). Soit ε > 0, alors on a 2ε > 0 et
donc ∃n 0 ∈ N, ∀n ≥ n 0 , |u n − l | ≤ 2ε et ∃n 00 ∈ N, ∀n ≥ n 00 , |v n − l 0 | ≤ 2ε . On pose N = max(n 0 , n 00 ) et
on a bien ∀n ≥ N, |u n + v n − (l + l 0 )| = |(u n − l ) + (v n − l 0 )| ≤ |(u n − l )| + |(v n − l 0 )| ≤ 2ε + 2ε = ε.
4.3 Convergences des suites réelles 75
On montre maintenant (ii). D’abord, comme u et v sont convergentes, elles sont bornées.
En considérant le maximum de deux bornes de leurs valeurs absolues, il existe un M > 0 tel
ε
que ∀n ∈ N, |u n | ≤ M et |v n | ≤ M. Soit maintenant ε > 0. On a 2M > 0 et donc ∃n 0 ∈ N, ∀n ≥
ε ε
n 0 , |u n − l | ≤ 2M et ∃n 0 ∈ N, ∀n ≥ n 0 , |v n − l | ≤ 2M . On pose N = max(n 0 , n 00 ) et on a bien
0 0 0
∀n ≥ N, |u n v n −l l 0 | = |u n v n −u n l 0 +u n l 0 −l l 0 | = |u n (v n −l 0 )+l 0 (u n −l )| ≤ |u n (v n −l 0 )|+|l 0 (u n −l )| ≤
ε ε
|u n ||(v n − l 0 )| + |l 0 ||(u n − l )| ≤ M 2M + M 2M = ε.
Pour (iii), il suffit de considérer le cas d’une suite v constante égale à λ dans (ii). ■
Démonstration. Elle sera faite dans le chapitre sur les fonctions réelles. ■
Théorème 4.3.7 Soient u et v deux suites réelles telles que u tend vers +∞. Alors on a les
implications suivantes :
Démonstration. On démontre d’abord la proposition (i). On suppose que v est minorée par un
réel m. Soit A ∈ R, on considère le réel A0 = A−m. Comme u tend vers +∞, il existe un rang n 0 tel
que ∀n ≥ n 0 , u n ≥ A0 . D’où ∀n ≥ n 0 , u n + v n ≥ A0 + m = A. C’est bien ce que l’on voulait montrer.
On démontre maintenant la proposition (ii). On suppose que v est minorée par un réel
m > 0 à partir d’un rang n 0 . Alors la suite u × v est supérieure à la suite mu partir d’un certain
rang. Or la suite mu tend vers +∞ (il suffit de faire le même raisonnement que précédemment
A
en considérant A0 = m ). Or uv = mu + u(v − m) et la suite u(v − m) est minorée par 0 à partir
d’un certain rang, elle est donc minorée (par la propriété 4.2.1). On conclut via la proposition (i).
On obtient la proposition (iii) à partir de la proposition (ii), en remarquant que −v est
minorée par un réel strictement positif à partir d’un certain rang si v est majorée par un réel
strictement négatif à partir d’un certain rang. ■
Exercice 4.15 Pour chacune des propositions du théorème précédent, montrer que les
implications réciproques ne sont pas vérifiées. ■
76 Chapitre 4. Suites de nombres réels
(u ≤ v) ⇔ (∀n ∈ N, u n ≤ v n ) .
Théorème 4.3.8 — Compatibilité ordre et limites. Soient u et v deux suites réelles telles
que u ≤ v. On suppose que u et v tendent chacune vers une limite dans R. On a :
lim lim v .
u n ≤ n→+∞
n→+∞ n
Démonstration. On montre le résultat directement. On a trois possibilités pour n→+∞ lim u : soit
n
lim
c’est −∞, soit c’est un réel, soit c’est +∞. De même, il y a trois possibilités pour n→+∞ v n .
lim u = −∞, alors, quelque soit la valeur de lim v , on a −∞ ≤ lim v . Ce qui est le
Si n→+∞ n n→+∞ n n→+∞ n
résultat souhaité.
lim v = +∞, c’est pareil, quelque soit la valeur de lim u , on a lim u ≤ +∞ et c’est
Si n→+∞ n n→+∞ n n→+∞ n
bien le résultat souhaité.
On suppose donc d’abord que n→+∞ lim u = l ∈ R et que lim 6= +∞. Comme u converge vers
n n→+∞
un réel, elle est minorée, et v est donc minorée également. Elle ne peut donc tendre vers −∞.
lim v = l 0 ∈ R. Or, quelque soit le réel ε strictement positif, il existe un rang à partir du
Ainsi n→+∞ n
quel la suite u soit supérieure à l − ε et un rang à partir duquel v soit inférieure à l 0 + ε. On en
déduit que quelque soit le réel ε strictement positif l − ε ≤ l 0 + ε, ou encore −2ε ≤ l 0 − l . On en
déduit donc que 0 ≤ l 0 − l et on a bien l ≤ l 0 .
On suppose enfin que n→+∞lim u = +∞. Dans ce cas, u n’est pas minorée. Comme on a supposé
n
que v tendait vers une limite, on a forcément n→+∞ lim v = +∞ et on a le résultat. ■
n
R Il faut faire attention : il est supposé dans l’énoncé que les deux suites tendent vers des
limites. Si l’on ne sait pas si les suites convergent, il faut plutôt utiliser l’un des théorèmes
suivants.
Démonstration. Comme u converge vers l , quelque soit le réel ε, il existe un rang à partir duquel
u soit supérieure à l − ε. De même, il existe un rang à partir duquel w soit inférieure à l + ε. On
en déduit donc qu’il existe un rang à partir duquel v est comprise entre l − ε et l + ε : v tend vers
l. ■
4.3 Convergences des suites réelles 77
Théorème 4.3.10 Soient u et v deux suites réelles telles que u ≤ v. Si u tend vers +∞ alors v
tend +∞. De même, si v tend vers −∞ alors u tend −∞.
Démonstration. Si u tend vers +∞, alors, quelque soit le réel A, il existe un rang à partir duquel
u est supérieure à A. v est donc également supérieure à A à partir d’un certain rang et on conclut
donc que v tend vers +∞.
Si v tend vers −∞, alors −v tend vers +∞. On peut donc appliquer le résultat précédent via
l’inégalité −v ≤ −u. Cela donne −u tend vers +∞ et finalement u tend vers −∞. ■
Théorème 4.3.11 — Limite de suites adjacentes. Soient u et v deux suites réelles adja-
centes. Alors u ≤ v et les deux suites tendent vers une même limite l ∈ R.
u +v
Exercice 4.17 On considère les suites u et v définies par u 0 = 1, v 0 = 2, v n+1 = n 2 n et
2
u n+1 = v n+1 . Montrer que ∀n ∈ N∗ , 1 < u n < u n+1 < v n+1 < v n . En déduire que u et v sont
adjacentes et déterminer leur limite. ■
78 Chapitre 4. Suites de nombres réels
Propriété 4.4.1 Soit u une suite arithmético-géométrique réelle de paramètres (q, r ) avec q 6= 1.
Alors on a :
r r
µ ¶
∀n ∈ N, u n = u 0 − qn + .
1−q 1−q
r
Démonstration. On pose λ = 1−q et on définit la suite v := u − λ. Alors, on voit que ∀n ∈
N, v n+1 = u n+1 − λ = qu n + r − λ = q(v n + λ) + r − λ = q v n + λ(q − 1) + r = q v n − r + r = q v n .
La suite v est donc une suite géométrique de raison q. On a donc ∀n ∈ N, v n = v 0 q n , d’où
u n = (u 0 − λ)q n + λ. ■
Exercice 4.20 Déterminer, en fonction de ses paramètres, la nature et, le cas échéant, la
limite d’une suite arithmético-géométrique. ■
Définition 4.4.3 — Équation caractéristique. Soit u une suite récurrente linéaire d’ordre 2
réelle de paramètres (a, b). Son équation caractéristique est définie comme étant l’équation
d’inconnue z ∈ C :
z 2 − az − b = 0 .
Théorème 4.4.2 — Terme général d’une suite récurrente linéaire d’ordre 2. Soit u une
suite récurrente linéaire d’ordre 2 réelle d’équation caractéristique (E) : z 2 − az − b = 0. Alors
on a les trois configurations possibles différentes :
2. Si (E) possède une unique solution réelle z 0 , alors ∃(λ, µ) ∈ R2 , ∀n ∈ N, u n = (λn + µ)z 0n .
3. Si (E) n’a pas de solution réelle, (E) possède deux solutions complexes conjuguées
z 1 = ρe i θ et z 2 = ρe −i θ , et alors ∃(λ, µ) ∈ R2 , ∀n ∈ N, u n = λ cos(nθ) + µ sin(nθ) ρn .
¡ ¢
Démonstration. La démonstration du théorème sera faite dans le cadre du cours sur les matrices.
■
4.4 Suites classiques 81
Exercice 4.21 Déterminer le terme général des suites u, v et w, récurrentes linéaires d’ordre
2 de paramètres (2, −1), (2, −2) et (3, −2) respectivement, dont les deux premiers termes sont
tous égaux à 1. ■
λ
µ ¶
lim 1 +
n→+∞ = eλ .
n
Démonstration. Cette propriété est admise pour le moment. Le cas λ = 1 a été vue en exercice.
■
Propriété 4.4.4 Soient u une suite réelle à termes strictement positifs et λ ∈ R. On suppose que
lim u n+1 = λ. Alors si λ < 1, u tend vers 0, et si λ > 1, u tend vers +∞.
n→+∞ u n
Démonstration. Cette propriété est admise mais pourra être vue en TD. ■
lim
(ln(n))b
(i) n→+∞ = 0.
na
lim
na
(ii) n→+∞ = 0.
qn
lim
qn
(iii) n→+∞ = 0.
n!
lim
n!
(iv) n→+∞ = 0.
nn
Démonstration. Les points (ii), (iii) et (iv) peuvent se déduire de la proriété précédente. Le point
(i) est admis. ■
82 Chapitre 4. Suites de nombres réels
∀n ∈ N, u n = f (n) .
Démonstration. Pour (i), (ii) et (iii), il suffit d’écrire les définitions. Pour (iv), il s’agit d’un cas
particulier du théorème de composition de limites. ■
d’éléments de K indexée par 1, m × 1, n. On dit que A est une matrice à m lignes et n
colonnes d’éléments de K et on utilise la notation matricielle suivante :
a 1,1 a 1,2 ··· a 1,n
a 2,1 a 2,2 ··· a 2,n
A=
.. .. .. .. .
. . . .
a m,1 a m,2 ··· a m,n
On omet très généralement les parenthèses pour les indices des éléments a i , j que l’on appelle
coefficients de la matrice A. Les entiers m et n sont apellés dimensions de la matrice A.
Définition 5.1.3 — Matrice colonne, matrice ligne. Les éléments de Mm,1 (K) sont appelés
matrices colonnes. Les éléments de M1,n (K) sont appelés matrices lignes.
Définition 5.1.4 — Matrice nulle. Soit (m, n) ∈ (N∗ )2 . La matrice de Mm,n (K) dont tous les
coefficients sont nuls est appelée la matrice nulle de Mm,n (K). S’il n’y a pas d’ambigüité sur
les dimensions de la matrice, la matrice nulle est notée 0, sinon on la note 0m,n .
84 Chapitre 5. Matrices et systèmes linéaires
R La somme de deux matrices de dimensions différentes n’est jamais possible ! Cela n’a tout
simplement pas de sens.
Propriété 5.1.1 — Règles de calcul pour l’addition. Soient A, B et C trois matrices de Mm,n (K).
On a les propositions suivantes :
(i) (A + B) + C = A + (B + C) (Associativité)
(ii) A+B = B+A (Commutativité)
(iii) A + 0m,n = 0m,n + A = A (Élément neutre)
(iv) ∃!A0 ∈ Mm,n (K), A + A0 = A0 + A = 0 (Opposé)
Démonstration. Pour vérifier les trois premières propositions, il suffit de vérifier les égalités
coefficients par coefficients. Cela découle alors directement des règles de calcul pour l’addition
dans K. Pour la dernière, on remarque que la matrice A0 définie par ∀(i , j ) ∈ 1, m×1, n, a i0 , j =
−a i , j est bien l’unique matrice qui vérifie la proposition. ■
Définition 5.1.6 — Multiplication par un scalaire. Soient (m, n) ∈ (N∗ )2 , A une matrice de
Mm,n (K) et λ ∈ K. Le produit de A par le scalaire λ est la matrice B dont les coefficients b i , j
vérifient : ∀(i , j ) ∈ 1, m × 1, n, b i , j = λa i , j .
λa 1,1 λa 1,2 ··· λa 1,n
λa λa 2,2 ··· λa 2,n
2,1
λA =
.. .. .. .. .
. . . .
λa m,1 λa m,2 ··· λa m,n
Exercice 5.1 Soient A une matrice de Mm,n (K) et B une matrice de Mn,p (K). On note Ai
la matrice ligne correspondant à la i -ème ligne de la matrice A et Bk la matrice colonne
correspondant à la k-ème colonne de B. Calculer le produit Ai Bk . Que peut-on en déduire ? ■
Pour multiplier deux matrices à la main, on pose souvent la multiplication comme ci-
dessous, la matrice A en bas à gauche, la matrice B en haut à droite, et le résultat en bas à droite.
On considère ensuite les produits de chaque ligne de A avec une colonne de B.
B : n lignes, q colonnes
b 1,1 b 1,2 ... b 1,p
b 2,1 b 2,2 ... b 2,p
2
1,
b
.. .. ..
×
..
.
. . .
1
2
2,
+
2,
a
×
2
b n,1 b n,2 ... b n,p
2,
a
..
.+
,2
bn
×
,n
a2
a 1,1 a 1,2 ... a 1,n c 1,1 c 1,2 ... c 1,p
a a 2,2 ... a 2,n c c 2,2 ... c 2,p
2,1 2,1
.. .. .. .. .. .. .. ..
. . . .
. . . .
a m,1 a m,2 ... a m,n c m,1 c m,2 ... c m,p
R Pour pouvoir multiplier deux matrices, il est nécessaire que le nombre de lignes de la
deuxième matrice soit égal au nombre de colonnes de la première matrice.
86 Chapitre 5. Matrices et systèmes linéaires
1 0
µ ¶ µ ¶
1 2 3 0 −2 ¡ ¢
A= , B = −1 1 , C= et D = 2 1 3 .
−1 0 1 1 0
−2 −2
Quels sont les produits de deux matrices possibles à partir de ces quatre matrices ? Calculer
ces produits. Le produit de matrice est-il commutatif ? ■
Démonstration. Il suffit de regarder les coefficients des matrices de chaque côté des égalités. ■
R La multiplication (à gauche ou à droite) de n’importe quelle matrice par une matrice nulle
de taille compatible donne une matrice nulle.
5.1 Matrices rectangulaires 87
5.1.3 Transposée
Définition 5.1.8 — Matrice transposée. Soit A = a i , j (i , j )∈1,m×1,n une matrice de Mm,n (K).
¡ ¢
t
(λA + µB) = λt A + µt B .
Propriété 5.1.5 — Transposition et produit matriciel. Soient A ∈ Mm,n (K) et B ∈ Mn,p (K).
Alors :
t
(AB) = (t B)(t A) .
Définition 5.2.3 — Coefficients diagonaux, matrice diagonale. Soit M ∈ Mn (K) une ma-
trice carrée. On appelle coefficients diagonaux de M, les coefficients m i ,i pour tout i ∈ 1, n.
Si tous les coefficients non diagonaux de M sont nuls, on dit que M est une matrice diagonale.
On note alors M = Diag(m 1,1 , ..., m n,n ).
1 0 0 0
0 2 0 0
■ Exemple 5.1 M = est une matrice diagonale et M = Diag(1, 2, 0, −1).
■
0 0 0 0
0 0 0 −1
■ Exemple 5.2 I3 = 0 1 0 . ■
0 0 1
1 1 1 1 0 0
0 0 1 1 1 1
Propriété 5.2.3 — Produit avec l’identité. Soit A ∈ Mn (K), alors AIn = In A = A. Plus générale-
ment, soit B ∈ Mm,n (K), alors Im B = BIn = B.
Démonstration. Il suffit de regarder les coefficients des produits pour arriver au résultat. ■
¶ µ ¶ µ
1 1 1 0
Exercice 5.8 Calculer (A + B)2 et A2 + 2AB + B2 pour A = et B = . Que peut-on
0 1 1 1
en conclure ? Comment peut-on développer la première expression ? ■
90 Chapitre 5. Matrices et systèmes linéaires
t
¡t ¢k
(Ak ) = A .
Propriété 5.2.5 Soient A et B deux matrices de Mn (K) qui commutent, k et l deux entiers, alors :
Ak Bl = Bl Ak .
Théorème 5.2.6 — Binôme de Newton. Soient n ∈ N et (A, B) ∈ (Mn (K))2 tel que AB = BA.
On a : Ã !
n n
n
Ak Bn−k .
X
(A + B) =
k=0 k
Démonstration. La démonstration suit exactement les mêmes étapes que celles du chapitre
précédent. ■
R Les coefficients diagonaux d’une matrice antisymétrique sont tous nuls. En effet, les
coefficients diagonaux d’une matrice carrée sont égaux aux coefficients diagonaux de sa
transposée, pour une matrice antisymétrique ils sont aussi opposés, donc nuls.
Exercice 5.9 Soit A ∈ Mm,n (K). Montrer que At A et t AA sont bien définies et préciser leurs
dimensions. Montrer, de plus, que ces matrices sont symétriques. ■
Exercice 5.10 Soient A et B deux matrices symétriques de même dimensions. Montrer que
A et B commutent si, et seulement si, AB est symétrique. ■
5.2 Matrices carrées 91
R La matrice nulle 0n ∈ Mn (K) n’est clairement pas inversible. En effet, pour tout B ∈ Mn (K),
B × 0n = 0n × B = 0n 6= In .
Définition 5.2.10 — Ensemble des matrices inversibles. L’ensemble des matrices inver-
sibles de Mn (K) est noté GLn (K).
R La notation GLn (K) vient de l’expression « groupe linéaire ». C’est un terme d’algèbre issue
de la théorie des groupes.
Propriété 5.2.7 — Unicité de l’inverse. Soit A ∈ Mn (K) inversible, alors A possède un unique
inverse. On note cet inverse A−1 .
Propriété 5.2.8 — Inverse à gauche ou à droite. Soient A, B ∈ Mn (K). Les propositions sui-
vantes sont équivalentes.
(i) AB = In
(ii) BA = In
(iii) B = A−1
Démonstration. L’implication de (iii) vers (i) et de (iii) vers (ii) découle de la définition. Les
implications réciproques sont, pour l’instant, admises. ■
Propriété 5.2.9 — Règles de calculs pour l’inverse. Soient A et B deux matrices inversibles
de GLn (K), λ ∈ K∗ et k ∈ N. On a les propositions suivantes :
Démonstration. Il suffit de vérifier que les inverses des propositions vérifient la définition de
l’inverse. ■
Exercice 5.11 Soit A, B et C trois matrices inversibles dans GLn (K). Donner la matrice
inverse du produit ABC. ■
92 Chapitre 5. Matrices et systèmes linéaires
µ ¶
a b
Propriété 5.2.10 — Inverse d’une matrice carrée d’ordre 2. Soit M = ∈ M2 (K). Alors
c d
M est inversible si et seulement si ad − bc 6= 0 et sont inverse est donné par :
µ ¶
−1 1 d −b
M = .
ad − bc −c a
µ ¶
d −b
Démonstration. On pose M e= . En posant le produit, on trouve MM e = (ad − bc)I2 .
−c a
Si ad − bc 6= 0, on voit directement que M est inversible, d’inverse M−1 = ad 1−bc M.
e
Si ad − bc = 0, on a MM = 02 . On suppose par l’absurde que M est inversible. On a alors,
e
M−1 MM e = M−1 02 = 02 , mais également M−1 MM e = I2 M
e = M.
e D’où M e = 02 . Par identification,
cela donne que chacun des coefficients de M est nul et donc M est la matrice nulle et n’est donc
pas inversible, CQFD. ■
N1 N2
0 0 0 1
1 0 1 1
Un graphe et sa matrice d’ajacence M = .
0 1 0 0
N4 N3 1 0 1 0
Pour savoir quelle est la probabilité qu’un utilisateur se trouve sur une certaine page après
avoir cliqué n fois, il faut considérer les chemins de taille n du graphe. Pour ce faire, on passe
à la matrice adjacence du graphe. La coordonnée m i , j correspond aux nombres de flèches du
nœud Ni vers le nœud N j (ci-dessus, la matrice d’adjacence du graphe en exemple). La raison
pour laquelle on considère cette matrice, c’est parce que la coordonnée (i , j ) de la matrice Mn
donne le nombre de chemins de taille n qui partent de Ni pour arriver à N j . Ceci ce vérifie
facilement par récurrence. C’est donc en calculant la puissance n-ième d’une matrice que l’on
peut connaître la probabilité Pi ,n que l’utilisateur se trouve sur une la page Ni , après avoir cliqué
n fois. Le principe du PageRank repose sur le fait que Pi ,n tend vers une limite finie Pi quand n
tend vers l’infini. Les pages présentées par Google sont ensuite simplement classées par ordre
décroissant de probabilité Pi .
5.3 Systèmes linéaires 93
Définition 5.3.2 — Solutions d’un système. Soit (S) un système linéaire, on appelle solution
de (S) tout n-uplet (x 1 , x 2 , ..., x n ) qui est solution des équations de (S). Résoudre le système
(S), c’est déterminer l’ensemble des solutions S de (S). Un système est dit résoluble si
S 6= ;.
Définition 5.3.3 — Système homogène associé. Soit (S) un système linéaire, on appelle
système homogène associé le système linéaire (S 0 ) dont les coefficients sont identiques à
(S) et dont le second membre est nul (i.e. tous les b i sont nuls).
Définition 5.3.4 — Systèmes équivalents. Soient (S) et (S 0 ) deux systèmes linéaires, on dit
qu’ils sont équivalents si leurs ensembles de solutions S et S 0 sont égaux.
Propriété 5.3.1 — Écriture matricielle. Soit (S) un système linéaire défini comme précédem-
x1
..
ment. On pose A = a i , j 1≤i ≤m ∈ Mm,n (K), B = (b i )1≤i ≤m ∈ Mm,1 (K) et X = . ∈ Mn,1 (K).
¡ ¢
1≤ j ≤n
xn
Alors A est appelée la matrice de (S), B est appelé le vecteur second membre de (S) et on a
l’équivalence :
(S) ⇔ AX = B .
Théorème 5.3.2 Soient (S) un système linéaire et (S 0 ) un système linéaire obtenu par opéra-
tions élémentaires successives. Alors (S) et (S 0 ) sont équivalents.
Démonstration. Pour démontrer le théorème, il suffit de montrer que c’est le cas pour un
système (S 0 ) obtenu après une seule opération élémentaire, pour chacun des trois types d’opé-
rations élémentaires différentes. En effet, la transitivité de l’équivalence de systèmes permet
ensuite de conclure pour un système (S 0 ) obtenu par opérations élémentaires successives.
94 Chapitre 5. Matrices et systèmes linéaires
(a i ,1 + βa j ,1 )x 1 + · · · + (a i ,n + βa j ,n )x n = b i + βb j
½
⇔
a j ,1 x 1 + ··· + a j ,n x n = bj
C’est facile à voir, puisque pour chacune de ces opérations, on a une opération inverse : Li ↔ L j ,
Li ← α1 Li et Li ← Li − βL j . ■
R En combinant les deux derniers types d’opérations élémentaires, on obtient une opération
Li ← αLi + βL j où α 6= 0 et i 6= j qui transforme (S) en un système linéaire équivalent.
R Les opérations peuvent être réalisées sur les systèmes comme sur les écritures matricielles
associées aux systèmes. On se concentrera principalement sur les écritures matricielles.
1 2 0 0 1 2 0 0 1 2 0 0 1 2 0 0
0 2 0 0 0 2 0 0 0 0 0 1 0 0 0 0
0 0 0 1 0 2 0 1 0 0 2 1 0 0 0 0
■
Théorème 5.3.3 — Pivot de Gauss. Tout système linéaire est équivalent à un système éche-
lonné.
i ,1 a
CAS 1 : a 1,1 6= 0. Dans ce cas, les opérations successives Li ← Li − a1,1 L1 pour tout 2 ≤ i ≤ m
0
transforme la matrice A en une matrice A dont tous les coefficients de la première colonne,
excepté a 1,1 sont nuls :
5.3 Systèmes linéaires 95
a 1,1 a 1,2 ··· a 1,n a 1,1 a 1,2 ··· a 1,n
L ←L − a2,1 L 0 0
a 2,2 0
a 1,n L ←L − a3,1 L
a 2,1 a 2,2 ··· a 1,n ···
2 2 a1,1 1 3 3 a1,1 1
.. .. .. −−−−−−−−−−→ .. .. .. −−−−−−−−−−→ · · ·
. . . . . .
a m+1,1 a m+1,2 ··· a m+1,n a m+1,1 a m+1,2 ··· a m+1,n
a 1,1 a 1,2 ··· a 1,n
a 0 0
Lm+1 ←Lm+1 − m+1,1 L1 0 a 2,2 ··· a 1,n
a 1,1
· · · −−−−−−−−−−−−−−−→ . . .
.. .. ..
0 0
0 a m+1,2 · · · a m+1,n
0 0
a 2,2 ··· a 1,n
. ..
La matrice A0 =
.. . possède m lignes, on peut donc lui appliquer l’hypothèse
0 0
a m+1,2 · · · a m+1,n
de récurrence, ce qui permet de conclure.
Exercice 5.13 Pour chacun des systèmes suivants, donner un système échelonné équivalent.
2x + 2y − z = 5 2x + 6y − z = 5
(S 1 ) : −3x + 3y + 7z = 7 (S 2 ) : x + 3y + 7z = 7
x + 3y + 2z = 4 x + 3y + 2z = 4
x − y + z − t= 1
3x − 2y + z = 5
(S 3 ) :
2x + 2y
− 6z + 3t = 3
+ 2t = α
3y − 6z
■
96 Chapitre 5. Matrices et systèmes linéaires
5.3 Systèmes linéaires 97
Démonstration. Cette démonstration est admise pour le moment, en voici l’idée générale. Si
b i 6= 0 pour un i ∈ r + 1, m alors le système n’est pas résoluble et S = ;. Si b i = 0 pour tout
r + 1 ≤ i ≤ m, alors le système est équivalent au système consistant uniquement des r premières
lignes de (S). On résoud ce système en cascade, en partant par le bas et la droite. Les r variables
x j , j correspondant à l’indice du premier terme non nul pour chacune des lignes du système,
sont exprimées en fonction des n − r variables restantes x j 0 et que l’on nomme paramètres. ■
Démonstration. Si (S) est de Cramer alors A est inversible et on a A(A−1 B) = In B = B d’où A−1 B
est solution du système. De plus, si X est une solution du système, on a A−1 (B) = A−1 (AX) = In X =
X. ■
Théorème 5.3.6 — Inversibilité d’une matrice. Soit A une matrice de Mn (K). A est inver-
sible si, et seulement si, pour tout Y ∈ Mn,1 , le système AX = Y possède une unique solution.
Théorème 5.3.7 — Inversion de matrice. Soit A une matrice une matrice inversible de
GLn (K) alors la i -ème colonne de A−1 est donnée par la solution du système (S i ) : AX = Ei où
Ei ∈ Mn,1 (K) et tous ses coefficients sont nuls, excepté celui de sa i -ème ligne qui vaut 1.
Propriété 5.3.8 Soit A une matrice triangulaire supérieure alors A est inversible si, et seulement
si, tous ses coefficients diagonaux sont non nuls.
Démonstration. Si tous les coefficients diagonaux de A sont non nuls, alors A est échelonnée
et l’on se situe dans le cas n = r du théorème de résolution d’un système échelonné. Si un des
coefficients diagonaux est nul, alors on peut se ramener à un systèmé échelonné pour lequel
n − r ≥ 1. Dans les deux cas, on conclut via le théorème d’inversibilité. ■
Propriété 5.3.9 Soit A = Diag(λ1 , ..., λn ) une matrice diagonale, alors A est inversible si, et seule-
ment si, chacun de ses termes diagonaux est non nul et dans ce cas A−1 = Diag( λ1 , ..., λ1 ).
1 n
Exercice 5.15 Montrer que les matrices suivantes sont inversibles et déterminer leurs in-
verses.
2 3 −1 1 5 −2 2 1 3 0 0 0
4 7 2 4 6 −2 3 0 0 −2 0 0
A= B= C=
2 6 3 2 0 0 1 2 0 0 1 0
1 1 0 1 0 0 −1 1 0 0 0 4
■
6. Nombres complexes et polynômes
y
1
tan(θ) M0
sin(θ) M
θ x
−1 O cos(θ) 1
C ∆
−1
Les fonctions cosinus, sinus et tangente sont ensuite prolongées sur tout R par 2π-périodicité.
102 Chapitre 6. Nombres complexes et polynômes
x
0 π
− 3π −π − π2 π
2
3π 2π
2 2
−1
x
0 π
− 3π −π − π2 π
2
3π 2π
2 2
−1
x
0 π
− 3π −π − π2 π
2
3π 2π
2 2
−1
(0, 1)
³ p ´ ³ p ´
− 12 , 23 1
2, 2
3
³ p p ´ ³p p ´
− 22 , 22 π
2
2 , 2
2
2
2π π
³ p ´ 3 3 ³p ´
− 23 , 12 3π
90◦
π 3 1
2 ,2
4 4
120◦ 60◦
5π π
6 6
150◦ 30◦
(−1, 0) (1, 0)
π 180◦ 0◦ ◦
360 2π x
210◦ 330◦
7π 11π
6 6
³ p 240◦ 300◦ ³p
5π 7π
270◦
´ ´
− 23 , − 12 4 4
3 1
2 ,− 2
4π 5π
3 3
³ p p ´ 3π ³p p ´
− 22 , − 22 2 2
2 ,− 2
2
³ p ´ ³ p ´
− 12 , − 23 1
2 ,− 2
3
(0, −1)
R On parle de R-linéarité parce que cela fonctionne uniquement lorsque l’on considère un
scalaire λ réel.
ℑ{z}
y z = x +i y
−1 1 ℜ{z}
x
−i
(i) z=z
(ii) z + z0 = z + z0
(iii) zz 0 = zz 0
µ ¶
1 1
(iv) Si z 6= 0, =
z z
Démonstration. C’est direct, il suffit de passer aux formes algébriques. ■
Théorème 6.1.5 — Forme exponentielle principale. Tout nombre complexe non nul, z ∈
C∗ , s’écrit de manière unique sous la forme z = ρe i θ où ρ ∈ R+ et θ ∈ [0, 2π[.
R Cette identité est connue comme étant la formule la plus concise comportant les 5 nombres
les plus importants de l’analyse complexe : 0, 1, e, i et π !
e i θ + e −i θ e i θ − e −i θ
cos(θ) = et sin(θ) = .
2 2i
e i θ +e −i θ
Démonstration. On a 2 = cos(θ)+i sin(θ)+(cos(θ)−i
2
sin(θ))
= 2 cos(θ)
2 = cos(θ) et, de manière ana-
e i θ −e −i θ cos(θ)+i sin(θ)−(cos(θ)−i sin(θ)) 2i sin(θ)
logue, 2i = 2i = 2i = sin(θ). ■
On peut également utiliser ces formules pour linéariser des expressions trigonométriques
(i.e. écrire un produit de fonctions trigonométriques en somme de fonctions trigonométriques).
³ i x −i x ´2 ³ i x −i x ´3
2 3 e +e e −e
■ Exemple 6.1 On cherche à linéariser f (x) = cos (x) sin (x). On a f (x) = .
2 2i
e 2i x +1+e −2i x )(e 3i x −3e i x +3e −i x −e −3i x i (e 5i x −2e i 3x +e i x −e −i x +2e −3i x −e −5i x ) − sin(5x)+2 sin(3x)−sin(x)
f (x) = 4×8i 3
= 32 = 16 . ■
La formule qui suit n’est pas à connaître par cœur, mais sa démonstration doit être connue.
Propriété 6.1.9 — Angle moitié. Soit θ ∈ R, on a :
θ iθ
µ ¶
iθ
1+e = 2 cos e 2 .
2
θ θ θ θ θ θ θ θ
³ ´
θ
Démonstration. 1 + e i θ = e 0 + e i θ = e i 2 −i 2 + e i 2 +i 2 = e i 2 (e −i 2 + e i 2 ) = 2 cos 2 ei 2 . ■
R La technique de l’angle moitié est souvent utilisée pour additionner deux complexes de
même module (et de même module seulement), en ramenant le problème à la propriété
via diverses manipulations, notamment, en factorisant.
³ ´ µ ³ ´2 ¶ ³ ´
2
b c b 2 b c b 2
Démonstration. az +bz +c = a z +2 2
az+ a = a (z + 2a ) − 2a + a = a (z + 2a ) − b 4a
−4ac
2 .
Le trinôme ramené ainsi à sa forme canonique, on voit que l’équation (E) est équivalente à
³ ´2 ³ ´2
b δ
z + 2a − 2a = 0, puis à (z − z 1 )(z − z 2 ) = 0. On obtient donc le résultat. ■
Corollaire 6.1.12 — Racines complexes d’un polynôme réel du second degré. Soient
a, b et c trois réels avec a 6= 0, (E) l’équation définie pour tout z ∈ C par az 2 + bz + c = 0
et ∆ = b 2 − 4ac, le discriminant de l’équation. Si ∆ > 0, alors (E) possède pexactement deux
p
∆ ∆
solutions complexes distinctes, toutes deux également réelles, z 1 = −b+
2a et z 2 = −b−
2a .
b
Si ∆ = 0, alors (E) possède exactement une solution complexe, également réelle, z 0 = − 2a .
Si ∆ < 0, alors
p
(E) possède
p
deux solutions complexes distinctes, non réelles et conjuguées,
−b+i −∆ −b−i −∆
z1 = 2a et z 2 = 2a .
6.1 Nombres complexes 107
Cercle
Soit z 0 ∈ C et r ∈ R+ . On considère l’équation (C) définie pour tout z ∈ C par |z − z 0 | = r .
Alors z est solution de (C) si et seulement si z − z 0 = r e i θ avec θ ∈ R, soit z = z 0 + r e i θ avec θ ∈ R.
L’ensemble des solutions décrit alors un cercle, de rayon r et de centre z 0 . En résumé :
ℑ{z}
z0
i C
−1 1 ℜ{z}
−i
³ n ¯ o´
(|z − z 0 | = r ) ⇔ z ∈ z 0 + r e i θ ¯ θ ∈ R ⇔ (z ∈ C ) .
¯
Demi-droite
Soit z 0 ∈ C et θ ∈ R. On considère l’équation (D) définie pour tout z ∈ C par z−z 0
|z−z 0 | = e i θ . Alors
z est solution de (D) si et seulement si z − z 0 = ρe i θ avec ρ ∈ R∗+ , soit z = z 0 + ρe avec ρ ∈ R∗+ .
iθ
L’ensemble des solutions décrit alors une demi-droite, d’origine z 0 exclus et dont la direction est
donné par l’angle θ. En résumé :
ℑ{z}
ei θ
D z0
i
−1 1 ℜ{z}
−i
z − z0
µ ¶ ³ n ¯ o´
iθ
=e ⇔ z ∈ z 0 + ρe i θ ¯ ρ ∈ R∗+ ⇔ (z ∈ D) .
¯
|z − z 0 |
108 Chapitre 6. Nombres complexes et polynômes
6.2 Polynômes
Dans l’ensemble de ce chapitre, K désigne un ensemble de nombre qui peut-être Q, R ou C.
6.2.1 Définitions
Définition 6.2.1 — Polynôme. Soit P une application de K dans K. On dit que P est un
polynôme à coefficients dans K, s’il existe un entier n et un n + 1-uplet (a 0 , a 1 , ..., a n ) ∈ Kn+1
tels que :
n
∀x ∈ K, P(x) = a 0 + a 1 x + a 2 x 2 + ... + a n x n = ak x k .
X
k=0
K −→ K
Notation 6.1. Soit k ∈ N∗ , on note X k le polynôme X k : .
x 7−→ x k
K −→ K n
n ak Xk .
P
Plus généralement, le polynôme P : P k est noté
x 7−→ ak x k=0
k=0
Vocabulaire 6.1 Voici quelques éléments de vocabulaire usuel dans le contexte des polynômes :
— Le polynôme nul est l’application P = 0K[X] définie par ∀x ∈ K, P(x) = 0.
— Les polynômes constants sont les applications constantes définies par ∀x ∈ K, P(x) = a 0 ,
où a 0 ∈ K.
— Un monôme (resp. binôme, resp. trinôme) est un polynôme ayant exactement un (resp.
deux, resp. trois) coefficients non nuls.
Démonstration. Ce résultat est admis. Pour faire la démonstration, on peut se ramener au cas
où P est le polynôme nul, puis on le montre par récurrence sur n en dérivant P. ■
Définition 6.2.3 — Degré d’un polynôme. Soit P ∈ K[X] un polynôme non nul, le degré de
P, noté deg(P), est l’unique entier n tel qu’il existe un (n + 1)-uplet (a 0 , a 1 , ..., a n ) avec a n 6= 0
n
a k X k . a n X n est appelé le terme dominant de P et a n , le coefficient dominant.
P
tel que P =
k=0
Si a n = 1, on dit que P est unitaire.
Par convention, on pose deg(0K[X] ) = −∞.
n m
a k X k et Q = b k X k deux
P P
Théorème 6.2.2 — Opérations et coefficients. Soient P =
k=0 k=0
polynômes de K[X]. On pose, pour tout k > n, a k = 0 et, pour tout k > m, b k = 0. Alors on a les
formules suivantes pour les coefficients des polynômes obtenues après opérations :
¶ max(n,m)
n m
µ ¶ µ
k k
(a k + b k )X k .
P P P
(i) ak X + bk X =
k=0 k=0 k=0
n m n+m
µ ¶ µ ¶
k k
P P P P k
(ii) ak X × bk X =
ai b j
X .
k=0 k=0 k=0 0≤i ≤n
0≤ j ≤m
i + j =k
n n
µ ¶
λ ak Xk = λa k X k .
P P
(iii)
k=0 k=0
Démonstration. Il s’agit simplement d’appliquer les règles de calcul sur les sommes et de re-
grouper les termes par puissance de X. ■
Corollaire 6.2.3 — Opérations et degré. Soit (P, Q) ∈ K[X]2 . On a les propositions suivantes :
Démonstration. La démonstration de ce théorème est admise. Elle peut s’obtenir sans trop de
difficultés par récurrence sur deg(A). ■
110 Chapitre 6. Nombres complexes et polynômes
R La division euclidienne pour les polynômes se pose comme la division euclidienne pour
les entiers, c’est-à-dire la division que vous avez appris au primaire !
Définition 6.2.6 — Multiples, diviseurs. Soient A et B deux polynômes de K[X] avec B 6= 0K[X] .
On dit que A est un multiple de B, ou encore que B est un diviseur de A, si le reste de la
division euclidienne de A par B est nul.
Exercice 6.2 Déterminer l’ensembles des diviseurs et des multiples de X 2 +1 dans R[X], puis
dans C[X]. ■
Démonstration. Si α est racine de P, alors il existe Q ∈ K[X] telle que P = (X − α)Q. On a donc
P(α) = (α − α)Q(α) = 0. Réciproquement, si α n’est pas racine de P, alors le reste R de la division
euclidienne par X−α de P est un polynôme non nul de degré strictement inférieur à deg(X−α) = 1.
On en déduit que R est un polynôme constant, non nul. Il s’en suit que P(α) = (α−α)Q(α)+R(α) =
R(α) 6= 0. ■
Démonstration. On obtient facilement le résultat en supposant par l’absurde que Q(α) = 0, puis
en utilisant le théorème. ■
Corollaire 6.2.7 Soit P ∈ K[X] un polynôme de degré d , alors la somme des ordres de multi-
plicité des racines de P est inférieure ou égale à d .
Théorème 6.2.8 — Racine complexes de polynômes réels. Soit P ∈ R[X] ⊂ C[X]. Si α ∈ C\R
est une racine de P dans C[X] (par la R-linéarité de z 7→ z), alors α est une racine de P dans
C[X].
Démonstration. Il suffit de remarquer que si P est à coefficient réel, alors P(z) = P(z) pour tout
z ∈ C. Ainsi, P(α) = 0 ⇔ P(α) = 0. ■
Corollaire 6.2.10 — Factorisation dans C[X] . Soit P ∈ C[X] tel que deg(P) = n > 1. Alors, on
peut écrire :
n r
P=λ (X − αk ) = λ (X − βk )mk
Y Y
k=1 k=1
où λ est le coefficient dominant de P, α1 , ..., αn sont les racines (non focrcément distinctes) de
P, et β1 , ..., βr sont les racines deux à deux distinctes de P avec m 1 , ..., m r leurs multiplicités
respectives (on a alors m 1 + m 2 + ... + m r = n).
R Factoriser un polynôme dans C[X], c’est l’écrire sous la forme ci-dessus. Factoriser un
polynôme dans R[X], c’est l’écrire sous la forme ci-dessous.
Théorème 6.2.11 — Factorisation dans R[X]. Soit P ∈ R[X] de degré n > 1. Alors, on peut
écrire : Ã !Ã !
r q
mk 2 nk
P=λ (X − αk ) (X + βk X + γk )
Y Y
k=1 k=1
où λ est le coefficient dominant de P, α1 , ..., αr sont les racines réelles distinctes de P avec
m 1 , ..., m r leurs multiplicités respectives, X 2 + βk X + γk sont des polynômes réels de dégré 2
sans racine réelle et n 1 , ..., n q des entiers tels que n = m 1 + m 2 + ... + m r + 2n 1 + 2n 2 + ... + 2n q .
Corollaire 6.2.12 — Racine réelle d’un polynôme réel de degré impair. Tout polynôme
de R[X] de degré impair possède au moins une racine réelle.
Pour factoriser un polynôme, on peut chercher certaines de ses racines en utilisant les
moyens classiques (résolution d’une équation de degré 2, racines évidentes, changements de
variables, racines n-ièmes de l’unité,...). Si on trouve des racines, on aura alors un facteur de P et
on pourra faire la division euclidienne de P par ce facteur pour obtenir un polynôme de degré
inférieur. On réitère ensuite le processus sur ce nouveau polynôme. On remarque qu’il peut être
plus aisé, pour réaliser une factorisation dans R[X], de commencer par factoriser le polynôme
dans C[X].
A = X 3 − 2X 2 + 1 B = X6 + 1 C = X4 + X2 + 1 .
■
7. Introduction aux espaces vectoriels
Les espaces vectoriels sont des structures algébriques que l’on retrouve quasiment partout
en mathématiques et qui sont la structure de base en algèbre linéaire. Vous avez déjà rencontré
de nombreux espaces vectoriels en mathématiques, sans jamais les nommer ainsi. Le but de
ce court chapitre introductif est de vous permettre de reconnaître, en tant que tel, les espaces
vectoriels que vous connaissez déjà, ainsi que quelques objets mathématiques fondamentaux
de l’algèbre linéaire. Dans ce chapitre comme précédemment, K désigne l’ensemble R ou
l’ensemble C.
7.1 Espaces
7.1.1 Espaces vectoriels
Définition 7.1.1 — Espace vectoriel. Soient E un ensemble non vide et deux applications
« + » et « . », notées comme suit :
+: E × E −→ E . : K × E −→ E
et .
(x, y) 7−→ x + y (λ, x) 7−→ λ.x
Alors on dit que E, muni des lois « + » et « . », noté (E, +, .), est un K-espace vectoriel (ou
espace vectoriel sur K), si et seulement si on a les propositions suivantes :
(i +) ∀x, y, z ∈ E, (x + y) + z = x + (y + z) (Associativité de +)
(ii +) ∀x, y ∈ E, x + y = y + x (Commutativité de +)
(iii +) ∃0E ∈ E, ∀x ∈ E, x + 0E = 0E + x = x (Élément neutre pour +)
(iv +) ∀x ∈ E, ∃y ∈ E, x + y = y + x = 0E (Opposé pour +)
(i .) ∀λ, µ ∈ K, ∀x ∈ E, λ.(µ.x) = (λµ).x (Associativité de .)
(ii .) ∀x ∈ E, 1.x = x (Élément neutre pour .)
(i + .) ∀x, y ∈ E, ∀λ ∈ K, λ.(x + y) = λ.x + λ.y (Distributivité de . sur +)
(ii + .) ∀x ∈ E, ∀λ, µ ∈ K, (λ +K µ).x = λ.x + µ.x (Distributivité de +K sur .)
114 Chapitre 7. Introduction aux espaces vectoriels
Les éléments de E sont appelés des vecteurs. Les éléments de K sont appelés des scalaires.
La loi « + » est appellée loi d’addition interne (ou simplement l’addition vectorielle). La loi
« . » est appellée loi de multiplication externe (ou simplement multiplication scalaire).
R Lorsqu’il s’agit d’ensembles bien connus, on omet souvent de préciser les lois « + » et
« . » et on les fait correspondre aux lois usuellement associées à ces ensembles. On parle
alors simplement de l’espace vectoriel E plutôt que de l’espace vectoriel (E, +, .). C’est
notamment le cas pour les espaces de matrices, comme on le verra par la suite.
Propriété 7.1.1 — Unicité de l’élément neutre. Soit (E, +, .) un K-espace vectoriel. Alors, il
n’existe qu’un seul élément 0E qui vérifie la propriété (iii +) de la définition.
Démonstration. On suppose qu’il existe deux éléments neutres pour l’addition vectorielle dans
E, que l’on appelle e et e 0 , i.e. pour tout x ∈ E, on a x +e = e +x = x et x +e 0 = e 0 +x = x. Mais ainsi,
en prenant successivement x = e puis x = e 0 , on obtient e + e 0 = e 0 + e = e = e 0 . D’où l’unicité de
l’élément neutre 0E . ■
Propriété 7.1.2 — Unicité de l’opposé. Soit (E, +, .) un K-espace vectoriel. Alors, pour chaque
vecteur x de E, il n’existe qu’un seul vecteur y dans E, tel que x + y = y + x = 0E
Démonstration. Soit x un vecteur de E. On suppose qu’il existe deux vecteurs y et y 0 tels que
x + y = y + x = 0E = x + y 0 = y 0 + x. Mais alors, y 0 = y 0 + 0E = y 0 + (x + y) = (y 0 + x) + y = 0E + y = y.
D’où l’unicité de l’opposé. ■
Propriété 7.1.3 — Produit de facteurs nuls. Soit (E, +, .) un K-espace vectoriel. On a les propo-
sitions suivantes :
(i) ∀x ∈ E, 0.x = 0E
(ii) ∀λ ∈ K, λ.0E = 0E
(iii) ∀λ ∈ K, ∀x ∈ E, [λ.x = 0E ⇔ (λ = 0) ∨ (x = 0E )]
Démonstration. Soit x un vecteur de E. On a x + 0.x = 1.x + 0.x = (1 + 0).x = 1.x = x par (ii .) et
(ii + .). De même, 0.x + x = x. Ainsi, 0.x est un élément neutre pour l’addition vectorielle et donc,
par unicité, 0.x = 0E .
Soit, de plus, λ ∈ K avec λ 6= 0. On a x = 1.x = λ.( λ1 .x) = λ.(0E + λ1 .x) = λ.0E + λ.( λ1 .x) =
λ.0E +1.x = λ.0E +x. On en déduit donc que λ.0E est un élément neutre pour l’addition vectorielle
et, comme précédemment, cela donne λ.0E = 0E .
On considère maintenant, x et λ tels que λ.x = 0E . Si λ 6= 0, alors on peut considérer λ1 . On a
donc x = 1.x = λ1 (λ.x) = λ1 (0E ) = 0E , ce qui permet de conlcure. ■
Exercice 7.1 Montrer que, pour tout vecteur x de E, l’opposé de x est égal à (−1).x. ■
Exercice 7.2 Montrer que l’ensemble Kn , muni des lois + et . définies comme suit, est un K
espace vectoriel.
+: Kn × Kn −→ Kn
¡ ¢
(x 1 , ..., x n ), (y 1 , ..., y n ) 7−→ (x 1 + y 1 , ..., x n + y n )
.: K × Kn −→ Kn
et .
(λ, (x 1 , ..., x n )) 7−→ (λx 1 , ..., λx n )
■
Exercice 7.3 Soient m et n deux entiers strictement positifs. On considère l’ensemble des
matrices de dimension m × n, Mm,n (K). Définir une structure de K-espace vectoriel sur
cet ensemble de la manière la plus naturelle possible. On s’appuiera sur les résultats des
chapitres précédents. Faire de même pour l’ensemble des polynômes à coefficient dans K,
K[X], puis pour l’ensemble des suites réelles RN . ■
116 Chapitre 7. Introduction aux espaces vectoriels
Exercice 7.4 Soit I ⊂ R. On rappelle que RI désigne l’ensemble des applications de I dans R.
Montrer que l’on peut munir RI d’une structure de R-espace vectoriel. ■
Exercice 7.5 Donner d’autres exemples d’espaces vectoriels (penser, entre autres, au « plus
petit » espace vectoriel possible). ■
Théorème 7.1.4 Soient (E, +, .) est K-espace vectoriel et F un sev de E. Alors F, muni des
restrictions de + (à F × F) et . (à K × F), est un K-espace vectoriel.
Montrer qu’un ensemble est un sous-espace vectoriel est très souvent plus rapide que de
montrer qu’un ensemble est un espace vectoriel. Il n’y a en effet que trois propositions à vérifier
(et même que deux via les caractérisations qui suivent) contre huit pour un espace vectoriel. On
pourra donc montrer qu’un certain ensemble est un espace vectoriel, en montrant que c’est un
sous-espace vectoriel d’un espace vectoriel bien connu.
Théorème 7.1.5 — Caractéristation des sev. Soit (E, +, .) un K-ev et F ⊂ E. Alors F est un
sous-espace vectoriel de E si et seulement si :
(i) F 6= ;
(ii) ∀λ ∈ K, ∀x, y ∈ F, λ.x + y ∈ F
Propriété 7.1.6 — Sous-espaces triviaux. Soit (E, +, .) un K-ev. Alors {0E } est un sev de E. De
même, E est un sev de E.
Exercice 7.8 En utilisant les ensembles vus en cours, lister au moins 10 sev de Mn (K). Expli-
quer pourquoi, l’ensemble GLn (K) des matrices inversibles de dimension n × n n’appartient
pas à cette liste. ■
118 Chapitre 7. Introduction aux espaces vectoriels
Exercice 7.9 Montrer que l’ensemble Kn [X] des polynômes à coefficients dans K de de-
gré inférieur ou égal à n est un sev de K[X] mais que l’ensemble des polynômes de degré
exactement n n’est pas un sev de K[X]. ■
Exercice 7.10 Montrer que l’ensemble des suites réelles bornées est un sev de l’ensemble
des suites réelles. Puis que l’ensemble des suites réelles qui convergent vers l ∈ R est un sev
de l’ensemble des suites bornées si et seulement si l = 0. ■
Théorème 7.1.7 — Intersection de sev. Soient (E, +, .) un K-ev, F et G deux sev de E. Alors
F ∩ G est un sev de E.
R Attention, cela ne fonctionne pas avec l’union ! F ∪ G n’est en général PAS un sev de E. Un
résultat classique énonce même que ce ne peut être le cas que si l’un des deux sev est
contenu dans l’autre (i.e. F ⊂ G ou G ⊂ F).
Corollaire 7.1.8 — Solution d’un système linéaire homogène. L’ensemble des solutions
d’un système linéaire homogène à coefficients dans K et à m équations et n inconnues est
un sous-espace vectoriel de Kn .
■Exemple 7.1 Soient v 1 = (1, 2, 3), v 2 = (−1, 0, 1) et v 3 = (1, 6, 11) des vecteurs de R3 . Alors v 3 est
une combinaison linéaire de v 1 et v 2 . En effet, v 3 = 3.v 1 + 2.v 2 . ■
Théorème 7.2.1 — Sous-espace vectoriel engendré par une famille. Soit F = (v 1 , ..., v p )
une famille de vecteurs de E. Alors, l’ensemble des combinaisons linéaires des vecteurs de F
¡ ¢
est un sev de E, noté V ECT (F ) ou V ECT v 1 , ..., v p :
( ¯ )
p ¯
λk .v k ∈ E ¯ ∀k ∈ 1, p, λk ∈ K .
¡ ¢ X
V ECT (F ) = V ECT v 1 , ..., v p =
¯
k=1
¯
p
λk .v k est toujours bien défini dans E par la définition d’un espace
P
R On peut voir que
k=1
vectoriel.
p p p
0.v k et, par linéarité de la somme, λ( λk .v k ) + µk .v k =
P P P
Démonstration. On a 0E =
k=1 k=1 k=1
p
(λλk + µk ).v k quelque soit λ, λ1 , ..., λp , µ1 , ..., µp ∈ K, ce qui démontre le théorème.
P
■
k=1
Exercice 7.11 Vérifier que Kn = V ECT (e 1 , ..., e n ) où e i = (0, ..., 0, 1, 0, ..., 0) pour tout i ∈ 1, n.
↑
i -ème position
µ ¶
De même, vérifier que Kn [X] = V ECT 1, X, X 2 , ..., X n et que Mm,n (K) = V ECT Ei , j 1≤i ≤m où,
¡ ¢ ¡ ¢
1≤ j ≤n
pour tout i , j ∈ 1, m × 1, n, Ei , j est la matrice de taille m, n dont tous les coefficients sont
nuls sauf le coefficient d’indice i , j qui vaut 1 (appelées les matrices élémentaires). ■
120 Chapitre 7. Introduction aux espaces vectoriels
Exercice 7.12 Pour chacun des systèmes linéaires de l’exercice 5.14 du cours, exprimer
l’ensemble des solutions du système linéaire homogène associé en tant que sous-espace
vectoriel engendré par une famille. ■
Théorème 7.2.2 — Plus petit sev contenant F . Soit F = (v 1 , ..., v p ) une famille de vecteurs
de E. Alors V ECT (F ) est le plus petit sev de E contenant F , i.e. :
Démonstration. On obtient facilement le premier point en prenant tous les λi nuls sauf un égal
à 1. De plus, si tous les v i appartiennent à un même sev F de E, alors, par la définition d’un sev et
une récurrence immédiate, toute combinaison linéaire des v i est dans F, d’où V ECT (F ) ⊆ F. ■
¡ ¢
Corollaire 7.2.3 Soit v 1 , ..., v p , v p+1 une famille de vecteurs de E. Alors, on a :
¡ ¢ ¡ ¢
(i) V ECT v 1 , ..., v p ⊂ V ECT v 1 , ..., v p , v p+1 .
(ii) Si v p+1 est une combinaison linéaire des autres v i , alors :
¡ ¢ ¡ ¢
V ECT v 1 , ..., v p = V ECT v 1 , ..., v p , v p+1 .
¡ ¢ ¡ ¢
En particulier, V ECT v 1 , ..., v p = V ECT v 1 , ..., v p , 0E .
Si λ 6= 0, alors V ECT v 1 , ..., v p = V ECT v 1 , ..., λ.v p
¡ ¢ ¡ ¢
(iii)
p−1
µ ¶
Si λ1 , ..., λp−1 ∈ K, alors V ECT v 1 , ..., v p = V ECT v 1 , ..., v p + λk .v k .
¡ ¢ P
(iv)
¢ k=1 ¡
Si σ est une permutation de 1, n, alors V ECT v 1 , ..., v p = V ECT v σ(1) , ..., v σ(p) .
¡ ¢
(v)
Démonstration. Il s’agit pour chacun de ces points d’une conséquence assez directe du théo-
rème précédent et on laisse leurs démonstrations à faire en entraînement. ■
E = V ECT (F ) .
7.2 Familles de vecteurs 121
R Le corollaire 7.2.3 montre que toutes les sur-familles d’une famille génératrice sont géné-
ratrices et permet de déterminer des sous-familles génératrices d’une famille génératrice.
■ Exemple 7.2 Soient v 1 = (1, 1, 1), v 2 = (1, 1, 0) et v 3 = (0, 1, 1). Alors (v 1 , v 2 , v 3 ) est génératrice
de R3 . En effet, tout vecteur (x, y, z) de R3 s’écrit comme combinaison linéaire de v 1 , v 2 et v 3 , via
(x, y, z) = (y − z).v 1 + (x − y + z).v 2 + (y − x).v 3 . ■
R Dans l’exercice 7.11, vous avez montré que chacune des familles considérées est une
famille génératrice de l’espace vectoriel qui la contient.
Définition 7.2.3 — Famille libre. Soit F = (v 1 , ..., v p ) une famille de vecteurs de E. On dit
que F est libre si et seulement si :
"Ã ! #
p
∀λ1 , ..., λp ∈ K, λk .v k = 0E ⇒ λ1 = ... = λp = 0 .
X ¡ ¢
k=1
Exercice 7.14 Montrer que chacune des familles de l’exercie 7.11 est libre. ■
Théorème 7.2.5 — Sous-famille d’une famille libre. Toute sous-famille d’une famille libre
est libre.
Démonstration. On considère une famille libre de vecteurs de E, F = (v 1 , ..., v p+1 ). Soit λ1 , ..., λp ∈
p p+1
K tels que λk .v k = 0. Alors, en posant λp+1 = 0, on a λk .v k = 0. Mais, comme F est libre,
P P
k=1 k=1
λ1 = ... = λp = λp+1 = 0, ce qui montre bien que (v 1 , ..., v p ) est libre. ■
122 Chapitre 7. Introduction aux espaces vectoriels
Corollaire 7.2.6 — Sur-famille d’une famille liée. Toute sur-famille d’une famille liée est
liée.
Démonstration. Soit F une famille liée. On suppose qu’elle possède une sur-famille F 0 libre.
Mais F est une sous-famille de F 0 , elle est donc libre par le théorème précédent, ce qui est
contradictoire avec le fait qu’elle soit liée. On a donc bien montré que toute sur-famille de F est
nécessairement liée. ■
Théorème 7.2.7 — Extension d’une famille libre. Soit (v 1 , ..., v p ) une famille libre de vec-
teurs de E et v p+1 un vecteur de E. Alors, on a :
¡ ¢
(v 1 , ..., v p , v p+1 ) est une famille libre si et seulement si v p+1 ∉ V ECT v 1 , ..., v p .
7.2.3 Base
Définition 7.2.5 — Base. Soit B = (b 1 , ..., b n ) une famille de vecteurs de E. On dit que B est
une base de E si et seulement si B est libre et génératrice de E.
R Les espaces vectoriels usuels possèdent généralement des bases usuelles que l’on appelle
bases canoniques. Pouvez-vous deviner ce que sont les bases canoniques de Kn , Kn [X]
ou encore Mm,n (K) ?
Théorème 7.2.8 — Coordonnées dans une base. Soit B = (b 1 , ..., b n ) une famille de vec-
teurs de E. Alors, les propositions suivantes sont équivalentes :
Dans ce cas, les scalaires λ1 , ..., λn sont appelés les coordonnées de x dans la base B.
Démonstration. Si B est une base, alors B est génératrice. On a donc pour tout x ∈ E, λ1 , ..., λn ∈
n n n n
K tels que x = λk .b k . Soient µ1 , ..., µn ∈ K tels que x = µk .b k . Alors, λk .b k − µk .b k =
P P P P
k=1 k=1 k=1 k=1
n
(λk − µk ).b k = 0E . Comme B est libre, cela donne λk = µk pour tout k. On a bien montré
P
k=1
l’existence et l’unicité.
Réciproquement, l’existence des λk montre que tout x de E est une combinaison linéaire des
vecteurs de B, donc E ⊂ V ECT (B), puis E = V ECT (B). B est donc bien une famille génératrice
7.2 Familles de vecteurs 123
Théorème 7.2.9 — Dimension finie. Si E admet une base B = (b 1 , ..., b n ) alors toute base de
E est composée d’exactement n vecteurs.
Comme B est une base de E, par le théorème précédent, il existe des uniques scalaires a i , j ,
n
définis pour tout (i , j ) ∈ 1, m × 1, n, tels que b i0 =
P
a i , j b j pour tout i ∈ 1, m. On considère
j =1
la matrice A = a i , j 1≤i ≤m ∈ Mm,n (K). Soit x ∈ E, en décomposant x dans les bases B et B 0
¡ ¢
1≤ j ≤n à !
n m m n n m
µ ¶
λj b j = µi b i =
0
µi µi a i , j b j .
P P P P P P
via le théorème précédent, on a x = ai , j b j =
j =1 i =1 i =1 j =1 j =1 i =1
m
Puis, par unicité des coordonnées dans la base B, λ j = µi a i , j pour tout j ∈ 1, n. En posant
P
Ãλ ! Ã µ1 ! i =1
1
Λ = ... et M = ... , cela est équivalent à t AM = Λ. Or, l’unicité des coordonnées dans chacune
λn µm
des bases, donnée par le théorème précédent, permet alors de dire que pour tout Λ, le système
t
AX = Λ possède une unique solution. Comme cela a été vu dans le cours sur les systèmes
linéaires, cela signifie que le système est de Cramer. On a donc n = m et t A est inversible (ce qui
est aussi équivalent à A inversible). ■
R Dans ce cas, on dit que E est de dimension finie n. Les espaces vectoriels de dimension
finie feront l’objet d’un prochain chapitre.
8. Fonctions continues
On s’intéresse dans ce chapitre à la notion de continuité pour les fonctions réelles d’une
variable réelle. La notion de continuité peut aussi être définie dans un cadre plus général et
porter sur d’autres types de fonctions. Vous pourrez découvrir cela en deuxième année pour les
fonctions réelles de plusieurs variables réelles.
En attendant, toutes les fonctions considérées seront des fonctions définies sur un intervalle
I de R et à valeurs dans R. On rappelle que l’ensemble des fonctions définies de I dans R est
identifé à l’ensemble RI des applications de I dans R.
L’intervalle ]a, b[ est appelé intervalle ouvert, l’intervalle [a, b] est appelé intervalle fermé,
l’intervalle ]a, b] est dit ouvert à gauche, fermé à droite, et l’intervalle [a, b[ est dit ouvert
à droite, fermé à gauche. Les réels a et b sont appelées les extrémités ou bornes de l’inter-
valle. Dans le cas d’un intervalle ouvert à droite (resp. à gauche), on généralise la notion en
admettant également le cas b = +∞ (resp. a = −∞).
|x − x 0 | ≤ η ⇒ | f (x) − l | ≤ ε .
£¡ ¢ ¡ ¢¤
∀ε > 0, ∃η > 0, ∀x ∈ I,
I est non vide, il existe bien un x tel que |x − x 0 | ≤ η00 , mais alors on a |l − l 0 | = |l − x − (l 0 − x)| ≤
|l − x| + |l 0 − x| ≤ 2². Ceci étant vrai pour tout ² > 0, on obtient bien que |l − l 0 | = 0, d’où l = l 0 . ■
Exercice 8.1 Déterminer les limites à gauche et à droite de la fonction partie entière en 0. ■
|x − x 0 | ≤ η ⇒ | f (x) − l | ≤ ε .
£¡ ¢ ¡ ¢¤
∀ε > 0, ∃η > 0, ∀x ∈ I \ {x 0 },
Exercice 8.2 Montrer que la limite en 0 de l’application f définie comme suit est égale à 0 :
f : R∗ −→ R µ ¶
1 .
x 7−→ x sin
x
■
8.1 Limite et continuité d’une fonction en un point 127
Définition 8.1.6 — Limite en ±∞. Soient I un intervalle de R dont l’extrémité droite est égale
à +∞, f ∈ RI et l ∈ R. On dit que f tend vers la limite l en +∞ si et seulement si on a la
proposition suivante :
∀² > 0, ∃A ∈ R, ∀x ∈ I, (x ≥ A) ⇒ | f (x) − l | ≤ ε .
£ ¡ ¢¤
∀² > 0, ∃A ∈ R, ∀x ∈ I, (x ≤ A) ⇒ | f (x) − l | ≤ ε .
£ ¡ ¢¤
1
Exercice 8.3 Montrer que la limite en +∞ de la fonction définie sur R+∗ par x 7→ est égale
x
à 0. ■
∀M ∈ R, ∃η > 0, ∀x ∈ I, |x − x 0 | ≤ η ⇒ f (x) ≥ M .
£¡ ¢ ¡ ¢¤
∀m ∈ R, ∃η > 0, ∀x ∈ I, |x − x 0 | ≤ η ⇒ f (x) ≤ m .
£¡ ¢ ¡ ¢¤
R On généralise aussi ces notions aux limites en ±∞. Par exemple, si f tend vers −∞ en +∞
cela signifie que :
∀m ∈ R, ∃A ∈ R, ∀x ∈ I, (x ≥ A) ⇒ f (x) ≤ m .
£ ¡ ¢¤
Exercice 8.4 Soit f une fonction définie de R∗ dans R+∗ , telle que f tende vers +∞ en 0.
1
Montrer que l’on peut définir une fonction g = sur R+∗ et que g tend vers 0 en 0. ■
f
R On note lim f (x) pour la limite de f en x 0 , lorsque f est bien définie en x 0 et que x 0
x→x 0
est inclus de la définition comme en 8.1.3. On note lim f (x) lorsque x 0 est exclus de
x→x 0
x6=x 0
la défintion comme en 8.1.5. Pour les limites à gauche et à droite, on note lim f (x) et
x→x 0
x<x 0
lim f (x) respectivement.
x→x 0
x>x 0
128 Chapitre 8. Fonctions continues
(i) f +g possède une limite en x 0 et lim f (x) + g (x) = lim f (x) + lim g (x).
x→x 0 x→x 0 x→x 0
(ii) f ×g possède une limite en x 0 et lim f (x) × g (x) = lim f (x) × lim g (x).
x→x 0 x→x 0 x→x 0
(iii) λf possède une limite en x 0 et lim λ f (x) = λ lim f (x).
x→x 0 x→x 0
Exercice 8.5 Retrouver, dans le cours sur les suites, un théorème similaire à ce théorème.
En déduire une démonstration du théorème. ■
R Les résultas précédents ont été énoncés dans le cas de limites finies. Ils demeurent vrais
dans le cas de limites infinies, à condition que les formes obtenues ne soient pas indéter-
minées.
Exercice 8.6 Énoncer un résultat similaire pour l’inverse puis le quotient de deux limites. ■
Démonstration. Soit ε > 0. Comme g tend vers la limite l en y 0 , il existe un η > 0, tel que pour
tout y ∈ J, |y − y 0 | ≤ η implique |g (y) − l | ≤ ε. On considère un tel η > 0. Mais comme f tend vers
la limite y 0 en x 0 , il existe un µ > 0, tel que pour tout x ∈ I, |x − x 0 | ≤ µ implique | f (x) − y 0 | ≤ η, et
par transitivité |g ( f (x)) − l | ≤ ε. ■
R Le théorème a été éoncé et démontré dans le cas d’une limite finie en un point. Le résultat
se généralise aisément aux cas des limites en l’infini et des limites infinies.
Exercice 8.8 Le théorème 4.3.6 du chapitre sur les suites affirme que si f est une fonction
d’un intervalle I dans R, tendant vers une limite y en x ∈ I, et u une suite d’éléments de I,
convergeant vers x, alors la suite f (u) converge vers y. Démontrer ce résultat. ■
R La caractérisation précédente peut être utilisée pour montrer qu’une fonction est continue
ou, au contraire, discontinue en un point x 0 ∈ R.
Exercice 8.9 Donner un exemple de fonction discontinue définie sur R telle que :
1. lim f (x) existe mais n’est pas égale à f (x 0 ).
x→x 0
x6=x 0
g: I −→ R
½
f (x) si x 6= x 0 .
x 7−→
l si x = x 0
Exercice 8.10 Quel est le prolongement par continuité sur R de la fonction f définie par :
f : R∗ −→ R µ ¶
1 .
x 7−→ x sin
x
■
Exercice 8.11 Soit f une fonction réelle définie sur un ensemble D f . Quantifier la propriété
globale : f est croissante. Donner, ensuite, sa négation, puis faire de même avec décroissante,
monotone, minorée, majorée, bornée, paire, impaire et périodique. ■
132 Chapitre 8. Fonctions continues
Théorème 8.2.1 — Limite monotone. Soient I =]a, b[ un intervalle ouvert non vide de R
(avec −∞ ≤ a < b ≤ +∞) et f une fonction monotone définie sur I. Alors, en tout point x de I,
f possède une limite finie à droite et une limite finie à gauche.
De plus, f possède des limites, finies ou infinies, en a et en b. Plus précisément si f est
croissante (resp. décroissante) alors f possède une limite finie ou infinie négative en a (resp.
finie ou infinie positive en a) et une limite finie ou infinie positive en b (resp. finie ou infinie
négative en b).
Démonstration. On traite le cas f croissante, le cas f décroissante s’en déduit alors en posant
g = − f et en remarquant que g est ¯croissante.
Soit x 0 ∈ I. On définit Gx0 = f (x) ¯ x ∈ I et x < x 0 . Gx0 est une partie de R majorée par f (x 0 )
© ª
car f est croissante et donc pour tout x ∈ I, x < x 0 implique f (x) ≤ f (x 0 ). Elle est non vide
puisque I est ouvert et donc il existe un x dans I tel que x < x 0 . Ainsi, par le théorème de la borne
supérieure, Gx0 possède une borne supérieure. On appelle g x0 cette borne. On va montrer que f
possède une limite à gauche en x 0 et que lim f (x) = g x0 .
x→x 0
x<x 0
Soit ε > 0. Comme g x0 est la borne supérieure de Gx0 , il existe y 1 ∈ Gx0 tel que g x0 − ε ≤ y 1 ≤ g x0 .
Donc, il existe x 1 ∈ I avec x 1 < x 0 tel que y 1 = f (x 1 ). Mais comme f est croissante, pour tout
x ∈ [x 1 , x 0 [, g x0 − ε ≤ y 1 ≤ f (x) ≤ g x0 . Ainsi, g x0 − x 1 fournit un η qui convient pour la définition
de la limite à gauche, et on a bien le résultat ¯ souhaité.
© ª
De même, on peut définir Dx0 = f (x) x ∈ I et x > x 0 et montrer que f possède une limite à
¯
droite en x 0 qui est la borne inférieure de Dx0 .
Pour la¯ limite en a et en b, on procède de manière analogue en différenciant les cas où J =
© ª
f (x) x ∈ I est minorée ou pas, puis majorée ou pas. Le détail de cette démonstration est
¯
laissée en exercice. ■
Définition 8.2.2 — Ensemble des fonctions réelles continues sur I. Soient I et J deux inter-
valles de R. L’ensemble des fonctions continues de I dans J est notée C(I, J) ou C0 (I, J).
R La notation C0 (I, J) prendra son sens dans le cours sur la dérivation et les fonctions déri-
vables.
8.2 Continuité d’une fonction sur un intervalle 133
Démonstration. Ce théorème est une conséquence directe du théorème 8.1.2 portant sur les
opérations algébriques pour les limites. ■
Exercice 8.12 Démontrer que toute fonction polynomiale est continue sur R. ■
Démonstration. Ce théorème est une conséquence directe du théorème 8.1.3 portant sur la
composition de limites. ■
Définition 8.2.4 — Continuité par morceaux. Soient f une fonction définie sur un segment
I = [a, b] de R. On dit que f est continue par morceaux sur I s’il existe un entier naturel n
et une subdivision (a 0 , a 1 , ..., a n ) de I telle que, pour tout i ∈ 0, n − 1, la restriction de f à
]a i , a i +1 [ est continue et admet un prolongement continu au segment [a i , a i +1 ].
R Les fonctions continues par morceaux sont importantes dans la définition de l’intégrale
de Riemann des fonctions réelles qui fera l’objet d’un prochain chapitre.
Autrement dit, tous les éléments entre f (a) et f (b) possède au moins un antécédent par f .
Corollaire 8.2.5 — Image d’un intervalle par une fonction continue. Soient ¯I un intervalle
de R et f une fonction continue sur I. Alors l’image de I par f (i.e. f (I) = f (x) ¯ x ∈ I ) est un
© ª
intervalle.
Démonstration. On pose J = f (I). On montre que J est un intervalle en montrant que si deux
éléments sont dans J, tous les nombres compris entre ces deux éléments sont aussi des éléments
de J. Soient y 0 et y 1 dans J, il existe x 0 et x 1 dans I tels que y 0 = f (x 0 ) et y 1 = f (x 1 ). En appliquant
le TVI à f restreint à l’intervalle compris entre x 0 et x 1 , on voit que tout élément entre y 0 et y 1
possède un antécédent par f et est donc un élément de J. J est donc bien un intervalle. ■
Corollaire 8.2.6 — Image d’un segment par une fonction continue. Soient I = [a, b] un
intervalle de R et f une fonction continue sur I. Alors l’image f (I) de I par f possède un
minimum et un maximum, m = min f (x) et M = max f (x), et f (I) = [m, M].
x∈I x∈I
Démonstration. Cette démonstration n’est pas au programme puisqu’elle utilise des résultats
sur les sous-suites qui n’y figurent pas. On pose J = f (I). Par le corollaire précédent, on sait que J
est un intervalle. On appelle m et M les extrémités, éventuellement infinies, de cet intervalle.
Comme J est un intervalle, il existe une suite (y n )n∈N d’éléments de J qui tendent vers M. Pour
chaque n ∈ N, on choisit un antécédent x n de y n . Ceci permet de définir une suite (x n )n∈N
d’éléments de I. Comme cette suite est bornée, on peut en extraire une sous-suite qui converge.
On appelle x la limite de cette suite et on a x ∈ I. Comme f est continue, on peut appliquer le
théorème de composition des limites et on obtient f (x) = M. On raisonne de même pour m ce
qui permet d’aboutir au résultat. ■
Démonstration. Comme f (I) est l’ensembles des images des éléments de I par f , tous les élé-
ments de f (I) ont au moins un antécédent dans I. f est donc surjective de I sur f (I).
De plus, comme f (I) est strictement monotone de I vers f (I), f est injective sur de I vers f (I). f
est donc bijective de I vers f (I).Comme f est bijective de I sur f (I), on peut définir sa bijection
réciproque f −1 de f (I) vers I.
On suppose que f est strictement croissante. Soit y 0 et y 1 dans f (I) tels que y 0 < y 1 . Comme
f est bijective, il existe un unique x 0 et un unique x 1 tels que y 0 = f (x 0 ) et y 1 = f (x 1 ) et x 0 6=
x 1 . Comme f est strictement croissante, si x 0 > x 1 , alors y 0 = f (x 0 ) > f (x 1 ) = y 1 , ce qui est
contradictoire. On a donc x 0 < x 1 . Or x 0 = f −1 (y 0 ) et x 1 = f −1 (y 1 ). Ainsi f −1 est bien strictement
croissante. De manière analogue, si f est strictement décroissante, on trouve f −1 strictement
décroissante.
Comme f −1 est strictement monotone, par le théorème de la limite monotone, f −1 possède
des limites à droite et à gauche en tout point. Si f −1 n’est pas continue en un point y, intérieur
à f (I), alors nécessairement sa limite à gauche x g en ce point est strictement inférieure à sa
limite à droite x d en ce point, et on a ]x g , x d [⊂ I. Mais dans ce cas, hormis f −1 (y), les éléments
de ]x g , x d [ ne peuvent pas avoir d’antécédents par f −1 , ce qui contredit le fait que f −1 est une
bijection de f (I) vers I. La fonction f −1 est donc continue en tout point intérieur de f (I). Si
les bornes de I sont incluses, on raisonne de manière similaire pour les extrémités de f (I), en
considérant les valeurs en les extrémités, ainsi que les limites à gauche et à droite selon que l’on
considère l’extrémité supérieure ou inférieure. ■
Représentation graphique
Le théorème de la bijection monotone peut permettre de dresser le tableau de variations
d’une fonction réciproque très rapidement. Mais, lorsqu’il s’agit de représenter graphiquement
une fonction, un tableau de variation ne suffit pas à lui seul. Pour cela, il est très facile de tracer
la représentation graphique d’une réciproque si l’on connait la représentation graphique de la
fonction. Elle s’obtient tout simplement par symétrie autour de l’axe d’équation y = x.
Exercice 8.13 Faire une représentation graphique de la fonction f : x 7→ x 3 pour x ∈ [−2, 2].
Après avoir justifié de l’existence de f −1 et rappelé son nom, tracer sa courbe représentative.
■
9. Dérivabilité et dérivation
f (x )− f (x)
R La fraction x00 −x est le taux de variation de f entre x et x 0 . Le nombre dérivé est donc
la limite du taux de variation quand x tend vers x 0 .
f (x 0 + h)
f (x 0 )
x
x0 x0 + h
138 Chapitre 9. Dérivabilité et dérivation
f (x 0 )− f (x) f (x 0 +h)− f (x 0 )
R On utilise très souvent le changement de variable suivant : lim x 0 −x = lim h .
x→x 0 h→0
x6=x 0 h6=0
f (x 0 )− f (x) f (x 0 )− f (x)
R Lorsque l’on considère les limites lim x 0 −x et lim x 0 −x , on parle de dérivée à
x→x 0 x→x 0
x>x 0 x<x 0
droite et de dérivée à gauche.
Exercice 9.1 Montrer que la fonction f : x 7→ |x| possède une dérivée à gauche et à droite en
0 mais n’est pas dérivable en 0 (on dit alors que f possède un point anguleux en 0). ■
ε(x) f (x)− f (x )
Démonstration. On suppose que (ii) est vrai. Alors x−x0 0 = λ + x−x 0
pour tout x 6= x 0 . Le
passage à la limite donne clairement que f est dérivable en x 0 et que f (x 0 ) = λ.
0
f (x)− f (x 0 )
Réciproquement, si f est dérivable en x 0 alors lim x−x 0 = f 0 (x 0 ). On définit une fonction
x→x 0
x6=x 0
f (x)− f (x )
réelle η via η(x) = x−x0 0 − f 0 (x 0 ). Alors η(x)(x − x 0 ) = f (x) − f (x 0 ) + f 0 (x 0 )(x − x 0 ). On a donc
f (x) = f (x 0 ) + f 0 (x 0 )(x − x 0 ) + η(x)(x − x 0 ). D’où, en posant, ε(x) = η(x)(x − x 0 ), on a bien le
résultat souhaité. ■
◦
Corollaire 9.1.2 Soient f une fonction réelle définie sur un intervalle I de R et x 0 ∈I. Si f est
dérivable en x 0 alors f est continue en x 0 .
Démonstration. On montre (ii) et (iii), les deux autres points sont laissés en exercice.
f (x 0 )g (x 0 )− f (x)g (x)
Pour (ii), on cherche à déterminer l’existence et la valeur de lim x 0 −x . Or,∀x ∈ I\{x 0 },
x→x 0
f (x 0 )g (x 0 )− f (x)g (x)
0 ( f (x )− f (x))g (x )+ f (x)(g (x )−g (x))
0 0 f (x )− f (x) g (x )−g (x)
x 0 −x = x 0 −x = x00 −x g (x 0 )+ f (x) x00 −x . Par passage la
limite, on obtient bien le résultat.
1/g (x 0 )−1/g (x)
Pour (iii), on considère lim x 0 −x . Comme g (x 0 ) est non nul et que g est continue en x 0
x→x 0
(puisque dérivable en x 0 ), g (x) est non nul dans un voisinage autour de x 0 (i.e. un intervalle
ouvert contenant x 0 ). On appelle J ce voisinage. La fraction est donc bien définie pour tout x ∈
1/g (x 0 )−1/g (x) g (x)−g (x ) g (x )−g (x)
J \ {x 0 } et on a x 0 −x = g (x0 )g (x)(x00−x) = − g (x01)g (x) x00 −x . D’où le résultat après passage à
la limite. ■
Exercice 9.2 Faire la démonstration de (i), puis de (iv) en utilisant (ii) et (iii). ■
Théorème 9.1.4 — Composition et nombre dérivé. Soient f une fonction réelle définie sur
◦
un intervalle I de R et x 0 ∈ I. On pose y 0 = f (x 0 ). Soit g une fonction réelle définie sur un
◦
intervalle J de R tel que y 0 ∈ J. On suppose que f est dérivable en x 0 et que g est dérivable en
¢0
y 0 alors g ◦ f est dérivable en x 0 et on a g ◦ f (x 0 ) = g 0 ◦ f (x 0 ) × f 0 (x 0 ) = g 0 f (x 0 ) × f 0 (x 0 ).
¡ ¡ ¢ ¡ ¢
g ( f (x 0 ))−g ( f (x))
Démonstration. On cherche à déterminer l’existence et la valeur de lim x 0 −x . Or, pour
x→x 0
g ( f (x 0 ))−g ( f (x)) g ( f (x 0 ))−g ( f (x)) f (x 0 )− f (x)
tout x 0 ∈ I \ {x 0 }, on a x 0 −x = f (x 0 )− f (x) x 0 −x . On obtient donc, par passage
g ( f (x 0 ))−g ( f (x)) g ( f (x 0 ))−g ( f (x)) f (x 0 )− f (x) g (y 0 )−g (y) 0
à la limite, lim x 0 −x = lim f (x 0 )− f (x) lim x 0 −x = lim y 0 −y f (x 0 ), où le
x→x 0 x→x 0 x→x 0 y→y 0
changement de variable est possible vu la continuité de f et l’existence de la dérivée de g en
y0. ■
140 Chapitre 9. Dérivabilité et dérivation
•
df
R De nombreuses écritures différentes sont utilisées pour la fonction dérivée : f 0 , D f , f , d x ,
... Ceci est dû au grand nombre de domaines différents qui utilisent les fonctions dérivées.
Définition 9.2.2 — Ensemble des fonctions dérivables. L’ensemble des fonctions déri-
vables d’un intervalle I dans R est noté D1 (I, R). L’ensemble des fonctions dérivables dont la
dérivée est continue sur I (aussi appelés fonctions de classe C1 ) est noté C1 (I, R).
R On a C1 (I, R) ( D1 (I, R) ( C0 (I, R). De plus, ce sont tous des sev de RR via les propriétés de
linéarité de la continuité et de la dérivabilité.
Ã
à ! ! à !
k k k−1
P k i k−i
k k i k−i k
Démonstration. Pour tout x ∈ R et h ∈ R, (x + h) − x =
P
x h −x = x h =
i =0 i i =0 i
à ! à à ! ! à !
k k k k k k
i −1 k−i +1 i −1 k−i (x+h)k −x k
x i −1 h k−i =
P P P
x h =h x h . Donc lim h = lim
i =1 i − 1 i =1 i − 1 h→0 h→0 i =1 i − 1
kx k−1 . Ainsi la dérivée de X k est égale à kX k−1 . Le résultat général se déduit ensuite par linéarité.
■
Théorème 9.2.2 — Fonction réciproque. Soit f une fonction réelle bijective définie sur un
intervalle ouvert I de R. On suppose que f est dérivable pour tout x ∈ I. Alors f −1 est dérivable
sur f (I) et on a :
¡ −1 ¢0 1
f = 0 −1 .
f ◦f
Exercice 9.4 On considère les restrictions suivantes des fonctions trigonométriques : cosi-
nus sur [0, π], sinus sur [− π2 , π2 ] et tangente sur ] − π2 , π2 [. Après avoir justifié que ces fonctions
sont bijectives de leurs domaines de définition vers des intervalles à préciser, déterminer
l’ensemble de dérivabilité et les dérivées de leurs fonctions réciproques arccos, arcsin et
arctan. ■
142 Chapitre 9. Dérivabilité et dérivation
Démonstration. On suppose que f admet un maximum local en x 0 , le cas d’un minimum local
étant entièrement symétrique. Cela signifie qu’il existe un intervalle J autour de x 0 tel que ∀x ∈ J,
f (x )− f (x) f (x )− f (x)
f (x) < f (x 0 ). On en déduit que f (x 0 ) − f (x) > 0, puis que x00 −x > 0 si x < x 0 et x00 −x > 0
si x > x 0 . Comme f est dérivable en x 0 , sa dérivée à gauche existe en x 0 et est égal à sa dérivée
en x 0 . Par passage à la limite dans l’inégalité, on a donc f 0 (x 0 ) ≥ 0. De même, pour la dérivée à
droite, on obtient f 0 (x 0 ) ≤ 0. Cela donne finalement, f 0 (x 0 ) = 0. ■
R Cette condition est une condition nécessaire mais non suffisante, la dérivée de la fonction
x 7→ x 3 s’annule en 0, mais la fonction n’y admet pas d’extremum local.
Théorème 9.3.2 — Théorème de Rolle. Soit f une fonction réelle définie sur un segment
[a, b] de R. On suppose que f est continue sur [a, b], dérivable sur ]a, b[ et que f (a) = f (b).
Alors, il existe c ∈]a, b[ tel que f 0 (c) = 0.
Démonstration. Dans le cours sur la continuité, on a vu qu’une fonction continue sur un seg-
ment [a, b] atteignait son maximum et son minimum sur cet intervalle. Si f atteint son maximum
ou son minimum en un c ∈]a, b[ alors on conclut via le théorème précédent. Sinon, cela signifie
que f atteint son maximum et son minimum en les bornes de l’intervalle : a et b. Mais comme
f (a) = f (b), cela signifie que f est constante et en conséquence f 0 (x) = 0 pour tout x ∈]a, b[. ■
f (b)− f (a)
Démonstration. On considère la fonction ϕ : t 7→ f (t )− b−a (t −a). Cette fonction est définie
f (b)− f (a)
continue sur [a, b], dérivable sur ]a, b[ et vérifie ϕ(a) = f (a) et ϕ(b) = f (b) − b−a (b − a) =
f (a). On peut donc appliquer le théorème de Rolle à cette fonction et il existe c ∈]a, b[ tel que
f (b)− f (a) f (b)− f (a)
ϕ0 (c) = 0. Or ϕ0 (t ) = f 0 (t ) − b−a pour tout t ∈]a, b[. Ainsi f 0 (c) = b−a . ■
Le théorème des accroissements finis est une généralisation du théorème de Rolle dans
laquelle on supprime l’hypothèse f (a) = f (b). Géométriquement, le théorème de Rolle permet
de dire que la courbe représentative de f possède une tangente horizontale, alors que le TAF
permet de dire qu’elle possède une tangente parallèle à la corde entre (a, f (a)) et (b, f (b)). Dans
le cas où f (a) = f (b), cette corde est elle-même horizontale ce qui montre bien que le théorème
de Rolle est un cas particulier du TAF. On peut voir, ci-dessous, deux schémas permettant
d’illustrer le cas particulier du théorème de Rolle, à gauche, et le cas général du TAF, à droite.
9.3 Dérivation et étude de fonctions 143
y y
f (b)
x x
a c b a c b
Corollaire 9.3.4 — Inégalité des accroissements finis (IAF). Soit f une fonction réelle
définie sur un intervalle I de R. On suppose que f est dérivable et que pour tout x ∈ I,
m ≤ f 0 (x) ≤ M (i.e. f 0 est bornée sur I). Alors pour tout (x, y) ∈ I2 , on a :
f (y) − f (x)
x 6= y ⇒ m ≤ ≤M.
y −x
Démonstration. Le corollaire est immédiat. S’il y avait un couple (x, y), x < y, pour lequel le
taux de variation serait en dehors de l’intervalle [m, M] alors, par le TAF, il y existerait un c ∈]x, y[
tel que f 0 (c) serait en dehors de l’intervalle. Or, c’est impossible par hypothèse. ■
R L’inégalité des accroissements finis apparait sous différentes formes, une forme alternative
utile consiste à dire que si | f 0 (x)| ≤ M ∈ R+ , alors ∀(x, y) ∈ I2 , | f (y) − f (x)| ≤ M|y − x|.
Démonstration. On montre uniquement (i), la démonstration pour (ii) est alors totalement
symétrique et (iii) est une conséquence de (i) et (ii).
On suppose que f est croissante sur [a, b], alors ∀x, y ∈]a, b[, x < y ⇒ f (x) ≤ f (y). Ainsi
f (y)− f (x)
x−y ≥ 0. Comme f est dérivable en tout x ∈]a, b[, on obtient, par passage à la limite,
0
f (x) ≥ 0.
Réciproquement, on procède par contraposition. On suppose que f n’est pas croissante sur
[a, b]. Il existe donc a 0 et b 0 dans [a, b] tels que a 0 < b 0 et f (b 0 ) > f (a 0 ). Mais alors, par application
f (b 0 )− f (a 0 )
du TAF, il existe c ∈]a, b[ tel que f 0 (c) = b 0 −a 0 < 0. Ce qui démontre le résultat. ■
µ ¶ ½ π
1 si x > 0
Exercice 9.5 Démontrer que ∀x ∈ R , arctan(x) + arctan
∗
= 2π . ■
x −2 si x < 0
144 Chapitre 9. Dérivabilité et dérivation
Théorème 9.3.6 — Dérivée et monotonie stricte. Soit f une fonction réelle définie sur un
segment [a, b] de R. On suppose que f est continue sur [a, b] et que f est dérivable sur ]a, b[.
Alors, on a les propositions suivantes :
(i) ∀x ∈]a, b[, f 0 (x) > 0 ⇒ f est strictement croissante sur [a, b].
(ii) ∀x ∈]a, b[, f 0 (x) < 0 ⇒ f est strictment décroissante sur [a, b].
Démonstration. On montre (i). On suppose que ∀x ∈]a, b[, f 0 (x) > 0, par le théorème précédent,
cela signifie que f est croissante. Si f n’est pas strictement croissante, alors cela signifie qu’il
existe x et y dans [a, b] tels que x < y et f (x) = f (y). Mais alors, par le théorème de Rolle, on
aurait c ∈]x, y[ tel que f 0 (c) = 0 ce qui est impossible. f est donc strictement croissante. La
proposition (ii) se montre de manière analogue. ■
Exercice 9.6 Dans le théorème qui ci-dessus, les propositions sont des implications et non
des équivalences comme dans le théorème qui précèdait. Donner un contre-exemple qui
montre que l’implication réciproque est fausse dans le de cas d’une monotonie stricte. ■
10. Intégration
10.1 Généralités
10.1.1 Intégrale d’une fonction continue
Définition 10.1.1 — Primitive. Soit f une fonction définie continue d’un intervalle I de R
dans R. On appelle primitive de f toute fonction F définie de I dans R telle que F0 = f .
Théorème 10.1.1 — Existence et unicité (à une constante près) d’une primitive. Toute
fonction continue sur un intervalle admet une primitive sur cet intervalle. Une telle primitive
est unique à une constante additive près.
Démonstration. Le résultat concernant l’existence n’est pas, à ce niveau, très aisé. Il est donc
admis. L’unicité, par contre, se démontre très facilement. Si F et G sont deux primitives de f ,
alors F0 = G0 , puis (F − G)0 = 0. D’où F − G est une constante. ■
Définition 10.1.2 — Intégrale sur un segment. Soit f une fonction continue sur un inter-
valle I. Alors, pour tout (a, b) ∈ I2 , on définit l’intégrale de f de a à b par :
Z b
f (t )d t = F(b) − F(a) = [F(t )]ba
a
R Cette définition a un sens parce qu’elle est indépendante du choix de la primitive via le
théorème qui précède.
2
Rb Ra
R R a déduit directement de la définition que pour tout (a, b) ∈ I ,
On a f (t )d t = − b f (t )d t et
a f (t )d t = 0.
R
R Lorsque l’on utilise la notation intégrale sans ses bornes (i.e. f (t )d t ), c’est pour parler
d’une primitive de f .
Démonstration. Soit F une primitive de f sur I. On a F(b) − F(a) + F(c) − F(b) = F(c) − F(a). ■
Théorème 10.1.4 — Positivité de l’intégrale. Soit f une fonction définie, continue et positive
sur un segment I = [a, b] non réduit à un point (i.e. a < b). Alors, on a :
Z b Z b
f (t )d t ≥ 0 et f (t )d t = 0 ⇔ ∀t ∈ [a, b], f (t ) = 0 .
a a
Démonstration. Soit F une primitive de f sur [a, b]. Comme f est positive, F est croissante.
Ainsi F(b) − F(a) ≥ 0. De plus, si l’intégrale est nulle, cela signifie que F(b) = F(a), puis que F est
constante sur [a, b]. D’où f est nulle sur [a, b]. ■
Exercice 10.1 — Inégalité de la moyenne. Soit f une fonction continue sur [a, b] avec
a < b. Montrer que l’on a :
1
Z b
min f (t ) ≤ f (t )d t ≤ max f (t ) .
a≤t ≤b b−a a a≤t ≤b
Théorème 10.1.6 — Inégalité triangulaire pour l’intégrale. Soit f une fonction continue
sur un segment [a, b]. Alors, on a :
b b¯
¯Z ¯ Z
¯ ¯ ¯
¯
¯ f (t )d t ¯¯ ≤ ¯ f (t )¯ d t .
a a
R Cette définition est bien indépendante de la subdivision choisie et donc compatible avec
la définition précédente, via la relation de Chasles.
Exercice 10.2 Justifier que la fonction partie entière peut être intégrée entre 0 et n ∈ N, puis
calculer la valeur de cette intégrale. ■
148 Chapitre 10. Intégration
Exercice 10.3 Montrer que toutes les propriétés qui ont été démontrées dans la section
précédente peuvent être adaptées aux cas des fonctions continues par morceaux. ■
R1
Exercice 10.5 Calculer 0 t 2 e 3t d t . ■
10.2 Calcul intégral 149
R1
Exercice 10.6 Calculer 0 e t cos(t )d t . ■
Démonstration. Il suffit de remarquer que si F est une primitive de f , alors F◦ϕ est une primitive
¤b ϕ(b)
de f ◦ ϕ × ϕ0 , puis que F ◦ ϕ(s) a = [F(t )]ϕ(a) .
£
■
R1p
Exercice 10.7 Calculer 0 1 − t 2 d t . On pourra poser t = si n(s). ■
Exercice 10.8 Soit f une fonction continue sur R et T-périodique, avec T > 0. Montrer que,
Rb R b+nT
pour tout (a, b) ∈ R2 et n ∈ Z, on a a f (t )d t = a+nT f (t )d t . Montrer, de plus, que pour tout
R a+T RT
a ∈ R, a f (t )d t = 0 f (t )d t . ■
150 Chapitre 10. Intégration
Exercice 10.9 Soit f une fonction définie continue sur un segment [−a, a], où a > 0. Montrer
Ra Ra R0
que si f est paire, alors −a f (t )d t = 2 0 f (t )d t = 2 −a f (t )d t . Montrer que si f est impaire,
Ra
alors −a f (t )d t = 0. ■
Théorème 10.2.3 — Convergence des sommes de Riemann. Soit f une fonction définie
continue sur un segment [a, b]. On alors :
1
Z b
lim S n ( f , a, b) = f (t )d t .
n→+∞ b−a a
Dans le graphique ci-dessus, on peut voir deux illustrations de sommes de Riemann à pas
constant pour une même fonction, l’une d’ordre 10, l’autre d’ordre 20. La somme de Riemann
est égal, dans chacun des cas, à l’aire contenue dans les rectangles. En effet, dans la somme de
Riemann, chaque terme f (a + k b−a n ) correspond à la hauteur d’un rectangle et le coefficient
b−a
n correspond à la largeur commune de tous les rectangles. Intuitivement, lorsque n tend vers
l’infini, l’aire contenue dans les rectangles tend vers l’aire sous la courbe. Ainsi, l’intégrale d’une
fonction correspond à l’aire de la surface entre la courbe et l’axe des abscisses. Attention, cela
ne fonctione que pour les intervalles pour lesquels la fonction est positive. Pour un intervalle
sur lequel la fonction est négative, l’intégrale vaut l’opposé de l’aire entre la courbe et l’axe des
abscisses.
dx
quand ∆ = 0
R
Calcul de ax 2 +bx+c
3 3 4 · ¸4
dx dx du −1 1
Z Z Z
2
= = = = .
1 x + 2x + 1 1 (x + 1)2 2 u 2 u 2 4
dx
quand ∆ > 0
R
Calcul de ax 2 +bx+c
Z 4 dx
Z 4 dx
Z 4 1
µ
1 1
¶
1h i4 ln(2)
2
= = − dx = ln (x − 1) − ln (x + 2) = .
2 x +x −2 2 (x − 1)(x + 2) 2 3 x −1 x +2 3 2 3
dx
quand ∆ < 0
R
Calcul de ax 2 +bx+c
Z 4 dx
Z 4 dx
Z 5 du h i5
2 + 2x + 2
= = = arctan(u) = arctan(5) .
−1 x −1 (x + 1)2 + 1 0
2
u +1 0
152 Chapitre 10. Intégration
2ax+b
R
Calcul de ax 2 +bx+c
dx
Z 1 2x + 3 h ¡ ¢ i1
2
d x = ln x + 3x + 2 = ln(3) .
0 x 2 + 3x + 2 0
Calcul de ax 2P(x)
R
+bx+c
dx
Pour tout P ∈ R[X] et aX 2 + bX + c ∈ R2 [X], on peut faire la division euclidienne de P par
aX + bX + c. On obtient P = (aX 2 + bX + c)Q + R avec Q, R ∈ R[X] et deg(R) ≤ 1. On peut alors
2
R αx+β
poser R = αX + β, avec α, β ∈ R. On en déduit que ax 2P(x)
R R
+bx+c
d x = Q(x)d x + ax 2 +bx+c d x. Le
R R αx+β
calcul de Q(x)d x est aisé et, pour le cacul de ax 2 +bx+c d x, on peut toujours se ramener à une
combinaison linéaire du cas précédent et d’un des trois premiers cas.
4 3x 3 + 2x 2 + x + 1 2 3x 3 + 2x 2 + x + 1 1 3x 3 + 2x 2 + x + 1
Z Z Z
I1 = dx , I2 = dx , I3 = dx .
2 x 2 − 2x + 1 1 x2 + x 0 2x 2 + x + 2
■
11. Modélisation et probabilités finies
Dans cet exemple, on peut clairement identifier une correspondance entre les objets ma-
thématiques et les notions physiques respectivement présents dans les deux modélisations. Un
réel positif x correspond au temps en minutes écoulé depuis le début du remplissage. L’image
f (x) correspond au volume d’eau dans la baignoire après x minutes. L’équation f (x) = 150 cor-
respond au fait que la baignore est pleine. Dans le cadre mathématiques, on résoud l’équation
et on trouve x = 10. On conclut alors que la baignoire sera pleine au bout de 10 minutes en
repassant à la modélisation physique. Si on suppose que la modélisation physique proposée est
une bonne modélisation, on peut alors conclure que je pourrais profiter de mon bain dans une
dizaine de minutes.
Pour faire une bonne modélisation, celle-ci doit satisfaire plusieurs principes :
— pour chaque objet de la modélisation, on doit pouvoir expliciter clairement une corres-
pondance avec des objets de la situation ;
— la modélisation doit permettre de tirer des conclusions qui peuvent être extrapolées au
niveau de la situation ;
— la modélisation doit être la moins complexe possible amenant à ces conclusions (principe
du rasoir d’Ockham) ;
— si la modélisation permet de modéliser une situation réelle, la conclusion obtenue via
la modélisation, puis extrapolée à la situation réelle, doit être suffisamment proche des
conséquences réelles correspondantes d’une telle situation.
■ Exemple 11.2 Le tirage d’une carte dans un jeu de 52 cartes est une expérience aléatoire dont
les résultats peuvent être modélisés par l’ensemble 1, 4 × 1, 13. ■
■ Exemple 11.3 Soit n ∈ N∗ . Le lancer d’une pièce, répété n fois de suite, est une expérience
aléatoire dont les résultats peuvent être modélisés par l’ensemble {0, 1}n . ■
■ Exemple 11.4 Soient n et p deux entiers. On considère une urne contenant n boules, numé-
rotées de 1 à n.
— Si on effectue p tirages successifs avec remise, il s’agit d’une expérience aléatoire dont les
résultats peuvent être modélisées par l’ensemble 1, np .
— Si l’on effectue p tirages successifs sans remise, il s’agit d’une expérience aléatoire dont
p
les résultats peuvent être modélisées par l’ensemble An des arrangements de p éléments
de 1, n.
— Si l’on effectue p tirages simultanés, il s’agit d’une expérience aléatoire dont les résultats
p
peuvent être modélisées par l’ensemble C n des combinaisons de p éléments de 1, n.
■
11.1 Modélisation mathématique 155
Exercice 11.1 Donner le nombre d’éléments des univers pour chacun des exemples. ■
Les expériences aléatoires considérées ici sont elles-mêmes des modélisations de situations
réelles. Dans ce cas, une même expérience aléatoire peut être associée à un grand nombre
de situations réelles différentes (par exemple, un grand nombre de lancer de dés). Ces situa-
tions amènent différents résultats qui se repartissent parmi toutes les différentes possibilités
de résultats. La théorie des probabilités affirme qu’elle peut offrir de bonnes modélisations
mathématiques pour la répartition de ces résultats.
On peut faire des « opérations » sur les évènements aléatoires qui se modélisent par les
opérations usuelles sur les sous-ensembles vues dans le tout premier chapitre.
On considère une expérience aléatoire dont les résultats sont modélisés par un univers Ω.
On considère deux évènements aléatoires « A » et « B », modélisés par des sous-ensembles A et
B de Ω. Alors, l’évènement aléatoire « A ou B » est modélisé par le sous-ensemble A ∪ B de Ω.
De même, l’évènement aléatoire « A et B » est modélisé par le sous-ensemble A ∩ B de Ω. Un
évènement aléatoire impossible est modélisé par l’ensemble vide ;. Un évènement aléatoire
certain est modélisé par l’univers Ω. On dit que deux évènements aléatoires sont incompatibles
s’il est impossible qu’ils surviennent simultanément. Ainsi, le fait que « A » et « B » soient
incompatibles est modélisé par l’équation A ∩ B = ;.
Exercice 11.2 Proposer une modélisation des résultats de l’expérience aléatoire suivante :
« on lance deux dés, numérotés de 1 à 6 ».
Donner les sous-ensembles correspondants aux évènements aléatoires suivants :
— « A : la somme des faces visibles est égale à 10 » ;
— « B : les dés ne sont pas tombés sur la même face » ;
— « C : un dé est tombé sur un 6, l’autre est tombé sur un 5 » ;
— « D : au moins un des dés est tombé sur un 6 ».
■
Enfin, on parle de système complet d’évènements fini pour une collection finie d’évène-
ments qui est modélisée par une famille finie formant une partition de Ω.
156 Chapitre 11. Modélisation et probabilités finies
11.2.1 Généralités
Avant de pouvoir définir une probabilité, il faudrait définir la notion d’espace probabilisable.
Une telle définition est prématurée à ce stade. On admettra, pour le moment, que pour tout
ensemble Ω, le couple (Ω, P (Ω)) est un espace probabilisable.
Définition 11.2.1 — Probabilité finie. Soit Ω un ensemble fini. Une probabilité finie sur
l’espace probabilisable (Ω, P (Ω)) est une application P de P (Ω) vers [0, 1] telle que :
(i) P(Ω) = 1.
(ii) ∀A, B ⊂ Ω, A ∩ B = ; ⇒ P(A ∪ B) = P(A) + P(B).
Théorème 11.2.1 — Propriétés d’une probabilité. Soient (Ω, P (Ω), P) un espace probabilisé
fini, A, B ⊂ Ω. Alors on a les propositions suivantes :
Exercice 11.3 Soient (Ω, P (Ω), P) un espace probabilisé ¶fini, n ∈ N et A1 , ..., An ⊂ Ω. Mon-
∗
n
µ
n
S P
trer que si les Ai sont deux à deux disjoints, alors P An = P(Ai ). ■
i =1 i =1
Exercice 11.5 Soient (Ω, P (Ω), P) un espace probabilisé fini et A, B, C ⊂ Ω. Montrer que :
R Cet exercice donne les cas particuliers pour n = 2, 3 de la formule du crible pour les
probabilités. Cette formule généralise la formule du crible pour les cardinaux, vue au
théorème 3.5.2.
Définition 11.2.2 — Équiprobabilité. Soit (Ω, P (Ω), P) un espace probabilisé fini. Soient
A, B ∈ Ω. On dit que A et B sont équiprobables si :
P(A) = P(B) .
On dit que la probabilité P est uniforme si tous les singletons d’éléments de Ω sont équipro-
bables :
∀ω, ω0 ∈ Ω, P({ω}) = P({ω0 }) .
R L’équiprobabilité est le choix par défaut pour la modélisation lorsque l’on ne dispose pas
d’informations supplémentaires. Par exemple, pour un lancer de dé à six face, on suppose
que les chances que le dé tombe sur une face sont les mêmes pour les six faces.
Propriété 11.2.2 — Probabilité uniforme. Soit (Ω, P (Ω), P) un espace probabilisé fini avec P
uniforme. Alors, on a :
|A|
∀A ⊂ Ω, P(A) = .
|Ω|
Démonstration. Il suffit de remarquer que, si n = |Ω|, on a Ω = {ω1 , ..., ωn }, et que les {ωi }
forment une partition de Ω. On en déduit P({ω}) = n1 , puis le résultat. ■
P(A ∩ B)
P(B | A) = .
P(A)
R On peut définir une application PA : P (Ω) → [0, 1], B 7→ PA (B) = P(B | A). Cette application
est une probabilité sur l’espace probalisable fini (Ω, P (Ω)).
158 Chapitre 11. Modélisation et probabilités finies
Théorème 11.2.3 — Formule de Bayes. Soient (Ω, P (Ω), P) un espace probabilisé fini et
A, B ⊂ Ω. On suppose que P(A) et P(B) sont non nuls, alors on a :
P(B | A)P(A)
P(A | B) = .
P(B)
Théorème 11.2.4 — Formule des probabilités composées. Soient (Ω, P (Ω), P) un espace
probabilisé fini, n un entier supérieur ou égal à 2 et A1 , ..., An ⊂ Ω. On suppose que P(A1 ∩ ... ∩
An−1 ) 6= 0, alors on a :
P(A1 ∩ ... ∩ An ) = P(A1 )PA1 (A2 )PA1 ∩A2 (A3 )...PTn−1 Ai (An )
i =1
Tn−1
= P(A1 )P(A2 | A1 )P(A3 | A1 ∩ A2 )...P(An | i =1
Ai ) .
Théorème 11.2.5 — Formule des probabilités totales. Soient (Ω, P (Ω), P) un espace proba-
bilisé fini, n un entier supérieur ou égal à 1 et (A1 , ..., An ) une partition de Ω telle que P(Ai ) 6= 0
pour tout i ∈ 1, n. Alors, pour tout B ⊂ Ω, on a :
n
P
P(B) = P(B ∩ Ai )
i =1
Pn
= P(Ai )PAi (B)
i =1
Pn
= P(Ai )P(B | Ai ) .
i =1
Démonstration. La première égalité a été montrée en exercice. Les suivantes ne sont qu’une
conséquence directe de la définition d’une probabilité conditionnelle. ■
Exercice 11.6 On considère un espace probabilisé fini et une partition (A1 , ..., An ) de Ω telle
que P(Ai ) 6= 0 pour tout i ∈ 1, n. Montrer que pour tout B ⊂ Ω et tout i ∈ 1, n, on a
P(B | Ai )P(Ai )
P(Ai | B) = n
.
P
P(B | A j )P(A j )
j =1
■
11.2 Probabilités finies 159
Exercice 11.7 Un test est réalisé pour détecter une maladie génétique rare. On sait que
dans la population, une personne sur 100.000 est atteinte de cette maladie. La notice du
test précise que lorsque le test est réalisé sur une personne atteinte de la maladie, le test est
positif dans 99, 8% des cas. De même, lorsque le test est réalisé sur une personne qui n’est
pas atteinte de la maladie, le test est négatif dans 99, 6% des cas. Déterminer la probabilité
qu’une personne soit malade, sachant que le test est positif. ■
P(A ∩ B) = P(A)P(B) .
R Pour comprendre le sens de cette définition, il faut revenir au contexte d’une expérience
aléatoire et de sa modélisation par un espace probabilisé fini à probabilité uniforme.
On imagine alors que la même expérience aléatoire est réalisée simultanément dans
deux univers (au sens physique) différents et donc avec des résultats « indépendants ».
Ce système est lui-même une expérience aléatoire, que l’on peut à son tour modéliser
par un espace probabilisé fini à probabilité uniforme. En considérant tous les résultats
possibles pour cette expérience aléatoire, on voit que la modélisation pour la réalisation
d’un évènement, dans le premier univers, et d’un autre évènement, dans le deuxième
univers, vérifie la propriété d’indépendance définie.
Propriété 11.2.6 — Critère d’indépendance. Soient (Ω, P (Ω), P) un espace probabilisé fini et
A, B ⊂ Ω avec P(A) 6= 0. Alors A et B sont indépendants si et seulement si :
PA (B) = P(B) .
Démonstration. Il suffit de diviser de chaque côté par P(A) dans la définition de l’indépendance
pour obtenir le résultat. ■
Définition 11.2.6 — Indépendance deux à deux. Soient (Ω, P (Ω), P) un espace probabi-
lisé fini, n ∈ N∗ et A1 , ..., An ⊂ Ω. On dit que les Ai sont deux à deux indépendants si :
Exercice 11.8 On considère une urne contenant 12 boules numérotées de 1 à 12, dans
laquelle on tire une boule. En considérant les évènements « le numéro de la boule tirée est
un chiffre impair », « le numéro de la boule tirée est inférieur ou égal à 6 » et « le numéro de la
boule tirée contient les chiffres 1,2 ou 3 », montrer que trois évènements peuvent être deux à
deux indépendants sans être mutuellement indépendants. Qu’en est-il de la réciproque ? ■
Propriété 11.2.7 Soient (Ω, P (Ω), P) un espace probabilisé fini, n ∈ N∗ et A1 , ..., An ⊂ Ω mu-
tuellement indépendants. Alors il en de même pour B1 , ..., Bn ⊂ Ω tels que, pour tout i ∈ 1, n,
Bi = Ai ou Bi = Ai .
Imaginez que vous êtes sur le plateau d’un jeu télévisé et que l’on vous propose de
choisir entre trois portes : derrière une porte, il y a une voiture ; derrière les autres,
des chèvres. Disons que vous choisissez la porte 1, et que le présentateur, qui sait ce
qu’il y a derrière les portes, ouvre une autre porte, disons la 3, révèlant une chèvre.
Il vous demande alors : « Voulez-vous choisir la porte 2 ? ». Est-ce à votre avantage
de changer votre choix ?
Contrairement à ce que l’on peut penser, il faut bien changer et choisir la porte 2. La difficulté
d’appréhension de la solution provient du fait qu’il faut comprendre que l’action du présentateur
est totalement dépendante du choix initial.
Exercice 11.9 Faire un arbre de décision qui permet d’illustrer la solution au problème. De
combien augmente-t-on ses chances si l’on modifie son choix ? ■
12. Variables aléatoires réelles discrètes finies
12.1 Généralités
12.1.1 Définitions et notations
Définition 12.1.1 — VARDF. Soit (Ω, P (Ω)) un espace probabilisable fini. On appelle variable
aléatoire réelle discrète finie sur Ω (VARDF sur Ω) toute application X de RΩ .
■ Exemple 12.1 On modélise le lancer de deux dés par une probabilité uniforme sur l’ensemble
1, 62 . Alors, la somme des numéros obtenus sur les deux dés se modélise par la VARDF, notée
X, définie par X : 1, 62 → R, (i , j ) 7→ i + j . ■
Notation 12.1. Pour X une VARDF sur Ω, comme pour toute application, on peut considérer
l’image directe d’un sous-ensemble de Ω par X et l’image réciproque d’un sous-ensemble de R par
X. Dans le cadre des probabilités, la notation standard pour l’image directe ne diffère pas de celle
utilisée ailleurs en mathématiques. Par exemple, on note :
Par contre, la notation standard en probabilités pour l’image réciproque diffère de celle utilisée
ailleurs en mathématiques. En probabilités, les images réciproques sont notées avec des crochets.
Ainsi, on a :
X −1 (A) = [X ∈ A] = {ω ∈ Ω | X(ω) ∈ A} .
Cette notation se généralise à n’importe quelle proposition Q portant sur des éléments de R :
■ Exemple 12.2 On reprend les mêmes objets que ceux de l’exemple précédent. On a alors
[X = 3] = {(1, 2), (2, 1)} ou encore [X ≤ 3] = {(1, 1), (1, 2), (2, 1)}. ■
Notation 12.2. Une application constante sur Ω est une VARDF sur Ω. On la note généralement
a : Ω −→ R
via la valeur de sa constante, i.e. pour un réel a, on note .
ω 7−→ a
162 Chapitre 12. Variables aléatoires réelles discrètes finies
Théorème 12.1.1 — Opérations usuelles. Soient X et Y deux VARDF sur un espace probabi-
lisable fini (Ω, P (Ω)). Soient λ ∈ R et f une fonction réelle définie sur un intervalle I de R tel
que X(Ω) ⊂ I. Alors, on peut définir les VARDF suivantes :
X + Y : Ω −→ R (addition)
(i)
ω 7−→ X(ω) + Y(ω)
λ.X : Ω −→ R (multiplication par un scalaire)
(ii)
ω 7−→ λ × X(ω)
X × Y : Ω −→ R (multiplication)
(iii)
ω 7−→ X(ω) × Y(ω)
f ◦ X : Ω −→ R (transfert)
(iv)
ω 7−→ f (X(ω))
Démonstration. Ceci découle directement des résultats usuels sur les applications réelles. ■
R On remarque que l’on ne parle pas de composition pour les VARDF mais de transfert. C’est
dû au fait que l’on utilise une fonction f qui permet de passer d’une VARDF à une autre (i.e.
X à f ◦ X), mais que f n’est pas, en soi, une VARDF : ce n’est qu’une fonction de transfert.
Théorème 12.1.2 — Système complet associés à une VARDF. Soit X une VARDF sur un
espace probabilisable fini (Ω, P (Ω)). La famille ([X = x])x∈X(Ω) forme une partition de Ω.
Démonstration. C’est très direct. Si ω ∈ Ω alors, par la définition d’une application, l’image de ω
par X, X(ω), est définie de manière unique dans X(Ω). Ainsi, ω appartient à un unique ensemble
de la famille ([X = x])x∈X(Ω) . ■
L X : X(Ω) −→ [0, 1]
.
x 7−→ P([X = x])
Notation 12.3. Pour simplifier, on note souvent P(X = x) et, plus généralement, P(X vérifie Q) au
lieu de P([X = x]) et P([X vérifie Q]).
Définition 12.1.3 — Égalité en loi. Soient X et Y des VARDF sur un espace probabilisé fini
L
(Ω, P (Ω), P). On dit que X et Y sont égales en loi si L X = L Y . On note alors, X = Y.
Exercice 12.2 On modélise un lancer de pièce par une probabilité uniforme sur un ensemble
{p, f }. Déterminer la loi de X, définie par X(p) = 0 et X( f ) = 1, puis de Y = 1 − X, définie par
Y(p) = 1 et Y( f ) = 0. En déduire qu’il peut y avoir égalité en loi sans avoir égalité. ■
Définition 12.1.4 — Fonction de répartition. Soit X une VARDF sur un espace probabilisé
fini (Ω, P (Ω), P). On appelle fonction de répartition de X et on note FX la fonction définie
par :
FX : R −→ [0, 1]
.
x 7−→ P(X ≤ x)
Exercice 12.3 Faire la représentation graphique, pour x ∈ [0, 15], de la fonction de répartition
de X, définie comme dans l’exemple 12.1. ■
L
X = Y ⇔ ∀x ∈ R, FX (x) = FY (x) .
Démonstration. Il suffit d’écrire X(Ω) = {x 1 , ..., x n } avec x 1 < x 2 < ... < x n . On remarque alors
P
que FX (x) = P(X = x i ). Réciproquement, on a P(X = x 1 ) = FX (x 1 ) et, si i ∈ 2, n, on a
1≤i ≤n
x i ≤x
P(X = x i ) = FX (x i ) − FX (x i −1 ). Donc FX est définie entièrement par sa loi et réciproquement. ■
R On déduit directement de la définition de l’espérance que deux VARDF qui sont égales en
loi ont la même espérance.
Théorème 12.2.1 — Théorème de transfert. Soient X une VARDF sur un espace probabilisé
fini (Ω, P (Ω), P) telle que X(Ω) = {x 1 , ..., x n } et g une fonction réelle définie sur X(Ω). On a :
n
X
E(g (X)) = g (x i )P(X = x i ) .
i =1
12.2.2 Variance
Définition 12.2.2 — Variance d’une VARDF. Soit X une VARDF sur un espace probabilisé
fini (Ω, P (Ω), P). On appelle variance de X le réel, noté V(X), tel que :
V(X) = E (X − E (X))2 .
£ ¤
Théorème 12.2.2 — Positivité de la variance. Soit X une VARDF sur un espace probabilisé
fini (Ω, P (Ω), P). Alors, on a :
(i) V(X) ≥ 0
(ii) V(X) = 0 ⇔ P(X = E(X)) = 1 (on dit que X est presque surement égale à E(X)).
Théorème 12.2.3 — Formule de Koenig-Huygens. Soit X une VARDF sur un espace proba-
bilisé fini (Ω, P (Ω), P). Alors, on a :
n n
(x i − E(X))2 P(X = x i ) = (x i2 − 2E(X)x i + E(X)2 )P(X = x i ) =
P P
Démonstration. On a V(X) =
i =1 i =1
n n n
x i2 P(X = x i ) − 2E(X) x i P(X = x i ) + E(X)2 P(X = x i ) = E(X 2 ) − 2E(X)2 + E(X)2 = E(X 2 ) −
P P P
i =1 i =1 i =1
E(X)2 . ■
Définition 12.2.3 — Écart-type d’une VARDF. Soit X une VARDF sur un espace probabilisé
fini (Ω, P (Ω), P). On appelle écart-type de X le réel, noté σ(X), tel que :
p
σ(X) = V(X) .
Exercice 12.7 Donner le détail des étapes décrites dans la démonstration du théorème
précédent. ■
Définition 12.2.4 — Variable centrée et réduite. Soit X une VARDF sur un espace probabi-
lisé fini (Ω, P (Ω), P). On dit que X est centrée lorsque E(X) = 0. On dit que X est centrée et
réduite lorsque E(X) = 0 et V(X) = 1. Si V(X) 6= 0, on appelle variable centrée réduite associée
à X la VARDF, notée X ∗ , définie par :
X − E(X)
X∗ = .
σ(X)
R Les propriétés des transferts linéaires permettent de vérifier que X ∗ est bien une variable
centrée et réduite.
Théorème 12.3.1 Soit X une VARDF suivant une loi certaine de paramètre a ∈ R. Alors, on a :
E(X) = a et V(X) = 0 .
Démonstration. Pour l’espérance, c’est immédiat. Pour la variance, il suffit d’appliquer le théo-
rème sur la positivité de la variance. ■
Théorème 12.3.2 Soit X une VARDF telle que X ,→ U (1, n). Alors, on a :
n +1 n2 − 1
E(X) = et V(X) = .
2 12
³ ´ ³P ´
k2
Démonstration. On a E(X) = nk=1 nk = n1 n(n+1) = n+1 2 2 n
P
2 2 et V(X) = E(X ) − E(X) = k=1 n −
³ ´
(n+1)2 1 n(n+1)(2n+1) 2 2
4 = n 6 − (n+1)
4 = (n + 1) 2(2n+1)−3(n+1)
12 = (n+1)(n−1)
12 = n12−1 . ■
12.3 Lois usuelles 167
Exercice 12.8 Soient a, b ∈ Z tels que a < b et X une VARDF telle que X ,→ U (a, b). Dé-
terminer l’espérance et la variance de X. On posera X = g (Y) où Y ,→ U (1, n) et g est une
fonction de transfert linéaire. ■
R Une loi de Bernoulli est une loi binomiale de paramètres 1 et p. Qui plus est, une VARDF
de loi binomiale de paramètres n et p permet de modéliser les résultats cumulés de n
itérations d’une expérience aléatoire dont les résultats sont modélisés par une VARDF de
loi de Bernoulli de paramètre p.
Théorème 12.3.4 Soit X une VARDF telle que X ,→ B(n, p). Alors, on a :
Exercice 12.9 On considère une urne de N boules avec b boules blanches et N − b boules
noires. Les boules blanches sont gagnantes et rapporte un euro, les boules noires ne rap-
portent rien. On effectue le tirage d’une boule. Comment peut-on modéliser les gains obte-
nus ? Même question si on effectue n tirages successifs avec remise. ■
Intersemestre
13. Entracte
Les cours du premier semestre de votre première année de prépa ECS sont maintenant
terminés. C’est une bonne occasion pour faire le point. Prenez le temps de revoir les différentes
notions présentes dans chacun des chapitres qui ont été traités et vérifiez qu’elles sont bien
acquises. Reprenez vos définitions et vos propriétés, faites des exercices en lien avec ces points.
Si vous vous rendez compte que vous avez des difficultés avec certains d’entre eux, concentrez
vos efforts sur ceux-ci et n’hésitez surtout pas à me poser des questions. Il évident que vous
pouvez me poser des questions sur n’importe quel point d’un chapitre, même si nous avons vu
celui-ci en tout début d’année ! En mathématiques, on construit chaque nouveau savoir sur les
savoirs construits précédemment. Il est donc essentiel d’être capable de faire le point sur ce que
vous savez pour pouvoir avancer de manière sereine et durable.
Il peut être intéressant pour vous de prendre le temps pour réfléchir à votre méthodologie
de travail. Avez-vous mis en place une stratégie pour bien apprendre et maitriser les notions du
cours ? Êtes-vous satisfaits par celle-ci ? Et comment pouvez-vous l’améliorer ? Quelles stratégies
ont été mises en place par vos condisciples et comment pouvez-vous vous en inspirer ? Voilà un
certain nombre de questions qu’il peut vous être utile de vous poser à ce stade.
N’oubliez pas que savoir travailler, c’est non seulement adopter des stratégies et des outils
qui vous permettent, à vous, d’apprendre et de progresser de manière efficace et durable, mais
également savoir se donner les moyens et le temps de mettre en place ces stratégies et d’utiliser
ces outils. Bien réussir en classe préparatoire nécessite une certaine discipline de vie. Il faut
pouvoir s’imposer un rythme de travail, apprendre à respecter les règles que l’on s’impose de
manière quotidienne, et savoir déroger à ces règles de manière exceptionnelle lorsque c’est
nécessaire. Si vous dérogez systématiquement aux consignes que vous vous êtes imposées pour
l’organisation de votre temps de travail, c’est qu’il faut repenser votre système de gestion du
temps et revoir vos priorités.
Ne vous découragez surtout pas. Les mathématiques ne sont pas toujours faciles. Pour
s’approprier certaines notions, cela demande un grand effort de réflexion, d’abstraction et
beaucoup de travail, pour vous comme pour les autres. Et cela n’a vraiment rien de surprenant.
172 Chapitre 13. Entracte
Ce chapitre vient compléter les notions vues dans le chapitre introductif sur les espaces
vectoriels en mettant l’accent sur les espaces vectoriels de dimension finie. Dans l’intégralité de
ce chapitre, K pourra désigner l’ensemble R ou l’ensemble C.
Théorème 14.1.1 — Espace finiment engendré. Soit E un K-ev non réduit à {0E } et F =
(v 1 , ..., v m ) une famille génératrice finie de vecteurs de E. Alors E est de dimension finie n ≤ m
et il existe une sous-famille de n vecteurs de F qui forme une base de E.
Démonstration. On procède par récurrence sur m. Si m = 1 alors F est composé d’un seul
vecteur. Ce vecteur ne peut être nul puisque F est génératrice de E et que E 6= {0E }. Or une
famille composée d’un seul vecteur est libre si et seulement si ce vecteur est non nul (voir
théorème 7.2.4). Ainsi F est libre et c’est donc une base de E. On a donc le résultat pour m = 1.
On suppose donc le résultat vrai pour toute famille de taille m et on considère une famille F
de taille m + 1. Si F est libre, c’est une base et le résultat est immédiat. Sinon, cela signifie qu’il
existe une vecteur v i ∈ F qui est une combinaison linéaire de tous les autres v j avec j 6= i . On a
alors une sous-famille F 0 = v j j 6=i de F , qui est toujours génératrice de E (voir 7.2.3 (ii) ). Par
¡ ¢
176 Chapitre 14. Espaces vectoriels et dimension finie
l’hypothèse de récurrence, cette famille F 0 possède une sous-famille qui est une base de E ce
qui permet de conclure. ■
R Le théorème qui précède affirme qu’un espace vectoriel finiment engendré est de dimen-
sion finie.
Exercice 14.1 Vérifier que la famille suivante est génératrice de R3 et en extraire une base.
1 2 0 2 1
Démonstration. Si F est une base de E, c’est fini. Sinon, on considère une base B = (b 1 , ..., b n ) de
E. Comme F n’est pas une base, il existe i 1 ∈ 1, n tel que b i 1 ∉ V ECT (F ). On pose alors v m+1 =
b i 1 et F1 = (v 1 , ..., v m , v m+1 ). Cette famille est libre par le théorème 7.2.7. Si elle est génératrice,
c’est une base de E et on a le résultat. Sinon, on peut réitérer le processus et construire une
sur-famille F2 de F qui est libre. Il suffit donc de réitérer le processus jusqu’à obtenir une
famille génératrice de E, ce qui arrive nécessairement. En effet, si pour tout i ∈ 1, n −1, Fi n’est
pas génératrice de E alors Fn est composée de l’intégralité des vecteurs de F et des vecteurs de
B. Dans ce cas, E = V ECT (B) ⊂ V ECT (Fn ) ⊂ E et Fn est génératrice de E. ■
Exercice 14.2 Vérifier que la famille suivante est libre puis la compléter en une base de
R3 [X].
F = X 2 + X, X, X 3 .
¡ ¢
■
14.1 Espaces vectoriels de dimension finie 177
Démonstration. Le résultat concernant les familles génératrices est une conséquence directe du
théorème 14.1.1. Celui concernant les familles libre est une conséquence directe du théorème
14.1.2. ■
Théorème 14.1.5 Soient E un K-ev et F un sev de E. Alors, dim(F) ≤ dim(E) avec égalité si et
seulement si E = F.
Démonstration. Toute famille libre de F est également une famille libre de E. Ainsi, si F est
une base de F (composée a fortiori de dim(F) vecteurs), c’est une famille libre de E et, par le
corollaire 14.1.3, elle est composée de moins de dim(E) vecteurs. D’où dim(F) ≤ dim(E). De plus,
si dim(F) = dim(E) alors F est une base de E par le corollaire 14.1.4. D’où E = V ECT (F ) = F. ■
Définition 14.1.3 — Rang d’une famille finie de vecteurs. Soit E un K-ev et F une famille
finie de vecteurs de E alors le rang de F , noté rg(F ), est la dimension de V ECT (F ).
Exercice 14.3 Soit E un K-ev de dimension finie p ∈ N. On considère une suite (v i )i ∈N∗ de
vecteurs de E et on pose, pour tout k ∈ N∗ , Fk = V ECT (v 1 , ..., v k ) et r k = rg(v 1 , ..., v k ). Montrer
que la suite (r k )k∈N∗ est croissante et stationnaire à partir d’un certain rang. En déduire qu’il
existe n 0 ∈ N tel que, pour tout k, l ≥ n 0 , Fk = Fl . ■
178 Chapitre 14. Espaces vectoriels et dimension finie
Propriété 14.2.1 — Somme de deux sev. Soit E un K-ev. La somme de deux sev de E est un
sev de E.
(i) F + (G + H) = (F + G) + H (associativité)
(ii) F+G = G+F (commutativité)
(iii) F + {0E } = {0E } + F = F (élément neutre)
(iv) F+E = E+F = E (élément absorbant)
(v) F + G est le plus petit sev de E contenant F et G (minimalité)
Démonstration. Les trois premiers points se déduisent directement des propriétés de l’addition
dans un espace vectoriel.
On montre d’abord (v). On sait que F + G est un sev de E par la propriété précédente. De plus
F = {x + 0E | x ∈ F} ⊂ F + G. De même, G ⊂ F + G. D’où F ∪ G ⊂ F + G. F + G contient donc bien F et
G. Maintenant, si H est un sev de E tels que F ∪ G ⊂ H, alors, pour tout x ∈ F et tout y ∈ G, x ∈ H
et y ∈ H. Comme H est un sev, on a x + y ∈ H. D’où F + G ⊂ H. On en déduit que F + G est bien le
plus petit sev de E contenant F et G.
On déduit de (v) que F+E contient E. Or F+E est un sev de E. D’où F+E = E et on a bien (iv). ■
Définition 14.2.2 — Somme directe de deux sev. Soient E un K-ev, F et G deux sev de E.
Alors on dit que F et G sont en somme directe si pour tout vecteur z ∈ F + G, il existe une
unique décomposition z = x + y telle que x ∈ F et y ∈ G. Dans ce cas, on note F ⊕ G pour F + G.
R Dans le cas de k sev, on ne dispose pas d’une caractérisation aussi simple de la propriété
de somme directe que dans le cas de 2 sev comme on peut le voir dans l’exercice 14.6.
Démonstration. Comme E est de dimension finie n, les sev F et G sont également de dimensions
finies (inférieures ou égales à n). On pose p = dim(F) et q = dim(G). Soit F = (u 1 , ..., u p ) une
base de F et G = (v 1 , ..., v q ) une base de G. Alors B = (u 1 , ..., u p , v 1 , ..., v q ) est une base de F ⊕ G.
Pp Pq
En effet, si z ∈ F ⊕ G alors z = x + y = i =1 λi .u i + j =1 µ j .v j donc B est génératrice de F ⊕ G. De
Pp Pq Pp Pq
plus, si i =1 λi .u i + j =1 µ j .v j = 0E alors i =1 λi .u i = − j =1 µ j .v j ∈ F ∩ G = {0E }, car F et G sont
en somme directe. D’où λ1 = ... = λp = µ1 = ... = µq = 0, car F et G sont libres. D’où B est libre
et c’est donc une base de F ⊕ G. On en déduit que dim(F ⊕ G) = p + q = dim(F) + dim(G). ■
180 Chapitre 14. Espaces vectoriels et dimension finie
Exercice 14.6 On considère les sev F1 = V ECT ((1, 0)), F2 = V ECT ((0, 1)) et F3 = V ECT ((1, 1))
de R2 . Montrer que F1 ∩ F2 = F2 ∩ F3 = F1 ∩ F3 = {0} et que R2 = F1 + F2 + F3 mais qu’il ne s’agit
pas d’une somme directe. ■
Exercice 14.7 Soient V et W deux sev d’un espace vectoriel U tels que dim(V) = 4, dim(W) =
5 et dim(U) = 7. Trouver les dimensions possibles de V ∩ W. ■
Pour démontrer les résultats précédents, on a procédé en choisissant une base pour chacun
des sev en somme directe, puis on a concaténé ces bases. La concaténation de deux listes est
14.3 Sous-espaces vectoriels de Kn 181
l’opération qui consiste à ajouter à la fin de la première liste les éléments de la seconde liste. Pour
une somme directe de k sev de E, on construit ainsi une base de E par concaténation successive,
on dit que cette base est adaptée à la somme directe. De manière réciproque, à toute partition
d’une base de E, on peut associer une décomposition de E en somme directe.
R Par les résultats précédents, deux sev sont supplémentaires si et seulement F ∩ G = {0E } et
F + G = E, ou encore, si et seulement si tout vecteur de E se décompose de manière unique
comme somme de deux vecteurs de F et G.
Démonstration. Il suffit de considérer une base F de F que l’on complète en une base B de E.
Les vecteurs ajoutés à F pour former B engendrent alors un supplémentaire de F dans E. ■
(i) F ∩ G = {0E } ;
(ii) dim(F) + dim(G) = dim(E).
engendré par une famille de vecteurs. Les sous-espaces F et G ci-dessous sont tous deux des sev
de R4 :
¯
x ¯ 1 1 −1 0
¯ x +y −2z = 0
y 2 −1 0 1
¯
F = ∈ R4 ¯ 2x −y +t = 0 et G = V ECT , , , .
¯
z ¯ 0 −1 0 −1
t ¯ 3x +3y −z +t = 0
¯ −1 −1 1 0
Une fois le système réduit de la sorte, on peut exprimer ses solutions en fonction du seul
paramètre t . On a :
¯ ¯ ¯
x x −t
¯ ¯ ¯
= − 5t
¯ x
¯ = −y +2z
¯ x
¯
y y ¯ 3t ¯
4¯ 4¯ 4¯
F = ∈ R ¯ −3y = −4z −t = ∈R ¯ y = 3t5 = ∈R ¯ t ∈R .
z z t
= 5t
¯ ¯ ¯
t ¯ −5z = −t
t ¯ z
5t ¯
¯ ¯ ¯
−1
3
D’où F = V ECT .
1
5
D’une famille
de vecteurs
à des équations
x x 1 1 −1 0
y y 2 −1 0 1
On a ∈ G ⇐⇒ = α + β + γ + δ avec α, β, γ et δ des réels. Et
z z 0 −1 0 −1
t t −1 −1 1 0
α α
1 1 −1 0 x
β 2 −1 0 1 β y
on a alors qui est solution du système : = , qui est équivalent,
γ 0 −1 0 −1 γ z
δ −1 −1 1 0 δ t
α
1 1 −1 0 x
0 −1 0 −1 β z
par réduction, au système : = . Or ce système possède des
0 0 2 4 γ y − 2x − 3z
0 0 0 0 δ x +t
¯
x ¯
¯
y ¯
4
solutions si et seulement si x + t = 0. On en déduit donc que G = ∈ R ¯ x + t = 0 .
¯
z ¯
t ¯
¯
14.3 Sous-espaces vectoriels de Kn 183
L’intersection
Déterminer l’intersection de deux sev de Kn est très aisé lorsqu’ils s’expriment comme des
ensembles de solutions de systèmes linéaires homogènes. Il suffit alors de concaténer les deux
systèmes d’équations. Ici, on peut écrire :
¯
x ¯x
¯ +y −2z = 0
y ¯
4 ¯ 2x −y +t = 0
F∩G = ∈ R ¯ .
z ¯ 3x +3y −z +t = 0
t ¯
¯ x
+t = 0
La somme
De manière complémentaire, il est très facile de décrire la somme de deux sev lorsqu’ils sont
engendrés par des familles de vecteurs. Il suffit alors de concaténer les deux familles. Ici, cela
donne :
1 1 −1 0 −1
2 −1 0 1 3
F + G = V ECT , , , , .
0 −1 0 −1 1
−1 −1 1 0 5
Encore une fois, il vaut mieux prendre la forme
laplus réduite
possible
pour G pour ne pas se
1 1 −1 −1
2 −1 0 3
répéter. On écrit donc plutôt F + G = V ECT , , , . En réduisant à nouveau,
0 −1 0 1
−1 −1 1 5
on trouve F + G = E.
Dimensions
La question de la dimensionalité de ces sous-espaces vectoriels est bien évidemment traité
dans les points précédents. Toutefois, il n’est pas nécessaire d’aller au bout des calculs si l’on ne
s’intéresse qu’à cette question.
184 Chapitre 14. Espaces vectoriels et dimension finie
Dans le cas d’un sev défini par un système d’équations linéaires homogène, il est aisé de
voir que pour un système échelonné à n inconnues et p équations (toutes non nulles), on peut
écrire une base des solutions avec n − p vecteurs. Il est donc suffisant de réduire le système pour
déterminer la dimension de son ensemble de solutions, sans avoir besoin de le résoudre.
De même, dans le cas d’un sev engendré par une famille de vecteurs, on peut s’arrêter sans
compléter chacune des étapes du calcul.
Dans l’exemple considéré, la réduction
dusystème
α α
1 1 −1 0 0 1 1 −1 0 0
2 −1 0 1 β 0
0 −1 0 −1 β 0
homogène : = , au système : = , montre
0 −1 0 −1 γ 0 0 0 2 4 γ 0
−1 −1 1 0 δ 0 0 0 0 0 δ 0
que la famille considérée est liée. Par contre, la sous-famille composée des vecteurs associés aux
pivots de ce système échelonné est une base de G. Cette méthode permet donc de déterminer le
rang d’une famille de vecteurs de Kn en réduisant un système homogène associé.
Exercice 14.9 On considère les sev F = (x, y, z) ∈ R3 ¯ −9x − 3y + 5z = 0 et G = V ECT ((1, 1, 1))
© ¯ ª
de R3 . Montrer que F ⊕ G = R3 . ■
15. Comparaisons asymptotiques
(i) lim
n→+∞εn = 0 ;
(ii) ∀n ≥ n 0 , u n = εn v n .
R La notation précédente fait partie des notations de Landau et se lit petit « o ». Les notations
de Landau sont toutes très utilisées, notamment en algorithmique.
1
sin(n) = o(e n ) , n 2 + 1 = o(n) , n ln(n) = o(n 2 ) , = o((−1)n ) .
n2
■
186 Chapitre 15. Comparaisons asymptotiques
lim
un
u n = o(v n ) ⇔ n→+∞ =0.
vn
un
Démonstration. Il suffit de poser εn = vn . ■
lim u = 0.
Exercice 15.2 Montrer que u n = o(1) ⇔ n→+∞ n ■
Théorème 15.1.2 — Règles de calcul. Soient (u n )n∈N , (v n )n∈N , (w n )n∈N et (t n )n∈N des suites
réelles et λ ∈ R. On a les propositions suivantes :
(i) lim
n→+∞αn = 1 ;
(ii) ∀n ≥ n 0 , u n = αn v n .
p
µ ¶
1 1 p 5
sin(n) ∼ cos(n) , n 2 + 1 ∼ 2n 2 − ln(n) , sin ∼ , n + 1 ∼ n2 n + 1 .
n n
■
15.1 Comparaisons asymptotiques de suites réelles 187
Exercice 15.5 Vérifier que ∼ définit bien une relation d’équivalence (i.e. une relation tran-
sitive, symétrique et réflexive). ■
lim
un
u n ∼ v n ⇔ n→+∞ =1.
vn
un
Démonstration. Il suffit de poser αn = vn . ■
u n ∼ v n ⇔ u n − v n = o(v n ) ⇔ u n = v n + o(v n ) .
Théorème 15.1.5 — Règles de calcul. Soient (u n )n∈N , (v n )n∈N , (w n )n∈N et (t n )n∈N des suites
réelles et β ∈ R. On a les propositions suivantes :
(i) u n ∼ v n et w n ∼ t n ⇒ u n × w n ∼ v n × t n (produit)
un vn
(ii) u n ∼ v n et w n ∼ t n ⇒ ∼ (si les suites sont bien définies) (quotient)
wn tn
(iii) u n ∼ v n ⇒ (u n )β ∼ (v n )β (si les suites sont bien définies) (puissance)
R Additionner des suites équivalentes n’est, en règle général, pas une très bonne idée. Il vaut
mieux, pour cela, passer à la notation de Landau.
188 Chapitre 15. Comparaisons asymptotiques
Théorème 15.1.6 — Polynômes. Soient (x n )n∈N une suite réelle et P ∈ R[X]. On suppose que
P = a p X p + ... + a q X q , avec p ≤ q, a p 6= 0 et a q 6= 0 les coefficients de plus grand et plus petit
degré de P. Alors :
a p+1 aq
Démonstration. Si x n tend vers 0, alors il suffit de poser αn = 1 + a p x n + ... + a p (x n )q−p .
Si x n tend vers +∞, on peut utiliser la caractérisation de l’équivalence sans problème. ■
Théorème 15.1.7 — Équivalents usuels. Soient (x n )n∈N une suite convergente vers 0 et β ∈ R.
On a alors les équivalences suivantes :
f 1 (x) 1
Démonstration. On considère la fonction f 1 : x 7→ ln(1 + x). On a lim x = f 10 (0) = 1+0 = 1 en
x→0
utilisant le nombre dérivé. On peut définir une suite de terme général αn avec αn = 1 si x n = 0 et
f (x )
αn = 1xnn sinon. On a alors bien f 1 (x n ) = αn x n et n→+∞
lim α = 1.
n
On obtient les autres résultats de même, via l’utilisation du nombre dérivé d’une fonction
particulière en 0. ■
Dans l’exemple de la recherche du nombre d’occurences d’un mot dans un texte, plus le
texte est long, plus il va falloir de temps pour compter toutes les occurrences du mot. Le nombre
total n de lettres dans le texte est un paramètre variable que l’on pourra prendre en compte
pour caractériser, de manière pertinente, la longueur du texte dans une modélisation du temps
d’éxécution d’un algorithme de recherche.
Parmi les différents problèmes à résoudre qui apparaissent en informatique, l’un de ceux
qui a été le plus étudié est la question du tri des éléments d’une liste. On considère une liste de
nombre et on cherche à ordonner les éléments de cette liste. Le paramètre essentiel dans ce
problème est le nombre n d’éléments dans cette liste. Il existe de très nombreux algorithmes
pour effectuer cette tâche (près d’une cinquantaine sont listés sur la page Wikipedia : Sor-
ting_algorithm). La connaissance d’un certain nombre d’entre eux fait partie des savoirs de base
d’un étudiant en informatique et on pourrait aller jusqu’à dire qu’il s’agit là de culture générale.
En 2007, lorsque Barack Obama était en campagne pour les élections présidentielles amé-
ricaines, il rencontra Eric Schmidt, alors PDG de Google, pour un entretien télévisé (vidéo
disponible sur Youtube : Barack Obama - Computer Science Question). Au début de cet entre-
tien, Eric Schmidt pensait pouvoir taquiner Barack Obama en lui demandant quel algorithme
choisir pour trier un million d’entiers de 32 bits. Le futur président des États-Unis surprend
alors tout le monde en répondant que le tri à bulles n’est certainement pas la bonne façon de
procéder. Et, en effet, le tri à bulles est bien connu des informaticiens pour être l’un des plus
mauvais algorithmes de tri, en termes de complexité algorithmique. Que nous apprend cette
histoire ? Si vous aspirez à devenir président des États-Unis, mieux vaut connaître la complexité
des vos algorithmes de tri, cela pourra toujours être utile !
Ce point mis à part, cette section est quasiment identique à la section précédente. Il est donc
utile de pouvoir faire des parallèles entre les deux.
190 Chapitre 15. Comparaisons asymptotiques
(i) ε(x) = 0 ;
lim
x→x 0
(ii) ∀x ∈ V ∩ I, f (x) = ε(x)g (x).
Dans ce cas, on note f (x) = o(g (x)) ou simplement f (x) =x0 o(g (x)).
x→x 0
f
Démonstration. Il suffit de poser ε = g sur V \ {x 0 } et ε(x 0 ) = 0. ■
lim f (x) = 0.
De manière analogue au cas des suites, on a f (x) =x0 o(1) ⇔ x→x
R 0
(i) f (x) =x0 o(g (x)) et g (x) =x0 o(h(x)) ⇒ f (x) =x0 o(h(x)) (transitivité)
(ii) f (x) =x0 o(h(x)) et g (x) =x0 o(h(x)) ⇒ f (x) + g (x) =x0 o(h(x)) (somme)
(iii) f (x) =x0 o(g (x)) et h(x) =x0 o(i (x)) ⇒ f (x) × h(x) =x0 o(g (x) × i (x)) (produit)
(iv) f (x) =x0 o(g (x)) ⇒ λ. f (x) =x0 o(g (x)) (multiplication par un scalaire)
(v) f (x) =x0 o(g (x)) ⇒ f (x)×h(x) =x0 o(g (x)×h(x)) (multiplication par une fonction)
R Il faut faire attention lorsque l’on manipule ces notions. Le symbole =x0 accompagné
d’une petit « o » ne fonctionne pas tout à fait comme le signe égal habituel. Par exemple,
o(x) − o(x) =0 o(x) et non 0 comme on pourrait l’imaginer.
(i) limα(x) = 1 ;
x→x 0
(ii) ∀x ∈ V ∩ I, f (x) = α(x)g (x).
R De même que pour les suites, on vérifie facilement que ∼x0 définit une relation d’équiva-
lence (i.e. une relation transitive, symétrique et réflexive).
15.2 Comparaisons asymptotiques de fonctions 191
f (x) ∼x0 g (x) ⇔ f (x) − g (x) =x0 o(g (x)) ⇔ f (x) =x0 g (x) + o(g (x)) .
(i) f (x) ∼x0 g (x) et h(x) ∼x0 i (x) ⇒ f (x) × h(x) ∼x0 g (x) × i (x) (produit)
f (x) g (x)
(ii) f (x) ∼x0 g (x) et h(x) ∼x0 i (x) ⇒ ∼x 0 (quotient)
¡ ¢β ¡ h(x)
¢β i (x)
(iii) f (x) ∼x0 g (x) ⇒ f (x) ∼x0 g (x) (puissance)
R Comme pour les suites, il est déconseillé d’additionner des fonctions équivalentes et on
conseille plutôt de passer à la notation de Landau pour les additions.
(i) P(x) ∼0 a p x p ;
(ii) P(x) ∼+∞ a q x q .
³ ´x
lim 1 + λ
Exercice 15.12 Soit λ ∈ R. Montrer que x→+∞ = e λ. ■
x
16. Séries numériques
Ce chapitre s’intéresse à des suites particulières, définies par des sommes, que l’on appelle
séries. Il est important, pour aborder ce chapitre de manière sereine, de bien maitriser les notions
sur les suites vues au cours des chapitres précédents, notamment le chapitre 4 et le chapitre 15.
16.1 Généralités
16.1.1 Définition
Définition 16.1.1 — Série numérique. Soit (u n )n∈N une suite réelle. On appelle série de
P
terme général u n et on note u n , la suite (S n )n∈N définie par :
n≥0
n
∀n ∈ N, S n =
X
uk
k=0
Pour tout n ∈ N, le réel S n est appelé la somme partielle de rang n, associée à la série
P
un .
n≥0
P
R On rajoute bien évidemment à cette définition les séries n≥p u n dontPle terme général
n’est défini qu’à partir d’un certain p ∈ N et on pose alors ∀p ≥ n, S n = nk=p u n .
Exemple 16.1 Une des séries les plus célèbres est la série harmonique : n≥1 n1 ; qui corres-
P
■
¡Pn 1 ¢
pond à la suite k=1 k n∈N∗ . ■
P 1
■ Exemple 16.2 La série n≥0 2n est une série géométrique. Ces séries sont étudiés plus en
détail dans la suite du cours. ■
■ Exemple 16.3 Pour étudier la suite (v n )n∈N , on peut s’intéresser à la série de terme général
v n+1 − v n . En effet, les sommes partielles S n de la série sont des sommes téléscopiques et on a
S n = v n+1 − v 0 . ■
R Une série est une suite bien particulière mais reste une suite. Tous les résultats s’appliquant
à une suite sont donc vrais dans le cas d’une série.
194 Chapitre 16. Séries numériques
16.1.2 Convergence
Définition 16.1.2 — Convergence et nature. Une série est dite convergente si et seulement
si la suite de ses sommes partielles est convergente. La nature d’une série est la nature de la
suite de ses sommes partielles.
Exercice 16.2 Soient n 0 ∈ N et n≥0 u n une série. Montrer que l’on ne modifie pas la nature
P
Exercice 16.3 Déterminer la nature des séries proposées en exemple en tout début de
chapitre. ■
P
Définition 16.1.3 — Somme d’une série convergente. Soit n≥0 u n une série convergente.
La somme de cette série est la limite de la suite de ses sommes partielles. On la note +∞
P
n≥0 u n .
P
Définition 16.1.4 — Reste d’une série congergente. Soit n≥0 u n une série convergente et
S sa somme. Pour tout réel n ∈ N, le réel Rn = S − S n est appelé le reste de rang n de la série.
P
R Le reste de rang n 0 d’une série convergente n≥0 u n peut être vu comme la somme
P+∞ P
u
n=n 0 +1 n de la série convergente u
n>n 0 n . La suite des restes (Rn )n∈N converge vers 0.
lim u = 0.
P
R Le théorème peut s’écrire : n≥0 u n converge ⇒ n→+∞ n
P n
■ Exemple 16.4 La série n≥1 (−1) ln(n) est divergente car la suite de ses termes généraux ne
tend pas vers 0. ■
P P
Théorème 16.2.2 — Linéarité de la somme. Soient n≥0 u n , n≥0 v n des suites conver-
gentes et λ ∈ R. Alors la série n≥0 (λu n + v n ) est convergente et on a :
P
+∞ µ +∞ +∞ ¶
(λu n + v n ) = λ
X X X
un + vn .
n=0 n=0 n=0
R En remarquant que l’ensemble des séries numériques est un R-ev, le théorème qui précède
permet de déduire que l’ensemble des séries numériques convergentes en est un sev.
Exercice 16.6 Déduire de l’exercice précédent la nature d’une série à termes positifs, selon
que la suite de ses sommes partielles est majorée ou pas. Proposer un encadrement de la
somme de la série dans le cas convergeant. ■
Théorème 16.2.3 — Inégalité et convergence. Soient (u n )n∈N et (v n )n∈N deux suites réelles
telles que, pour tout n ∈ N, 0 ≤ u n ≤ v n . Alors :
X X
v n converge ⇒ u n converge .
n≥0 n≥0
196 Chapitre 16. Séries numériques
+∞
P +∞
P
Dans ce cas, on a 0 ≤ un ≤ vn .
n=0 n=0
Démonstration. On note S n et Tn les somme partielles de rang n des séries de terme généraux
u n et v n respectivement. On suppose que Tn converge vers T ∈ R+ . D’après l’exercice qui précède,
Tn ≤ T. Mais, on a également S n ≤ Tn . Donc, toujours d’après l’exercice S n converge vers une
limite T telle que 0 ≤ S ≤ T. ■
P 1 P 1
Exercice 16.8 En considérant la série n≥1 n(n+1) , montrer que la série n≥0 (n+1)2 est
convergente. ■
P 1
Exercice 16.9 Montrer que la série n≥1 pn est divergente. ■
Théorème 16.2.6 — Convergence des séries absolument convergentes. Une série abso-
lument convergente est convergente.
2p p µ
(−1)k X
¶
X 1 1
= − .
k=1 k k=1 2k 2k − 1
Exercice 16.11 Montrer qu’une série absolument convergente est la différence de deux
séries à termes positifs convergentes. ■
R Il s’agit d’une version plus forte du corollaire 16.2.4 car il n’est pas nécessaire, pour pouvoir
l’appliquer, que la suite (u n )n∈N soit positive.
Démonstration. Pour α = 1, il s’agit de la série harmonique et on sait que celle-ci diverge. Dans
le cas α < 1, on a n1 = o( n1α ) et on conclut via le corollaire 16.2.4.
R n+1
On considère maintenant α > 1. D’une part, n t1α d t ≥ (n+1) 1
α par décroissance de t 7→ t α .
1
³ ´ h in+1 ³ ´
t 1−α
R k+1 R n+1 1
D’autre part, nk=1 k t1α d t = 1 1 1 1
P
t α d t = 1−α 1 = 1−α (n+1)α−1
− 1 ≤ α−1 . Ainsi, la série
P 1 1
n≥1 n α est positive, majorée par 1 + α−1 , elle converge donc. ■
1
On note ζ(α) = +∞
P
R n=1 n α lorsqu’il y a convergence. Cela permet de définir la fameuse
fonction ζ de Riemann qui fascine de nombreux mathématiciens.
Démonstration. Pour (i) et (iv), on peut utiliser la formule pour la somme des termes d’une suite
n+1
géométrique. On obtient alors nk=0 x k = 1−x
P
1−x ce qui induit facilement les résultats.
16.2 Théorèmes de convergence 199
Pn
Pour tout n ∈ N, la fonction x 7→ f n (x) = k=0
x k , définie sur tout R, est dérivable sur R. En
n nx n+1 − (n + 1)x n + 1
dérivant, on obtient, pour tout x ∈ R, f n0 (x) = kx k−1 =
P
, puis à nouveau,
k=1 (1 − x)2
n −n(n − 1)x n+2 + (n 2 − 1)x n+1 − n(n + 1)x n + 2
pour tout x ∈ R, f n00 (x) = k(k − 1)x k−2 =
P
. On
k=2 (1 − x)3
peut ensuite conclure sur les points restants du théorème. ■
Démonstration. Ce résultat est admis pour le moment. Il sera démontré dans un prochain
chapitre d’analyse. ■
Que pensez-vous alors que Zénon en a déduit ? Pour lui c’est simple : Achille ne va jamais
rattraper la tortue. Or l’on sait bien qu’Achille rejoint la tortue. Il en conclut donc que le mouve-
ment est impossible et que toute notre réalité physique n’est qu’une illusion ! C’est certes assez
radical comme position mais il faut bien dire que son raisonnement a été suivi par un certain
nombre de personnes à son époque et par la suite.
Aujourd’hui, la plupart des mathématiciens considère que Zénon ne disposait tout simple-
ment pas des outils mathématiques pour comprendre que ce paradoxe n’en est pas un. Cet
outil manquant, ce sont les séries convergentes. S’il avait conçu que la somme d’une infinité
de nombres positifs, correspondant aux durées successives considérées dans la course, peut
donner un nombre qui lui est bien fini, alors il n’aurait sans doute pas vu de paradoxe. Alors, si
jamais vous avez perdu tout espoir, que vous ne croyez plus en rien et que vous pensez que tout
n’est qu’illusion, n’oubliez pas que les mathématiques sont là et qu’elles peuvent vous sauver.
17. Probabilités sur un univers quelconque
Jusqu’à présent dans ce cours, il n’a été question que de probabilités sur un univers fini.
Dans ce chapitre, on reprend les notions abordées dans ce cadre et on les généralise au cas
d’un univers quelconque (i.e. fini ou infini). Les points de ce chapitre ressemblent ainsi, pour
beaucoup, à ceux des chapitres 11 et 12 vus à la fin du premier semestre.
17.1 Un exemple
L’objectif des probabilités est, comme cela a été présenté précédemment, d’offrir un cadre
mathématique adéquat pour la modélisation d’expériences aléatoires. Pour cela, on met en
relation deux à deux les résultats possibles de l’expérience aléatoire avec des sous-ensembles
d’un ensemble mathématique. Si l’on ne considère que des ensembles finis, cela signifie que
l’on ne peut considérer que des expériences aléatoires dont le nombre de résultats possibles est
fini. Or il existe de très nombreux problèmes que l’on souhaiterait considérer pour lesquels le
nombre d’issues possibles n’est pas fini.
On imagine que l’on souhaite modéliser la réponse d’une personne à qui l’on demande de
choisir un entier naturel au hasard en utilisant les probabilités. Le nombre de réponses possibles
que cette personne peut apporter est infini : elle peut tout à fait répondre 1, comme 42, comme
2250000 , comme be 467 c!. A priori, il y a autant de réponses possibles que d’entiers naturels. En
l’occurrence, il serait très compliqué de mettre en place une bonne modélisation de ce problème.
Une réponse à cette question dépend certainement de la familiarité et de l’affinité de la personne
interrogée vis-à-vis des entiers naturels et cela constitue une problématique de modélisation
bien trop complexe à ce niveau.
On va donc considérer un problème similaire mais on remplace l’humain trop complexe par
un automate probabiliste. L’automate choisi au hasard un chiffre entre 1 et 9, puis il tire à pile
ou face. S’il tombe sur pile, il s’arrête. Sinon, il choisit à nouveau un chiffre entre 0 et 9, cette fois.
Puis, il tire à nouveau à pile ou face pour s’avoir s’il s’arrête. S’il tombe sur pile, il s’arrête. S’il
tombe sur face, il reprend au niveau de la deuxième étape. Une fois qu’il s’est arrêté, l’automate
renvoie le nombre entier constitué de la juxtaposition des différents chiffres qu’il a tiré, dans
l’ordre du tirage.
202 Chapitre 17. Probabilités sur un univers quelconque
Exercice 17.1 Écrire un programme en pseudo-code qui réalise le processus décrit ci-dessus.
Réécrire ce programme en language Scilab et vérifier qu’il tourne correctement. ■
Exercice 17.2 Quelles sont les chances que le programme renvoie : le nombre 7 ; le nombre
1000 ; un nombre supérieur ou égal à 1000 ? Est-il certain que le programme va s’arrêter à un
moment ? ■
On pourra remarquer que l’exemple qui a été décrit ici peut facilement être modélisé grâce
aux variables aléatoires réelles discrètes étudiées dans la suite de ce chapitre.
(i) Ω∈A ;
(ii) ∀A ∈ A , A ∈ A ;
+∞
∀ (An )n∈N ∈ A N , An ∈ A .
S
(iii)
n=0
Théorème 17.2.1 — Règles de calcul. Soit A une tribu sur un ensemble Ω. Alors on a les
propositions suivantes :
(i) ;∈A ;
(ii) ∀(A, B) ∈ A 2 , A ∪ B ∈ A ;
(iii) ∀(A, B) ∈ A 2 , A ∩ B ∈ A ;
(iv) ∀(A, B) ∈ A 2 , A \ B ∈ A ;
+∞
∀ (An )n∈N ∈ A N , An ∈ A .
T
(v)
n=0
On rappelle qu’un système complet d’évènements fini est une collection finie d’évènements
qui est modélisée par une famille finie formant une partition de Ω. Cette notion peut être
utilement élargie, dans le cas où Ω infini, à une notion plus générale de systèmes complets
d’évènements pour laquelle on admet également les partitions dénombrables de Ω (i.e. les
partitions de Ω qui peuvent être indexées par N).
Théorème 17.2.2 — Tribu engendrée par une partition. Soit (Ai )i ∈I une partition d’un
ensemble Ω telle que I fini ou I = N. Alors, il existe une plus petite tribu A sur Ω telle que,
pour tout i ∈ I, Ai ∈ A . Dans ce cas, on parle de tribu engendrée par la partition (Ai )i ∈I .
Définition 17.2.3 — Probabilité. Soit (Ω, A ) un espace probabilisable. Une probabilité sur
(Ω, A ) est une application P de A vers [0, 1] telle que :
(i) P(Ω) = 1 ; µ µ ¶ ¶
+∞ +∞
N
∀ (An )n∈N ∈ A , ∀i 6= j , Ai ∩ A j = ; ⇒ P
¡ ¢ S P
(ii) An = P(An ) . (σ-additivité)
n=0 n=0
(i) P(;) = 0 ;
(ii) A ∩ B = ; ⇒ P(A ∪ B) = P(A) + P(B) ;
(iii) P(A) = 1 − P(A) ;
(iv) P(A \ B) = P(A) − P(A ∩ B) ;
(v) B ⊂ A ⇒ P(B) ≤ P(A) ;
(vi) P(A ∪ B) = P(A) + P(B) − P(A ∩ B).
+∞
S
Démonstration. On commence par montrer (i). Comme ; ∩ ; = ; et que ; = ;, en appli-
n=0
+∞
quant la σ-additivité, on a, P (;) =
P
P(;). On en déduit que P(;) = 0.
n=0
On montre maintenant (ii). Soient A, B ∈ A tels que A ∩ B = ;. On peut alors considérer la suite
(A, B, ;, ;, ...) d’éléments de A et on obtient, via la σ-additivité, P(A ∪ B) = P(A) + P(B).
Les autres points se démontrent alors exactement comme dans le cas des probabilités finies. ■
µ ¶
+∞
(∀n ∈ N, An ⊂ An+1 ) ⇒ P lim P(A )
S
(i) An = n→+∞ n (cas (An )n∈N croissante)
µn=0 ¶
+∞
(∀n ∈ N, An+1 ⊂ An ) ⇒ P lim P(A )
T
(ii) An = n→+∞ n (cas (An )n∈N décroissante)
n=0
Démonstration. On commence par le cas croissant. On remarque que, dans ce cas, la suite
+∞
S
(P(An ))n∈N est croissante, majorée par 1, donc converge. On pose A = An , B0 = A0 et, pour
n=0
+∞
tout n ∈ N, Bn+1 = An+1 \ An . Alors, A =
S
Bn et, pour tout i 6= j , Bi ∩ B j = ;. On a donc,
µ ¶ n=0
+∞
S +∞
P +∞
P +∞
P
P(A) = P Bn = P(Bn ) = P(A0 ) + P(An \ An−1 ) = P(A0 ) + (P(An ) − P(An−1 ∩ An )) =
n=0 n=0 n=1 n=1
+∞
lim P(A ) − P(A ) = lim P(A ).
P
P(A0 ) + (P(An ) − P(An−1 )) = P(A0 ) + n→+∞ n 0 n→+∞ n
n=1
Pour le cas décroissant, on se ramène au cas croissant en passant µ au ¶complémentaire. En
+∞ ³ ´
effet, si ∀n ∈ N, An+1 ⊂ An , alors ∀n ∈ N, An ⊂ An+1 . On a donc P lim P A . Mais,
S
An = n→+∞ n
n=0
17.2 Espaces probabilisés 205
µ ¶ µ ¶
+∞ +∞ +∞ +∞ ³ ´
lim P A =
T S T S
par les lois de De Morgan, An = An . D’où, P An = 1 − P An = 1 − n→+∞ n
³ ³ ´´ n=0 n=0 n=0 n=0
lim lim P (A ).
n→+∞ 1 − P A n = n→+∞ n ■
n n
Démonstration. On pose, pour tout n ∈ N, Bn =
S T
Ak et Cn = Ak . On a alors, pour tout
k=0 k=0
+∞ +∞
n ∈ N, Bn ⊂ Bn+1 et Cn+1 ⊂ Cn . On peut donc appliquer le théorème. Or
S S
An = Bn et
n=0 n=0
+∞
T +∞
T
Cn = An , ce qui permet de conclure. ■
n=0 n=0
Exercice 17.5 — Suite infinie de pile ou face. On considère l’expérience aléatoire consis-
tant à lancer une pièce une infinité de fois de manière successive. On modélise les résultats
de l’expérience par l’ensemble Ω = {0, 1}N .
∗
R De même que dans le cas fini, l’application définie par PA : P (Ω) → [0, 1], B 7→ PA (B) =
P(B | A) est une probabilité sur l’espace probalisable (Ω, A ).
P(B | A)P(A)
P(A | B) = .
P(B)
Théorème 17.2.7 — Formule des probabilités composées. Soient (Ω, A , P) un espace pro-
babilisé, n un entier supérieur ou égal à 2 et A1 , ..., An ∈ A . On suppose que P(A1 ∩...∩An−1 ) 6= 0.
Alors on a :
P(A1 ∩ ... ∩ An ) = P(A1 )PA1 (A2 )PA1 ∩A2 (A3 )...PTn−1 Ai (An )
i =1
Tn−1
= P(A1 )P(A2 | A1 )P(A3 | A1 ∩ A2 )...P(An | i =1
Ai ) .
Exercice 17.8 Énoncer une généralisation du théorème donnant la formule des probabilités
totales dans le cadre d’un espace probabilisé (Ω, A , P) et d’une partition finie (A1 , ..., An ) ∈ A n
de Ω. ■
+∞
P
P(B) = P(B ∩ An )
n=0
+∞
P
= P(An )PAn (B)
n=0
+∞
P
= P(An )P(B | An ) .
n=0
µ ¶
+∞ +∞
Démonstration. On a B = B ∩ Ω = B ∩ (B ∩ An ). De plus, pour tout i , j ∈ N tels que
S S
An =
¢n=0 n=0
i 6= j , (B µ∩ Ai ) ∩ B ∩ A¶ j = B ∩ Ai ∩ A j = ;. On peut donc utiliser la σ-additivité de P et on a
¡ ¢ ¡
+∞
S +∞
P
P(B) = P (B ∩ An ) = P (B ∩ An ). Les égalités suivantes découlent alors directement de la
n=0 n=0
définition de la probabilité conditionnelle. ■
Exercice 17.9 On dispose d’une infinité dénombrable d’urnes indexées par N∗ et telles que,
pour tout n ∈ N∗ , l’urne Un possède n! boules numérotées de 1 à n!. On tire d’abord une urne,
puis on tire une boule dans cette urne. Pour choisir l’urne, on tire à pile ou face jusqu’à ce
que l’on tombe sur pile : l’urne choisie porte le numéro correspondant au nombre de tirages
que l’on a dû réaliser pour obtenir pile. La boule est tirée au hasard dans l’urne. Déterminer
la probabilité de tirer une boule numérotée 1. ■
208 Chapitre 17. Probabilités sur un univers quelconque
∀x ∈ R, [X ≤ x] = X −1 (] − ∞, x]) = {ω ∈ Ω | X(ω) ≤ x} ∈ A .
R Par rapport à la définition d’une variable aléatoire réelle finie, on rajoute une condition
qui correspond à l’idée que l’application X est compatible avec la tribu A . Cette condition
n’est pas nécessaire dans le cas où A = P (Ω) car toute application de Ω dans R vérifie
alors cette condition.
Exercice 17.12 Rappeler les quatre opérations usuelles définies dans le cadre des VARDF.
Ces opérations sont aussi valables dans le cadre des VAR. Démontrer le pour l’addition et la
multiplication par un scalaire. ■
210 Chapitre 17. Probabilités sur un univers quelconque
Le schéma qui suit donne un aperçu du principe d’une variable aléatoire réelle. Les éléments
de Ω sont associés à des réels via la variable aléatoire X (flèches en pointillés). Dans Ω, les
éléments peuvent être regroupés dans des sous-ensembles définis par les images de leurs
éléments par X. Ces sous-ensembles, notés ici Ai , appartiennent à la tribu A définissant l’espace
probabilisable considéré. La probabilité de ces sous-ensembles, définies par l’application P
(flèches à pointes pleines), sont également obtenues en partant directement des sous-ensembles
de R correspondant aux images de leurs éléments par X (flèches à pointes vides). Ainsi, plus
besoin de se préoccuper de la structure de Ω, il suffit de considérer l’ensemble des réels.
£ ¤ £ ¤
Ω
A4 = X ≤ x 4 A1 = X = x 1
¡ ¢ ¡ ¢
P A1 = P X = x 1
£ ¤ ¡ ¢ ¡ ¢
A3 = X = x 3 P A4 = P X ≤ x 4
¡ ¢ ¡ ¢
P A3 = P X = x 3
£ ¤
A2 = X = x 2 ¡ ¢ ¡ ¢
P A2 = P X = x 2
R
x4 x3 0 x2 x1
L X : B −→ [0, 1]
.
B 7−→ P(X ∈ B)
17.4 Variables aléatoires réelles discrètes 211
Définition 17.3.3 — Égalité en loi. Soient X et Y des VAR sur un espace probabilisé (Ω, A , P).
L
On dit que X et Y sont égales en loi si L X = L Y . On note alors, X = Y.
Définition 17.3.4 — Fonction de répartition. Soit X une VAR sur un espace probabilisé
(Ω, A , P). On appelle fonction de répartition de X et on note FX la fonction définie par :
FX : R −→ [0, 1]
.
x 7−→ P(X ≤ x)
montre la croissance.
Le théorème de la limite monotone 8.2.1 (celui d’analyse, pas celui de probabilités !) assure
que la fonction croissante FX possède une limite à droite en tout point x de R. On remarque
1 1 lim P X ≤ x + 1
ensuite que +∞
S £ ¤ ¡S+∞ £ ¤¢ ¡ ¢
n=1 X ≤ x + n = [X ≤ x]. D’où FX (x) = P n=1 X ≤ x + n = n→+∞ n
lim P X ≤ x + 1 =
¡ ¢
par le théorème de la limite monotone (celui de probabilités cette fois !). Or n→+∞ n
lim+ P (X ≤ x + h) = lim+ F (x + h). Ainsi, F est bien continue à droite en x.
h→0 h→0 X X
Toujours par le théorème de la limite motone 8.2.1, les limites x→−∞ lim F (x) et lim F (x)
X x→+∞ X
existent. De plus, on remarque que n=1 [X ≤ −n] = ; et n=1 [X ≤ n] = [X ∈ R] = Ω. On en déduit
T+∞ S+∞
¡T+∞ ¢
donc que x→−∞lim F (x) = lim F (−n) = P
X n→+∞ X n=1 [X ≤ −n] = P (;) = 0 ¡grâce
S+∞
au théorème de la limite
¢
lim F (x) = lim F (n) = P
monotone des probabilités. De même, x→+∞ X n→+∞ X n=1 [X ≤ n] = P (Ω) = 1. ■
R Il est possible de montrer une forme de réciproque à ce théorème : toute fonction réelle
vérifiant ces trois propositions est la fonction de répartition d’une variable aléatoiré réelle.
Elle n’est toutefois pas au programme.
L
X = Y ⇔ ∀x ∈ R, FX (x) = FY (x) .
R En termes mathématiques plus élaborés, on dit que les éléments de A sont tous des points
isolés.
Exercice 17.13 Lesquels des ensembles suivants sont des parties discrètes de R ?
½ ¯ ¾
1 ¯¯ ∗
A= n ∈ N , B = [0, 1] , C = Z, D = Q .
n¯
■
On admettra que toute partie discrète de R est au plus dénombrable (finie ou infinie dénom-
brable).
17.4.2 Définitions
Définition 17.4.2 — Variable aléatoire réelle discrète. Soient (Ω, A ) un espace probabi-
lisable et X une VAR sur (Ω, A ). On dit que X est une variable aléatoire réelle discrète sur
(Ω, A ) (VARD sur (Ω, A )) si son image X(Ω) est une partie discrète de R.
■ Exemple 17.1 Le nombre aléatoire donné par le programme défini en 17.1 peut être modélisé
Le théorème sur les opérations usuelles peut être partiellement adapté au contexte des
VARD dans le sens où la somme des deux VARD est une VARD, la multiplication d’un scalaire par
une VARD est une VARD et la multiplication de deux VARD est une VARD. Toutefois, le transfert
d’une VARD par une fonction de transfert, même s’il s’agit bien d’une VAR, n’est pas a priori une
VARD (l’image d’une partie discrète de R par une fonction réelle n’est pas forcément une partie
discrète). En pratique, il s’agit de cas peu usuels et les transferts de VARD que l’on considère
donne tous des VARD.
Comme X(Ω) est une partie discrète de R, c’est un ensemble au plus dénombrable et il
peut être indexé par une partie de N. Si X(Ω) est infini, ceci permet de considérer une série
P
i ≥0 x i P(X = x i ) et dans le cas où celle-ci est absolument convergente, on peut montrer que
sa somme ne dépend pas de l’ordre d’indexation choisi pour les éléments de X(Ω). Si X(Ω), on
peut également considérer la même série, en supposant que P(X = x i ) = 0 pour tout i supé-
rieur à un certain rang. Ainsi, pour une variable aléatoire qui admet une espérance, on pourra
P
systématiquement considérer une série i ≥0 x i P(X = x i ) pour le calcul de cette espérance.
Théorème 17.4.2 — Théorème de transfert. Soient X une VARD sur un espace probabilisé
(Ω, A , P) et g une fonction réelle définie sur X(Ω). Alors g (X) admet une espérance mathé-
P
matique si et seulement si la série x∈X(Ω) g (x)P(X = x) est absolument convergente. On a
alors : Ã !
X
E(g (X)) = lim g (x)P(X = x) .
x∈X(Ω)
17.4.4 Variance
Définition 17.4.4 — Variance d’une VARD. Soit X une VARD sur un espace probabilisé
(Ω, A , P) telle que X admet une espérance. On dit que X admet une variance si (X − E (X))2
214 Chapitre 17. Probabilités sur un univers quelconque
admet une espérance mathématique. La variance de X est le réel, noté V(X), tel que :
V(X) = E (X − E (X))2 .
£ ¤
Théorème 17.4.3 — Positivité de la variance. Soit X une VARD sur un espace probabilisé
(Ω, A , P). On suppose que X admet une variance. Alors, on a :
(i) V(X) ≥ 0
(ii) V(X) = 0 ⇔ P(X = E(X)) = 1 (on dit que X est presque surement égale à E(X)).
Théorème 17.4.4 — Formule de Koenig-Huygens. Soit X une VARD sur un espace probabi-
lisé (Ω, A , P) telle que X admet une variance. Alors, on a :
Définition 17.4.5 — Écart-type d’une VARD. Soit X une VARD sur un espace probabilisé
(Ω, A , P) telle que X admet une variance. On appelle écart-type de X le réel, noté σ(X), tel
que : p
σ(X) = V(X) .
Définition 17.4.6 — Variable centrée et réduite. Soit X une VARD sur un espace probabilisé
(Ω, A , P). On dit que X est centrée lorsque X admet une espérance et E(X) = 0. On dit que X
est centrée et réduite lorsque X admet une espérance et une variance, et E(X) = 0 et V(X) = 1.
Si X admet une variance et V(X) 6= 0, on appelle variable centrée réduite associée à X la
VARD, notée X ∗ , définie par :
X − E(X)
X∗ = .
σ(X)
17.4.6 Moments
Définition 17.4.7 — Moment d’ordre r . Soient X une VARD sur un espace probabilisé
(Ω, A , P) et r ∈ N. On dit que X admet un moment d’ordre r si X r admet une espérance
mathématique. Le moment d’ordre r de X est le réel, noté m r (X), tel que m r (X) = E(X r ). Le
moment centré d’ordre r de X est le réel, noté µr (X), tel que µr (X) = E ((X − E(X))r ).
Théorème 17.4.6 Soient X une VARD sur un espace probabilisé (Ω, A , P) et r ∈ N∗ . Si X admet
un moment d’ordre r alors on a :
(i) X admet un moment d’ordre s, pour tout s ∈ 0, r ,
(ii) X admet un moment centré d’ordre r .
Démonstration. La démonstration est admise mais elle ne présente pas de difficulté théorique
à ce niveau et peut-être traitée en exercice. ■
R Ainsi, si E(X 2 ) existe, on peut utiliser le théorème pour montrer dire que E(X) et V(X)
existent.
216 Chapitre 17. Probabilités sur un univers quelconque
Exercice 17.20 Justifier l’affirmation suivante : « Une loi géométrique est la loi du rang
d’apparition d’un premier succès dans un processus de Bernoulli sans mémoire ». ■
+∞
P
Exercice 17.21 Vérifier que l’on a bien P(X = k) = 1. ■
k=1
17.5 Lois usuelles 217
1 1−p
E(X) = et V(X) = .
p p2
+∞
P
Exercice 17.22 Vérifier que l’on a bien P(X = k) = 1. ■
k=0
E(X) = λ et V(X) = λ .
Un joueur joue uniquement sur des tables à deux joueurs de telle façon que s’il gagne, il
récupère le double de sa mise. Le joueur commence sur une table où chaque joueur mise 1$. S’il
gagne, il empoche 2$ et a donc gagné 1$ net. Il continuera ensuite à jouer sur une table à 1$. Par
contre, s’il perd, il rejoue sur une table à 2$. Dans ce cas, s’il gagne, il empoche 4$ et aura donc
gagné 1$ net, vu qu’il a misé d’abord 1$, puis 2$. L’idée est que le joueur doit doubler la mise à
chaque fois jusqu’à ce qu’il gagne, de manière à ce qu’il gagne 1$ net à la fin de chaque série de
défaite couronnée par une victoire. Si l’on suppose que le joueur gagne une fois sur deux, il est
presque sûre que chaque série de défaite va éventuellement se terminer par une victoire, et qu’il
sera bien 1$ plus riche à la fin de la série.
En dehors du fait que tous les joueurs n’ont pas forcément une chance sur deux de gagner à
une partie de poker, que le raisonnement ne comptabilise pas le pourcentage de la mise reversé
au site pour chaque partie et qu’il y a forcément une mise maximale que l’on peut jouer sur le
site de telle sorte qu’il y a un nombre maximal de fois que l’on pourra doubler sa mise, en dehors
de toutes ces raisons qui justifieraient déjà largement de ne pas suivre ce stratagème, on peut
montrer que le joueur qui le suit est presque sûr de se retrouver ruiné.
18. Applications linéaires
Ce chapitre s’intègre dans le cadre général de l’algèbre linéaire. Jusqu’à présent, les chapitres
d’algèbre linéaire précédents doivent donc parfaitement être maitrisés afin de bien comprendre
les notions que l’on introduit ici. Dans l’intégralité de ce chapitre comme dans ces chapitres
précédents, K pourra désigner l’ensemble R ou l’ensemble C.
Exercice 18.2 Montrer que l’on peut combiner les deux propositions de la définition d’une
application linéaire en un seul critère de linéarité et énoncer ce critère. ■
Exercice 18.3 — Application nulle. Soient E et F deux K-ev. Montrer que l’application Θ,
définie par ∀u ∈ E, Θ(u) = 0F , est une application linéaire. ■
220 Chapitre 18. Applications linéaires
Exercice 18.6 Soit E = C([0, 1], R) l’ensemble des fonctions continues de [0, 1] dans R. On
R1
considère l’aplication ϕ : E → R; u 7→ 0 u(t )d t . Montrer que ϕ est une application linéaire. ■
(i) f (0E ) = 0F .
(ii) ∀(u, v) ∈ E2 , f (u − v) = f (u) − f (v) .
n n
µ ¶
∀n ∈ N∗ , ∀ (u 1 , ..., u n ) ∈ En , ∀ (λ1 , ..., λn ) ∈ Kn , f λk .u k = λk . f (u k ) .
P P
(iii)
k=1 k=1
Corollaire 18.1.3 — Espace vectoriel L (E, F). Soient E et F deux K-ev. L’ensembles des
applications linéaires de E dans F est un K-ev.
Démonstration. L’ensemble L (E, F) est non vide car il contient toujours l’application nulle. Le
résultat découle alors immédiatement des deux premiers points du théorème précédent. ■
Définition 18.1.3 — Image. Soient E et F des K-ev, et f ∈ L (E, F). On appelle image de f et
on note im( f ) le sous-ensemble de F défini par :
© ¯ ª
im( f ) = f (E) = v ∈ F ¯ ∃u ∈ E, v = f (u) .
R Le noyau de f est l’image réciproque de {0F } par f . L’image de f est l’image directe de E
par f .
Théorème 18.1.4 — Le noyau et l’image sont des K-ev. Soient E et F des K-ev, et f ∈
L (E, F). Alors ker( f ) est un sev de E et im( f ) est un sev de F.
18.1.4 Isomorphismes
Définition 18.1.4 — Isomorphisme. Soient E et F des K-ev, et f ∈ L (E, F). On dit que f est
un isomorphisme si elle est bijective. On dit alors que E et F sont isomorphes (i.e. il existe
un isomorphisme de E dans F).
de E. Soit u ∈ E, alors f −1 (u) ∈ Kn , on peut donc décomposer fµ−1 (u) dans ¶ la base (e 1 , ..., e n ). Soit
n n n
−1
λk .e k sa décomposition. On a u = f f (u) = f λk .e k = λk . f (e k ). Donc u
P ¡ −1 ¢ P P
f (u) =
k=1 k=1 k=1
n
se décompose bien dans B (i.e. la famille B est génératrice de E). De plus, si λk . f (e k ) = 0,
P
k=1
n n
µ ¶
λk .e k = 0. Or f est bijective, donc ker( f ) = 0. On en déduit donc que λk .e k = 0
P P
alors f
k=1 k=1
ce qui implique que λ1 = ... = λn = 0. La famille est donc libre. On conclut bien que B est une
base de E.
Réciproquement, si E est un K-ev de dimension n, alors on peut définir un isomorphisme f de E
vers Kn . En effet, on considère µ une base¶ B = (u 1 , ..., u n ) de E et on pose f l’application telle que
n n
pour tout (λ1 , ..., λn ) ∈ Kn , f λk .u k = λk .e k . On peut ensuite vérifier assez facielement
P P
k=1 k=1
que f est un isomorphisme de E dans Kn . ■
18.1 Cas général 223
R Le théorème précédent induit que deux K-ev de dimension finie sont isomorphes si et
seulement si ils ont même dimension. L’image par un isomorphisme f : E → F d’un sev de
E dimension n est donc un sev de F de dimension n.
18.1.5 Endomorphismes
Définition 18.1.5 — Endomorphisme, automorphisme. Soit E un K-ev. Une application
linéaire de E dans E est appelé un endomorphisme. L’ensemble des endomorphismes de E
est noté L (E). Un endomorphisme bijectif est appelé un automorphisme. L’ensemble des
automorphismes de E est noté GL(E) et appelé le groupe linéaire de E.
R L (E) est un K-ev par le corollaire 18.1.3. Par contre, si E n’est pas réduit à 0E , alors GL(E)
muni des opérations usuelles n’est pas un espace vectoriel, car l’application nulle n’est
alors jamais bijective.
Propriété 18.1.8 — Identité. Soit E un K-ev. L’application identité de E définie comme suit est
un automorphisme.
i d E : E −→ E
.
v 7−→ v
(i) f n ◦ f m = f n+m = f m ◦ f n .
¡ n ¢m ¡ ¢n
(ii) f = f nm = f m .
−n
R ¡ −1 ¢nle cas d’un automorphisme f , on peut définir les puissances négatives via f
Dans =
f et les règles de calcul se généralise alors à tout entier dans Z.
224 Chapitre 18. Applications linéaires
¢n
Pour deux endomorphismes f et g de E, on n’a pas a priori f ◦g = g ◦ f , ni f ◦ g = f n ◦g n .
¡
R
18.1.6 Projecteurs
Définition 18.1.7 — Projecteur. Soient E un K-ev et F et G deux sev de E tels que E = F⊕G. On
considère les applications p et q de E dans E telles que, pour tout u ∈ E, u = p(u) + q(u) avec
p(u) ∈ F et q(u) ∈ G. L’application p est le projecteur sur F parallèlement à G et l’application
q est le projecteur sur G parallèment à F.
R Les applications p et q sont bien définies car F et G sont supplémentaires. Ainsi, tout
vecteur de E se décompose de manière unique comme somme d’un vecteur de F et d’un
vecteur de G.
R Pour définir une application linéaire d’un espace de dimension finie E vers un espace F, il
est suffisant de définir l’application sur une base de E.
R Le rang de f est bien défini car l’image de f est un espace vectoriel de dimension finie.
est un sev de E, F est une famille libre de E que l’on peut compléter en une base de E (par
le théorème de la base incomplète). Soit B = (e 1 , ..., e n ) une telle base. On va montrer que
¡ ¢ ¡ ¢
f (e p+1 ), ..., f (e n ) est une base de im( f ). En effet, par l’exercice qui précède, f (e 1 ), ..., f (e n )
¡ ¢
engendre im( f ), mais comme f (e 1 ) = ... = f (e p ) = 0, f (e p+1 ), ..., f (e n ) engendre
à im( f!). De plus,
n n n
soit λp+1 , ..., λn ∈ Kn−p tel que λk f (e k ) = 0. On a λk f (e k ) = f λk e k = 0, d’où
¡ ¢ P P P
k=p+1 k=p+1 k=p+1
n n
λk e k ∈ ker( f ). Or ker( f ) ⊕ V ECT e p+1 , ..., e n = E. D’où λk e k = 0 et λp+1 = ... = λn = 0.
P ¡ ¢ P
k=p+1 k=p+1
¡ ¢
Ainsi, la famille f (e p+1 ), ..., f (e n ) est bien libre et c’est une base de im( f ). On a donc rg( f ) =
n − p = n − dim(ker( f )). ■
R On peut
¡ retenir
¢ facilement le théorème du rang sous sa forme plus symétrique : dim(E) =
dim im( f ) + dim(ker( f )).
Démonstration. Il s’agit d’un corollaire direct du théorème du rang ainsi que du critère d’injec-
tivité des applications linéaires. En effet, f est injective si et seulement si ker( f ) = {0E }, ce qui
¡ ¢
équivalent à dim ker( f ) = 0, puis à rg( f ) = n via le théorème du rang. ■
R Cette définition n’est pas limitée au contexte des espaces vectoriels de dimension finie
mais on se limitera à ce contexte dans le cadre du programme.
Démonstration. On suppose que f est une forme linéaire non nulle. Alors im( f ) est un sev de
K non réduit à 0, on a donc forcément im( f ) = K et rg( f ) = 1. D’où, par le théorème du rang,
¡ ¢
dim ker( f ) = n − 1, et ker( f ) est un hyperplan de E.
Réciproquement, si H est un hyperplan de E alors, on considère (e 1 , ..., e n−1 ) une base de H et on
la complète une une base (e 1 , ..., e n ) de E. Alors l’application linéaire définie par f (e i ) = 0 pour
tout i ∈ 1, n − 1 et f (e n ) = 1 définit bien une forme linéaire de E de noyau H. ■
λ1
.
MatB (v) = .. .
λn
R De manière plus générale, la multiplication à gauche (resp. à droite) par une matrice A, de
Mn,m dans Mp,m (resp. Mm,p dans Mm,n ), est une application linéaire pour tout m ∈ N∗ .
Définition 18.2.6 — Noyau, image et rang d’une matrice. Le noyau (resp. l’image, resp.
le rang) d’une matrice est le noyau (resp. l’image, resp. le rang) de son application linéaire
associée.
18.2 Dimension finie 229
Exercice 18.18 Justifier que l’image d’une matrice est le sev engendré par ses vecteurs
colonnes. ■
1 2 1
1 0 3
Théorème 18.2.7 — Rang de la transposée. Une matrice et sa transposée ont même rang.
Théorème 18.2.8 — Rang d’une application linéaire. Soient E et F deux K-ev de dimension
finie et g ∈ L (E, F). Alors, le rang de f est égal au rang de sa matrice MatBF ,BE (g ) dans
n’importe quelles bases BE de E et BF de F.
x1
.
Démonstration. Soient X = .. , BE = (e 1 , ..., e n ) une base de E et BF = f 1 , ..., f p une base de
¡ ¢
xn
n
P
F. On pose M = MatBF ,BE (g ) et u = x k e k de sorte que X = MatBE (u). Alors, on a X ∈ ker(M) ⇔
¡ ¢ k=1
MX = 0 ⇔ MatBF g (u) = 0 ⇔ g (u) = 0 ⇔ u ∈ ker(g ). Ainsi, ker(M) est isomorphe à ker(g ) via la
restriction de u 7→ MatBE (u) à ker(g ). Ces deux espaces ont donc même dimension. On conclut
via le théorème du rang. ■
230 Chapitre 18. Applications linéaires
(i) g ◦ f = f ◦ g = i dE .
(ii) g ◦ f = i dE .
(iii) f ◦ g = i dE .
Exercice 18.20 Soit A ∈ Mn (K), à l’aide des différents théorèmes du chapitre, donner six
propositions mathématiques équivalentes à la proposition « A ∈ GLn (K) ». ■
18.2 Dimension finie 231
P : L (E) −→ L (E)
m
ak f k
P
f 7−→ P( f ) =
k=0
Dans la suite, on illustre via des exemples l’utilisation de polynômes annulateurs pour
déterminer l’inverse ou une puissance k-ième d’un endomorphisme ou d’une matrice.
Exercice 18.22 On considère la même matrice M que dans l’exercice précédent. En utilisant
le polynôme annulateur de M, déterminer Mn pour tout n ∈ N. ■
19. Intégration sur un intervalle quelconque
Dans ce chapitre, on généralise les notions qui ont été abordées au chapitre 10 de manière à
pouvoir considérer l’intégrale d’une fonction qui n’est pas forcément continue aux bornes de
cette intégrale.
De manière analogue, soit g une application continue sur ]a, b]. On dit que l’intégrale
Z b Z b
g (t )d t converge si lim+ g (t )d t existe et est finie, et diverge sinon. Dans le cas conver-
a x→a x
geant, on pose :
Z b Z b
g (t )d t = lim+ g (t )d t .
a x→a x
R Cette définition est compatible avec la définition introduite au chapitre 10 dans le sens
où, si f est prolongeable par continuité en b, alors l’intégrale de f sur le segment [a, b] est
égale à l’intégrale de f sur l’intervalle semi-ouvert [a, b[.
234 Chapitre 19. Intégration sur un intervalle quelconque
Théorème 19.1.1 — Intégrale sur un intervalle ouvert. Soient a, b ∈ R avec a < b et f une
application continue sur ]a, b[. Alors, les propositions suivantes sont équivalentes.
Z c Z b
(i) ∃c ∈]a, b[, f (t )d t et f (t )d t convergent.
a c
Z c Z b
(ii) ∀c ∈]a, b[, f (t )d t et f (t )d t convergent.
a c
Z c Z b
Dans ce cas, la somme f (t )d t + f (t )d t est indépendante de c. On dit alors que l’inté-
Z b a c
Démonstration. L’implication (ii) ⇒ (i) est triviale. Pour montrer la réciproque, on considère
Z c Z b
c ∈]a, b[ tel que f (t )d t et f (t )d t convergent, et c 0 ∈]a, b[. Alors on a, pour tout x ∈]a, b],
a c
Z c0 Z c Z c0 Z c0 Z c Z c0
f (t )d t = f (t )d t + f (t )d t . D’où f (t )d t converge vers f (t )d t + f (t )d t . De
x Z b x c Z c aZ b a c
■
19.1 Intégrales généralisées 235
Définition 19.1.2 — Intégrale sur un intervalle ouvert privé d’un nombre fini de points.
n
S
Soient n ≥ 2, a 1 , ..., a n ∈ R avec a 1 < ... < a n et f une application continue sur ]a k , a k+1 [.
k=1
Z b Z ak+1
On dit que f (t )d t converge si, pour tout k ∈ 1, n − 1, f (t )d t converge, et diverge
a ak
sinon. Dans le cas convergeant, on pose :
Z b n−1
X Z ak+1
f (t )d t = f (t )d t .
a k=1 a k
Z b Z a Z b
R Comme dans le chapitre 10, si f (t )d t converge, on pose f (t )d t = − f (t )d t .
a b a
De plus, si une de ces intégrales converge et une autre diverge, alors la troisième diverge.
3
Théorème 19.1.3 — Linéarité de l’intégrale. Soient (a, b, c) ∈ R , f et g deux fonctions telles
que les intégrales qui suivent sont bien définies, et λ, µ ∈ R. Alors, si au moins deux des
intégrales suivantes convergent, la troisième converge et on a :
Z b¡ Z b Z b
λ f (t ) + µg (t ) d t = λ f (t )d t + µ
¢
g (t )d t .
a a a
De plus, si une de ces intégrales converge et une autre diverge, alors la troisième diverge.
2
Théorème 19.1.4 — Positivité de l’intégrale. Soient (a, b) ∈ R avec a < b et f une fonction
continue positive sur ]a, b[ (i.e. ∀t ∈]a, b[, f (t ) ≥ 0), d’intégrale convergente sur ]a, b[. Alors,
on a : Z b Z b
f (t )d t ≥ 0 et f (t )d t = 0 ⇔ ∀t ∈]a, b[, f (t ) = 0 .
a a
2
Théorème 19.1.5 — Croissance de l’intégrale. Soient (a, b) ∈ R avec a < b, f et g deux
fonctions définies continues sur ]a, b[, d’intégrales convergentes sur cet intervalle. On suppose
236 Chapitre 19. Intégration sur un intervalle quelconque
Exercice 19.3 Déterminer la convergence et les valeurs éventuelles des intégrales suivantes.
Z +∞ Z 1 ln(t )
−2t
1. te dt 2. p dt .
0 0 t
■
fonctions définies continues sur [a, b[ telles que 0 ≤ f ≤ g (i.e. ∀t ∈ [a, b[, 0 ≤ f (t ) ≤ g (t )). On
a alors : Z b Z b
g (t )d t converge ⇒ f (t )d t converge.
a a
Z b Z b
Dans ce cas, on a 0 ≤ f (t )d t ≤ g (t )d t .
a a
2
Théorème 19.2.2 — Comparaison par équivalence. Soient (a, b) ∈ R avec a < b, f et g
deux fonctions définies continues sur [a, b[ telles que f (t ) ∼b g (t ), avec g positive au voisinage
de b, alors : Z b Z b
g (t )d t converge ⇔ f (t )d t converge.
a a
2
Théorème 19.2.3 — Comparaison par négligeabilité. Soient (a, b) ∈ R avec a < b, f et g
¡ ¢
deux fonctions définies continues sur [a, b[ telles que f (t ) =b o g (t ) , avec f et g positives au
voisinage de b, alors :
Z b Z b
g (t )d t converge ⇒ f (t )d t converge.
a a
Exercice 19.5 Énoncer chacun de ces théorèmes sous une forme contraposée. ■
R On peut établir des résultats analogues pour des intervalles de type ]a, b] ou ]a, b[.
Exercice 19.7 Montrer que toute fonction continue peut s’écrire comme la différence de
deux fonctions continues positives. ■
2
Théorème 19.2.4 — Convergence absolue et convergence. Soient (a, b) ∈ R avec a < b
Z b
et f une fonction continue sur ]a, b[. Si f (t )d t est absolument convergente alors elle est
a
convergente.
¯ ¯ ¡¯ ¯ ¢
Démonstration. Il suffit de remarquer que l’on a, pour tout t ∈]a, b[, f (t ) = ¯ f (t )¯− ¯ f (t )¯ − f (t ) .
Z b Z b
¯ ¯ ¡¯ ¯ ¢
Or si ¯ f (t )¯ d t est convergente, alors ¯ f (t )¯ − f (t ) d t est convergente par le théorème de
a a ¯ ¯ ¯ ¯
comparaison par inégalité puisque, pour tout t ∈]a, b[, 0 ≤ ¯ f (t )¯ − f (t ) ≤ 2 ¯ f (t )¯. On conclut via
le théorème de linéarité de l’intégrale. ■
2
Corollaire 19.2.5 — Inégalité triangulaire. Soient (a, b) ∈ R avec a < b et f une fonction
Z b
continue sur ]a, b[. Si f (t )d t est absolument convergente alors on a :
a
b b¯
¯Z ¯ Z
¯ ¯ ¯
¯
¯ f (t )d t ¯¯ ≤ ¯ f (t )¯ d t .
a a
+∞ sin(t 2 ) sin(t 2 ) ¯¯
Z ¯Z +∞ ¯
¯
Exercice 19.8 Montrer que converge et majorer ¯
¯ . ■
0 t2 0 t2 ¯
19.3 Intégrales classiques 239
b · 1−α ¸b
dt t
Z
Démonstration. Si α 6= 1, on a α
= . On obtient ensuite facilement les résultats
a t 1 −α a
Z b
dt
pour α 6= 1 en faisant tendre soit b vers +∞, soit a vers 0. Enfin, on a = [ln(t )]ba , ce qui
a t
permet de conclure à la divergence des deux intégrales lorsque α = 1. ■
Z +∞ 1
Exercice 19.9 Que peut-on dire de dt ? ■
0 tα
Z 1
Exercice 19.11 Soit α ∈ R. Montrer que t α ln(t )d t converge si et seulement si α > −1. ■
0
240 Chapitre 19. Intégration sur un intervalle quelconque
Loi exponentielle
Z +∞
Théorème 19.3.2 — Densité d’une loi exponentielle. Soit λ ∈ R. Alors e −λt d t converge
0
si et seulement si λ > 0. Dans ce cas, elle vaut λ1 .
" #x
x e −λt1³
Z ´
−λt
Démonstration. Si λ 6= 0, on a e dt = − 1 − e −λx . On conclut en faisant
=
0 λ λ
0 Z +∞
tendre x vers +∞. Le cas λ = 0 est trivial, il s’agit de la divergence de 1d t . ■
0
Z +∞
Théorème 19.3.3 — Moments d’une loi exponentielle. Soit λ ∈ R. Si λ > 0, t n e −λt d t
0
converge pour tout n ∈ N.
³ 0
´
Démonstration. Si λ > 0, il existe λ0 tel que 0 < λ0 < λ et on a t n e −λt =+∞ o e −λ t . Ceci permet
de conclure via le résultat précédent. ■
Loi normale
Z +∞ t2
Théorème 19.3.4 — Densité d’une loi normale. L’intégrale définie par e − 2 d t , appelée
p −∞
intégrale de Gauss, converge et est égale à 2π.
Démonstration. La démonstration de ce théorème est admise pour le moment. Elle sera traitée
en devoir. ■
Z +∞ t2
Théorème 19.3.5 — Moments d’une loi normale. Pour tout n ∈ N, t n e − 2 d t converge.
−∞
t2
Démonstration. Par croissance comparée, on a, pour tout n ∈ N, t n e − 2 =+∞ o t12 . On en déduit
¡ ¢
Z +∞
t2
que t n e − 2 converge. On raisonne de même en −∞, ce qui permet de conclure. ■
0
20. Dérivées successives
Définition 20.1.2 — Fonction de classe C∞ . Soit f une application réelle définie sur un
intervalle I de R. On dit que f est de classe C∞ sur I si, pour tout p ∈ N, f est de classe C p .v
Définition 20.1.3 — Fonction dérivable p fois en un point. Soient f une application réelle
définie sur un sous-ensemble I de R, x 0 ∈ I et p ∈ N∗ . On dit que f est dérivable p fois en x 0
s’il existe un voisinage J de x 0 tel que f est de classe C p−1 sur J et f (p−1) est dérivable en x 0 .
R On parle également de l’ensemble Dp (I, R) des fonctions p fois dérivables en tout point de I
mais dont les dérivées p-ième ne sont pas forcément continues. On a ainsi l’emboîtement
suivant de sous-ensembles de RI : C p+1 (I, R) ⊂ Dp+1 (I, R) ⊂ C p (I, R) ⊂ Dp (I, R).
Exercice 20.1 Soit n ∈ N. Montrer que la dérivée (n + 1)-ème d’un polynôme de degré au
plus n est nulle. ■
242 Chapitre 20. Dérivées successives
Exercice 20.2 Montrer que les applications exp, cos, sin et X n sont C∞ sur R et déterminer
toutes leurs dérivées successives. ■
de Béziers, alors que le mathématicien Paul de Casteljau étudiait ces mêmes courbes pour le
compte de Citroën. Cela fournit un bon exemple d’une technologie qui, initialement conçue
pour un domaine très spécifique (le dessin de carrosseries), a profité à un tout autre domaine (le
rendu visuel en informatique).
Z b
Démonstration. On montre le résultat par récurrence. Si p = 0, on a f 0 (t )d t = f (b) − f (a)
a
par la définition de l’intégrale, ce qui correspond à la proposition. On suppose donc que la
proposition est vraie à un certain rang p ∈ N et on montre qu’elle est vraie au rang p+1. Soient f ∈
p
f (k) (a)
Z b (p+1)
k f (t )
p+2 2
(I, R) et (a, b) ∈ I . On a f (b) = (b − t )p d t , par hypothèse
X
C (b − a) +
k=0 k! a p!
¸b Z b (p+2)
(b − t )p+1
Z b (p+1) (p+1)
f −f f
·
(t ) p (t )
de récurrence. Or (b − t ) d t = + (b − t )p+1 d t via
a p! (p + 1)! a a (p + 1)!
une intégration par parties, ce qui permet de conclure. ■
Corollaire 20.2.2 — Inégalité de Taylor. Soient p ∈ ¯N, f une application de classe C p+1 sur
un intervalle I de R et M ∈ R+ un majorant de ¯ f (p+1) ¯ sur I. Alors, on a :
¯
¯ ¯
p ¯ M |b − a|p+1
2
¯ X f (k) (a) k¯
∀(a, b) ∈ I , ¯ f (b) − (b − a) ¯ ≤ .
¯
¯ k=0 k! ¯ (p + 1)!
¯ (b − t )p ¯
¯Z b (p+1) ¯ Z b ¯ (p+1) ¯ Z b¯ ¯
¯ f (t ) p
¯ ¯f (t ) p¯
¯
Démonstration. On a ¯ ¯ (b − t ) d t ¯ ≤
¯ ¯ (b − t ) ¯ d t ≤ M ¯ p! ¯ d t .
¯ ¯
a p! a
¯ p! a
¯ (b − t )p ¯
Z b¯ ¯ p+1
Or ¯ ¯ d t = |b − a| , ce qui permet de conclure. ■
¯ p! ¯ (p + 1)!
a
X P (k) (a)
m−1 X P (k+m) (a)
n−m (m)
est P = (X − a)k + (X − a)m (X − a)k = R + (X − a)m Q avec Q(a) = P m!(a) .
k=0 k! k=0 (k + m)!
Or la racine a est de multiplicité m si et seulement si R = 0 et Q(a) 6= 0, ce qui permet de
conclure. ■
P(x − a) est appelé la partie régulière du développement limité et f (x) − P(x − a) le reste.
R On peut également considérer des DLn à gauche ou à droite, notés alors DLn (a − ) et
DLn (a + ).
Théorème 20.2.5 — Unicité d’un DLn . Soient n ∈ N, a ∈ R et f une fonction réelle définie sur
un voisinage de a. Si f admet un DLn en a, il est unique.
Démonstration. Si f (x) =a P(x − a) +o ((x − a)n ) =a Q(x − a) +o ((x − a)n ) alors on peut dire que
P(x − a) − Q(x − a) =a o ((x − a)n ), puis que (P − Q)(h) =0 o (h n ). Or P − Q est un polynôme de
degré au plus n donc ceci n’est réalisé que si et seulement si P − Q = 0. On a donc bien P = Q. ■
Corollaire 20.2.6 — Parité. Soit f une fonction réelle définie sur un intervalle I de R symé-
trique par rapport à 0. On suppose que f admet un DLn en 0 pour un n ∈ N. Alors, si f est
paire (resp. impaire), la partie régulière de f est paire (resp. impaire).
Démonstration. Si f est paire et que f (x) =0 P(x) + o(x n ), on a f (x) = f (−x) =0 P(−x) + o(x n ) et
par unicité du DLn , P(x) = P(−x). On procède de même pour f impaire. ■
Théorème 20.2.7 — Opérations sur les DLn . Soient n ∈ N, a ∈ R, f et g deux fonctions réelles
définies sur un voisinage de a et λ ∈ R. On suppose que f et g possèdent des DLn (a) donnés
par des polynômes P et Q respectivement. Alors, on a :
R Il existe également des résultats concernant les quotients et compositions pour les déve-
loppements limités mais ceux-ci ne sont pas au programme.
Exercice 20.9 Démontrer le théorème. Montrer que si n ≥ 2, une fonction peut admettre un
20.2 Développements asymptotiques 247
1
x n+1 sin
½ ¡ ¢
xn si x 6= 0
DLn sans être n fois dérivable – on étudiera la fonction f : x 7→ . ■
0 sinon
En particulier, on a :
1
1 − x + x 2 − x 3 + · · · + (−1)n x n + o x n
¡ ¢
=0
1+x
n
(−1)k x k + o x n .
X ¡ ¢
=0
k=0
1
1 + x + x2 + x3 + · · · + xn + o xn
¡ ¢
=0
1−x
n
xk + o xn .
X ¡ ¢
=0
k=0
p x x2 x3 (2n)!
+ · · · + (−1)n−1 2n xn + o xn
¡ ¢
1+x =0 1+ − + 2
2 8 16 2 (2n − 1)(n!)
n (2k)!
(−1)k−1 2k
X ¡ n¢
=0 + o x .
k=0 2 (2k − 1)(k!)2
Théorème 20.2.12 — Sinus. Pour tout n ∈ N, le DL2n+2 (0) de la fonction sinus est donné par :
x3 x5 x 2n+1
+ · · · + (−1)n + o x 2n+2
¡ ¢
sin(x) =0 x− +
6 120 (2n + 1)!
n 2k+1
x
(−1)k + o x 2n+2 .
X ¡ ¢
=0
k=0 (2k + 1)!
Théorème 20.2.13 — Cosinus. Pour tout n ∈ N, le DL2n+1 (0) de la fonction cosinus est donné
par :
x2 x4 x 2n
+ · · · + (−1)n + o x 2n+1
¡ ¢
cos(x) =0 1 − +
2 24 (2n)!
n 2k
x
(−1)k + o x 2n+1 .
X ¡ ¢
=0
k=0 (2k)!
Ce chapitre comporte les derniers points d’analyse non encore abordés du programme
d’ECS 1. Une première section traite très brièvement de la notion de point critique. Il s’agit là
d’une introduction à une notion qui sera plus amplement développée en ECS 2. Une deuxième
section traite des fonctions convexes.
Définition 21.1.1 — Point critique. Soit f une application réelle définie sur un intervalle I
de R et dérivable en tout point de I. On dit que x 0 ∈ I est un point critique de f si f 0 (x 0 ) = 0.
Ainsi, si f 00 (x 0 ) > 0, f (x) − f (x 0 ) est strictement positif sur un voisinage de x 0 exclu. La fonction
f admet donc bien un minimum local en x 0 . ■
Théorème 21.2.3 — Fonctions convexes de classe C2 . Soit f une application réelle définie
de classe C2 sur un intervalle I de R. Alors, on a les propositions qui suivent.
à !1
1 n n n
n
Exercice 21.3 Soit n ∈ N∗ et (x 1 , ..., x n ) ∈ R∗+ . Montrer que
¡ ¢ X Y
xi ≥ xi . ■
n i =1 i =1
Théorème 21.2.4 — Point d’inflexion C2 . Soient f une application réelle définie sur un
intervalle ouvert I de R, x 0 ∈ I et C la courbe représentative de f . On suppose que f est
de classe C2 sur I et que f 00 s’annule en changeant de signe en x 0 , alors le point M0 de
coordonnées x 0 , f (x 0 ) est un point d’inflexion de C .
¡ ¢
22. Variables aléatoires à densité
22.1 Introduction
22.1.1 Définition et premières propriétés
Définition 22.1.1 — Variable aléatoire à densité. Soit X une VAR sur un espace probabilisé
(Ω, A , P). On dit que X est une VAR à densité (ou simplement variable aléatoire à densité)
si sa fonction de répartition FX est continue sur R et C1 sur R éventuellement privé d’un
nombre fini de points.
Définition 22.1.2 — Densité. Soit X une VAR à densité sur un espace probabilisé (Ω, A , P). On
appelle densité de X toute fonction f X , à valeurs postives, et égale à F0X sauf éventuellement
en un nombre fini de points. On a, dans ce cas, la proposition suivante :
Z x
∀x ∈ R, FX (x) = f X (t )d t .
−∞
R Une VARD n’est donc pas une VAR à densité puisque sa fonction de répartition est discon-
tinue en toute valeur prise par X.
Théorème 22.1.1 — Caractérisation de la loi par la (une) densité. Soient X et Y deux VAR
à densité sur un espace probabilisé (Ω, A , P), f X et f Y deux densités associées à ces variables
aléatoires et L X et L Y les lois de X et Y respectivement. Alors on a :
f X = f Y ⇒ LX = LY .
254 Chapitre 22. Variables aléatoires à densité
Théorème 22.1.2 — Caractérisation d’une densité. Toute fonction f positive, continue sur
Z +∞
R éventuellement privé d’un nombre fini de points, et telle que f (t )d t = 1 est la densité
−∞
d’une variable aléatoire à densité.
Les théorèmes qui précèdent impliquent que pour étudier une variable à densité, il suffit
de s’intéresser à sa densité, et qu’étudier une densité revient à étudier une fonction postive,
continue et intégrable sur R. On ramène ainsi des problèmes de probabilités à des problèmes
d’intégration.
Théorème 22.1.3 — Propriétés d’une VAR à densité. Soient X une VAR à densité sur un
espace probabilisé (Ω, A , P) et f X une densité de X. Alors, on a les propositions qui suivent.
(i) ∀a ∈ R, P(X = a) = 0.
2
(ii) ∀(a, b) ∈ R tel que a < b,
Z b
P(a < X < b) = P(a ≤ X < b) = P(a < X ≤ b) = P(a ≤ X ≤ b) = f X (t )d t .
a
qui tend vers 0 lorsque n tend vers +∞ par continuité de FX . Ce qui permet de conclure pour le
point (i).
Le deuxième point découle directement du premier point et de la proposition dans la définition
d’une densité. ■
R Si f X est nulle en dehors de [a, b], on a P(X < a) = P(X > b) = 0. Ainsi, X ∈ [a, b] presque
sûrement.
R Cette définition est bien indépendante de la densité de X choisie car deux densités ne
diffèrent qu’en un nombre fini de points.
22.1 Introduction 255
1
Exercice 22.1 — Loi de Cauchy. Soit f la fonction définie par f (x) = π 1+x pour tout x ∈ R.
( 2)
Montrer que f est la densité d’une variable X, puis montrer que X n’admet pas d’espérance. ■
Définition 22.1.4 — Moments. Soient X une VAR à densité sur un espace probabilisé (Ω, A , P)
et r ∈ N∗ . Alors, on dit que X admet un moment d’ordre r si et seulement si X r possède une
espérance. Dans ce cas, le moment d’ordre r de X est E(X r ).
Théorème 22.1.4 — Calcul des moments. Soient X une VAR à densité sur un espace pro-
babilisé (Ω, AZ, P), f X une densité de X et r ∈ N∗ . Alors, X possède un moment d’ordre r si et
+∞
seulement si t r f X (t )d t est absolument convergente. Dans ce cas, on a :
−∞
Z +∞
r
E(X ) = t r f X (t )d t .
−∞
Démonstration. Ce théorème est un corollaire direct du théorème de transfert qui sera traité en
ECS 2. ■
Théorème 22.1.6 — Espérance d’un transfert affine. Soient X une VAR à densité sur un
256 Chapitre 22. Variables aléatoires à densité
espace probabilisé (Ω, A , P) et (a, b) ∈ R∗ × R. On suppose que X possède une espérance. Alors,
Y = aX + b possède une espérance et on a :
E(Y) = aE(X) + b .
Z β Z aβ+b
t −b ax + b
µ ¶
1
Démonstration. Soient α, β ∈ R tels que α < β. On a t f dt = f (x)ad x.
Z +∞ α |a| a Z aα+b |a|
+∞
Or on sait que x f (x) d x converge absolument vers E(X) et que f (x)d x converge
−∞ Z +∞ −∞
t −b
µ ¶
1
absolument vers 1. D’où t f d t converge absolument vers aE(X) + b. ■
−∞ |a| a
Définition 22.1.5 — Variable centrée. Soit X une VAR à densité sur un espace probabilisé
(Ω, A , P). On dit que X est centrée lorsque X admet une espérance et E(X) = 0. Si X admet
une espérance, on appelle variable centrée associée à X la VAR à densité X − E(X).
R On a exactement la même définition pour tout type d’intervalle borné (i.e. [a, b[, ]a, b] et
]a, b[).
Exercice 22.2 Vérifer que la fonction f X donnée dans la définition est bien une densité de
probabilité. Représenter graphiquement cette fonction ainsi que la fonction de répartition
de la variable X associée que l’on explicitera. ■
22.2 VAR à densité usuelles 257
Théorème 22.2.1 — Espérance d’une loi uniforme. Soient (a, b) ∈ R2 avec a < b et X une
VAR telle que X ,→ U [a,b] . Alors X admet une espérance et on a :
b+a
E(X) = .
2
· 2 ¸b
+∞ tdt b
1 t b2 − a2 a +b
Z Z
Démonstration. E(X) = t f (t )d t = = = = où l’intégrale
−∞ a b−a b − a 2 a 2(b − a) 2
est bien absolument convergente car la fonction intégrée est continue sur [a, b] et nulle en dehors
de [a, b]. ■
Exercice 22.3 Soient (a, b) ∈ R2 avec a < b, X une VAR et Y = a + (b − a)X. Montrer que
X ,→ U [0,1] ⇔ Y ,→ U [a,b] . ■
Exercice 22.4 — Moments d’une loi uniforme. Soient (a, b) ∈ R2 avec a < b et X une VAR
telle que X ,→ U [a,b] . Montrer que X possède des moments d’ordre r pour tout r ∈ N∗ et
déterminer leur valeur. ■
λe
½ −λt
si t ≥ 0
f X (t ) =
0 sinon.
Exercice 22.5 Vérifer que la fonction f X donnée dans la définition est bien une densité de
probabilité. Représenter graphiquement cette fonction ainsi que la fonction de répartition
258 Chapitre 22. Variables aléatoires à densité
Théorème 22.2.2 — Espérance de la loi exponentielle. Soient λ ∈ R∗+ et X une VAR telle
1
que X ,→ E (λ). Alors X admet une espérance et E(X) = .
λ
Démonstration. Il découle du théorème 19.3.3 que X admet une espérance. On la calcule grâce
e −λx − 1
Z x h ix Z x
à une intégration par parties. On a λt e −λt d t = −t e −λt + e −λt d t = −xe −λx −
0 0 0 λ
1
qui tend vers lorsque x tend vers +∞. ■
λ
¡ ¢2
Exercice 22.6 Soit g une application définie sur R+ , décroissante, telle que ∀(x, y) ∈ R+ ,
g (x + y) = g (x) + g (y). Le but de l’exercice est de montrer que ∃λ ∈ R+ , ∀x ∈ R+ , g (x) = −λx.
¡ ¢ g (1)
1. Montrer que pour tout n ∈ N∗ , g n1 = n .
¡ ¢2 1
2. Soient (x, y) ∈ R+ et n ∈ N∗ . On suppose que n+1 < y < n1 . Montrer alors que l’on a
¯ |g (1)|
¯ ¯
¯ g (x+y)−g (x)
¯ y − g (1)¯ ≤ n . En déduire que g est dérivable à droite en tout point.
3. Montrer, de même, que g est dérivable à gauche en tout point et déterminer sa dérivée.
4. Conclure.
■
22.2 VAR à densité usuelles 259
Démonstration. On suppose que X ,→ E (λ) avec λ ∈ R∗+ . Sans difficulté, on a (i) et (iii). Soit
(x, y) ∈ R+ , on a P X > x + y ¯ X > y = ([ P X>y
¡ ¢2 ¢ P X>x+y ]∩[X>y ]) P(X>x+y ) e −λ(x+y)
= P X>y = e −λy = e −λx = P (X > x).
¡ ¯
( ) ( )¡ ¢
2
Réciproquement, on suppose (i), (ii) et (iii). Alors, on a ∀(x, y) ∈ R+ , P(X > x + y) = P(X >
x)P(X > y). On pose alors, ∀x ∈ R, g (x) = ln (P(X > x)). Par l’exercice qui précède, on a g (x) = −λx
pour tout x ∈ R+ avec λ ∈ R+ . On a donc, pour tout x ∈ R+ , P(X > x) = e −λx et FX (x) = 1 − e −λx . Or
x→+∞ FX (x) = 1 d’où λ 6= 0. Ce qui permet de conclure.
lim ■
R On peut utiliser la loi exponentielle pour modéliser la durée de vie d’un phénomène sans
mémoire : la probabilité que le phénomène dure au moins x + y heures sachant qu’il a
déjà duré y heures sera la même que la probabilité qu’il dure x heures après qu’il a débuté.
1
Exercice 22.7 Soient λ ∈ R∗+ , X une VAR et Y = X. Montrer que X ,→ E (1) ⇔ Y ,→ E (λ). ■
λ
260 Chapitre 22. Variables aléatoires à densité
0,4
ϕ : R −→ R
t 2 0,2
t 7−→ p1 e − 2
2π
-4 -2 2 4
R La courbe représentative de la densité d’une loi normale est souvent appelée bell curve en
anglais, en référence à sa forme en cloche.
Exercice 22.8 Vérifier que la fonction ϕ donnée dans la définition est bien une densité de
probabilité. ■
Exercice 22.9 Montrer que l’on a, pour tout x ∈ R, Φ(−x) = 1 − Φ(x). Interpréter ce résultat
graphiquement. ■
Théorème 22.2.4 — Espérance d’une loi normale centrée réduite. Soit X une VAR telle
que X ,→ N (0, 1). Alors X admet une espérance et E(X) = 0.
Démonstration. On sait déjà que X admet une espérance (voir théorème 19.3.5). Or l’intégrale
sur R d’une fonction impaire vaut 0 si cette intégrale converge. Comme t 7→ t ϕ(t ) est impaire,
on obtient bien E(X) = 0. ■
Définition 22.2.4 — Loi normale. Soient µ ∈ R, σ ∈ R∗+ et X une VAR sur un espace proba-
bilisé (Ω, A , P). Alors on dit que X suit une loi normale de paramètres µ et σ2 (ou loi de
Laplace-Gauss) et on note X ,→ N (µ, σ2 ) lorsque X admet pour densité la fonction f X définie,
22.2 VAR à densité usuelles 261
Exercice 22.10 Vérifier que la fonction f X donnée dans la définition est bien une densité de
probabilité. Représenter f X pour µ = 3 et σ2 = 4. ■
X−µ
Exercice 22.11 Soient µ ∈ R, σ ∈ R∗+ , X une VAR et X ∗ = .
σ
1. Montrer que X ,→ N (µ, σ2 ) ⇔ X ∗ ,→ N (0, 1).
2. Que peut-on dire de l’espérance d’une loi normale ?
Soit k ∈ R+ . Montrer que P X ∈ [µ − kσ, µ + kσ] ne dépend que de k.
¡ ¢
3.
À l’aide de Scilab, déterminer P X ∈ [µ − kσ, µ + kσ] pour k = 1, 2 et 3 à 10− 3 près.
¡ ¢
4.
5. Donner une interprétation de ce résultat.
■
262 Chapitre 22. Variables aléatoires à densité
Exercice 22.12 Retrouver le résultat obtenu avec Scilab lors de l’exercice précédent grâce à
la table ci-dessus. ■
23. Convergences et approximations en probas
Théorème 23.1.1 — Inégalité de Markov - cas des VARD. Soit X une VARD sur un espace
probabilsé (Ω, A , P). On suppose que X est positive et qu’elle possède une espérance. Alors,
on a :
E(X)
∀λ ∈ R∗+ , P (X ≥ λ) ≤ .
λ
Exercice 23.1 Montrer l’inégalité de Markov dans le cas d’une variable à densité. ■
variance. Alors, on a :
V(X)
∀ε ∈ R∗+ , P (|X − E(X)| ≥ ε) ≤ .
ε2
∀ε ∈ R∗+ , n→+∞
lim P (|X − X| > ε) = 0 .
n
R Les notions de convergence dans le cours de probabilité diffèrent sensiblement des notions
de convergence étudiées précédemment. En particulier, il n’y a pas unicité de la limite.
Théorème 23.1.3 — Loi faible des grands nombres - cas de la loi binomiale. Soit (X n )n∈N
une suite de variables aléatoires sur (Ω, A , P). On suppose qu’il existe p ∈]0, 1[ tel que, pour
Xn
tout n ∈ N, X n ,→ B(n, p). Alors converge en probabilité vers p.
n
Exercice 23.2 Soient X une VAR et X n des VAR pour tout n ∈ N, toutes à valeur dans N.
L
Montrer que X n → X si et seulement si ∀k ∈ N, n→+∞
lim P (X = k) = P(X = k).
n ■
23.2 Convergence en loi 265
lim P(X = k) = e −λ
λk
Démonstration. Par l’exercice qui précède, il suffit de montrer que n→+∞ n pour
à ! k!
n k¡ ¢n−k
tout k ∈ N. Or, pour tout k ∈ N et n ∈ N, on a P (X n = k) = pn 1 − pn . Par ailleurs, on a
k
à !
n nk λ
∼n→+∞ et p n ∼n→+∞ . On en déduit donc, par multiplications des équivalents, que
k k! n
k µ ¶k µ
n λ λ n−k λk λ n λk −λ
¶ µ ¶
P (X n = k) ∼n→+∞ 1− ∼n→+∞ 1− ∼n→+∞ e . ■
k! n n k! n k!
Théorème 23.2.2 — Théorème central limite - cas de la loi binomiale. Soient p ∈]0, 1[ et
(X n )n∈N une suite de VAR telle que, pour tout n ∈ N, X n ,→ B(n, p). On note, pour tout n ∈ N,
X ∗n la variable centrée réduite associée à X n . Alors, on a :
L
X ∗n → N (0, 1) .
266 Chapitre 23. Convergences et approximations en probas
L
X ∗n → N (0, 1) .
Théorème 23.2.4 — Théorème central limite. Si (X n )n∈N∗ est une suite de variables aléa-
toires indépendantes et de même loi, admettant une espérance µ et une variance σ2 non
X 1 + ... + X n
nulle, et si on note X n = , alors la suite de variables aléatoires centrées réduites
à ! n
∗ p Xn − µ
Xn = n converge en loi vers une variable aléatoire suivant la loi normale centrée
σ
réduite.