Vous êtes sur la page 1sur 79

Retrouver ce titre sur Numilog.

com

Table des matières

I Algèbre linéaire 1
1 Espaces vectoriels 3
1.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Espace vectoriel quotient . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3 Base et dimension d’un espace vectoriel . . . . . . . . . . . . . . . . . . . . . . 4
1.4 Codimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.5 Rang, image et noyau d’une application linéaire . . . . . . . . . . . . . . . . . 6
1.6 Somme directe d’espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . 7
1.7 Projection orthogonale sur un sous-espace vectoriel et projecteur . . . . . . . . 8
1.8 Lien entre espaces supplémentaires et espace quotient . . . . . . . . . . . . . . 9
1.9 Théorème du rang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.10 Inverse d’une application linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.11 Dualité, base duale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.12 Bidualité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.13 Transposée d’une application linéaire . . . . . . . . . . . . . . . . . . . . . . . 13

2 Matrices 15
2.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.2 Addition des matrices et multiplication par un scalaire . . . . . . . . . . . . . . 15
2.3 Produit de deux matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.4 Matrice unité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.5 Transposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.6 Endomorphisme associé à une matrice . . . . . . . . . . . . . . . . . . . . . . . 16
2.7 Matrices équivalentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.8 Matrices semblables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.9 Déterminants . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.10 Cofacteur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.11 Caractérisation des déterminants . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.12 Inverse d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.13 Déterminant de Vandermonde . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.14 Application . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.15 Calcul des solutions d’un système compatible . . . . . . . . . . . . . . . . . . . 25
2.16 Valeurs propres et vecteurs propres . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.17 Polynôme caractéristique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

iii
Retrouver ce titre sur Numilog.com

iv Mathématiques pour économistes: Mohammed Dennai, Roger Goglu

2.18 Endomorphisme diagonalisable . . . . . . . . . . . . . . . . . . . . . . . . . . . 29


2.19 Polynôme minimal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.20 Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.21 Réduction de Jordan d’un endomorphisme nilpotent . . . . . . . . . . . . . . . 35
2.22 Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.23 Une condition nécessaire et suffisante de trigonalisation . . . . . . . . . . . . . 39
2.24 Exemple de trigonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
2.25 Matrice hermitienne ou hermitique . . . . . . . . . . . . . . . . . . . . . . . . . 41
2.26 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.27 Matrice symétrique réelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.28 Matrice auto-adjointe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.29 Matrice définie positive . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
2.30 Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
2.31 Exemples autour des matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
2.32 Décomposition de Cholesky. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
2.33 Matrice unitaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
2.34 Forme quadratique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
2.35 Matrice d’une isométrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
2.36 Norme d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
2.37 Matrice non négative . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
2.38 Disque de Gerschgörin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
2.39 Matrice de forme particulière . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66

II Analyse réelle 75
3 Fonctions d’une variable réelle 77
3.1 Continuité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
3.2 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
3.3 Théorèmes autour des fonctions continues . . . . . . . . . . . . . . . . . . . . . 79
3.4 Infiniment petits . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
3.5 Interprétation géométrique : asymptotes droites . . . . . . . . . . . . . . . . . . 81
3.6 Bornes d’une fonction numérique . . . . . . . . . . . . . . . . . . . . . . . . . . 81
3.7 Définition de f + et de f − ∶ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
3.8 Dérivée d’une fonction continue . . . . . . . . . . . . . . . . . . . . . . . . . . 83
3.9 Règles de calcul des dérivées . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
3.10 Théorème de Rolle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
3.11 Théorème des accroissements finis . . . . . . . . . . . . . . . . . . . . . . . . . 84
3.12 Fonctions monotones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
3.13 Dérivées des fonctions circulaires, hyperboliques et fonctions réciproques . . . 86
3.14 Développement de Taylor- MacLaurin avec reste de Young . . . . . . . . . . . 90
3.15 Equivalents usuels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
3.16 Fonctions convexes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
3.17 Inégalité de Hölder pour une somme . . . . . . . . . . . . . . . . . . . . . . . . 99
3.18 Convexité des fonctions positivement homogènes . . . . . . . . . . . . . . . . . 100
3.19 Inégalité de Minkowski . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
Retrouver ce titre sur Numilog.com

Table des matières v

4 Intégrale simple 103


4.1 Intégrale de Riemann . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
4.2 Fonction en escalier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
4.3 Caractéristiques de l’intégrale de Riemann . . . . . . . . . . . . . . . . . . . . 108
4.4 Premier théorème de la moyenne . . . . . . . . . . . . . . . . . . . . . . . . . . 110
4.5 Application au calcul intégral . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
4.6 Primitive d’une fonction continue . . . . . . . . . . . . . . . . . . . . . . . . . . 110
4.7 Intégration par parties . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
4.8 Changement de variable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
4.9 Second théorème de la moyenne . . . . . . . . . . . . . . . . . . . . . . . . . . 112
4.10 Formule de Taylor-Lagrange . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
4.11 Tableau des primitives usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
4.12 Calcul pratique d’une intégrale simple . . . . . . . . . . . . . . . . . . . . . . . 115
4.13 Intégration de fonctions rationnelles de sin x et cos x ; règle de Bioche . . . . . 116
4.14 Autres fractions rationnelles et fonctions radicales . . . . . . . . . . . . . . . . 117
4.15 Convergence d’une intégrale de Riemann, intégrale de référence . . . . . . . . 118
4.16 Intégrale de fonctions dépendant d’un paramètre . . . . . . . . . . . . . . . . . 118
4.17 Intégrales impropres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
4.18 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
4.19 Intégrale convergente. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
4.20 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
4.21 Règle d’Abel pour l’intégrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
4.22 Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
4.23 Inégalité de Jensen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123

5 Intégrale double 125


5.1 Interprétation des intégrales doubles . . . . . . . . . . . . . . . . . . . . . . . . 125
5.2 Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
5.3 Changement de variable dans une intégrale double . . . . . . . . . . . . . . . . 127
5.4 Changement de variable et intégrale double en coordonnées polaires . . . . . . 129
5.5 Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
5.6 Formule de Green-Riemann . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130

6 Intégrale triple 133


6.1 Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
6.2 Coordonnées sphériques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
6.3 Coordonnées cylindriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136

7 Intégrales multiples 137


7.1 Difféomorphisme et jacobienne . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
7.2 Coordonnées sphériques en dimension n . . . . . . . . . . . . . . . . . . . . . . 137
7.3 Volumes sphériques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138
7.4 Aire d’une sphère multidimensionnelle . . . . . . . . . . . . . . . . . . . . . . . 139
7.5 Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
Retrouver ce titre sur Numilog.com

vi Mathématiques pour économistes: Mohammed Dennai, Roger Goglu

8 Suites et séries 141


8.1 Définition d’une suite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
8.2 Convergence, divergence d’une suite . . . . . . . . . . . . . . . . . . . . . . . . 141
8.3 Suite de Cauchy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
8.4 Opérations algébriques sur les suites convergentes . . . . . . . . . . . . . . . . 143
8.5 Opérations algébriques sur les suites divergeant vers +∞ . . . . . . . . . . . . 144
8.6 Suites et applications continues . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
8.7 Suite récurrente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146
8.8 Théorème du point fixe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146
8.9 Somme au sens de Césaro . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148
8.10 Théorèmes de comparaison et d’encadrement . . . . . . . . . . . . . . . . . . . 149
8.11 Suites adjacentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150
8.12 Théorème de Bolzano-Weierstrass . . . . . . . . . . . . . . . . . . . . . . . . . 153
8.13 Convergence simple, uniforme, uniforme sur tout compact d’une suite d’ap-
plications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157
8.14 Approximation d’une fonction continue par un polynôme . . . . . . . . . . . . 160
8.15 Convergence monotone . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163
8.16 Série . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164
8.17 Somme d’une série . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164
8.18 La série géométrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165
8.19 Théorèmes utiles autour des séries . . . . . . . . . . . . . . . . . . . . . . . . . 165
8.20 La série harmonique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166
8.21 Test de comparaison logarithmique . . . . . . . . . . . . . . . . . . . . . . . . . 167
8.22 Comparaison des séries et des intégrales . . . . . . . . . . . . . . . . . . . . . . 167
8.23 Séries de Riemann . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169
8.24 Critères usuels de convergence . . . . . . . . . . . . . . . . . . . . . . . . . . . 170
8.25 Critère de Riemann . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171
8.26 Séries de Bertrand . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171
8.27 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173
8.28 Règle de D’Alembert . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174
8.29 Règle de Cauchy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175
8.30 Critère de Raabe-Duhamel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 176
8.31 Critère de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179
8.32 Série alternées. Règle de Leibnitz . . . . . . . . . . . . . . . . . . . . . . . . . . 180
8.33 Critère d’Abel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182
8.34 Série absolument convergente . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183
8.35 Série de fonctions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183
8.36 Théorème d’Abel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184
8.37 Reste d’une série . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184
8.38 Séries majorables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184
8.39 Continuité de la somme d’une série . . . . . . . . . . . . . . . . . . . . . . . . . 185
8.40 Intégration, dérivation des séries . . . . . . . . . . . . . . . . . . . . . . . . . . 185
8.41 Séries entières, rayon de convergence . . . . . . . . . . . . . . . . . . . . . . . 186
8.42 Série de Taylor-Maclaurin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189
8.43 Application des séries aux calculs intégrales définies . . . . . . . . . . . . . . . 190
8.44 Intégration des équations différentielles . . . . . . . . . . . . . . . . . . . . . . 193
Retrouver ce titre sur Numilog.com

Table des matières vii

8.45 Q est dense dans R . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 196


8.46 Produit infini . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 197

III Fonction de plusieurs variables 205


9 Fonctions de plusieurs variables 207
9.1 Continuité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 207
9.2 Dérivées partielles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 209
9.3 Différentielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 210
9.4 Dérivées d’ordre supérieur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212
9.5 Développement de Taylor-McLaurin à l’ordre deux . . . . . . . . . . . . . . . 215
9.6 Fonction implicite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215
9.7 Théorème des accroissements finis . . . . . . . . . . . . . . . . . . . . . . . . . 217
9.8 Extrêma locaux et absolus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 218
9.9 Conditions suffisantes du second ordre pour un extremum global . . . . . . . . 218
9.10 Extrêma sous contraintes. Multiplicateurs de Lagrange . . . . . . . . . . . . . 223
9.11 Extrêma sous contraintes en forme d’inégalités . . . . . . . . . . . . . . . . . . 226
9.12 Théorème de Kühn-Tucker . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227
9.13 Critère de la hessienne bordée . . . . . . . . . . . . . . . . . . . . . . . . . . . . 229

IV Equations différentielles 235


10 Équations différentielles linéaires 237
10.1 Présentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 237
10.2 Théorème de Cauchy-Lipschitz linéaire d’ordre 1 . . . . . . . . . . . . . . . . . 238
10.3 Equation différentielle linéaire du premier ordre, méthode de la variation de
la constante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 240

11 Equations différentielles non-linéaires 243


11.1 Solution de l’équation y ′ = f (x, y) par approximations successives . . . . . . 243
11.2 La condition de Lipschitz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 244

12 Exemples d’équations différentielles non linéaires remarquables 247


12.1 Fonction homogène , équation différentielle homogène . . . . . . . . . . . . . 247
12.2 Equation de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 250
12.3 Equations différentielles à variables séparables . . . . . . . . . . . . . . . . . . 250
12.4 Equations aux différentielles totales exactes . . . . . . . . . . . . . . . . . . . 251
12.5 Facteur intégrant . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 254

13 Equations différentielles ordinaires d’ordre n avec second membre 257


13.1 Déterminant de Wronski . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 257
13.2 Exemple : équations différentielles linéaires d’ordre deux. . . . . . . . . . . . . 259

14 Equation différentielles de Bessel 269


Retrouver ce titre sur Numilog.com

viii Mathématiques pour économistes: Mohammed Dennai, Roger Goglu

V Probabilité 277
15 La notion d’événement 279
15.1 Eléments de la théorie des ensembles . . . . . . . . . . . . . . . . . . . . . . . . 279
15.2 Tribu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 279
15.3 Mesure positive sur une tribu . . . . . . . . . . . . . . . . . . . . . . . . . . . . 280
15.4 La notion d’événement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 281
15.5 Mesure de probabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 282
15.6 Fréquence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 283
15.7 Suite d’événements . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 283
15.8 Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 284
15.9 Règles de calcul . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 285
15.10Mesure de probabilité uniforme sur une partie de R . . . . . . . . . . . . . . . 286

16 Probabilité conditionnelle 287


16.1 Définition et notation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 287
16.2 Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 287
16.3 Probabilités Totales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 288

17 Variable aléatoire 289


17.1 notation et définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 289
17.2 Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 289
17.3 Fonction de répartition d’une v.a.r . . . . . . . . . . . . . . . . . . . . . . . . . 290
17.4 Densité d’une variable aléatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . 291

18 Variable aléatoire discrète 293


18.1 Définition et notation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 293
18.2 La loi conjointe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 293
18.3 Loi marginale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 293
18.4 Lois conditionnelles et loi conjointe pour une variable aléatoire continue. . . . 294

19 Famille de distributions continues 295


19.1 La loi normale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 295
19.2 Loi log-normale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 298
19.3 Loi t de Sudent . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 298
19.4 Loi du khi-deux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 300
19.5 F-distribution ou de Fisher-Snédécor . . . . . . . . . . . . . . . . . . . . . . . 301
19.6 Loi exponentielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 302
19.7 Loi de Weibull . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 302
19.8 Loi gamma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 303
19.9 Loi bêta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 304
19.10Loi de Cauchy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 306
19.11Loi uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 306
19.12Lois de Pareto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 306
Retrouver ce titre sur Numilog.com

Table des matières ix

20 Famille de distributions discrètes 309


20.1 Loi Binomiale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 309
20.2 Loi de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 310
20.3 Loi Hypergéométrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 310

21 Convergence des variables aléatoires 311


21.1 Définition et notation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 311
21.2 Moments et variance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 312
21.3 Covariance et coefficient de corrélation linéaire . . . . . . . . . . . . . . . . . . 316
21.4 Lois conditionnelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 317
21.5 Espérance conditionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 318
21.6 Variance conditionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 318
21.7 Fonction caractéristique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 319
21.8 Quelques fonctions caractéristiques usuelles : . . . . . . . . . . . . . . . . . . . 319
21.9 Théorème de la limite centrale . . . . . . . . . . . . . . . . . . . . . . . . . . . 320
21.10Exemple sur le théorème limite centrale . . . . . . . . . . . . . . . . . . . . . . 321
21.11Vecteur gaussien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 322

VI Statistique 329
22 L’estimation 331
22.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 331
22.2 Estimateur sans biais et asymptotiquement sans biais . . . . . . . . . . . . . . . 332
22.3 Risque quadratique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 332
22.4 Comparaison d’estimateurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 333
22.5 Estimateur de variance uniformément minimum sans biais . . . . . . . . . . . 333
22.6 La statistique X . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 334
22.7 La statistique S 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 334
22.8 La statistique Tn−1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 334
22.9 Estimation de la moyenne d’une variable de Laplace-Gauss . . . . . . . . . . 335
22.10Estimation de la variance d’une variable de Laplace-Gauss . . . . . . . . . . . 335

23 L’exhaustivité 337
23.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 337
23.2 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 337
23.3 Théorème de Rao-Blackwell . . . . . . . . . . . . . . . . . . . . . . . . . . . . 338
23.4 Statistique complète . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 338
23.5 Information de Fisher . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 339
23.6 Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 339
23.7 La condition de Darmois . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 339
23.8 Inégalité de Frechet-Darmois-Cramer-Rao . . . . . . . . . . . . . . . . . . . . . 340
23.9 Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 340
23.10La distance ou variation de Hellinger entre deux lois . . . . . . . . . . . . . . 340
23.11Information de Kullback de p sur Q par rapport à une probabilité ν : . . . . . . 341
23.12La méthode du maximum de vraissemblance . . . . . . . . . . . . . . . . . . . 341
Retrouver ce titre sur Numilog.com

x Mathématiques pour économistes: Mohammed Dennai, Roger Goglu

24 Inférence bayesienne 343


24.1 Estimation ponctuelle bayesienne . . . . . . . . . . . . . . . . . . . . . . . . . . 345
24.2 Estimateurs Bayésiens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 347
24.3 Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 347
24.4 Estimateur de Pitman . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 348

25 les tests en statistique 349


25.1 Définition et exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 349
25.2 Notions générales sur les tests . . . . . . . . . . . . . . . . . . . . . . . . . . . . 350
25.3 La méthode de Neyman et Pearson . . . . . . . . . . . . . . . . . . . . . . . . . 351
25.4 Application . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 352
25.5 Test du χ2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 352
25.6 Un exemple d’utilisation du Khi-deux . . . . . . . . . . . . . . . . . . . . . . . 353
25.7 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 356
25.8 Le test d’ajustement de Kolmogorov . . . . . . . . . . . . . . . . . . . . . . . . 356
25.9 Test des variances de Fisher-Snedecor : . . . . . . . . . . . . . . . . . . . . . . 360
25.10Analyse de la variance à un facteur . . . . . . . . . . . . . . . . . . . . . . . . . 360
25.11Test de Wilcoxon . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 362
25.12Test de Shapiro-Wilk . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 363

26 Regression et modèle linéaire 365


26.1 Ajustement linéaire en dimension deux . . . . . . . . . . . . . . . . . . . . . . 365
26.2 Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 366
26.3 Regression linéaire en dimension p . . . . . . . . . . . . . . . . . . . . . . . . 366

VII Annexe : Tables statistiques 377


A Table statistique de la distribution normale 379

B Table statistique de la distribution binomiale p=1/2 381

C Table statistique du Chi2 382

D Table statistique de Shapiro 385


D.1 Table des coefficients de Shapiro . . . . . . . . . . . . . . . . . . . . . . . . . . 385
D.2 Table de Shapiro de W . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 389

E Table statistique de la loi de student 390

F Table statistique de Fischer 392

Index 396

Bibliographie 403
Retrouver ce titre sur Numilog.com

Table des figures

3.1 f + et f − . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
3.2 Cercle trigonométrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87

5.1 Cylindre, volume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126


5.2 Volume quelconque . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127

6.1 Ellipsoı̈de . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134


6.2 Coordonnées sphériques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135

8.1 Convergence simple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178


8.2 Divergence simple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179
8.3 Integrale double . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 202

9.1 Chemins multiples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208


9.2 Coordonnées polaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208
9.3 Point critique, col ou point selle . . . . . . . . . . . . . . . . . . . . . . . . . . 219

17.1 Loi binomiale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 291

19.1 Loi normale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 297

26.1 Données . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 367


26.2 Regression linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 368

xi
Retrouver ce titre sur Numilog.com
Retrouver ce titre sur Numilog.com

Préface 1

Cet ouvrage présente tous les outils mathématiques utiles à l’étudiant en sciences économiques,
dans le langage des économistes. L’éventail des chapitres abordés, la clarté de l’exposé (des
notions élémentaires aux thèmes les plus pointus), la diversité des applications proposées en
font un ouvrage de référence complet, indispensable tant à l’étudiant en économie, aux écoles
de commerce) qu’au professionnel. Il aborde six thèmes :

Mathématiques pour économistes

1. Algèbre linéaire
2. Analyse réelle
3. Fonctions de plusieurs variables
4. Équations différentielles
5. Probabilité
6. Statistique
7. Tables statistiques
C’est le fruit de plusieurs années années de travail pour les écoles d’économistes. De
nombreux exercices, problèmes et des qcm permettent de se familiariser avec les outils et
techniques mathématiques introduits, ils sont présentés avec une solution, une aide progres-
sive ou une indication. Les lois usuelles en probabilités,statistiques et tables statistiques.
Nous tenons à remercier tout particulièrement Monsieur Dellacherie Claude directeur
de recherche dans le laboratoire de mathématiques de l’université de Rouen pour avoir bien
voulu lire et corriger beaucoup de parties de cet ouvrage et les conseils qu’il nous a prodigués,
à Mr Fauvernier Philippe directeur des éditions Hermann pour ses encouragements, et à nos
familles.

1. Travail réalisé sous WinEdt/MiKTex LATEX, Scientific WorkPlace et le logiciel R Les courbes ont été tracées
à l’aide de Graph easy et Paint.

xiii
Retrouver ce titre sur Numilog.com
Retrouver ce titre sur Numilog.com

Première partie

Algèbre linéaire

1
Retrouver ce titre sur Numilog.com
Retrouver ce titre sur Numilog.com

Chapitre 1

Espaces vectoriels

1.1 Définition
Soit K un corps quelconque (non nécessairement commutatif).
Un espace vectoriel à gauche sur K (lorsque un seul corps K est en jeu) est un K-module
à gauche, donc la donnée de deux opérations ; une loi interne noté + sur un ensemble E et
une loi externe notée × sur K × E, vérifiant les axiomes suivants :
1) (+, E) est un groupe abélien (commutatif).
2) ∀(α, x) → α × x ∈ E, α ∈ K, x ∈ E

(α1 , α2 ) ∈ K2 , (α1 + α2 ) × x = α1 × x + α2 × x.

3) ∀ (α1 , α2 ) ∈ K2 , (α1 + α2 ) × x = α1 × x + α2 × x.
4) ∀ (α, β) ∈ K 2 , β (α × x) = (αβ) × x.
5) ∀x ∈ E, 1 × x = x.
6) ∀x ∈ E, 0K × x = 0E .

Les éléments de E sont appelés vecteurs, les éléments de K sont appelés scalaires.
Deux vecteurs x, y non nuls sont dits colinéaires s’il existe λ ∈ K, y = λx.
Une application linéaire de E dans F où E, F sont deux espaces vectoriels, est un homo-
morphisme d’espaces vectoriels sur K :
1) ∀ (x, y) ∈ E 2 ⇒ f (x + y) = f (x) + f (y).
2) ∀λ ∈ K, ∀x ∈ E ⇒ f (λx) = λf (x).
Quand E = F on dira que f est un endomorphisme.
Une partie non vide F de E est dite sous -espace vectoriel de E si :

∀ (x, y) ∈ F 2 , ∀λ ∈ K ⇒ x + y ∈ F, λx ∈ F.

1.2 Espace vectoriel quotient


E un espace vectoriel, F un sous espace vectoriel de E, on définit l’ensemble E/F par un
élément x ∈ E/F, x′ ∈ E/F, ⇒ x − x′ ∈ F, ainsi défini cet ensemble est un espace vectoriel.
Retrouver ce titre sur Numilog.com

4 Mathématiques pour économistes: Mohammed Dennai, Roger Goglu

Un espace vectoriel quotient intéressant est l’ensemble dans lequel E/F , où F est le noyau
d’une application linéaire donnée.

1.3 Base et dimension d’un espace vectoriel


Une famille (xi )i=1..n ∈ E est dite libre si pour toute combinaison linéaire :

∑ λi xi = 0 ⇒ λi = 0, ∀i = 1...n.
i=1...n

Une famille (xi )i=1..n ∈ E est dite génératrice si pour tout :

∀x ∈ E , ∃ (λi )i=1..n ∈ K
tel que :
x = ∑ λ i xi .
i=1...n

Une base de E est une famille à la fois libre et génératrice.

Théorème 1.3.1 Soient E un espace vectoriel et A une famille non vide de vecteurs de E. On
note Vect(A) l’ensemble des combinaisons linéaires d’éléments de A.
Par convention :
Vect(∅) = {OE } .
Alors :
1. La partie Vect(A) est un sous-espace vectoriel de E.
2. Si F un sous-espace vectoriel de E contenant A, alors Vect(A)⊂ F.
Le sous-espace vectoriel Vect(A) est appelé sous-espace vectoriel engendré par A et
c’est le plus petit sous-espace vectoriel de E (au sens de l’inclusion) contenant A.

On a immédiatement les règles de calcul suivantes pour A, B deux familles non vide de
vecteurs de E, un espace vectoriel :
1. Vect(A ∪ B) =Vect(A) + Vect(B).
2. Vect(A ∩ B) ⊂Vect(A) ∩ Vect(B).
3. Si A ⊂ B ⇒Vect(A) ⊂ Vect(B).
4. Vect(Vect(A)) = Vect(A).

Théorème 1.3.2 Soit B une famille non vide de E.


Les trois assertions suivantes sont équivalentes :
1) B est une base de E.
2) B est une famille génératrice minimale au sens de l’inclusion.
3) B est une famille libre maximale au sens de l’inclusion.
Le nombre d’éléments d’une base B de E, est appelée dimension de E.
Retrouver ce titre sur Numilog.com

Chapitre 1. Espaces vectoriels 5

Preuve 1.3.1 1) ⇒ 2) : Si B est une base de E, B est une partie génératrice. Alors pour
b ∈ B et C = B/ {b} , si C était génératrice il existerait des scalaires (λc )c∈C presque tous
nuls, tels que :
b = ∑ λc c
c∈C

il vient :
1 ⋅ b − ∑ λc c = 0
c∈C

écrit de cette façon B n’est pas une partie libre. Donc C n’est pas génératrice.
2) ⇒ 1) : Soit B est une famille génératrice minimale de E. Nous allons montrer que
B est une base de E pour cela il suffit de montrer que B est libre, dans le cas contraire, il
existerait des scalaires (λb )b∈B , presque tous nuls et non tous nuls tels que :

∑ λb b = 0
b∈B

soit un terme non nul par exemple b ∈ B tel que λb ≠ 0 alors :


−1
b = ∑ (−λb ) λc c, C = B/ {b}
c∈C

et ainsi C serait plus petit que B et génératrice donc B est une famille génératrice non mini-
male de E contrairement à l’hypothèse.
1) ⇒ 3) : Si B est une base de E, montrons que B est une partie libre maximale. Pour
cela montrons qu’en ajoutant à B un élément c ∉ B de E, l’ensemble obtenu est une partie
non libre. Un tel c vérifie il existe des scalaires (λb )b∈B , tels que :

c = ∑ λb b (1.1)
b∈B

posons λc = −1 et C = B ∪ {c} la relation ci-dessus s’écrit :

∑ λe e = 0 (1.2)
e∈C

comme λc = −1 ≠ 0 ceci entraine que C est non libre.


3) ⇒ 1) : Si B est une partie libre maximale, montrons que B est une base, c’est à dire
génératrice.
Pour cela montrons qu’en ajoutant à B un élément c ∉ B, de E, il serait nécessairement
combinaison d’éléments de B. En effet : l’ensemble C = B ∪ {c} est une partie non libre car
B est une partie libre maximale ; alors il existe des scalaires (λe )e∈C , tels que :

∑ λe e = 0
e∈C

et λc ≠ 0 (sinon B serait non libre), ceci entraine que :


−1
c = ∑ (−λc ) λb b
b∈B

donc c est combinaison linéaire des éléments de B. ∎


Retrouver ce titre sur Numilog.com

6 Mathématiques pour économistes: Mohammed Dennai, Roger Goglu

Théorème 1.3.3 (De la base incomplète ou de la dimension finie) Soit E un espace vecto-
riel de dimension finie, L une partie libre de E et G une partie génératrice de E. Alors L est
finie et il existe une base finie de E telle que : L ⊂ B ⊂ L ∪ G. Donc toute partie libre L de E
est finie et toute partie génératrice G de E contient une base de E. Et E admet au moins une
base finie.
Preuve 1.3.2 Désignons par S une partie finie de G qui soit encore génératrice, ceci est
possible car soit T une partie génératrice finie de G alors tout t ∈ T s’écrit : t = ∑s∈G λt ⋅ s,
avec λt presque non tous nuls. Alors soit St la partie finie de G , formée des λt ≠ 0, alors
la partie S définie par S = ∪t∈T St remplit notre hypothèse. Soit S l’ensemble des parties
M de S telles que L ∪ M soit une partie libre de E. S est non vide car elle contient ∅.
Ensuite comme S finie alors S l’est aussi. Donc S contient un plus grand élément noté M0 .
Montrons alors que S ⊂ V ect (L ∪ M0 ) : si ce n’est pas le cas, il existerait s ∈ S telle que
s ∉ Vect (L ∪ M0 ) et L ∪ M0 ∪ {s} serait une partie libre de E on aurait donc : G = M0 ∪ {s}
plus grand que M0 ce qui est absurde donc
S ⊂ Vect (L ∪ M0 ) ⇒ Vect(S) ⊂ Vect (L ∪ M0 ) = E
ce qui montre que L ∪ M0 est une partie génératrice de E. Comme elle est libre donc une
base de E d’après le théorème ci-dessus, c’est une partie génératrice minimale de E et donc
L ∪ M0 est fini. Alors L est finie de E et B = L ∪ M0 ⊂ G, B ainsi définie, vérifie le théorème.

1.4 Codimension
Si l’espace vectoriel quotient E/F est de dimension finie, l’entier dim(E/F ) est appelé
codimension de F .

1.5 Rang, image et noyau d’une application linéaire


Soient E un espace vectoriel de dimension finie, F un espace vectoriel et f une applica-
tion de E dans F . L’ensemble f (E) =imf , est appelé image de f.
La dimension de l’espace image f (E) = imf s’appelle le rang de f et se note rg(f ) =
dim(f (E)) = dim(imf ).
On appelle noyau de l’application linéaire f l’ensemble :
ker(f ) = {x ∈ E; f (x) = 0F } = f −1 ({0F }) .
Il est facile de déduire le théorème suivant :
Théorème 1.5.1 Soient E et F deux espaces vectoriels, f une application de E dans F , A
un sous-espace vectoriel de E et B un sous-espace vectoriel de F. Alors :
1. L’ensemble f (A) est un sous-espace vectoriel de F.
2. L’image im(f ) = f (E) est un sous-espace vectoriel de F.
3. L’ensemble f −1 (B) est un sous-espace vectoriel de E.
4. Le noyau ker(f ) = f −1 ({0F }) est un sous-espace vectoriel de E.
Retrouver ce titre sur Numilog.com

Chapitre 1. Espaces vectoriels 7

1.6 Somme directe d’espaces vectoriels


Soient E un espace vectoriel sur le corps K et Ei des sous-espaces vectoriels de E, alors
si :

E = ∑ Ei
i=1...n
Ð

et si le seul élément commun à Ei et Ej est le vecteur 0 , i, j = 1...n, i ≠ j.
On dira que les Ei sont supplémentaires. Tout x ∈ E se met d’une manière unique sous la
forme :

x = ∑ xi , xi ∈ Ei
i=1...n

on écrira :
E = ⊕ni=1 Ei ,

L’écriture ⊕ni=1 Ei est appelée la somme directe des espaces (Ei )i=1...n ,
parfois notée∶ ∏i=1...n Ei . (le produit cartésien des espaces (Ei )i=1...n ).
Cette dernière écriture est justifiée par le théorème suivant :

Théorème 1.6.1 Soient F et G des sous-espaces vectoriels d’un espace vectoriel E. F et G


sont supplémentaires si et seulement si pour tout u ∈ E , il existe un unique couple (v, w) ∈
F × G tel que : u = v + w et dans ce cas E est isomorphe à F × G.

Preuve 1.6.1 Supposons que F et G soient supplémentaires ; alors E = F +G et F ∩G = {0}


donc tout u ∈ E, ∃ (v, w) ∈ F × G tel que : u = v + w . Supposons qu’il existe un autre couple
∃ (v ′ , w′ ) ∈ F × G tel que : u = v ′ + w′ . Alors : v − v ′ = w − w′ et v − v ′ ∈ F, w − w′ ∈ G ceci
entraine v − v ′ = 0 et w − w′ = 0 ainsi :

(v, w) = (v ′ , w′ ) .

Pour isomorphisme il suffit de voir que l’application :

F ×G→E
ϕ∶{
(v, w) ↦ v + w

est linéaire et bijective.


Réciproquement : F + G étant la somme des éléments de F et G , on a F + G = E,
soit u ∈ F ∩ G alors 0 = u + (−u) = 0 + 0 avec u, 0 ∈ F et −u, 0 ∈ G , comme il y’a
unicité de l’écriture, on obtient u = 0 donc la somme F + G est directe, donc F et G sont
supplémentaires. ∎

.
Retrouver ce titre sur Numilog.com

8 Mathématiques pour économistes: Mohammed Dennai, Roger Goglu

1.7 Projection orthogonale sur un sous-espace vectoriel et


projecteur
Définition 1.7.1 Soient F et G deux sous-espaces vectoriels supplémentaires d’un espace
vectoriel E. On appelle projection de E sur F parallèlement à G, l’application de E dans F
qui à un élément u ∈ E associe l’unique élément v ∈ F tel que u − v ∈ G (cet élément existe
et est unique d’après le théorème 1.6.1).

Proposition 1.7.1 Soit F et G deux sous-espaces vectoriels supplémentaires d’un espace vec-
toriel E. La projection p de E sur F parallèlement à G est une application linéaire qui vérifie :

p ○ p = p, p∣F = idF , ker(p) = G et im(p) = F .

Réciproquement, toute application linéaire p ∶ E → E telle que p ○ p = p est appelée


un projecteur de E, c’est la projection de E sur im(p) parallèlement à ker(p) qui sont par
conséquent supplémentaires dans E.

Preuve 1.7.1 Soient u, v ∈ E, λ, µ ∈ K par définition de la projection et de l’espace F ,


alors on d’une part : λp(u) + µp(v) ∈ F. D’autre part :

λu + µv − (λp(u) + µp(v)) = λ(u − p(u)) + µ(v − p(v)) ∈ G

du théorème 1.6.1 et de l’unicité de la projection on a :

p (λu + µv) = λp(u) + µp(v)

ainsi p est une application linéaire.


Comme u ∈ F et u − u = 0 ∈ G alors toujours d’après le théorème 1.6.1 et de l’unicité de
la projection : p(u) = u. Ainsi la restriction de p à F est l’identité de F.
Par définition de p on a im(p) ⊂ F et le résultat ci-dessus on a : im(p) = F.
Soit u ∈ E alors p(u) ∈ F donc :

p ○ p(u) = p(p(u)) = idF (p(u)) = p(u)

ainsi : p ○ p = p.
Soit u ∈ E alors u − p(u) ∈ G donc si u ∈ ker(p) alors u ∈ G. Réciproquement si
u ∈ G alors 0 ∈ F et 0 − u ∈ G donc toujours d’après le théorème 1.6.1 et de l’unicité de la
projection : p(u) = 0 et u ∈ ker(p) ainsi ker(p) = G.
Montrons la réciproque :
Soient p un endomorphisme tel que∶ p ○ p = p et u ∈ ker(p) ∩ im(p) alors il existe v ∈ E
tel que : u = p(v) et alors :

u = p(v) = p ○ p(v) = p(p(v)) = p(u) = 0

donc ker(p) ∩ im(p) = {0} ainsi ker(p), im(p) sont en somme directe.
Soit u ∈ E alors : u = p(u) + (u − p(u)) et p est linéaire donc :

p(u − p(u)) = p(u) − p(p(u)) = p(u) − p ○ p(u) = 0


Retrouver ce titre sur Numilog.com

Chapitre 1. Espaces vectoriels 9

donc u − p(u) ∈ ker(p) et comme p(u) ∈ im(p) la somme de ker(p) et de im(p) vaut E.
Par conséquent im(p) et ker(p) sont supplémentaires dans E. De plus pour tout u ∈ E,
p(u) vérifie p(u) ∈ im(p) et u − p(u) ∈ ker(p) donc p est la projection de E sur im(p)
parallèlement à ker(p). ∎

1.8 Lien entre espaces supplémentaires et espace quotient


Proposition 1.8.1 Soient E, F deux espaces vectoriels, f ∈ L(E, F ) une application linéaire
de E dans F et G un supplémentaire de ker(f) dans E ; alors G et im(f) sont isomorphes.
Preuve 1.8.1 Il suffit de considérer l’application :
G →im(f )
f ∶{
x z→ f (x)

f est clairement linéaire.


Soit x ∈ G alors :
x ∈ ker(f ) ⇔ f (x) = 0 ⇔ f (x) = 0 ⇐⇒ x ∈ ker(f ) ⇔ x = 0
car G ∩ ker(f ) = {0} . Donc ker(f ) = {0} et ainsi f est injective.
Soit y ∈ im(f ), il existe x ∈ E tel que y = f (x) comme G est le supplémentaire de ker(f )
dans E il existe (x1 , x2 ) ∈ ker(f ) × G tel que : x = x1 + x2 . Alors :
y = f (x) = f (x1 + x2 ) = f (x1 ) + f (x2 ) = f (x2 ) = f (x2 )
donc f est surjective.
Ainsi f est un isomorphisme d’espaces vectoriels de G sur im(f ). ∎
Proposition 1.8.2 Soient E un espace vectoriel et F un sous-espace vectoriel de E. Alors tout
sous-espace vectoriel supplémentaire de F dans E est isomorphe à E/F.
Preuve 1.8.2 Soit G un supplémentaire de F dans E. Considérons alors la projection de E
sur G parallèlement à F , son image est G et son noyau est F . En appliquant le théorème ??
de la décomposition canonique d’une application et la proposition ci-dessus, on obtient un
isomorphisme entre G et E/F . ∎

1.9 Théorème du rang


Théorème 1.9.1 (Théorème du rang) Soit E un espace vectoriel de dimension finie et F
en espace vectoriel de dimension quelconque, G le supplémentaire de F dans E et f une
application linéaire de E dans F , c’est à dire f ∈ L(E, F ). Alors :
dim F × G = dim F + dim G
dim E = dim F + dim G
dim E = dim F + dim E/F
dim E = dim ker(f ) + rg(f ).
Retrouver ce titre sur Numilog.com

10 Mathématiques pour économistes: Mohammed Dennai, Roger Goglu

Preuve 1.9.1 D’après ce qui précède. ∎

Théorème 1.9.2 (Formule de Grassmann) Soient F et G deux sous-espaces vectoriels de


dimensions finis d’un espace vectoriel E. On considère les applications linéaires suivantes :

F ×G→E
ϕ∶ et
(f, g) ↦ f + g

F ∩G→F ×G
ψ∶
f ↦ (f, −f )
alors :
1. ker ϕ = F ∩ G.
2. dim(F + G) = dim F + dim G − dim(F ∩ G).

Preuve 1.9.2 Preuve de 1) :

ker ϕ = {(f, g) ∈ E × F /f + g = 0} = imψ.

De plus ψ est injective, donc induit un isomorphisme sur son image d’où

ker ϕ = F ∩ G

.
Preuve de 2) :
imϕ = F + G.
Appliquons à ϕ le théorème du rang on a :

dim (E × F ) = dim F + dim G = dim ker ϕ + dim Imϕ = dim(F ∩ G) + dim(F + G)

d’où la formule de Grassmann. ∎

1.10 Inverse d’une application linéaire


En utilisant le théorème du rang on obtient le théorème suivant :

Théorème 1.10.1 Soit E un espace vectoriel de dimension finie n sur le corps K et soit u un
endomorphisme de E.
Les assertions suivantes sont équivalentes :
u inversible
u−1 existe
rg(u) = n
u est injective
u est surjective
l’image par u d’une base est une base
Retrouver ce titre sur Numilog.com

Chapitre 1. Espaces vectoriels 11

1.11 Dualité, base duale

Soit E un espace vectoriel. L’espace vectoriel L(E, K) des applications linéaires de E


dans K (l’espace des formes linéaires) s’appelle l’espace dual de E ou dual algébrique de E
et se note E ∗ .
Soit ϕ ∈ L(E, K) = E ∗ le scalaire ϕ(x) est noté :

< x, ϕ > .

Définition 1.11.1 Soit (e1 , e2 , ..., en ) une base de E ; une base duale de E ∗ est donnée par :

(e∗1 , e∗2 , ..., e∗n ) ∈ E ∗ ,

qui vérifie en utilisant le symbole de Kronecker.

1 si i = j
e∗i (ej ) = δij = { .. (1.3)
0 si i ≠ j

Définition 1.11.2 Dans un espace vectoriel E de dimension finie n tout sous espace F de
codimension 1 est appelé un hyperplan.

Proposition 1.11.1 Si B = (e1 , e2 , ..., en ) une base de E, alors B ∗ = (e∗1 , e∗2 , ..., e∗n ) est une
base de E, appelée base duale de B. De plus, on dispose de l’isomorphisme :

E → E∗
ΦB ∶ { .
ei ↦ e∗i

de sorte que :
dim E = dim E ∗ . (1.4)

Preuve 1.11.1 Montrons que B ∗ est libre :


∑ λi ei = 0 ⇒ ∀j = 1..n, [ ∑ λi e∗i ] (ej ) = 0
i=1...n i=1...n
⇒ ∀j = 1..n, ∑ λi e∗i (ek ) = 0
i=1...n

⇒ ∀j = 1..n, ∑ λi δij = 0
i=1...n
∀j = 1..n, λj = 0.

Montrons que B ∗ est génératrice : pour ϕ ∈ E ∗ , ϕ = ∑i=1...n ϕ (ei ) e∗i , en effet évaluons
les deux membres de cette égalité en un point :

x = ∑ λ i ei
i=1...n
Retrouver ce titre sur Numilog.com

12 Mathématiques pour économistes: Mohammed Dennai, Roger Goglu

quelconque de E.

⎛ ⎞
[ ∑ ϕ (ei ) e∗i ] (x) = [ ∑ ϕ (ei ) e∗i ] ∑ λj ej
i=1...n i=1...n ⎝j=1...n ⎠

∗ ⎛ ⎞
= ∑ ϕ (ei ) ei ∑ λj ej
i=1...n ⎝j=1...n ⎠

= ∑ ϕ (ei ) ∑ λj ei (ej )
i=1...n j=1...n ´¹¹ ¹ ¹ ¸¹¹ ¹ ¹ ¶
δij

= ∑ λi ϕ (ei )
i=1...n

= ϕ ( ∑ λ i ei )
i=1...n
= ϕ (x) .

Ainsi ΦB envoie par conséquent une base de E sur une base de E ∗ , donc ΦB est un
isomorphisme, d’où l’égalité des dimensions. ∎

Exemple 1.11.1 Soient e1 = (1, 1, 1), e2 = (1, 0, −1), e3 = (0, 1, 1) une base de R3 et

déterminons la base de (R3 ) duale de

{e1 , e2 , e3 } .

les applications duales sont de la forme :

θi (x) = ai x1 + bi x2 + ci x3.

et doivent vérifier :
θi (ej ) = δij
d’où les trois systèmes :

⎪ a +b +c =1 ⎧ ⎪ a +b +c =0 ⎧ ⎪ a +b +c =0
⎪ 1 1 1
⎪ ⎪ 2 2 2
⎪ ⎪ 3 3 3

⎨ a1 − c1 = 0 ⎨ a2 − c2 = 1 ⎨ a3 − c3 = 0

⎪ ⎪
⎪ ⎪

⎩ b1 + c1 = 0
⎪ ⎩ b2 + c2 = 0
⎪ ⎩ b3 + c3 = 1

ainsi on a la solution :

⎪ θ (x) = x1 − x2 + x3
⎪ 1

⎨ θ2 (x) = x2 − x3


⎩ θ3 (x) = −x1 + 2x2 − x3

1.12 Bidualité
Définition 1.12.1 Le bidual de E (un espace vectoriel sur un corps quelconque K) est par
définition le dual de E ∗ ; i.e. :

E ∗∗ = (E ∗ ) = L(E ∗ , K).
Retrouver ce titre sur Numilog.com

Chapitre 1. Espaces vectoriels 13

Alors on a l’identification suivante :

Proposition 1.12.1 L’application :




⎪ E → E ∗∗

J ∶⎨ E∗ → K
⎪ x↦x


̂∶{
ϕ ↦ ϕ (x)
,

est un isomorphisme d’espaces vectoriels. J ainsi définie, identifie d’une manière intrinsèque
E à son bidual E ∗∗ et :

dim E ∗∗ = dim(E ∗ )∗ = dim E ∗ = dim E. (1.5)

Cet isomorphisme est souvent noté par le crochet :

J(x) =< ϕ, x >=< x, ϕ >= x


̂ (ϕ) .

Preuve 1.12.1 J est bien définie car x


̂ est linéaire, en effet :

x
̂(λϕ + µψ) = [λϕ + µψ] (x) = λϕ(x) + µψ(x) = λ̂
x (ϕ) + µ̂
x (ψ) .

Puis on montre que J est linéaire, en effet :


̂
λx + µy (ϕ) = ϕ (λx + µy) = λϕ (x) + µϕ(y) = λ̂
x (ϕ) + µ̂
y (ϕ) .

J est injective, en effet : Soit x ∈ ker J , si x ≠ 0, on complète la famille libre (x) en une
base de E puis on la ‘dualise’, on considère la forme linéaire x∗ dans la base considérée,
ainsi on obtient :
0=x ̂ (x∗ ) = x∗ (x) = 1
ce qui est absurde donc x = 0, d’où J injective.
Et pour finir J est surjective par le théorème 1.10.1 car E est de dimension finie donc J
est un isomorphisme. L’isomorphisme et l’égalité 1.4 donnent l’égalité 1.5. ∎

1.13 Transposée d’une application linéaire


Soient E, F deux espaces vectoriels ,

E ∗ = L(E, K), F ∗ = L(F, K).

f une application linéaire de E → F.

La transposée de f notée f t est une application linéaire vérifiant :

f t (ϕ) = ϕ ○ f, ∀ϕ ∈ F ∗ ,
et donc la formule mécanique suivante :

< x, f t (ϕ) >=< f (x), ϕ >, ∀ϕ ∈ F ∗ , ∀x ∈ E.


Retrouver ce titre sur Numilog.com
Retrouver ce titre sur Numilog.com

Chapitre 2

Matrices

2.1 Définition
On appelle matrice de type (n, p) ou une (n, p)−matrice à coefficients dans corps K,
une application de Nn × Np → Kn×p , donc la donnée de (np)− éléments de K notés pour
i ≤ n, j ≤ p, aij ∈ K.
Et sous forme de tableau :

⎡ a11 ... ... a1p ⎤


⎢ ⎥
⎢ ... ... ⎥
⎢ ⎥
⎢ ⎥
M = (aij )i≤n,j≤p = ⎢ ... aij ... ⎥
⎢ ⎥

⎢ ... ... ⎥

⎢ an1 anp ⎥
⎣ ⎦

L’ensemble des (n, p)−matrices se note Mn,p (K). Lorsque n = p on dit que l’on a une
matrice carrée, l’ensemble des matrices carrées d’ordre n se note Mn (K).

2.2 Addition des matrices et multiplication par un scalaire


M = (mij )i≤n,j≤p ; N = (nij )i≤n,j≤p Ð→ M + N = (mij + nij )i≤n,j≤p .
λM = (λmij )i≤n,j≤p , λ un scalaire.

2.3 Produit de deux matrices

M = (mij )i≤n,j≤p ; N = (nij )i≤n,j≤p → M × N = ( ∑ mik nkj )i≤n,j≤p .


k=1..p

15
Retrouver ce titre sur Numilog.com

16 Mathématiques pour économistes: Mohammed Dennai, Roger Goglu

On ne peut réaliser que le produit de matrices (n, p) et (p, k) le résultat est une matrice
(n, k).

2.4 Matrice unité

p ⎫
³¹¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ·¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹µ⎪

⎡ 1 0 0 ... 0 ⎤⎪ ⎪

⎢ ⎥⎪



⎢ 0 1 ... ⎥⎪ ⎥⎪

⎢ ⎥⎪

Inp = ⎢ ... 1 0 ⎥⎬ n.
⎢ ⎥⎪

⎢ 0 1 0 ⎥⎥⎪ ⎪

⎢ 0 0 ... ... 1 ⎥⎪ ⎪
⎣ ⎦⎪







On note In la matrice ci-dessus pour n = p, une matrice d’ordre n est inversible s’il existe
une matrice P telle que P M = M P = In . P est alors notée P = M −1 .

2.5 Transposition

⎡ a11 ... ... an1 ⎤


⎢ ⎥
⎢ ... ... ⎥
⎢ ⎥
M t = M ′ = ⎢ ...
⎢ ⎥
aij ... ⎥,
⎢ ⎥
⎢ ... ... ⎥
⎢ ⎥
⎢ a1p anp ⎥
⎣ ⎦
dans laquelle on a interchangé les lignes et les colonnes.
La transposée d’un produit se calcule de la sorte :

(AB)t = B t At (2.1)

2.6 Endomorphisme associé à une matrice


Proposition 2.6.1 (Mn (K), +, ×) est un anneau non commutatif, pour n ≥ 1, non intégre.

Proposition 2.6.2 (Mn (K), +, .) est un espace vectoriel.

On désigne par Eij la matrice de Mn,p (K) dont tous les coefficients sont nuls à l’excep-
tion de celui de la i-ème ligne et de la j-ième colonne qui vaut 1.

Proposition 2.6.3 La famille (Eij )(i,j)∈[1..n]×[1..n] est une base de Mn,p (K), que l’on ap-
pelle base canonique de Mn,p (K). L’espace vectoriel des matrices à n lignes et p colonnes
est donc de dimension np.
Retrouver ce titre sur Numilog.com

Chapitre 2. Matrices 17

Proposition 2.6.4 (Mn (K), +, ×, .) est une K-algèbre.

Endomorphisme associé à une matrice :


Supposons Kn un espace vectoriel et x un vecteur d’expression dans une base B =
(e1 , e2 , ..., en ) de Kn :
⎡ λ ⎤
⎢ 1 ⎥
⎢ ⎥
x = ∑ λi ei → λ = ⎢ ... ⎥.
i=1..n
⎢ ⎥
⎢ λn ⎥
⎣ ⎦

Soit ϕ un endomorphisme linéaire de matrice M = (mij )i≤n,j≤p alors ϕ(x) est un vecteur
d’expression :
⎡ λ ⎤ ⎡ ∑ ⎤
⎢ 1 ⎥ ⎢ j=1..n m1j λj ⎥
⎢ ⎥ ⎢ ⎥
M × ⎢ ... ⎥=⎢ ... ⎥
⎢ ⎥ ⎢ ⎥
⎢ λn ⎥ ⎢ ∑j=1..n mnj λj ⎥
⎣ ⎦ ⎣ ⎦
On note L(E), l’algèbre des endomorphismes de E et Mn (K), l’algèbre des matrices
carrées d’ordre n à coefficients dans K. On note id, identite (resp In ) l’endomorphisme
(resp la matrice) identité. Le choix d’une base de E permet de réaliser un isomorphisme
d’algèbre de L(E) sur Mn (K). Cet isomorphisme est réalisé de la façon suivante : Si
B = {e1 , e2 , ..., en } est une base de E, alors à tout isomorphisme u de E on associe la matrice
M = (mij )1≤i,j≤n dans Mn (K) définie par :

∀j ∈ {1, 2, ..., n} , u(ej ) = ∑ mij ei . (2.2)


i=1...n

2.7 Matrices équivalentes


Deux (p, n)−matrices A et B sont dites équivalentes, s’il existe deux matrices inversibles
Q et P telle que :

B = QAP.

2.8 Matrices semblables


Deux matrices carrées d’ordre n, A et B sont dites semblables s’il existe une matrice
inversible P telle que :
B = P −1 AP.
Une matrice diagonale est une matrice dont tous les éléments hors diagonale sont nuls,
aij = 0 pour i ≠ j.
Une matrice triangulaire supérieure (respectivement inférieure) est une matrice dont les
éléments situés en dessous (respectivement au dessus) de la diagonale sont nuls.
Retrouver ce titre sur Numilog.com

18 Mathématiques pour économistes: Mohammed Dennai, Roger Goglu

Une matrice triangulaire supérieure dans la base

B = {e1 , ..., en }

est semblable à une matrice triangulaire inférieure : en effet il suffit de la considérer dans la
base :
 = (i = en−i+1 , i = 1...n).

2.9 Déterminants
Soit M = (mij )i≤n,j≤n ,une matrice carrée d’ordre n.
On appelle déterminant de M et on le note det(M ) le scalaire :
RRR m11 ... ... mn1 RRR
RRR RRR
RRR ... ... RRR
det(M ) = RRRRR ... mij ... RRR ,
RRR
RRR ... ... RRR
RRR RRR
RRR m1n mnn RR
ou sous forme développée,

det(M ) = ∑ ε (σ) mσ(1),1 ...mσ(n),n ; (2.3)


σ∈σn

où ε (σ) est la signature de σ.

Explicitons cette formule pour n = 3, on a toutes les permutations de {1, 2, 3}

1 2 3 1 2 3
σ1 = = ( ) , σ2 = ( ),
1 2 3 2 3 1

1 2 3 1 2 3
σ3 = ( ) , τ1 = ( ),
3 1 2 1 3 2

1 2 3 1 2 3
τ2 = ( ) , τ3 = ( )
3 2 1 2 1 3
les 3 dernières transformations sont des transpositions. On vérifie que :

ε(σi ) = 1, ε (τi ) = −1, i = 1, 2, 3.

det M = m11 m22 m33 + m21 m32 m13 + m31 m12 m23
−m11 m32 m23 − m31 m22 m13 − m21 m12 m33 .

Exemple de calcul de déterminant d’une matrice d’ordre 3 :.


Retrouver ce titre sur Numilog.com

Chapitre 2. Matrices 19

Méthode de Sarrus

⎡ a b c ⎤
⎢ ⎥
M = ⎢ a′ b′ c′
⎢ ⎥

⎢ ′′ ⎥
⎢ a
⎣ b′′ c′′ ⎥

a↘ b↘ c↘ a b
a′ b′ ↘↗ c′ ↘↗ a′ ↗↘ b′
′′
a ↗ b′′ ↗ c′′ ↗ a′′ b′′
Le produit des nombres situés sur les flèches montantes moins le produit des nombres
situés sur les flèches descendantes.
Pour développer un déterminant on utilise souvent ceci :
Le mineur Mij d’une matrice M d’ordre n est le déterminant de la sous matrice d’ordre
n − 1 obtenue après suppression de la ième ligne et la j ème colonne de M .

k+j
det(A) = ∑ (−1) akj Mkj (2.4)
k=1...n
k+j
= ∑ (−1) ajk Mjk (2.5)
k=1...n

où Mij désigne le mineur relatif à i, j.Dans la première égalité on dit qu’on a développé
det M par rapport à la j − ième colonne, dans la deuxième égalité qu’on développé det M
par rapport à la ième ligne.

2.10 Cofacteur
c
On définit le cofacteur Mij d’une matrice M d’ordre n en fonction du mineur associé
par :

c
Mij = (−1)i+j Mij (2.6)

La matrice formée par les cofacteurs s’appelle comatrice ou la matrice des cofacteurs
notée Mc .

2.11 Caractérisation des déterminants


– det(In ) = 1.
– B une matrice d’ordre n ; det(λB) = λn det(B) λ où est un scalaire.
– Le déterminant d’une matrice carrée est égale au déterminant de sa transposée.
pour la démonstration on peut appliquer l’exercice ?? ou utiliser la relation 2.4 de la
sorte , soit (aij ) les coefficients de M ,
Retrouver ce titre sur Numilog.com

20 Mathématiques pour économistes: Mohammed Dennai, Roger Goglu

det M t = ∑  (σ) a1σ(1) a2σ(2) ...anσ(n) ,


σ∈Sn

chaque facteur du produit


a1σ(1) a2σ(2) ...anσ(n)
est de la forme akj avec k = σ(j). De plus σ est bijective, le second indice décrit [1..n]. En
permutant les termes, on peut écrire ce produit sous la forme

aσ−1 (1)1 aσ−1 (2)2 ...aσ−1 (n)n .

Comme on a aussi :
 (σ −1 ) =  (σ)
il vient :
det M t = ∑  (σ −1 ) aσ−1 (1)1 aσ−1 (2)2 ...aσ−1 (n)n ,
σ∈Sn

et comme l’application σ → σ −1 est une bijection de Sn dans lui même on a bien :

det M t = det M.

– Si dans une matrice, une colonne (ou une ligne) est combinaison linéaire de plu-
sieurs autres colonnes (ou lignes), son déterminant est nul. En particulier une matrice
possédant une ligne ou une colonne nulle a son déterminant nul.
– Si dans une matrice on ajoute à une colonne une combinaison de plusieurs colonnes le
déterminant de cette matrice ne change pas.
– Si A et B sont des matrices d’ordre n alors :

det(A × B) = det A × det B.

En effet l’application B ∶ Mn (K) → det(A × B) est une forme multilinéaire alternée


donc il existe une constante λ (indépendante de B) telle que :

det(A × B) = λ × det B

en prenant B = In , la constante λ vaut det A d’où le résultat.


– Une matrice de la forme :
A C
M =[ ]
0 B

det(M ) = det(A) × det(B)


– Si une matrice B est obtenue à partir d’une matrice carrée A par permutation de deux
lignes ou deux colonnes alors det A = − det B.
Preuve de cette dernière assertion
Preuve 2.11.1 Une matrice E est dite élémentairedu premier genre si cette matrice est
la matrice identité dans laquelle deux lignes ont été permutées le

det E = −1
Retrouver ce titre sur Numilog.com

Chapitre 2. Matrices 21

en effet preuve par récurrence 1 si E est d’ordre 2 alors :

0 1
E=[ ]
1 0

et det E vaut bien -1. Supposons l’hypothèse vraie au rang n − 1 et considérons une
matrice d’ordre n , élémentaire. Soit m la première ligne de E non permutée. En
développant à l’aide des cofacteurs selon la ligne m on a :

det E = am1 Am1 + ... + amn Amn


= Amm ,

parce que amj = 0 pour j ≠ m et amm = 1.

Amm = (−1)m+m Mmm


= Mmm .

Mais Mmm est le déterminant d’une matrice élémentaire du premier genre d’ordre
n − 1 et est par hypothèse égal à −1, par suite det E = −1.
Si on obtient B à partir de A en permuttant deux lignes (ou deux colonnes) de A alors
B = EA où E est une matrice élémentaire du premier genre et par suite :

det B = det(E × A)
= det E × det A
= − det A


– Le déterminant d’une matrice triangulaire est égal au produit des éléments diagonaux.
– Pour calculer un déterminant, on fait apparaı̂tre un maximum de zéros sur une ligne (ou
colonne) en faisant des combinaisons linéaires de lignes ou de colonnes et on développe
par rapport à cette ligne (ou colonne).
Exemple 2.11.1 Désignons par Ci la colonne i :
en effectuant

⎪ C2 ← C2 − 2C1


⎨ C3 ← C3 − C1 ,



⎩ C 3 ← C 3 − 3C1

RRR 1 2 1 3 RRRR RRRR 1 0 0 0 RRRR


RRR R R R
RRRR 2 −1 0 −2 RRR RRR 2 −5 −2 −8 RRRR
R R
=
RRR −1 3 0 4 RRRR RRRR −1 3 0 4 RRRR
RRR RRR RRR R
RR 0 1 0 2 RR RR 0 1 0 2 RRRR
1. Raisonnement par récurence ou principe de De Morgan, Augustus De Morgan,1806-1871, mathématicien
britanique qui formula ce principe et les deux relations ensemblistes
CE (A ∪ B) = CE A ∩ CE B, CE (A ∩ B) = CE A ∪ CE B
Retrouver ce titre sur Numilog.com

22 Mathématiques pour économistes: Mohammed Dennai, Roger Goglu

en effectuant C2 ↔ C3 et en mettant 2 en facteur,


RRR 1 0 0 0 RRR
RRR RRR
R 2 1 −5 −8 RRR
= 2 RRRR RRR
RRR −1 3 0 4 RRR
RRR 0 0 1 2 RRR
R
en effectuant
C3 ↔C3 + 5C2
{
C4 ← C4 + 8C2
RRR 1 0 0 0 RRR
RRR RRR
R 2 1 0 0 RRR
= 2 RRRR RRR
RRR −1 0 3 4 RRR
RRR 0 0 1 2 RRR
R
en effectuant C4 ↔ C4 − 43 C3
RRR 1 0 0 0 RRR
RRR RRR
R 2 1 0 0 RRR
= 2 RRRR RRR
RRR −1 0 3 0 RRR
RRR 0 0 1 2 RRR
R 3
2
=2×1×1×3× =4
3
– Pour montrer qu’un système de n vecteurs de Kn est libre ou lié on fabrique la matrice
carrée de dimension n dont les colonnes sont les composantes des vecteurs du système
et on calcule son déterminant. Le système est libre si et seulement si ce déterminant est
non nul.
– Une matrice est inversible si et seulement si son déterminant est non nul.
– Le rang d’une matrice quelconque même rectangulaire est la dimension du plus grand
déterminant non nul que l’on peut extraire de cette matrice.
– Soient n − 1 vecteurs v = {v1 , ..., vn−1 } de Kn formant une famille libre où vj a pour
⎛ a1,j ⎞
⎜ a ⎟
composantes ⎜ 2,j ⎟ . Ces vecteurs engendrent un hyperplan alors une condition
⎜ ⎟
⎝ an−1,j ⎠
nécessaire et suffisante pour que le vecteur v appartienne à cet hyperplan est que le
système v, x forme un système lié, i.e : le derminant suivant est nul :
RRR a1,1 a1,n−1 x1 RRRR
RRR R
RRR a2,1 a2,n−1 x2 RRRR
RRR RRR = 0.
RRR RR
RRR an−1,1 an−1,n−1 xn RRRR
l’équation cartésienne de l’hyperplan de R4 engendré par :
u = {1, 2, −1, 3} , v = {2, 5, 0, 4} , w = {3, 4, 2, 5} ,
est 9x + 8y + 2z − 23t = 0.
.
Retrouver ce titre sur Numilog.com

Chapitre 2. Matrices 23

2.12 Inverse d’une matrice


Une matrice est inversible si det(A) ≠ 0. L’inverse d’une matrice M , quand son déterminant
est non nul est une matrice définie par :

1
M −1 = (M c )t . (2.7)
det(M )
Cette matrice est dite régulière.

Si le déterminant d’une matrice est nul , cette matrice est dite singulière.

Théorème 2.12.1 Pour une matrice régulière on a :

M (M c )t = (M c )t M = (det M )I, (2.8)

où I est la matrice identité.

cos θ − sin θ
Exemple 2.12.1 La matrice de rotation dans le plan xy est A (θ) = [ ].
sin θ cos θ
−1
Vérifions que : A (θ) A (ϕ) = A (θ + ϕ) et A (−θ) = A (θ) , on utilisera les matrices pro-
duits et les identités trigonométriques. Soit :

cos θ − sin θ
A (θ) = [ ]
sin θ cos θ
d’où :

cos θ − sin θ cos ϕ − sin ϕ


A (θ) A (ϕ) = [ ][ ]
sin θ cos θ sin ϕ cos ϕ
cos θ cos ϕ − sin θ sin ϕ − cos θ sin ϕ − sin θ cos ϕ
= [ ]
sin θ cos ϕ + cos θ sin ϕ cos θ cos ϕ − sin θ sin ϕ

cos θ cos ϕ − sin θ sin ϕ − cos θ sin ϕ − sin θ cos ϕ


[ ]=
sin θ cos ϕ + cos θ sin ϕ cos θ cos ϕ − sin θ sin ϕ
cos (θ + ϕ) − sin (θ + ϕ)
[ ]
sin (θ + ϕ) cos (θ + ϕ)
On a ainsi la première assertion.

Pour la deuxième il vient :

cos θ − sin θ cos θ sin θ


A (θ) A (−θ) = [ ][ ]
sin θ cos θ − sin θ cos θ
Retrouver ce titre sur Numilog.com

24 Mathématiques pour économistes: Mohammed Dennai, Roger Goglu

cos θ − sin θ cos θ sin θ cos2 θ + sin2 θ 0


[ ][ ]=[ ]
sin θ cos θ − sin θ cos θ 0 cos2 θ + sin2 θ

d’où :
cos2 θ + sin2 θ 0 1 0
[ ]=[ ]
0 cos2 θ + sin2 θ 0 1

2.13 Déterminant de Vandermonde


Une matrice de la forme :
⎡ 1 a 2 n−1 ⎤
⎢ 1 (a1 ) ... (a1 ) ⎥
⎢ ⎥
⎢ 1 a2 (a2 )2 ... (a2 )n−1 ⎥
⎢ ⎥
M = ⎢⎢ ... ... ... ⎥

⎢ ... ... ⎥
⎢ ⎥
⎢ ⎥
⎢ 1 an (an )2 ... (an )n−1 ⎥
⎣ ⎦
est dite matrice de Vandermonde, son déterminant vaut :

det(M ) = Πi=1..n,j=1..ni≠j (ai − aj ) (2.9)


ce déterminant est utilisé dans la résolution d’un système de n équations à n indéterminées,
de polynômes de degrés n.

2.14 Application
Démonstration de l’égalité ci dessus :

Preuve 2.14.1 On procède par récurrence sur n. Posons :

V (a0 , ..., an ) = det M.

1 a0
Pour n = 1, H1 ∶ V (a0 , a1 ) = ∣ ∣ = a1 − a0 , ainsi H1 est vraie.
1 a1
Supposons Hn−1 et prenons des scalaires a0 , ..., an .
Si les scalaires a0 , ..., an ne sont pas distincts deux à deux, le déterminant :

V (a0 , ..., an )

présente deux lignes identiques donc il est nul et l’hypothèse est vérifiée.
Dans le cas contraire le développement de V (a0 , ..., an−1 , x) par rapport à la dérnière
ligne donne une fonction polynomiale f en x de degré inférieur ou égal à n dont le terme de
plus haut degré est :
V (a0 , ..., an−1 )xn .
Retrouver ce titre sur Numilog.com

Chapitre 2. Matrices 25

D’après l’hypothèse de récurrence :

V (a0 , ..., an−1 ) = ∏ (ai − aj ).


0≤i≤j≤n−1

est donc non nul , f admet a0 , ..., an pour racines, car pour tout i ∈ [0, n − 1], f (ai ) est
un déterminant admettant deux lignes identiques donc nul.
D’où f est un polynôme de degré n dont le coefficient dominant est V (a0 , ..., an−1 ) et qui
admet les racines a0 , ..., an .
Ainsi on a :

∀x ∈ K, V (a0 , ..., an−1 , x) = V (a0 , ..., an−1 ) ∏ (x − aj ).


0≤j≤n−1

Ceci implique que :

V (a0 , ..., an−1 , an ) = ∏ (ai − aj ) ∏ (an − aj )


0≤i≤j≤n−1 0≤j≤n−1

= ∏ (ai − aj ).
0≤i≤j≤n

2.15 Calcul des solutions d’un système compatible


Soient M une matrice inversible, X une matrice colonne inconnue, B une matrice co-
lonne connue liées par le système :
MX = B (2.10)
alors
X = M −1 B. (2.11)

Théorème 2.15.1 (Théorème de Rouché-Fontené) Si un système linéaire est compatible,


sa résolution équivaut à celle d’un système quelconque d’équations principales.
Pour résoudre un système d’équations principales on donne des valeurs arbitraires aux
inconnues non principales, les inconnues principales sont alors déterminées par un système
de Cramer
i.e :
mk
xk = , (2.12)
det M
où mk est le déterminant de la matrice carrée obtenue en remplaçant la k-ème colonne
de M par la k-ème colonne de B.

Exemple 2.15.1 Laquelle de ces assertions est correcte pour la matrice :

1 1 1
A=[ ]
1 0 2
Retrouver ce titre sur Numilog.com

26 Mathématiques pour économistes: Mohammed Dennai, Roger Goglu

⎡ x ⎤
⎢ 1 ⎥ 0
⎢ ⎥
L’ensemble des solutions x = ⎢ x2 ⎥ de l’équation Ax = [ ] est :

⎢ x3 ⎥
⎥ 0
⎣ ⎦
a un espace engendré par une colonne de A
b une ligne de A
c l’espace nul associé à A
d un plan
e une droite
f un point
Les solutions de cette équation sont dans R3 , l’espace engendré par les colonnes de A
est dans R2 , ainsi les solutions ne peuvent pas être les colonnes de A. Le noyau de A est un
sous espace de R3 . Le produit de A par la première ligne de A est :

⎡ 1 ⎤
1 1 1 ⎢⎢ ⎥⎥ 3
[ ]⎢ 1 ⎥ = [ ],
1 0 2 ⎢⎢ ⎥⎥ 3
⎣ 1 ⎦

0
et non [ ], ainsi la solution n’est pas une ligne de A.
0

Pour savoir si l’ensemble des solutions est un point de R3 , on résoud le système :

⎡ x ⎤ ⎡ −2t ⎤
1 1 1 ⎢⎢ 1 ⎥⎥ 0 ⎢

1 ⎥

[ ] ⎢ x ⎥ = [ ] , la solution est : ⎢ t1 ⎥
1 0 2 ⎢⎢ 2 ⎥⎥ 0 ⎢ ⎥
⎣ x3 ⎦ t1 ⎥⎦

Qui est une droite passant par l’origine et de vecteur directeur [ −2 1 1 ].

2.16 Valeurs propres et vecteurs propres

Soient u un endomorphisme d’un espace vectoriel E et K un corps.

On dit qu’un élément x ∈ E est un vecteur propre de u si :


1) x ≠ 0.
2) Il existe λ ∈ K tel que u(x) = λx.
Ce scalaire est nécessairement unique et est appelé valeur propre associée au vecteur
propre x.
Retrouver ce titre sur Numilog.com

Chapitre 2. Matrices 27

2.17 Polynôme caractéristique


Définition 2.17.1 Soit u un endomorphisme de matrice M , d’un espace vectoriel E de di-
mension finie.On appelle polynôme caractéristique de u et on note Pu (λ), le polynôme.

Pu (λ) = det(M − λ.In ). (2.13)

Théorème 2.17.1 (de Cayley-Hamilton)


Soit E un espace vectoriel de dimension finie, u un endomorphisme de E, Pu son po-
lynôme caractéristique ; alors : Pu (u) = 0.

Preuve 2.17.1 Soit le polynôme caractéristique d’une matrice A d’ordre n :

P (λ) = an λn + an−1 λn + ... + a1 λ + a0 . (2.14)


Alors, en posant :

M = A − λI (2.15)
on a :

P (λ) = det M = det(A − λI) (2.16)


La matrice des cofacteurs ou la comatrice de M a ses éléments des polynômes de degé
n − 1 ou n − 2 en λ. Les éléments de la diagonale sont des polynômes de degré n − 1 en λ et
les autres de degré n − 2.Il en est de même de la transposée, (M c )t , il vient que :

(M c )t = Bn−1 λn−1 + Bn−2 λn−2 + ... + B1 λ1 + B0 (2.17)


d’après l’égalité 2.8,

M (M c )t = (det M )I = P (λ)I (2.18)

M (M c )t = (A − λI)(M c )t = A(M c )t − λ(M c )t


En appliquant l’égalité 2.18 il vient :

A(M c )t − λ(M c )t = P (λ)I (2.19)


En substituant 2.14 et 2.17 dans 2.18 on obtient :

an λn I + an−1 λn I + ... + a1 λI + a0 I
= ABn−1 λn−1 + ABn−2 λn−2 +
... + AB1 λ1 + AB0 − (Bn−1 λn−1 + Bn−2 λn−2 +
... + B1 λ1 + B0 )

D’où en identifiant terme à terme il vient :


Retrouver ce titre sur Numilog.com

28 Mathématiques pour économistes: Mohammed Dennai, Roger Goglu

an I = −Bn−1
an−1 I = ABn−1 − Bn−2
an−2 I = ABn−2 − Bn−3
...
a1 I = AB1 − B0
a0 I = AB0

On multiplie la première de ces équation par An , la deuxième par An−1 et ainsi de suite
la dernière par I = A0 puis on additionne membre à membre les équations obtenues on a :

P (A) = 0 (2.20)

Définition 2.17.2 D’une manière générale pour f ∈ K (E), ensemble des endomorphismes
de E sur le corps K, un polynôme Q ∈ K[X] est dit polynôme annulateur de f si Q(f ) = 0.
D’après le théorème de Caley-Hamilton le polynôme caractéristique est un polynôme
annulateur de l’endomorphisme associé à la matrice donnant le polynôme caractéristique.
Il existe d’autres polynômes annulateurs, en effet pour tout endomorphisme f , il existe
un polynôme annulateur, si dimK E = n, dimEndK E = n2 donc toute n2 + 1 famille d’endo-
morphisme est liée, en particulier, les endomorphismes :
2
id, f, f 2 , ..., f n

sont liés d’où il existe a0 , a1 , ..., an2 dans K tels que :


2
a0+ a1 f + ... + an2 f n = 0 (2.21)
ce qui veut dire que le polynôme :
2
Q(X) = a0+ a1 X + ... + an2 X n

est un polynôme annulateur de f .

Proposition 2.17.1 Si Q est un polynôme annulateur de f alors les valeurs propres de f


figurent parmi ses racines.
L’ensemble des valeurs propres est appelé spectre de f est noté sp(f ) , l’ensemble des
racine de Q est noté rac(Q) alors :

sp(f ) ⊂ rac(Q).

Preuve 2.17.2 En effet : si λ est une valeur propre de f , il existe v un vecteur propre non nul
qui lui est associé tel que :
Retrouver ce titre sur Numilog.com

Chapitre 2. Matrices 29


⎪ f (v) = λv.




⎪ f 2 (v) = λ2 v

⎨ f 3 (v) = λ3 v




⎪ ...


⎩ f k (v) = λk v
Soit Q(X) un polynôme annulateur ,

Q(X) = a0+ a1 X + ... + an X n

i.e :
a0+ a1 f + ... + an f n = 0,
en appliquant cette relation au vecteur v on obtient :

(a0+ a1 f + ... + an f n )v = 0

c’est à dire :
(a0+ a1 λ + ... + an λn )v = 0
comme v est non nul il vient que :

a0+ a1 λ + ... + an λn = 0,

c’est à dire : Q(λ) = 0. ∎

Remarque 2.17.1 Toutes les racines de Q ne sont pas nécéssairement valeurs propres de f
par exemple ’l”identité vérifie :
id2 = id,
donc Q(X) = X(X − 1) est annulateur mais 0 n’est pas valeur propre.

Remarque 2.17.2 Un projecteur ne peut avoir que 0 et (ou) 1 comme valeurs propres.

2.18 Endomorphisme diagonalisable


Proposition 2.18.1 Soit f un endomorphisme et

Pf (X) = (−1)n (X − λ1 )α1 ...(X − λp )αp (2.22)


le polynôme caractéristique. Alors si f est diagonalisable, le radical de Pf (X), c’est à
dire le polynôme :
Q(X) = (X − λ1 )...(X − λp ) annule f.Q(X) est appelé radical de P

Preuve 2.18.1 En effet si f est diagonalisable , il existe une base

B = {v1 , ..., vn }
Retrouver ce titre sur Numilog.com

30 Mathématiques pour économistes: Mohammed Dennai, Roger Goglu

de vecteurs propres. Si λ1 , ..., λp sont les valeurs propres , pour tout v dans B , il existe au
moins une valeur propre λj telle que f − λj idv = 0 ; donc pour tout v dans B on a :

(f − λ1 id) ○ (f − λ2 id)... ○ (f − λp id)v = 0 (2.23)

car les endomorphismes (f − λk id) commutent. Puisque l’endomorphisme

(f − λ1 id) ○ (f − λ2 id)... ○ (f − λp id)

s’annule sur une base, il s’annule sur tout vecteur de E. Donc le polynôme :

Q(x) = (X − λ1 )...(X − λp )

est un annulateur de f . ∎

Remarque 2.18.1 Définition 2.18.1 Un polynôme est scindé dans le corps K si toutes ses
racines sont dans K.

Remarque 2.18.2 La proposition 2.18.1 montre en particulier que si f est diagonalisable il


existe un polynôme annulateur qui est scindé et qui a toutes ses racines simples.

Lemme 2.18.1 (lemme des noyaux) Soit f ∈End(E) et Q un polynôme factorisé en produit
de polynômes deux à deux premiers entre eux, Q(X) = Q1 (X)...Qp (X).
si Q(f ) = 0 alors :
E = ker Q1 (X) ⊕ ... ⊕ ker Qp (X). (2.24)
Avant de démontrer ce lemme montrons comment il s’applique :

Remarque 2.18.3 Soit un projecteur p, i.e : un endomorphisme tel que p2 = p, son polynôme
Q s’écrit :
Q(X) = X(X − 1)
annule f et X , X − 1 sont premiers entre eux d’où :

E = ker p ⊕ ker(p − id).

Donc E est somme directe d’espaces propres d’où p diagonalisable.

Preuve 2.18.2 On démontre ce lemme par récurrence sur p.


Pour p = 1 on a Q(X) = Q1 (X) , par hypothèse on Q1 (f ) = 0, ie :

∀x ∈ E; Q1 (f )x = 0,

donc E ⊂ ker Q1 (f ) donc E = ker Q1 (f ).


Regardons comment se passe la récurrence de p = 1 à p = 2 , soit Q = Q1 Q2 , puisque
Q1 , Q2 sont premiers entre eux, d’après le théorème de Bezout, il existe U1 et U2 tels que :

U1 Q1 + U1 Q2 = 1

d’où
U1 (f ) ○ Q1 (f ) + U1 (f ) ○ Q2 (f ) = identité.
Retrouver ce titre sur Numilog.com

Chapitre 2. Matrices 31

Ainsi :
∀x ∈ E, x = U1 (f ) ○ Q1 (f )x + U1 (f ) ○ Q2 (f )x,
ie :
E ⊂ im(U1 (f ) ○ Q1 (f )) + im(U1 (f ) ○ Q2 (f )).
Or
Q2 (f ) ○ U1 (f ) ○ Q1 (f ) = 0,
car
Q1 (f )Q2 (f ) = 0,
d’où
im(U1 (f ) ○ Q1 (f )) ⊂ ker(Q2 (f )).
De même
im(U2 (f ) ○ Q2 (f )) ⊂ ker(Q1 (f )).
Par conséquent :
E = ker(Q1 (f )) ⊕ ker(Q2 (f )),
car
x ∈ ker(Q1 (f )) ∩ ker(Q2 (f )), x
= U1 (f ) ○ Q1 (f )x + U1 (f ) ○ Q2 (f )x
= 0.
Supposons le théorème vrai jusqu’à p − 1 et posons :
Q = Q1 Q2 ...Qp−1 Qp = Q∗ Qp .
´¹¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¸¹∗ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¶
Q

D’après le cas p = 2 il vient :


E = ker(Q∗ (f )) ⊕ ker(Qp (f )).
Il reste à montrer que :
ker Q∗ (f ) = ker Q1 (f ) ⊕ ... ⊕ ker Qp−1 (f ).
Soit F = ker Q∗ (f ) d’après l’hypothèse de récurrence ,
̃ 1 (f ) ⊕ ... ⊕ kerQ
F = kerQ ̃ p−1 (f ).

où
̃ i (f ) = {x ∈ F, Qi (f )(x) = 0} ⊂ ker Qi (f ).
kerQ
Or ker Qi (f ) = kerQi (f ), en effet x ∈ ker Qi (f ), Q∗ (f )x = 0,
̃
̃ i (f ).
donc x appartient à F et donc à kerQ
On a ainsi :
F = ker Q1 (f ) ⊕ ... ⊕ ker Qp−1 (f ).

En conséquence de ce lemme et de ce qui a été dit ci-dessus on a le théorème :


Théorème 2.18.1 Un endomorphisme f est diagonalisable si et seulement si il existe un
polynôme annulateur de f scindé et n’ayant que des racines simples.
Retrouver ce titre sur Numilog.com

32 Mathématiques pour économistes: Mohammed Dennai, Roger Goglu

2.19 Polynôme minimal


On appelle polynôme minimal m(λ) pour une matrice M d’ordre n × n,
le polynôme unitaire de plus faible degré tel que m(M ) = 0.
Soit µi la multiplicité de λi racine de Pu dans :

Pu (λi ) = det(M − λi .In ) = 0,

le plus petit entier positif pi pour lequel le rang de (M − λi I)pi est égal à n − µi , où n
représente le nombre de lignes ou de colonnes, alors le polynôme minimal est donné par :

m(λ) = (λ − λ1 )p1 (λ − λ2 )p2 ...(λ − λs )ps , 1 ≤ s ≤ n.

2.20 Exemple
Soit la matrice M définie par :
⎡ 3 2 0 1 ⎤
⎢ ⎥
⎢ 0 3 0 0 ⎥
⎢ ⎥
M =⎢ ⎥

⎢ 0 0 3 −1 ⎥

⎢ 0 0 0 3 ⎥
⎣ ⎦
Elle admet la valeur propre λ = 3 de multiplicité quatre. Donc n = 4, µ = 4,
⎡ 0 2 0 1 ⎤
⎢ ⎥
⎢ 0 0 0 0 ⎥
⎢ ⎥
M − 3I = ⎢ ⎥

⎢ 0 0 0 −1 ⎥

⎢ 0 0 0 0 ⎥
⎣ ⎦
est de rang 2 alors que :
⎡ 0 0 0 0 ⎤
⎢ ⎥
⎢ 0 0 0 0 ⎥
2 ⎢ ⎥
(M − 3I) = ⎢ ⎥

⎢ 0 0 0 0 ⎥

⎢ 0 0 0 0 ⎥
⎣ ⎦
est de rang 0 donc p = 2. Son polynôme minimal est m(λ) = (λ − 3)2 .
Soit E un espace vectoriel de dimension n , u ∈ L(E), un endomorphisme de E, Pu (X) =
α
Πi=1...p (λi − X) i , son polynôme caractéristique. Si Ni désigne le sous- espace caractéristique
associé à λi , on a dim(Ni ) = αi , αi étant la multiplicité de la valeur propre λi .

Proposition 2.20.1 Soit m(t) le polynôme minimal d’une matrice A d’ordre n alors le po-
lynôme caractéristique de A divise (m(t))n .

Preuve 2.20.1 Soient


m(t) = tr + a1 tr−1 + ... + ar−1 t + ar
Retrouver ce titre sur Numilog.com

Chapitre 2. Matrices 33

et les matrices suivantes :



⎪ B0 = In




⎪ B1 = A + a1 In

⎨ B2 = A2 + c1 A + a2 In




⎪ ...


⎩ Br−1 = Ar−1 + a1 Ar−2 + ... + ar−1 In
Alors :

⎪ B0 = In




⎪ B1 − AB0 = a1 In

⎨ B2 − AB1 = a2 In




⎪ ...


⎩ Br−1 ABr−2 = ar−1 In
d’où
−ABr−1 = ar In − (Ar + a1 Ar−1 + ... + ar In )
= ar In − m(A) ,
= a r In
posons
B(t) = tr−1 B0 + tr−2 B1 + ... + Br−1 ,
alors :
(tIn − A) ⋅ B(t)
= (tr B0 + tr−1 B1 + ... + tBr−1 ) − (tr−1 AB0 + tr−2 AB1 + ... + ABr−1 )
= tr B0 + tr−1 (B1 − AB0 ) + tr−2 (B2 − AB1 ) + ... + t(Br−1 − ABr−2 ) − ABr−1
= tr In + a1 tr−1 In + a2 tr−2 In + ... + ar−1 tIn + ar In
= m(t)In
Passons au déterminant des deux membres ; on obtient :
det(tIn − A) ⋅ det B(t) = det(m(t)In ) = (m(t))n .
D’où le polynôme det(tIn − A) divise (m(t))n . puisque det B(t) est un polynôme. ∎
Exemple 2.20.1 -Trouver le polynôme caractéristique, le polynôme minimal, les valeurs
propres et les vecteurs propres et discuter les dimensions des espaces propres suivant la
multiplicité de la matrice :
⎡ 2 0 0 0 ⎤
⎢ ⎥
⎢ 1 2 0 0 ⎥
⎢ ⎥
⎢ ⎥
⎢ 0 0 2 0 ⎥
⎢ ⎥
⎢ 0 0 −3 2 ⎥
⎣ ⎦
4
Cette matrice a pour polynôme caractéristique (X − 2) , pour polynôme minimale 4 −
2
4X + X 2 = (X − 2) , pour valeurs propres et vecteurs propres :

⎪ ⎡ 0 ⎤ ⎡ 0 ⎤⎫
⎪ ⎢ ⎥ ⎢ ⎥⎪

⎪ ⎢ ⎥ ⎢ ⎥⎪

⎪ ⎢ 0 ⎥ ⎢ 1 ⎥⎪

⎨2, 4, ⎢ ⎥,⎢ ⎥⎬

⎪ ⎢
⎢ 0 ⎥ ⎢
⎥ ⎢ 0 ⎥⎪
⎥⎪

⎪ ⎢ ⎥ ⎢ ⎥⎪


⎩ ⎣ 1 ⎦ ⎣ 0 ⎦⎪

Retrouver ce titre sur Numilog.com

34 Mathématiques pour économistes: Mohammed Dennai, Roger Goglu

la valeur propre 2 est de multiplicité 4 , il lui est associé deux vecteurs propres indépendants :

⎡ 2 0 0 0 ⎤⎡ 0 ⎤ ⎡ 0 ⎤⎥
⎢ ⎥⎢ ⎥ ⎢
⎢ 1 2 0 0 ⎥⎢ 0 ⎥ ⎢ 0 ⎥⎥
⎢ ⎥⎢ ⎥ ⎢
⎢ ⎥⎢ ⎥ = ⎢ ⎥

⎢ 0 0 2 0 ⎥⎢
⎥⎢ 0 ⎥


⎢ 0 ⎥⎥
⎢ 0 0 −3 2 ⎥⎢ 1 ⎥ ⎢ 2 ⎥⎦
⎣ ⎦⎣ ⎦ ⎣
⎡ 0 ⎤
⎢ ⎥
⎢ 0 ⎥
⎢ ⎥
= 2⎢ ⎥
⎢ 0 ⎥
⎢ ⎥
⎢ 1 ⎥
⎣ ⎦

⎡ 2 0 0 0 ⎤⎡ 0 ⎤ ⎡ 0 ⎤⎥
⎢ ⎥⎢ ⎥ ⎢
⎢ 1 2 0 0 ⎥⎢ 1 ⎥ ⎢ 2 ⎥⎥
⎢ ⎥⎢ ⎥ ⎢
⎢ ⎥⎢ ⎥ = ⎢ ⎥

⎢ 0 0 2 0 ⎥⎢
⎥⎢ 0 ⎥


⎢ 0 ⎥⎥
⎢ 0 0 −3 2 ⎥⎢ 0 ⎥ ⎢ 0 ⎥⎦
⎣ ⎦⎣ ⎦ ⎣
⎡ 0 ⎤
⎢ ⎥
⎢ 1 ⎥
⎢ ⎥
= 2⎢ ⎥
⎢ 0 ⎥
⎢ ⎥
⎢ 0 ⎥
⎣ ⎦
Exemple 2.20.2 1. La matrice :

⎛ −1 1 1 ⎞
A=⎜ 1 −1 1 ⎟,
⎝ 1 1 1 ⎠

a pour polynôme minimal :

mA (X) = (X + 2)(X − 1)

mA est scindé et ses racines sont simples donc A est diagonalisable.


2. La matrice :
⎛ 3 2 −2 ⎞
A = ⎜ −1 0 1 ⎟,
⎝ 1 1 0 ⎠
a pour polynôme minimal l’une de formes suivantes :

⎪ X −1


⎨ (X − 1)2

⎪ 3
⎩ (X − 1)

A est diagonalisable si et seuleument si X − 1 donne

A − id = 0,

ce qui n’est pas vérifié dans notre cas donc A est non diagonalisable.
Retrouver ce titre sur Numilog.com

Chapitre 2. Matrices 35

⎛ 3 −1 1 ⎞
3. La matrice A = ⎜ 2 0 1 ⎟ , a pour polynôme caractéristique :
⎝ 1 −1 2 ⎠

pA (X) = −(X − 1)(X − 2)2

.
Son polynôme minimal est sous l’une des forme :

(X − 1)(X − 2)
mA (X) = { ,
(X − 1)(X − 2)2
A est diagonalisable si :
(A − I)(A − 2I) = 0
or

⎛ 1 ... ⎞
(A − I)(A − 2I) = ⎜ ... ⎟ ≠ 0,
⎝ ⎠
donc A est non diagonalisable.

Le théorème suivant est une conséquence de ce qu’il a été dit plus haut :

Théorème 2.20.1 Un endomorphisme d’un espace vectoriel de dimension n est diagonali-


sable si et seulement si la dimension de chaque espace propre est égale à la multiplicité de
la valeur propre associée.

2.21 Réduction de Jordan d’un endomorphisme nilpotent

Définition 2.21.1 Un endomorphisme u est dit nilpotent s’il existe un entier naturel m tel
que um = 0.

Et par la suite une matrice M est dite nilpotente si l’endomorphisme qui lui est associé
est nilpotent, c’est à dire s’il existe un entier naturel m tel que :

M m = 0.

Soit u un endomorphisme quelconque de l’espace vectoriel E de dimension n et soient :


αi
Pu = Πi=1...p (λi − X)
et
βi
Qu = Πi=1...p (λi − X) .
ses polynômes caractéristique et minimal, l’espace caractéristique :

Ni = ker(u − λI)βi
Retrouver ce titre sur Numilog.com

36 Mathématiques pour économistes: Mohammed Dennai, Roger Goglu

est stable, de dimension αi et E est somme directe des Ni .

De plus posons :

ui = λi Ii + (ui − λi Ii ) = λi Ii + vi ;
(Ii est l’identité de Ni ). vi est nilpotent, de polynôme minimal X βi .

Ainsi ui est la somme d’une homothétie et d’un endomorphisme nilpotent.

RRR 0 1 0 ... 0 RRR


RRR RR
R ... 0 RRRR
Ui,k = RRRR
RRR ... 1 RRRR
RRR 0 R
R ... 0 RRRR
Ui,k est une matrice de Jordan . Plus généralement on a le :

Théorème 2.21.1 Il existe une base dans laquelle l’endomorphisme nilpotent u est représenté
par une matrice de Jordan.

Avant de donner une démonstration de ce théorème énonçons deux lemmes.

Lemme 2.21.1 Si f est un endomorphisme nilpotent d’indice p alors :


a) Pour tout entier k compris entre 2 et p on a :

ker f k−2 ⊂ ker f k−1 ⊂ ker f k .


b) Si S désigne un sous-espace vectoriel de ker f k supplémentaire de ker f k−1 , il existe
T un sous-espace de ker f k−1 supplémentaire de ker f k−2 tel que f (S) ⊂ T, et la restriction
de f à S est une application linéaire injective de S vers T et dim f (S) ≤ dim T.

Preuve 2.21.1 On démontre a) : pour cela il faut démontrer que ker f l ⊂ ker f l+1 pour tout
entier l.
Soit x élément de ker f l on a f l+1 (x) = f ○f l (x) = f (0) = 0 donc x appartient à ker f l+1 .
Démontrons b) : on montre d’abord que f (S) ⊂ ker f k−1 .
Soit y un élément de f (S) il existe x de S tel que y = f (x), en composant par f k−1 ,on
obtient f k−1 (y) = f k (x).
Comme S ⊂ ker f k , f k (x) = 0, d’où f k−1 (y) = 0, donc y appartient à ker f k−1
et donc f (S) ⊂ ker f k−1 .
Montrons maintenant que f (S) ∩ ker f k−2 = {0} ∶
En effet soit y un élément commun à f (S) et ker f k−2 , il existe un x de S tel que y = f (x)
et f k−2 (y) = 0, on en déduit que f k−1 (x) = 0
donc x appartient à S ∩ ker f k−1 , comme S est supplémentaire de

ker f k−1 , x = 0
Retrouver ce titre sur Numilog.com

Chapitre 2. Matrices 37

d’où :
y = f (x) = f (0) = 0.
Montrons l’existence de T :
On a f (S) + ker f k−2 ⊂ ker f k−1 .
Si l’inclusion est une égalité on prendra T = f (S).
Si ce n’est pas le cas , considérons B une base de
f (S) + ker f k−2 .
On sait qu’il existe B ′ une base telle que (B, B ′ ) est une base de ker f k−1 .
On prendra pour T le sous-espace engendré par f (S) et B ′ .
Montrons maintenant que f restreinte à S est injective : Cette restriction est
linéaire de S à T . Montrons que le noyau de cette restriction ϕ est réduit à 0.
En effet x appartenant à ker ϕ ⇒
ϕ(x) = f (x) = 0
d’où x appartient à ker f . Comme ker f ⊂ ker f k−1 . x appartient à S ∩ ker f k−1 . Donc x
est nulle. Comme ϕ est injective l’image d’une base de S est une partie libre de T et on a :
dim ϕ (S) = dim f (S) ≤ dim T.

Comme conséquence de ce lemme on a le résultat suivant :


Lemme 2.21.2 Il existe une suite de sous-espaces, non réduits à 0,
M1 , ..., Mp
tels que :
a) pour tout entier k compris entre 0 et p − 1 on a :
ker f p−k = ker f p−k−1 ⊕ Mk+1 .
b) E est somme directe des sous-espaces Mk.
c) pour tout k :
f (Mk ) ⊂ Mk+1 ; dim(Mk ) ≤ dim(Mk+1 ).
Preuve 2.21.2 Démontrons a) par récurrence sur k on a :
ker f p = E
Comme ker f p−1 est strictement inclus dans E (car f p−1 n’est pas nulle) il existe un sous
espace M supplémentaire de ker f , non réduit à 0 on a alors :

ker f p = ker f p−1 ⊕ M1 .


Et donc a) est vraie pour k = 0.
Supposons a) vraie au rang k − 1 donc Mk existe. Montrons l’existence de Mk+1 .
Appliquons le lemme précédent avec S = Mk . Le sous-espace T du lemme est Mk+1.
b) est une conséquence immédiate de a).
c) est une application du lemme précédent. ∎
Retrouver ce titre sur Numilog.com

38 Mathématiques pour économistes: Mohammed Dennai, Roger Goglu

Maintenant démontrons le théorème 2.21.1 :

Preuve 2.21.3 Soit mk la dimension de Mk . Dans chaque sous-espace Mk , il existe une base
B k = {ek1 , ek2 , ..., ekmk } telle que pour j = 1...mk , k = 1...p − 1,

f (ekj ) = ek+1
j .

La restriction de f à chaque sous-espace Mk est injective de Mk dans Mk+1.


Les vecteur (ekj ) sont indépendants par injectivité de la restriction de f à Mk ..
Si m1 = m2 , (e2j ) est la base recherchée de M2 .Sinon on complétera la base dont on a
les m1 premiers termes. Par récurrence on a l’existence de la base (ekj ), pour k = 1...p − 1.
Comme E est somme directe des Mk ,les vecteurs ekj forment une partie libre de E. Dans
cette base la matrice de f est de la forme :
⎡ 0 1 0 ... 0 ⎤⎥

⎢ ⋱ 1 ... 0 ⎥⎥

⎢ ⎥.

⎢ 0 ⋱ ... 1 ⎥⎥
⎢ 0 0 0 0 ⎥⎦

Le cas où f a une valeur propre multiple d’ordre n, alors l’endomorphisme f vérifie
d’après le théorème de Cayley-Hamilton :

(f − λI)n = 0.

Posons ϕ = f −λid. Alors f = ϕ+λid. Ainsi ϕ est nilpotente donc on applique le théorème
précédent , ϕ est représentée par une matrice de Jordan dont les éléments diagonaux sont nuls,
et f est la matrice de Jordan dont les éléments diagonaux sont égaux à λ.
Le cas général , soient P le polynôme caractéristique de f et λ1 , ..., λp ses racines, valeurs
propres de f et α1 , ..., αp , leurs multiplicités. On obtient la matrice J de Jordan
⎡ J ⎤
⎢ 1 ⎥
⎢ ⎥
J =⎢ ... ⎥
⎢ ⎥

⎣ Jp ⎥

où Ji est une matrice de Jordan.

2.22 Exemple
Exemple 2.22.1 Soit A la matrice de M4 (R), définie par :
⎡ −10 7 −8 13 ⎤
⎢ ⎥
⎢ −18 12 −11 19 ⎥
⎢ ⎥
⎢ ⎥

⎢ −14 8 −7 15 ⎥

⎢ −10 6 −7 13 ⎥
⎣ ⎦
Retrouver ce titre sur Numilog.com

Chapitre 2. Matrices 39

Son polynôme caractéristique s’écrit P (X) = (X − 2)4 .


Soit B = A − 2I, B vérifie B 2 = 0. B est nilpotente d’indice 2.
Soit B1 = (e1 , e2 , e3 , e4 ) la base canonique de R4 .
Soit ϕ l’endomorphisme associé à B, f = ϕ + 2id.
On a ϕ(e1 ) ∈ ker ϕ, ϕ(e2 ) ∈ ker ϕ.
Soit M1 le plan de base {e1 , e2 } , M2 le noyau de ϕ.
On vérifie que ϕ(e1 ), ϕ(e2 ), sont indépendants on a donc :

dim M2 ≥ 2

et M1 ∩ M2 = {0} .
On en déduit que R4 = M1 ⊕ M2 . On obtient la base B2 = {ϕ(e1 ), e1 , ϕ(e2 ), e2 } .
La réduite de Jordan s’écrit :
⎡ 2 1 0 0 ⎤
⎢ ⎥
⎢ 0 2 0 0 ⎥
⎢ ⎥
⎢ ⎥,

⎢ 0 0 2 1 ⎥

⎢ 0 0 0 0 ⎥
⎣ ⎦
la matrice de passage étant
⎡ −12 1 7 0 ⎤
⎢ ⎥
⎢ −18 0 10 1 ⎥
⎢ ⎥
⎢ ⎥.

⎢ −14 0 8 1 ⎥

⎢ −10 0 6 0 ⎥
⎣ ⎦

2.23 Une condition nécessaire et suffisante de trigonalisa-


tion
Théorème 2.23.1 Un endomorphisme est trigonalisable dans K si et seulement si son po-
lynôme caractéristique est scindé dans K. En particulier si A ∈ Mn (C), alors A est sem-
blable à une matrice triangulaire de Mn (C)

Preuve 2.23.1 Supposons f trigonalisable et soit une base {e1, e2 , ..., en } de Kn , dans cette
base la matrice de f a la forme :
⎡ a11 ∗ ⎤
⎢ ⎥
⎢ 0 a21 ⎥
⎢ ⎥
Mf = ⎢ ⎥

⎢ ... ... ... ⎥

⎢ 0 ... 0 ann ⎥
⎣ ⎦
et son polynôme caractéristique est :
⎡ a11 − λ ∗ ⎤
⎢ ⎥
⎢ 0 a − λ ⎥
⎢ 21 ⎥
pf (X) = det ⎢ ⎥
⎢ ... ... ... ⎥
⎢ ⎥
⎢ 0 ... 0 ann − λ ⎥
⎣ ⎦
= (a11 − λ)(a21 − λ)...(ann − λ),
Retrouver ce titre sur Numilog.com

40 Mathématiques pour économistes: Mohammed Dennai, Roger Goglu

qui est bien scindé. Réciproquement pour n = 1, il n’y a rien à démontrer, par récurrence sur
n, supposons que cela soit vrai jusqu’au rang n − 1 et démontrons le pour le rang n. Puisque
pf est scindé il existe au moins une racine correspondant à une valeur propre, à laquelle est
rattaché un vecteur propre v. Complétons par une base de E, {e2 , ..., en } , la matrice de f a
l’allure suivante :
⎡ a11 ⎤
⎢ ⎥
⎢ 0 ⎥
⎢ ⎥
Mf = ⎢ ⎥
⎢ ... B ⎥
⎢ ⎥
⎢ 0 ⎥
⎣ ⎦
B ∈ Mn−1 (K),soit F ={e2 , ..., en } et g ∶ F → F, telle que M restreinte à {e2 , ..., en } soit
B. On a
⎡ a11 − λ ∗ ⎤⎥

⎢ 0 ⎥
⎢ ⎥
pf (λ) = det ⎢ ⎥
⎢ ... B − λI n−1 ⎥
⎢ ⎥
⎢ 0 ⎥
⎣ ⎦
= (a11 − λ) det(B − λIn−1 )
= (a11 − λ)pg (λ).
Puisque pf est scindé pg l’est aussi. D’après l’ hypothèse de récurrence B est triangulaire et
donc M est triangulaire. ∎
Corollaire 2.23.1 Si le polynôme caractéristique de A ∈ Mn (K) est scindé dans K, alors
Trace de A, TrA = ∑ni=1 λi ,et det A = ∏ni=1 λi .
Preuve 2.23.2 On applique le fait que A est semblable à une matrice triangulaire. ∎

2.24 Exemple de trigonalisation


Soit
⎡ −4 0 −2 ⎤
⎢ ⎥
⎢ ⎥
A = ⎢ 0 1 0 ⎥,
⎢ ⎥
⎢ 5 1 3 ⎥⎦

pf (X) = −(X − 1)2 (X + 2).
Ce polynôme est scindé donc A est trigonalisable, sa matrice triangulaire s’écrit :
⎡ 1 a b ⎤
⎢ ⎥
⎢′ ⎥
A =⎢ 0 1 c ⎥,
⎢ ⎥
⎢ 0 0 −2 ⎥
⎣ ⎦
une base de trigonalisation s’écrit :

⎪ f (u) = u


⎨ f (v) = au + v ,


⎩ f (w) = bu + cv − 2W

Retrouver ce titre sur Numilog.com

Chapitre 2. Matrices 41

on obtient :
⎡ 2 ⎤ ⎡ −2 ⎤ ⎡ 1 ⎤
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
u = ⎢ 0 ⎥ , v = ⎢ −3 ⎥ , w = ⎢ 0 ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ −2 ⎥ ⎢ 4 ⎥ ⎢ −1 ⎥
⎣ ⎦ ⎣ ⎦ ⎣ ⎦
et
⎡ 1 1 0 ⎤
⎢ ⎥
′⎢ ⎥
A =⎢ 0 1 0 ⎥,
⎢ ⎥
⎢ 0 0 −2 ⎥
⎣ ⎦
de matrice de passage,
⎡ 2 −2 1 ⎤⎥

⎢ ⎥
P = ⎢ 0 −3 0 ⎥.
⎢ ⎥
⎢ −2
⎣ 4 −1 ⎥⎦

2.25 Matrice hermitienne ou hermitique


Soit W une matrice d’ordre n régulière. On appelle produit intérieur de deux vecteurs
colonnes de dimension n , X et Y par rapport à W noté (X, Y )W la quantité :

(X, Y )W = ⟨W X, W Y ⟩ (2.25)
où le crochet est le produit scalaire. (X, Y )W est un produit scalaire si W = I matrice
identité , le produit intérieur est le produit scalaire :

(X, Y ) = ⟨X, Y ⟩ (2.26)


appelé produit intérieur euclidien. Si de plus X et Y sont réels on se ramène au produit
scalaire ordinaire.
La conjugué d’une matrice A est la matrice dont les coefficients sont les conjugués des
coefficients de la matrice A. Elle notée A.
La transposée hermitienne d’une matrice A notée AH , est la transposée de la conjuguée
t
de A. Ou encore AH = A .
Une matrice est dite normale si :

AH A = AAH (2.27)
Les matrices normales ont les Propriétés suivantes :
1. Toute matrice normale est semblable à une matrice diagonale.
2. Toute matrice normale possède une base canonique de vecteurs propres que l’on peut
mettre sous forme d’un ensemble orthonormé.
Matrice hermitienne :
Une matrice est dite hermitienne si elle est égale à sa transposée hermitienne , autrement
dit si :

A = AH (2.28)
Retrouver ce titre sur Numilog.com

42 Mathématiques pour économistes: Mohammed Dennai, Roger Goglu

Propriétés :
1. La somme de deux matrices hermitiennes est hermitiennes.
2. Le produit d’une matrice hermitienne par un nombre est hermitienne.
3. Les valeurs propres d’une matrice hermitienne sont réelles.
4. Une matrice hermitienne vérifie :
⟨AX, X⟩
est un réel quel que soit le vecteur X réel ou complexe de dimension n.
5. Si on peut mettre une matrice hermitienne U sous forme triangulaire supérieure en
n’utilisant que des transformations élémentaires sur les lignes alors la diagonale de U
contient le même nombre de zéros de valeurs positives et de valeurs négatives que les
valeurs propres de A.

2.26 Exemples
Exemple 2.26.1 Les matrices suivantes sont normales :
⎡ 1 2 3 ⎤⎥ ⎡ 2 6 −3 ⎤
⎢ 2 3 + 4i ⎢ ⎥
⎢ ⎥ ⎢ ⎥
A=⎢ 2 4 −5 ⎥ B = [ ] C=⎢ 3 2 6 ⎥

⎢ 3 −5
⎥ 3 − 4i −5 ⎢ ⎥
⎣ 0 ⎥⎦ ⎢ −6
⎣ 3 2 ⎥

2.27 Matrice symétrique réelle


Une matrice est dite symétriquesi elle égale à sa transposée.
Propriétés :
1. Une matrice symétrique qui ne contient que des éléments réels est hermitienne et par
suite normale. Par conséquent elle possède les propriétés vues ci-dessus.
2. On peut choisir les vecteurs propres d’une matrice réelle symétrique de façon à ce
qu’ils soient réels.
La matrice A de l’exemple ci-dessus est réelle et symétrique.

2.28 Matrice auto-adjointe


L’adjointe
d’une matrice A, n × m est une matrice A∗ , m × n qui vérifie :

⟨X, AY ⟩W = ⟨A∗ X, Y ⟩W (2.29)


Quels que soient Y de dimension m et X de dimension n. Le crochet étant le produit
intérieur.
L’adjointe existe toujours elle vaut :

A∗ = (W H W )−1 AH (W H W ) (2.30)
Retrouver ce titre sur Numilog.com

Chapitre 2. Matrices 43

Si W = I où I est la matrice identité alors :

A∗ = AH (2.31)
Propriétés :
1. (A∗ )∗ = A
2. (A + B)∗ = A∗ + B ∗
3. (AB)∗ = B ∗ A∗
4. (λA)∗ = λA∗ .

Une matrice est dite auto-adjointe si elle est égale à son adjointe.
Une telle matrice vérifie :

⟨X, AY ⟩W = ⟨AX, Y ⟩W (2.32)


Quels que soient les vecteurs X et Y de dimensions adéquates.

Théorème 2.28.1 Une matrice est auto-adjointe par rapport au produit intérieur euclidien
si et seulement si elle est hermitienne.

Exemple 2.28.1 Soit F un sous-espace vectoriel de l’espace euclidien E et p la projection


sur F alors p est est un endomorphisme auto-adjoint.

2.29 Matrice définie positive


Une matrice hermitienne d’ordre n est dite définie positivesi :

⟨AX, X⟩ > 0 (2.33)


quel que soit le vecteur X non nul de dimension n. A est dite semi-définie positive si :

⟨AX, X⟩ ≥ 0 (2.34)
Si on inverse ces inégalité on obtient respectivement une matrice définie négative et semi-
définie négative.
On démontre assez facilement les propriétés et caractéristiques suivantes des ma-
trices définies positives voir exercice ?? :
Propriétés :
1. La somme de deux matrices définies de même type est une matrice de même type.
2. La transposée hermitienne vérifie la même chose.
3. Les matrice définies positives (resp définies négatives) sont inversibles , leurs inverses
étant également de même type.
Retrouver ce titre sur Numilog.com

44 Mathématiques pour économistes: Mohammed Dennai, Roger Goglu

Caractéristiques nécessaires et suffisantes :


1. A est définie positive si et seulement si on peut la mettre sous forme triangulaire
supérieure en n’utilisant que des transformations élémentaires sur les lignes et si les
éléments diagonaux de la matrice résultante (les pivots) sont tous strictement positifs.
2. On appelle mineur principal de A le déterminant de toute sous matrice obtenue à partir
de A en éliminant les k dernières lignes et les k dernières colonnes (k = 0...n − 1). A
est définie positive si et seulement si tous ses mineurs principaux sont positifs.
3. A est définie positive si et seulement si toutes ses valeurs propres sont strictement
positives.
Caractéristiques nécessaires :
1. Les éléments diagonaux d’une matrice définie positive sont positifs.
2. L’élément de A définie positive le plus grand en valeur absolue se trouve sur la diago-
nale.
3. Si A est définie positive et A = (aij ), alors :
2
aii ajj > ∣aij ∣ (i ≠ j).

On retrouve les caractéristiques d’une matrice définie négative en considérant −A.

2.30 Exemple
Exemple 2.30.1 On peut vérifier sur
⎡ 2 10 −2 ⎤
⎢ ⎥
⎢ ⎥
A = ⎢ 10 5 8 ⎥
⎢ ⎥
⎢ −2
⎣ 8 11 ⎥

les caractéristiques nécessaires ci-dessus et voir que A n’est pas définie positive ni définie
négative. Les valeurs propres de A étant −9, 9 et 18.

2.31 Exemples autour des matrices


Théorème 2.31.1 Soit E un espace vectoriel de dimension finie n sur R et muni d’un produit
scalaire, F un sous espace vectoriel de E. Pour tout x dans E le projeté p(x) de x sur F
parallélement à F ⊥ , l’unique vecteur p(x) de F tel que x − p(x) soit orthogonal à F , réalise
le minimum de la distance de x à F , c’est à dire pour tout vecteur y de F on a :

∥x − p(x)∥ ≤ ∥x − y∥ (2.35)
Si {u1 , u2 , ..., up } est une base orthonormée de F alors p(x) est donnée par la formule :
p
p(x) = ∑ ⟨x, uk ⟩ uk (2.36)
k=1

Le vecteur p(x) s’appelle projection orthogonale de x sur F .


Retrouver ce titre sur Numilog.com

Chapitre 2. Matrices 45

Preuve 2.31.1 Démonstration de la formule 2.36 : Comme p(x) est dans F on a : p(x) =
p
∑k=1 αk uk , le produit scalaire de p(x) − x par le vecteur uj s’écrit :
p
⟨p(x) − x, uj ⟩ = ⟨ ∑ αk uk − x, uj ⟩
k=1
= αj − ⟨x, uj ⟩ = 0,

d’où la formule. ∎
⎡ 1 ⎤ ⎡ 1 ⎤
⎢ ⎥ ⎢ ⎥
⎢ ⎥ ⎢ ⎥
Exemple 2.31.1 -Les vecteurs u = ⎢ 1 ⎥ et v = ⎢ 1 ⎥ sont dans l’espace R3 . Trouver P la
⎢ ⎥ ⎢ ⎥
⎢ 0 ⎥ ⎢ 1 ⎥
⎣ ⎦ ⎣ ⎦
matrice de projection dans le plan engendré par (u, v) et le vecteur qui se projette en zéro.
Nous cherchons la matrice projection P dans l’espace R3 engendré par les vecteurs
u = [1, 1, 0] et v = [1, 1, 1] de telle sorte que :
1. P A = A, At P t = At où A = [u, v] , où u et v sont les colonnes de A.
2. P 2 = P.
3. L’endomorphisme p associé à P vérifie la formule 2.36 ainsi p est la projection dans
le plan engendré par (u, v) .
La condition 1. donne :
At P A = At A
−1
Or (At A) existe car u, v sont indépendants d’où :
−1
At P A (At A) =I

Comme :
−1 −1
At A (At A) At A (At A) =I
−1
Une solution pour P est la matrice P = A (At A) At et P ainsi définie vérifie les
conditions 1. et 2., pour vérifier la condition 3. on partira de la matrice AAt qui l’ on sait
vérifie la formule 2.36 donc l’endomorphisme associé à P AAt = AAt vérifie aussi la formule
2.36 on obtient ainsi :
P AAt x =< x, u > u+ < x, v > v
or :
AAt u = u et AAt v = v
donc :
P AAt x =< x, AAt u > u+ < x, AAt v > v

P AAt x =< At x, At u > u+ < At x, At v > v

P Ay =< y, At u > u+ < y, At v > v, y = At x

P Ay =< Ay, u > u+ < Ay, v > v
Retrouver ce titre sur Numilog.com

46 Mathématiques pour économistes: Mohammed Dennai, Roger Goglu


P z =< z, u > u+ < z, v > v, z = Ay.
Comme u, v sont indépendants alors y et x existent par le théorème 1.10.1, ainsi 3. est
vérifiée. Ce résultat se généralise à un système de p vecteurs indépendants dans Rn , la ma-
trice de projection est donnée par :
−1
P = A (At A) At

où A est la matrice dont les colonnes sont les p vecteurs en question. Pour notre exemple P
s’écrit :

⎡ 1 1 ⎤ ⎛⎡ 1 1 ⎤t ⎡ 1 1 ⎤⎞−1 ⎡ 1 1 ⎤t
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ ⎥ ⎜⎢ ⎥ ⎢ ⎥⎟ ⎢ ⎥
P = ⎢ 1 1 ⎥ ⎜⎢ 1 1 ⎥ ⎢ 1 1 ⎥⎟ ⎢ 1 1 ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥

⎣ 0 1 ⎥ ⎝⎢ 0
⎦ ⎣ 1 ⎥ ⎢ 0
⎦ ⎣ 1 ⎥⎠ ⎢ 0
⎦ ⎣ 1 ⎥

⎡ 1 1
⎢ 2 2
0 ⎤⎥
⎢ 1 1 ⎥
= ⎢ 2 2
0 ⎥
⎢ ⎥

⎣ 0 0 1 ⎥⎦

Noter que pour tout vecteur w = (x, y, z) dans R3 , P w ,est une combinaison linéaire de
u et v tel que P transforme R3 dans le plan engendré par u et v.

⎡ 1 1
0 ⎤⎥ ⎡ x ⎤ ⎡ 1 ⎤
x+ 1
y
⎢ 2 2 ⎢ 2 ⎥ 2
⎢ 1 ⎥⎢ ⎥ ⎢ ⎥

⎢ 2
1
2
0 ⎥⎥ ⎢⎢ y ⎥⎥ = ⎢

1
2

x+

1
2
y
⎢ ⎥ ⎢⎢ ⎥ ⎢ ⎥
1 ⎥⎦ ⎣ z ⎦
⎢ 0 ⎥ ⎢ ⎥
⎣ 0 z
⎣ ⎦
⎡ 1 ⎤ ⎡ 1 ⎤
x+y ⎢ ⎥ ⎢ ⎥
⎢ ⎥ ⎢ ⎥
= ( − z) ⎢ 1 ⎥ + z ⎢ 1 ⎥
2 ⎢ ⎥
⎢ 0 ⎥
⎢ ⎥
⎢ 1 ⎥
⎣ ⎦ ⎣ ⎦

Soit b le projeté en zéro alors :


x+y
−z = 0
2
z = 0

ainsi b a pour composante :


⎛ 1 ⎞
b = ⎜ −1 ⎟ .
⎝ 0 ⎠

Exemple 2.31.2 Cherchons la matrice de la projection orthogonale dans R4 ,sur le plan P


engendré par les vecteurs a = e1 + e2 , b = e3 − e4 . (où {e1 , e2 , e3 , e4 } est la base canonique
de R4 ).
Retrouver ce titre sur Numilog.com

Chapitre 2. Matrices 47

On construit une base orthonormée u,v à partir de a et b et on applique la formule 2.36 :

p(x) =< x, u > u+ < x, v > v


pour la projection. Le produit scalaire étant celui de R4 .
On commence par chercher un vecteur c orthogonal à a de façon à obtenir une base
orthogonale du plan P, nous cherchons c sous la forme c = a + λb.
2
< a, c >=< a, b > +λ ∥a∥ = 1 + 2λ = 0,
d’où c = (1, −1, 0, 2) et on prend pour base :
a c
u= ,v = ,
∥a∥ ∥c∥

p devient :
2x + y + t x + 2y − t x − y + 2t
p(x) = ( , , 0, )
3 3 3
la matrice de p est donc
⎡ 2 1 0 1 ⎤
⎢ ⎥
1 ⎢⎢ 1 2 0 −1 ⎥

A= ⎢ ⎥.
3 ⎢⎢ 0 0 0 0 ⎥

⎢ 1 −1 0 2 ⎥
⎣ ⎦
Exemple 2.31.3 Si p est une projection ≠ id et ≠ 0 alors p est diagonalisable et ses valeurs
propres sont 0 et 1.

2.32 Décomposition de Cholesky.


On peut décomposer une matrice A définie positive de la façon suivante :

A = TTH (2.37)
où T est une matrice triangulaire inférieure possédant des valeurs positives sur la diago-
nale d’une manière unique.
Application, démonstration par récurrence de ce fait dans le cas réel :

Preuve 2.32.1 La propriété est évidente dans le cas où n = 1.


Supposons la vraie dans le cas d’une matrice A d’ordre n définie positive,
et soit A1 définie positive d’ordre n + 1.
Décomposons A1 en blocs :

α Ct
A1 = [ ]
C A
où α est un nombre réel, C une matrice 1 × n et A d’ordre n définie positive.
Nous allons déterminer un nombre réel β une matrice L, 1 × n, et T1 triangulaire
inférieure de façon à ce qu’on ait :
Retrouver ce titre sur Numilog.com

48 Mathématiques pour économistes: Mohammed Dennai, Roger Goglu

β L
A1 = T T t où T = [ ].
0 T1
pour cela :

A1 = T T t ⇔
t
α Ct β L β L
[ ] =[ ][ ]
C A 0 T1 0 T1
⇔ β 2 = α, βL = C t , A = LLt + T1 T1t .
Soit x dans R, X1 une matrice n × 1,puisque A est définie positive on a en posant :

x
X =[ ] , X t A1 X ≥ 0.
X1

C’est à dire :
αx2 + 2xC t X1 + X1t AX1 ≥ 0.

En remplaçant x par 1 et X1 par 0 , on en déduit α ≥ 0. On pose ainsi β = α.
Si α > 0 : prenons L = √1α C t . En remplaçant une cette fois x par −1
α
C t X1 on obtient :

−1 2
(C t X1 ) + X1t AX1 ≥ 0,
α
c’est à dire :
X1t (A − LLt )X1 ≥ 0,
et ainsi A − LLt , est définie positive, ce qui impliquer d’après l’hypothèse de récurrence qu’
il existe T1 , triangulaire inférieure telle que :

A − LLt = T1 T1t .

Ainsi la résolution devient :


β L
T =[ ]
0 T1
qui est une matrice triangulaire inférieure d’ordre n + 1 et A1 = T T t .
Si α = 0 ∶ Soit X1 une matrice n × 1. Quelque soit x réel on a :

2xC t X1 + X1t AX1 ≥ 0.

comme X1 est quelconque ceci entraine que C = 0 d’où A définie positive. Donc d’après
l’hypothèse de récurrence il existe T1 triangulaire inférieure telle que :

A = T1 T1t .

On posera dans ce cas :


0 0
T =[ ]
0 T1
et cette matrice est triangulaire inférieure et A1 = T T t . ∎
Retrouver ce titre sur Numilog.com

Chapitre 2. Matrices 49

2.33 Matrice unitaire


Une matrice est dite unitaire si son inverse est égale à sa transposée hermitienne. C’est à
dire U est unitaire si :

U −1 = U H . (2.38)
Les matrices unitaires sont normales car :

U U H = U U −1 = I = U −1 U = U H U.
Et on a les propriétés suivantes :
Propriétés :
1. Une matrice est unitaire si et seulement si ses colonnes (ou ses lignes) forment un
ensemble orthonormé de vecteurs.
2. Le produit de deux matrices unitaires de même ordre est une matrice unitaire.
3. Si U est unitaire alors :
⟨U X, U Y ⟩ = ⟨X, Y ⟩
quels que soient les vecteurs X et Y de dimensions appropriées.
4. Toutes les valeurs propres d’une matrice unitaire ont une valeur absolue égale à 1.
5. Le déterminant d’une matrice unitaire a un module égale à 1.

Une matrice orthogonale est une matrice unitaire dont tous les éléments sont réels. A
orthogonale alors :

A−1 = At (2.39)
ou encore :

At A = I (2.40)

Théorème 2.33.1 (Théorème de Schur) Toute matrice carrée est semblable à une matrice
triangulaire supérieure et la transposée peut s’effectuer à l’aide d’une matrice unitaire. Au-
trement dit, si A est une matrice carrée il existe une matrice unitaire U telle que :

U −1 AU = U H AU = T (2.41)
La décomposition de Schur n’est pas unique. Les éléments de la diagonale de T sont les
valeurs propres de A.

Si A est normale alors la décompostion de Schur implique :

Théorème 2.33.2 Toute matrice normale est semblable à une matrice diagonale.
La similitude s’effectue à l’aide d’une matrice unitaire.
Retrouver ce titre sur Numilog.com

50 Mathématiques pour économistes: Mohammed Dennai, Roger Goglu

Transformation de Householder :
Associée à un vecteur colonne réel V de dimension n est la matrice d’ordre n :

VVt
R=I −2 2
(2.42)
∥V ∥2
où I est la matrice identité d’ordre n et :
2
∥V ∥2 = x21 + x22 + ... + x2n ,
où (x1 , x2 , ..., xn ) sont les composantes de V .
Une transformation de Householder est à la fois réelle, symétrique et orthogonale.

Théorème 2.33.3 Toute matrice carrée symétrique réelle A d’ordre n est diagonalisable sur
R et il existe une base orthonormée formée de vecteurs propres de A.
Il existe une matrice orthogonale P telle que :

P t AP = P −1 AP

soit diagonale.

Preuve 2.33.1 La démonstration se fait par récurrence sur n.


Pour n=1 elle évidente, mais pour bien voir le comportement des choses nous commençons
à n=2.
Soit donc une matrice symétrique réelle d’ordre deux :

a b
A=[ ];
b d
montrons que cette matrice est diagonalisable.
Son polynôme caractéristique vaut :

P (λ) = λ2 − (a + d)λ + ad − b2 .
dont le discriminant est :
∆ = (a − d)2 + 4b2 ≥ 0.
Ce discriminant n’est nul que si a = d et b = 0 dans ce cas on a : A = aI qui est diagonale.
Pour ∆ > 0 on a deux solutions distinctes donc en dimension deux A est diagonali-
sable.Oon peut trouver deux vecteurs propres orthogonaux :

v1 = (−2b, a − d − ∆)


v2 = (−2b, a − d + ∆)
on a :

⟨v1 , v2 ⟩ = ∆ − ∆ = 0.
Retrouver ce titre sur Numilog.com

Chapitre 2. Matrices 51

Ces deux vecteurs sont bien orthogonaux.


Il suffit de diviser par leur norme pour obtenir une base orthonormée.
La Propriété est vraie pour n = 1 et n = 2.
Supposons la vraie pour n − 1 et montrons qu’elle reste vraie pour n.
L’hypothèse de récurrence étant : toute matrice d’ordre n − 1, symétrique réelle est dia-
gonalisable.
Soit A symétrique réelle d’ordre n, on sait d’après ci-dessus que toutes les valeurs
propres de A d’ordre n, sont réelles.
Soit une valeur propre λ . Appelons U le vecteur propre qui lui est associé et F ⊥ l’hyper-
plan orthogonal à U . Montrons que F ⊥ est stable par f (l’endomorphisme associé à A) :

∈ F ⊥ , ⟨f (X), U ⟩ = ⟨AX, U ⟩ = (AX) U


t
X
= X t At U = X t AU = X t λU = λ ⟨X, U ⟩ = 0.

Soit alors {u2 , u3 , ..., un } une base orthonormée de F ⊥ , la famille {U, u2 , u3 , ..., un } est
une base orthonormée de Rn . La stabilité de F ⊥ par f signifie qu’il existe une matrice carrée
B de dimension n − 1, telle que :

n
∀j ≥ 2, f (uj ) = ∑ bi,j ui .
i=2

puis la matrice de f dans la base {U, u2 , u3 , ..., un } ,est :

⎡ λ 0 0 ... 0 ⎤
⎢ ⎥
⎢ 0 b2,2 b2,3 ... b2,n ⎥
⎢ ⎥
′ ⎢ ⎥
A =⎢ 0 ... ... ... ... ⎥
⎢ ⎥

⎢ ... ... ... ... ... ⎥

⎢ 0 bn,2 bn,3 ... bn,n ⎥
⎣ ⎦

la matrice de passage étant la matrice de la base :

{U, u2 , u3 , ..., un }

qui est orthogonale, d’après ci-dessus.


Et on a :

A′−1 AP = P t AP

il en résulte que

(A′ ) = A′
t

donc A′ est symétrique réelle et donc B est symétrique réelle d’ordre n − 1 hypothèse de
récurrence est diagonale , d’où A′ diagonale. ∎
Retrouver ce titre sur Numilog.com

52 Mathématiques pour économistes: Mohammed Dennai, Roger Goglu

2.34 Forme quadratique


Une forme quadratique pour les variables réelles x1 , x2 , ..., xn est un polynôme du type :
n n
∑ ∑ aij xi xj (2.43)
i=1 j=1

à coefficients réels aij . Sous forme matricielle, elle s’écrit :

X t AX (2.44)
où :
A = (aij ), X = (x1 , x2 , ..., xn )t .
La forme quadratique X t AX est équivalente algébriquement à :

(A + At )
Xt X (2.45)
2
La matrice associée à cette écriture est symétrique, c’est pour cela que dorénavant on peut
considérer la matrice de la forme quadratique symétrique.
Une forme quadratique complexe a la représentation matricielle suivante :

X H AX (2.46)
où A est hermitienne . Cette écriture est équivalente au produit intérieur euclidien :

⟨AX, X⟩ (2.47)
Ce produit est réel dès que A est hermitienne.
Si ce produit est positif ( ou non négatif, négatif ou non positif ) la forme quadratique est
du même type.

Forme diagonale d’une forme quadratique :


Une forme quadratique se trouve sous forme diagonale si elle ne comprend aucun terme
rectangulaire(croisé), c’est à dire si aij = 0, quels que soient i ≠ j.
On a dit que toute matrice normale est semblable à une matrice diagonale à l’aide d’une
matrice unitaire U . La substitution Y = U X, convertit la forme quadratique en une forme
diagonale. Cette substitution conserve les longueurs et les angles. Les éléments de la matrice
diagonale sont les valeurs propres de A.

Congruence :
Deux matrices A et B sont dites congruentes s’il existe une matrice réelle régulière P
telle que :

A = P BP t (2.48)
Deux matrice A et B sont dites congruentes hermitiennes ou conjonctives s’il existe une
matrice régulière P telle que :

A = P BP H (2.49)
Retrouver ce titre sur Numilog.com

Chapitre 2. Matrices 53

La congruence hermitienne se réduit à la congruence simple si et seulement si P est réelle.


Deux formes quadratiques :

⟨AX, X⟩ , ⟨BX, X⟩ ,

sont congruentes si et seulement si A et B sont congruentes.

Inertie :
Pour toute matrice d’ordre n de rang r , il existe une et une seule matrice congruente
ayant la forme partionnée suivante :
⎡ I 0 0 ⎤
⎢ k ⎥
⎢ ⎥
⎢ 0 −Im 0 ⎥ (2.50)
⎢ ⎥
⎢ 0 0 0 ⎥
⎣ ⎦
où Ik , Im sont respectivement les matrices identités d’ordre k et m.
On appelle matrice d’inertie une matrice de cette fome.

Proposition 2.34.1 (Loi d’inertie de Sylvester) Deux matrices hermitiennes


sont congruentes si et seulement si elles sont congruentes à la même matrice d’inertie ;
toutes deux possèdent k valeurs propres positives et m valeurs propres négatives et n-m-k
valeurs propres nulles.L’entier k définie par la matrice ci-dessus est appelé indice de A et
s = k − m est appelé sa signature.

Quotient de Rayleigh :

Définition 2.34.1 Le quotient de Rayleigh d’une matrice hermitienne A est le rapport sui-
vant :

⟨AX, X⟩
R(X) = (2.51)
⟨X, X⟩

Proposition 2.34.2 (Principe de Rayleigh) Si on range les valeurs propres de la matrice


hermitienne A de manière à ce qu ’on ait :

λ1 ≤ λ2 ≤ ... ≤ λn ,

alors :

λ1 ≤ R(X) ≤ λn (2.52)
Le minimum de R(X) est atteint lorsque X est un vecteur propre correspondant à la valeur
propre λ1 .
Le maximum de R(X) est atteint lorsque X est un vecteur propre correspondant à la valeur
propre λn .
Retrouver ce titre sur Numilog.com

54 Mathématiques pour économistes: Mohammed Dennai, Roger Goglu

2.35 Matrice d’une isométrie


On appelle isométrie de E un espace vectoriel tout endomorphisme f de E qui conserve
les normes.

∥f (X)∥ = ∥X∥ (2.53)


pour tout vecteur X de E.
On notera qu’une isométrie de E est nécessairement un automorphisme de E , c’est à dire
qu’elle est bijective en effet :

∥f (X)∥ = 0 = ∥X∥ ⇔ X = 0
Le noyau de f est réduit à zéro, donc f est injective , comme on est en dimenion finie
cela veut dire que f est bijective.
L’endomorphisme réciproque est aussi une isométrie.

Théorème 2.35.1 Soit f un endomorphisme de E. Alors les quatre propriétés suivantes sont
équivalentes
1. f est une isométrie
2. f conserve le produit scalaire
3. f transforme une base orthonormée en une base orthonormée
4. la matrice de f sur une base orthonormée est une matrice orthogonale.

Preuve 2.35.1 1 ⇒ 2 : un produit scalaire vérifie :

1 2 2 2
⟨X, Y ⟩ = (∥X + Y ∥ − ∥X∥ − ∥Y ∥ )
2
Appliquons ceci à <f (X), f (Y )> il vient que :

1 2 2 2
< f (X), f (Y )> = (∥f (X) + f (Y )∥ − ∥f (X)∥ − ∥f (Y )∥ )
2
1 2 2 2
= (∥f (X + Y )∥ − ∥f (X)∥ − ∥f (Y )∥ )
2
1 2 2 2
= (∥X + Y ∥ − ∥X∥ − ∥Y ∥ ) = ⟨X, Y ⟩ .
2

2 ⇒ 3 : Soit {u1 , u2 , ..., un } une base orthonormée de E donc elle vérifie :

⟨ui , uj ⟩ = δij

symbole de Kronecker , i.e :


1, si i = j
δij = {
0 sinon.
Retrouver ce titre sur Numilog.com

Chapitre 2. Matrices 55

La famille des images vérifie la même chose car

⟨f (ui ), f (uj )⟩ = ⟨ui , uj ⟩ = δij .

3 ⇒ 4 : Supposons que f transforme toute base orthonormée en une base orthonormée ;


la matrice de f sur la base orthonormée

{u1 , u2 , ..., un } ,

vaut
{f (u1 ), f (u2 ), ..., f (un )} ,
qui forme une base orthonormée donc cette matrice est orthogonale.
4 ⇒ 1 : Supposons que f est orthogonale sur une base orthonormée :

{u1 , u2 , ..., un } ;

montrons que f conserve les distances :

2
∥f (X)∥ = < f (X), f (X) >
= < AX, AX >
= (AX)t AX
= X t At AX
= X tX
2
= ∥X∥ .

Théorème 2.35.2 Le déterminant d’une isométrie est +1 ou -1

Preuve 2.35.2 En effet At A = I, d’où

det(At A) = 1, (det A)2 = 1.

Théorème 2.35.3 Les valeurs propres d’une isométrie sont égales à +1 ou à −1 , plus généralement
les valeurs propres complexes sont de module 1.

Propriétés :

Théorème 2.35.4 1. L’ensemble des matrices orthogonales d’ordre n se note O(n, R) il


a une structure de groupe multiplicatif.
2. Les isométries directes de déterminant +1 , forme un sous-groupe orthogonale il se
note SO(n, R) et se nomme ’groupe spécial orthogonal’..
Retrouver ce titre sur Numilog.com

56 Mathématiques pour économistes: Mohammed Dennai, Roger Goglu

3. Les isométries de R2 , de matrice

a b
A=[ ],
c d

a, b, c et d vérifient :

a2 + b2 = 1, c2 + d2 = 1, ac + bd = 0.

– si A a deux valeurs propres réelles :


a) une valeur propre double qui vaut 1 , la trace a + d de A vaut 2. Comme ∣a∣ ≤ 1 et
∣d∣ ≤ 1, on a a = d = 1 et donc b = c = 0, il s’agit de la matrice I, l’identité.
b) une valeur propre double égale à −1 on obtient pour les mêmes raisons que ci-dessus
a = d = −1 et b = c = 0 c’est donc une symétrie de matrice −I ou bien une rotation
d’angle π.
c) une valeur propre 1 et une −1 , il s’agit d’une symétrie orthogonale.
– l’isométrie directe est non diagonalisable tandis que l’isométrie indirecte est diago-
nalisable.
4. Isométrie dans R3
– Toute isométrie de R3 , admet au moins une valeur propre réelle qui est soit 1 soit
−1.
– Soit F le sous-espace propre associé à une valeur propre réelle de l’isométrie f.
L’orthogonal supplémentaire F – est stable par f et la restriction de f à F – est encore
une isométrie, en effet :
Soit u un vecteur propre associé à cette valeur propre réelle égale à 1 et v un élément
de F– alors on a :

0 = <u, v> = <f (u), f (v)> = < ± u, f (v)> = ±<u, f (v)>

donc f (v) reste dans l’orthogonal, puis f conserve les distances.


– a) une valeur propre triple égale à 1 la matrice de A est l’identité
b) une valeur triple égale à -1, f est la symétrie par rapport à l’origine, la matrice
de f est −I
c) une valeur propre double égale à 1, la dernière valeur propre est
nécessairement -1 et le sous-espace propre qui lui est associé est une droite D. L’or-
thogonale supplémentaire est un plan P stable par f où f admet la valeur propre
double 1, dans ce plan f est l’identité, il s’agit en définif une symétrie orthogonale
par rapport à ce plan, la matrice A de f est diagonalisable sur une base ortho-
normée (prendre un vecteur unitaire sur D et une base orthonormée de P ) et est
symétrique, c’est la matrice
⎡ −1 0 0 ⎤
⎢ ⎥
⎢ ⎥
⎢ 0 1 0 ⎥.
⎢ ⎥
⎢ 0 0 1 ⎥
⎣ ⎦
d) une valeur propre double égale à −1, la dernière valeur est 1, le sous-espace
propre est une droite D formée de vecteurs invariants par f. Le plan orthogonal à D
Retrouver ce titre sur Numilog.com

Chapitre 2. Matrices 57

est stable par f ; elle y est une isométrie de valeur propre double −1 ; il s’agit de la
symétrie dans ce plan par rapport à l’origine. Puis globalement f est la symétrie par
rapport à D.
e) une unique valeur propre réelle simple égale à −1 les deux autres sont complexes
conjuguées. Le sous-espace propre associé à cette valeur propre réelle est une droite
D. Dans le plan P orthogonale f est une isométrie, d’où une rotation elle a une
matrice semblable à :
⎡ 1 0 0 ⎤⎥

⎢ ⎥
⎢ 0 cos θ − sin θ ⎥ .
⎢ ⎥
⎢ 0 sin θ cos θ ⎥⎦

f) une unique valeur propre réelle égale à −1 pour les mêmes raisons que ci-dessus,
on a cette fois-ci une anti-rotation de matrice semblable à :
⎡ −1 0 0 ⎤
⎢ ⎥
⎢ ⎥
⎢ 0 cos θ − sin θ ⎥.
⎢ ⎥
⎢ 0 sin θ cos θ ⎥
⎣ ⎦
dans les deux cas ci-dessus on peut calculer l’angle de rotation puisque la trace de
A vaut ±1 + 2 cos θ.

2.36 Norme d’une matrice


On appelle norme d’un vecteur X quelconque de dimension finie, une fonction à valeurs
réelles notée ∥X∥ , qui vérifie :
1. ∥X∥ ≥ 0.
2. ∥X∥ = 0 ⇔ X = 0.
3. ∥λX∥ = ∣λ∣ ∥X∥ , quel que soit le scalaire λ.
4. ∥X + Y ∥ ≤ ∥X∥ + ∥Y ∥ , l’inégalité triangulaire.

Les exemples de normes sur les vecteurs :


t
Soit X = {x1 , x2 , ..., xn } , on a : √
– La norme engendrée par le produit √ intérieur : <, >W ∶ ∥X∥W = < X, X >W .
– La norme euclidienne : ∥X∥2 = < X, X >
– La norme l1 , ∥X∥1 = ∣x1 ∣ + ∣x2 ∣ + ... + ∣xn ∣ , la norme de la convergence en moyenne.
– La norme l∞ , ∥X∥∞ = max(x1 , x2 , ..., xn ), la norme de la convergence uniforme.
1
p p p
– La norme lp , ∥X∥p = (∣x1 ∣ + ∣x2 ∣ + ... + ∣xn ∣ ) p , la norme de Hölder pour 0 ≤ p < ∞.

On appelle norme d’une matrice carrée A, notée ∥A∥ . une fonction à valeurs réelles qui
verifie les conditions suivantes :
1. ∥A∥ ≥ 0.
2. ∥A∥ = 0 ⇔ A = 0.
Retrouver ce titre sur Numilog.com

58 Mathématiques pour économistes: Mohammed Dennai, Roger Goglu

3. ∥λA∥ = ∣λ∣ ∥A∥ , quel que soit le scalaire λ.


4. ∥A + B∥ ≤ ∥A∥ + ∥B∥ , l’inégalité triangulaire, pour toutes matrices A et B.
5. La condition de consistance (ou que cette norme est sous-multiplicative).

∥AB∥ ≤ ∥A∥ ∥B∥

Quelques normes matricielles usuelles :


Soit E un espace vectoriel de dimension fini sur un corps K.
On sait que l’application


⎪ E → R+
⎨ 1
p

⎪ v ↦ ∥v∥p = (∑i ∣vi ∣ ) p p ≥ 1

est une norme en particulier on a les normes :

∥v∥1 = ∑ ∣vi ∣
i
1
2
2
∥v∥2 = (∑ ∣vi ∣ )
i
∥v∥∞ = max ∣vi ∣
i

Pour une matrice A = (aij )1≤i≤n,1≤j≤n , aij ∈ C, on définit la norme induite ou subor-
donnée par :

∥Ax∥p
∥A∥E = sup (2.54)
x∈E−{0} ∥x∥p
∥Ax∥p
= sup
∥x∥p ≤1,x∈E−{0} ∥x∥p
∥Ax∥p
= sup
∥x∥p =1,x∈E ∥x∥p

En particulier :
∥Ax∥p
∥A∥Rn = sup (2.55)
x∈Rn −{0} ∥x∥p
∥Ax∥p
= sup
∥x∥p ≤1,Rn −{0} ∥x∥p
∥Ax∥p
= sup
∥x∥p =1,Rn ∥x∥p
Retrouver ce titre sur Numilog.com

Chapitre 2. Matrices 59

ainsi :

∥A∥1 = max ∑ ∣aij ∣


j i
∥A∥∞ = max ∑ ∣aij ∣
i j

– La norme de Frobenius :
1
2
⎛ 2⎞
∥A∥F = ∑ ∑ ∣aij ∣ (2.56)
⎝i=1...n j=1...n ⎠
1
= {Tr(A∗ A} 2 ,

est une norme matricielle non induite par une norme (on dira qu’elle est non subor-
donnée). √ t
– La norme spectrale ∥A∥s = max( ∣λ∣, λ est une valeur propre de A A), est une norme
matricielle.
– La norme de l∞ induite sur les matrices n’engendre pas une norme :

1 1 2 2
A=B=[ ] , AB = [ ],
1 1 2 2

la condition de consistance n’est pas vérifiée.

Définition 2.36.1 Le rayon spectral noté σ(A)d’une matrice A est la plus grande valeur
propre en valeur absolue de A.

Théorème 2.36.1 Pour toute norme matricielle ∥A∥ , on a :

– σ(A) ≤ ∥A∥ .
1
– σ(A) = limn→∞ ∥An ∥ n .

Preuve 2.36.1 Preuve de ce dernier point : Prenons une norme matricielle induite par une
norme vectorielle. Soit  > 0 et
1
A = A.
σ(A) + 
On a :
σ(A)
σ(A ) = < 1,
σ(A) + 
donc
lim (Ak ) = 0,
k→∞

d’où :
∃k ∈ N, ∀k ≥ k , ∥Ak ∥ < 1.
On a alors :
k
∀k ≥ k , ∥Ak ∥ < (σ(A) + ) .
Retrouver ce titre sur Numilog.com

60 Mathématiques pour économistes: Mohammed Dennai, Roger Goglu

1
1
σ(A) = (σ(Ak )) k ≤ ∥Ak ∥ k .
On déduit que :
1
∀k ≥ k , σ(A) ≤ ∥Ak ∥ k ≤ σ(A) + .
C’est le résultat.
Pour toute norme sur Mn (K), il existe deux constante α > 0, β > 0, telle que

[α ∥A∥1 ≤ ∥A∥ ≤ β ∥A∥1 , ]

pour toute A ∈ Mn (K) (Toutes les normes sont équivalentes sur un espace vectoriel de
dimension finie). On a alors :
1 1 1
1 1
∀k > 0, α k ∥Ak ∥1k ≤ ∥Ak ∥ k ≤ β k ∥Ak ∥1k .

Avec :
1 1
lim α k = lim β k = 1
k→∞ k→∞
et 1
lim ∥Ak ∥1k = σ(A).
k→∞

Ce résultat peut aussi se montrer en utilisant la décomposition de Dunford-Schwarz. ∎

Théorème 2.36.2 Soit ∥∥ une norme matricielle subordonnée et A une matrice vérifiant :

∥A∥ < 1;

alors la matrice I + A est inversible et :


−1 1
∥(I + A) ∥ ≤ .
1 − ∥A∥

Si la matrice A (subordonnée ou non) est telle que I+A est singulière alors nécessairement
∥A∥ ≥ 1 .

Preuve 2.36.2 Montrons que seule la valeur u = 0 donne (I+A)u = 0 et donc I+A inversible
en effet :
(1 + A)u = 0 ⇒ ∥u∥ = ∥Au∥ ,
or si ∥A∥ < 1 et u ≠ 0 ⇒ ∥Au∥ < ∥u∥ pour la norme vectorielle correspondante, on en déduit
que :
(I + A)u = 0 ⇒ u = 0
donc la matrice (I + A) est inversible, on peut écrire :

(I + A)(I + A)−1 = I
⇒ (I + A)−1 = (I + A − A)(I + A)− 1
⇒ (I + A)−1 = I − A(I + A)− 1
Retrouver ce titre sur Numilog.com

Chapitre 2. Matrices 61

par passage à la norme on obtient :

∥(I + A)−1 ∥ ≤1 + ∥A∥ ∥(I + A)− 1∥


−1 1
⇒ ∥(I + A) ∥ ≤ .
1 − ∥A∥

Pour la deuxième affirmation dire que (I + A) est singulière revient à dire que −1 est
valeur propre de A. Dans ces conditions, une application du théorème 2.36.1 nous donne :

∥A∥ ≥ σ(A) ≥ 1.

2.37 Matrice non négative


Définition 2.37.1 Une matrice A est dite non négative, soit A ≥ 0, si tous ses éléments sont
réels non négatifs. A est dite positive soit A>0, si tous ses éléments sont réels strictement
positifs. Une matrice A est supérieure à une matrice B si A et B sont de même ordre et
A − B est positive, on note cette comparaison : A>B.

Propriétés :
1. Si 0 ≤ A ≤ B alors les rayons spectraux σ(A) de A et σ(B) de B vérifient σ(A) ≤
σ(B).
2. Si A est non négative et si les sommes en lignes (ou colonnes) de A sont égales à une
constante k, alors σ(A) = k.
3. Si m est le minimum des sommes en lignes (ou en colonnes) de A, M le maximum des
sommes en lignes (ou en colonnes) de A et si A est non négative alors m ≤ σ(A) ≤ M .
4. Toute matrice carrée non négative possède une valeur propre égale à son rayon spectral
et il existe un vecteur propre à droite et un vecteur propre à gauche associés à cette
valeur propre dont toutes les composantes sont non négatives.

Preuve 2.37.1 Preuve de la propriété 1) en effet on a :

Am ≤ B m ,

puis
∥Am ∥E ≤ ∥B m ∥E
et du paragraphe 2.36 on a :
1 1
σ(A) ≤ lim ∥Am ∥Em ≤ lim ∥B m ∥Em ≤ σ(B).
m→∞ m→∞

Preuve de la propriété 2), en utilisant le paragraphe 2.36 on a :

σ(A) ≤ ∥A∥∞ = k.
Retrouver ce titre sur Numilog.com

62 Mathématiques pour économistes: Mohammed Dennai, Roger Goglu

t
Puis dans l’autre sens en prenant X = {1, 1, ..., 1} ,comme les sommes en lignes valent
k, il en résulte que AX = kX de sorte que k est valeur propre donc σ(A) ≥ k.
Preuve de la propriété 3), soit B la matrice dont les coefficients (bij ) vérifient :

0 si m = 0
bij = { maij
si m ≠ 0 ,
∑j=1..n aij

on a bien A ≥ B ≥ 0, et les sommes en lignes de B sont toutes égales à m, il résulte de la


propriété 1) que : σ(B) ≤ σ(A),puis de la propriété 2) que :

σ(B) = m ⇒ m ≤ σ(A).

Un raisonnement semblable nous donne la propriété 3) pour la borne M .


Pour la propriété 4), c’est l’énoncé du théorème de Perron-Frobinus ∎

Matrice irréductible :
On appelle matrice de permutation une matrice obtenue à partir de la matrice identité par
permutation quelconque de ses lignes. Elle est orthogonale car elle est le produit de matrices
élémentaires du premier genre.
Une matrice A non-négative est dite réductible s’il existe une matrice P de permutation
telle que :

B C
P AP t = [ ] (2.57)
0 D
où B et D sont des matrices carrées d’ordre inférieur à celui de A.
S’il n’existe pas de matrice de permutation de ce genre on dira que A est irréductible.

Propriétés :
1. Les matrices positives sont irréductibles.
2. Une matrice A carrée d’ordre n est irréductible si et seulement si :

(I + A)n−1 ≥ 0.

Exemple 2.37.1 1. Soit la matrice


⎡ 0 1 6 ⎤
⎢ ⎥
⎢ ⎥
A=⎢ 2 8 6 ⎥, (2.58)
⎢ ⎥
⎢ 1 2 2 ⎥
⎣ ⎦
A est non négative, ses sommes en ligne valent 1, 16 et 5, ses sommes en colonne
valent 3, 11 et 14 donc 3 ≤ σ (A) ≤ 14. Cette matrice possède un seul élément nul,
situé sur sa diagonale principale. Une transformation élémentaire sur les lignes du
premier genre, suivie d’une transformation élémentaire sur les colonnes change la po-
sition des élément diagonaux, mais pas leur valeur. Puisqu’une matrice de permutation
P est un produit de matrices élémentaires du premier genre ; Il s’ensuit que P AP t
Retrouver ce titre sur Numilog.com

Chapitre 2. Matrices 63

laisse égalemnet les valeurs des éléments diagonaux inchangés. Une telle transfor-
mation ne peut déplacer le zéro en position (3,1), elle n’engendre pas d’élément nul
supplémentaire puisque il n’y a pas de zéro disponible à mettre dans cette position la
matrice est irréductible.
2. La matrice
⎡ 1 0 0 ⎤
⎢ ⎥
⎢ ⎥
A=⎢ 2 0 1 ⎥,
⎢ ⎥
⎢ 3 1 0 ⎥
⎣ ⎦
vérifie :

⎡ 0 0 1 ⎤⎡ 1 0 0 ⎤⎡ 0 0 1 ⎤t ⎡ 0 1 3 ⎤
⎢ ⎥⎢ ⎥⎢ ⎥ ⎢ ⎥
t ⎢ ⎥⎢ ⎥⎢ ⎥ ⎢ ⎥
P AP = ⎢ 0 1 0 ⎥⎢ 2 0 1 ⎥⎢ 0 1 0 ⎥ =⎢ 1 0 2 ⎥,
⎢ ⎥⎢ ⎥⎢ ⎥ ⎢ ⎥
⎢ 1 0 0 ⎥⎢ 3 1 0 ⎥⎢ 1 0 0 ⎥ ⎢ 1 0 1 ⎥
⎣ ⎦⎣ ⎦⎣ ⎦ ⎣ ⎦
dans cette dernière matrice si :

0 1
B=[ ] , D = [1] ,
1 0
ainsi :
B C
A=[ ].
0 D
Par conséquent A est réductible.

Théorème 2.37.1 (Théorème de Perron-Frobenius) Une matrice irréductible non négative


A possède une valeur propre de multiplicité un égale à son rayon spectral et il existe un vec-
teur propre à droite (resp à gauche) correspondant à cette valeur propre dont toutes les
composantes sont positives. Si une telle matrice possède exactement k valeurs propres égales
en valeur absolue à son rayon spectral alors elles sont de la forme : wi σ(A) où (wi )i=1..k
sont les différentes racines k-ième de l’unité.

Matrice primitive :
Une matrice non-négative est dite primitive si elle est irréductible et ne possède qu’une
valeur propre dont la valeur absolue soit égale à son rayon spectral.
Une matrice est dite régulière si l’une de ses puissances est une matrice positive.
Une matrice non-négative est primitive si et seulement si elle est régulière.

Exemple 2.37.2 1. La matrice de l’exemple 2.37.1 1) est irréductible elle ne possède


qu’une valeur propre de module maximal égale à son rayon spectral , elle est donc
primitive. On peut aussi calculer A2 et se rendre compte qu’elle est positive donc A
est régulière et par conséquent primitive.
2. La matrice de l’exemple 2.37.1 2) est réductible et ne peut être primitive.
Retrouver ce titre sur Numilog.com

64 Mathématiques pour économistes: Mohammed Dennai, Roger Goglu

2.38 Disque de Gerschgörin


Chaque ligne d’une matrice carrée engendre un disque de Gerschgörin , limité par un
cercle dont le centre est l’élément diagonal de la ligne et le rayon la somme des valeurs
absolues de tous les autres éléments de cette ligne.

Théorème 2.38.1 (Théorème de Gerschgörin-Hadamard) Toute valeur propre


d’une matrice (réelle ou complexe) se trouve à l’intérieur de l’un de ses disques de Ger-
schgörin. De plus, si l’union de N de ces disques est disjointe de tous les autres alors il existe
exactement N valeurs propres dans l’union des ces N -disques.

Preuve 2.38.1 Soit λ une valeur propre d’une matrice carrée d’ordre n , A = (aij ) corres-
t
pondant au vecteur propre X = [x1 , ..., xn ] , soit xm la plus grande composante en valeur
absolue de X on a alors :
AX = λX
et donc :
∑ amj xj = λxm .
j=1..n

(λ − amm ) xm = ∑ amj xj .
j=1..n,j≠m

On obtient alors :

∣∑j=1..n,j≠m amj xj .∣ xj
∣λ − amm ∣ xm = ≤ ∑ ∣amj ∣ ∣ ∣≤ ∑ ∣amj ∣ .
∣xm ∣ j=1..n,j≠m x m j=1..n,j≠m

Donc λ se trouve au moins dans le m−ième disque de Gerschgörin. ∎

Théorème 2.38.2 (Théorème d’Ostrowski) Soit A une matrice carrée d’ordre n sur K, s’il
existe un réel α ∈ [0, 1], tel que :
α 1−α
⎛ ⎞ ⎛ ⎞
∀i = 1..n, ∣aii ∣ > ∑ ∣aij ∣ ∑ ∣aji ∣ (2.59)
⎝j=1..n,j≠i ⎠ ⎝j=1..n,j≠i ⎠
Alors A est inversible.
Commentaire : pour α = 1 on retrouve le théorème de Gerschgörin-Hadamard.

Preuve 2.38.2 Posons

Li = ∑ ∣aij ∣ , Cj = ∑ ∣aij ∣ ,
j=1..n,j≠i i=1..n,j≠i

Si A n’est pas inversible alors 0 est valeur propre et , avec le théorème de


Gerschgörin-Hadamard, on déduit qu’il existe des indices i et j compris entre 1...n tels
que
Li ≥ ∣aii ∣ , Cj ≥ ∣ajj ∣ ,
Retrouver ce titre sur Numilog.com

Chapitre 2. Matrices 65

ce qui montre le résultat pour α = 0, α = 1.


On suppose α appartenant à ]0, 1[ et A non inversible.On désigne par x un vecteur propre
non nul associé à la valeur propre 0.
Alors x est solution non nulle du système :

∑ aij xj = 0,
j=1..n

on obtient :
∑ ∣aij ∣ ∣xj ∣ ≥ ∣aii ∣ ∣xi ∣ ,
j=1..n,i≠j
avec :
Lα 1−α
i Ci < ∣aii ∣ ,
pour tout i = 1..n, on déduit que :

Lα 1−α
i Ci ∣xi ∣ < ∣aii ∣ ∣xi ∣ ≤ ∑ ∣aij ∣ ∣xj ∣ , 1 ≤ i ≤ n.
j=1..n,i≠j

L’inégalité étant stricte pour tout les indices i tels que xi ≠ 0. On utilise alors l’inégalité
de Hölder (avec p = α1 , q = 1−α1
voir partie, analyse réelle , fonction convexe), ce qui donne
pour i = 1..n :

α 1−α
Lα 1−α
i Ci ∣xi ∣ ≤ ∑ ∣aij ∣ (∣aij ∣ ∣xj ∣)
j=1..n,i≠j
α
1−α
⎛ ⎞ ⎛ 1 ⎞
≤ ∑ ∣aij ∣ ∑ ∣aij ∣ ∣xj ∣ 1−α .
⎝j=1..n,i≠j ⎠ ⎝j=1..n,i≠j ⎠

D’où :
1−α
⎛ ⎞ 1
Lα 1−α
i Ci ∣xi ∣ ≤ Lα
i ∑ ∣aij ∣ ∣xj ∣ 1−α , i = 1...n.
⎝j=1..n,i≠j ⎠
Si xi ≠ 0, alors l’inégalité est stricte et Li > 0. On déduit donc :
1−α
⎛ 1 ⎞
Ci1−α ∣xi ∣ ≤ ∑ ∣aij ∣ ∣xj ∣ 1−α , i = 1...n.
⎝j=1..n,i≠j ⎠
L’inégalité étant stricte pour xi ≠ 0 , et évidente pour xi = 0 , en additionnant ces
inégalités on obtient :

1 ⎛ 1 ⎞ 1
S = ∑ Ci ∣xi ∣ 1−α < ∑ ∑ ∣aij ∣ ∣xj ∣ 1−α = ∑ Cj ∣xj ∣ 1−α = S.
i=1..n i=1..n ⎝j=1..n,i≠j ⎠ j=1..n

Ce qui est une contradiction , la matrice A est donc nécessairement inversible. ∎


Retrouver ce titre sur Numilog.com

66 Mathématiques pour économistes: Mohammed Dennai, Roger Goglu

Corollaire 2.38.1 Soit A ∈ Mn (K), Pour α ∈ [0, 1] et toute valeur propre de A, λ ∈ C, il


existe un indice i ∈ {1, 2, ..., n} tel que :

α 1−α
⎛ ⎞ ⎛ ⎞
∣λ − aii ∣ ≤ ∑ ∣aij ∣ ∑ ∣aji ∣ (2.60)
⎝j=1..n,j≠i ⎠ ⎝j=1..n,j≠i ⎠
Preuve 2.38.3 Si λ est valeur propre de A alors A − λI est non inversible, le théorème d’Os-
trowski permet de déduire pour tout α ∈ [0, 1], on peut trouver un indice i ∈ {1, 2, ..., n} tel
que l’inégalité 2.60 soit vérifiée. ∎

2.39 Matrice de forme particulière


Définition 2.39.1 Une matrice carrée A est dite circulante si elle s’écrit sous la forme :
⎡ a1 a2 a3 ... an ⎤
⎢ ⎥
⎢ an a1 a2 ... an−1 ⎥
⎢ ⎥
⎢ ⎥
A=⎢ an−1 an a1 ... an−2 ⎥
⎢ ⎥

⎢ ... ... ... ... ... ⎥

⎢ a2 a3 a4 ... a1 ⎥
⎣ ⎦
Les éléments de cette matrice à partir de la seconde ligne sont déduits de la ligne précédente
en déplaçant chacun de ses éléments d’une colonne vers la droite.
Propriétés :
1. Chaque diagonale est constituée d’éléments identiques.
2. Les valeurs propres d’une matrice circulante d’ordre n sont :

λi = a1 + a2 ri + a3 ri2 + ... + an rin−1 , i = 1, 2, .., n (2.61)


où {a1 , a2 , ..., an }est la première ligne de A et ri l’une des n solutions distinctes de
rn = 1, les vecteurs propres correspondants sont :
t
Xi = {1, ri , ri2 , ..., rin−1 } .
Preuve de cette assertion :
Preuve 2.39.1 Soient {a1 , a2 , ..., an } les éléments de la première ligne de A et r une
racine quelconque de rn = 1 posons :

y = a1 + a2 r + a3 r2 + ... + an rn−1 ,
en multipliant successivement cette relation par r, r2 , ..., rn−1 ,on obtient
yX = AX,
n−1 t
avec X = {1, r, r2 , ..., r } ,c’est à dire que y est valeur propre et X est vecteur
propre lui correspondant.
Par la suite une somme d’une ligne quelconque est une valeur propre de cette matrice
car r = 1 est toujours solutions de rn = 1. ∎
Chapitre 2. Matrices 67

3. Si A et B sont circulantes de même ordre et α, β deux scalaires quelconques alors


αA + βB est circulante.
4. Le produit de deux matrices circulantes est une matrice circulante et ce produit est
commutatif.
5. Si une matrice circulante est non singulière alors son inverse est circulante.
6. le déterminant d’une matrice circulante vaut ∏i=1..n λi ,où λi sont les valeurs définies
dans la formule 2.61
Matrice bande :
Une matrice carrée A = [aij ] d’ordre n est une matrice bande de largeur 2k + 1 si aij = 0
pour ∣i − j∣ >k, k entier naturel compris entre 0 et n − 1.
Une matrice diagonale est une matrice bande où k = 0.
La somme , le produit et la transposée d’une matrice bande d’ordre n de largeur 2k + 1
est une matrice bande de même largeur.
Une matrice de Toeplitz est une matrice bande dans laquelle chaque diagonale est constituée
d’éléments identiques.
Une matrice circulante non nulle est une matrice de Toeplitz de largeur maximale.

Vous aimerez peut-être aussi