Académique Documents
Professionnel Documents
Culture Documents
com
I Algèbre linéaire 1
1 Espaces vectoriels 3
1.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Espace vectoriel quotient . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3 Base et dimension d’un espace vectoriel . . . . . . . . . . . . . . . . . . . . . . 4
1.4 Codimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.5 Rang, image et noyau d’une application linéaire . . . . . . . . . . . . . . . . . 6
1.6 Somme directe d’espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . 7
1.7 Projection orthogonale sur un sous-espace vectoriel et projecteur . . . . . . . . 8
1.8 Lien entre espaces supplémentaires et espace quotient . . . . . . . . . . . . . . 9
1.9 Théorème du rang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.10 Inverse d’une application linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.11 Dualité, base duale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.12 Bidualité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.13 Transposée d’une application linéaire . . . . . . . . . . . . . . . . . . . . . . . 13
2 Matrices 15
2.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.2 Addition des matrices et multiplication par un scalaire . . . . . . . . . . . . . . 15
2.3 Produit de deux matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.4 Matrice unité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.5 Transposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.6 Endomorphisme associé à une matrice . . . . . . . . . . . . . . . . . . . . . . . 16
2.7 Matrices équivalentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.8 Matrices semblables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.9 Déterminants . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.10 Cofacteur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.11 Caractérisation des déterminants . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.12 Inverse d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.13 Déterminant de Vandermonde . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.14 Application . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.15 Calcul des solutions d’un système compatible . . . . . . . . . . . . . . . . . . . 25
2.16 Valeurs propres et vecteurs propres . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.17 Polynôme caractéristique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
iii
Retrouver ce titre sur Numilog.com
II Analyse réelle 75
3 Fonctions d’une variable réelle 77
3.1 Continuité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
3.2 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
3.3 Théorèmes autour des fonctions continues . . . . . . . . . . . . . . . . . . . . . 79
3.4 Infiniment petits . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
3.5 Interprétation géométrique : asymptotes droites . . . . . . . . . . . . . . . . . . 81
3.6 Bornes d’une fonction numérique . . . . . . . . . . . . . . . . . . . . . . . . . . 81
3.7 Définition de f + et de f − ∶ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
3.8 Dérivée d’une fonction continue . . . . . . . . . . . . . . . . . . . . . . . . . . 83
3.9 Règles de calcul des dérivées . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
3.10 Théorème de Rolle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
3.11 Théorème des accroissements finis . . . . . . . . . . . . . . . . . . . . . . . . . 84
3.12 Fonctions monotones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
3.13 Dérivées des fonctions circulaires, hyperboliques et fonctions réciproques . . . 86
3.14 Développement de Taylor- MacLaurin avec reste de Young . . . . . . . . . . . 90
3.15 Equivalents usuels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
3.16 Fonctions convexes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
3.17 Inégalité de Hölder pour une somme . . . . . . . . . . . . . . . . . . . . . . . . 99
3.18 Convexité des fonctions positivement homogènes . . . . . . . . . . . . . . . . . 100
3.19 Inégalité de Minkowski . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
Retrouver ce titre sur Numilog.com
V Probabilité 277
15 La notion d’événement 279
15.1 Eléments de la théorie des ensembles . . . . . . . . . . . . . . . . . . . . . . . . 279
15.2 Tribu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 279
15.3 Mesure positive sur une tribu . . . . . . . . . . . . . . . . . . . . . . . . . . . . 280
15.4 La notion d’événement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 281
15.5 Mesure de probabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 282
15.6 Fréquence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 283
15.7 Suite d’événements . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 283
15.8 Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 284
15.9 Règles de calcul . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 285
15.10Mesure de probabilité uniforme sur une partie de R . . . . . . . . . . . . . . . 286
VI Statistique 329
22 L’estimation 331
22.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 331
22.2 Estimateur sans biais et asymptotiquement sans biais . . . . . . . . . . . . . . . 332
22.3 Risque quadratique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 332
22.4 Comparaison d’estimateurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 333
22.5 Estimateur de variance uniformément minimum sans biais . . . . . . . . . . . 333
22.6 La statistique X . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 334
22.7 La statistique S 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 334
22.8 La statistique Tn−1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 334
22.9 Estimation de la moyenne d’une variable de Laplace-Gauss . . . . . . . . . . 335
22.10Estimation de la variance d’une variable de Laplace-Gauss . . . . . . . . . . . 335
23 L’exhaustivité 337
23.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 337
23.2 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 337
23.3 Théorème de Rao-Blackwell . . . . . . . . . . . . . . . . . . . . . . . . . . . . 338
23.4 Statistique complète . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 338
23.5 Information de Fisher . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 339
23.6 Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 339
23.7 La condition de Darmois . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 339
23.8 Inégalité de Frechet-Darmois-Cramer-Rao . . . . . . . . . . . . . . . . . . . . . 340
23.9 Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 340
23.10La distance ou variation de Hellinger entre deux lois . . . . . . . . . . . . . . 340
23.11Information de Kullback de p sur Q par rapport à une probabilité ν : . . . . . . 341
23.12La méthode du maximum de vraissemblance . . . . . . . . . . . . . . . . . . . 341
Retrouver ce titre sur Numilog.com
Index 396
Bibliographie 403
Retrouver ce titre sur Numilog.com
3.1 f + et f − . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
3.2 Cercle trigonométrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
xi
Retrouver ce titre sur Numilog.com
Retrouver ce titre sur Numilog.com
Préface 1
Cet ouvrage présente tous les outils mathématiques utiles à l’étudiant en sciences économiques,
dans le langage des économistes. L’éventail des chapitres abordés, la clarté de l’exposé (des
notions élémentaires aux thèmes les plus pointus), la diversité des applications proposées en
font un ouvrage de référence complet, indispensable tant à l’étudiant en économie, aux écoles
de commerce) qu’au professionnel. Il aborde six thèmes :
1. Algèbre linéaire
2. Analyse réelle
3. Fonctions de plusieurs variables
4. Équations différentielles
5. Probabilité
6. Statistique
7. Tables statistiques
C’est le fruit de plusieurs années années de travail pour les écoles d’économistes. De
nombreux exercices, problèmes et des qcm permettent de se familiariser avec les outils et
techniques mathématiques introduits, ils sont présentés avec une solution, une aide progres-
sive ou une indication. Les lois usuelles en probabilités,statistiques et tables statistiques.
Nous tenons à remercier tout particulièrement Monsieur Dellacherie Claude directeur
de recherche dans le laboratoire de mathématiques de l’université de Rouen pour avoir bien
voulu lire et corriger beaucoup de parties de cet ouvrage et les conseils qu’il nous a prodigués,
à Mr Fauvernier Philippe directeur des éditions Hermann pour ses encouragements, et à nos
familles.
1. Travail réalisé sous WinEdt/MiKTex LATEX, Scientific WorkPlace et le logiciel R Les courbes ont été tracées
à l’aide de Graph easy et Paint.
xiii
Retrouver ce titre sur Numilog.com
Retrouver ce titre sur Numilog.com
Première partie
Algèbre linéaire
1
Retrouver ce titre sur Numilog.com
Retrouver ce titre sur Numilog.com
Chapitre 1
Espaces vectoriels
1.1 Définition
Soit K un corps quelconque (non nécessairement commutatif).
Un espace vectoriel à gauche sur K (lorsque un seul corps K est en jeu) est un K-module
à gauche, donc la donnée de deux opérations ; une loi interne noté + sur un ensemble E et
une loi externe notée × sur K × E, vérifiant les axiomes suivants :
1) (+, E) est un groupe abélien (commutatif).
2) ∀(α, x) → α × x ∈ E, α ∈ K, x ∈ E
(α1 , α2 ) ∈ K2 , (α1 + α2 ) × x = α1 × x + α2 × x.
3) ∀ (α1 , α2 ) ∈ K2 , (α1 + α2 ) × x = α1 × x + α2 × x.
4) ∀ (α, β) ∈ K 2 , β (α × x) = (αβ) × x.
5) ∀x ∈ E, 1 × x = x.
6) ∀x ∈ E, 0K × x = 0E .
Les éléments de E sont appelés vecteurs, les éléments de K sont appelés scalaires.
Deux vecteurs x, y non nuls sont dits colinéaires s’il existe λ ∈ K, y = λx.
Une application linéaire de E dans F où E, F sont deux espaces vectoriels, est un homo-
morphisme d’espaces vectoriels sur K :
1) ∀ (x, y) ∈ E 2 ⇒ f (x + y) = f (x) + f (y).
2) ∀λ ∈ K, ∀x ∈ E ⇒ f (λx) = λf (x).
Quand E = F on dira que f est un endomorphisme.
Une partie non vide F de E est dite sous -espace vectoriel de E si :
∀ (x, y) ∈ F 2 , ∀λ ∈ K ⇒ x + y ∈ F, λx ∈ F.
Un espace vectoriel quotient intéressant est l’ensemble dans lequel E/F , où F est le noyau
d’une application linéaire donnée.
∑ λi xi = 0 ⇒ λi = 0, ∀i = 1...n.
i=1...n
∀x ∈ E , ∃ (λi )i=1..n ∈ K
tel que :
x = ∑ λ i xi .
i=1...n
Théorème 1.3.1 Soient E un espace vectoriel et A une famille non vide de vecteurs de E. On
note Vect(A) l’ensemble des combinaisons linéaires d’éléments de A.
Par convention :
Vect(∅) = {OE } .
Alors :
1. La partie Vect(A) est un sous-espace vectoriel de E.
2. Si F un sous-espace vectoriel de E contenant A, alors Vect(A)⊂ F.
Le sous-espace vectoriel Vect(A) est appelé sous-espace vectoriel engendré par A et
c’est le plus petit sous-espace vectoriel de E (au sens de l’inclusion) contenant A.
On a immédiatement les règles de calcul suivantes pour A, B deux familles non vide de
vecteurs de E, un espace vectoriel :
1. Vect(A ∪ B) =Vect(A) + Vect(B).
2. Vect(A ∩ B) ⊂Vect(A) ∩ Vect(B).
3. Si A ⊂ B ⇒Vect(A) ⊂ Vect(B).
4. Vect(Vect(A)) = Vect(A).
Preuve 1.3.1 1) ⇒ 2) : Si B est une base de E, B est une partie génératrice. Alors pour
b ∈ B et C = B/ {b} , si C était génératrice il existerait des scalaires (λc )c∈C presque tous
nuls, tels que :
b = ∑ λc c
c∈C
il vient :
1 ⋅ b − ∑ λc c = 0
c∈C
écrit de cette façon B n’est pas une partie libre. Donc C n’est pas génératrice.
2) ⇒ 1) : Soit B est une famille génératrice minimale de E. Nous allons montrer que
B est une base de E pour cela il suffit de montrer que B est libre, dans le cas contraire, il
existerait des scalaires (λb )b∈B , presque tous nuls et non tous nuls tels que :
∑ λb b = 0
b∈B
et ainsi C serait plus petit que B et génératrice donc B est une famille génératrice non mini-
male de E contrairement à l’hypothèse.
1) ⇒ 3) : Si B est une base de E, montrons que B est une partie libre maximale. Pour
cela montrons qu’en ajoutant à B un élément c ∉ B de E, l’ensemble obtenu est une partie
non libre. Un tel c vérifie il existe des scalaires (λb )b∈B , tels que :
c = ∑ λb b (1.1)
b∈B
∑ λe e = 0 (1.2)
e∈C
∑ λe e = 0
e∈C
Théorème 1.3.3 (De la base incomplète ou de la dimension finie) Soit E un espace vecto-
riel de dimension finie, L une partie libre de E et G une partie génératrice de E. Alors L est
finie et il existe une base finie de E telle que : L ⊂ B ⊂ L ∪ G. Donc toute partie libre L de E
est finie et toute partie génératrice G de E contient une base de E. Et E admet au moins une
base finie.
Preuve 1.3.2 Désignons par S une partie finie de G qui soit encore génératrice, ceci est
possible car soit T une partie génératrice finie de G alors tout t ∈ T s’écrit : t = ∑s∈G λt ⋅ s,
avec λt presque non tous nuls. Alors soit St la partie finie de G , formée des λt ≠ 0, alors
la partie S définie par S = ∪t∈T St remplit notre hypothèse. Soit S l’ensemble des parties
M de S telles que L ∪ M soit une partie libre de E. S est non vide car elle contient ∅.
Ensuite comme S finie alors S l’est aussi. Donc S contient un plus grand élément noté M0 .
Montrons alors que S ⊂ V ect (L ∪ M0 ) : si ce n’est pas le cas, il existerait s ∈ S telle que
s ∉ Vect (L ∪ M0 ) et L ∪ M0 ∪ {s} serait une partie libre de E on aurait donc : G = M0 ∪ {s}
plus grand que M0 ce qui est absurde donc
S ⊂ Vect (L ∪ M0 ) ⇒ Vect(S) ⊂ Vect (L ∪ M0 ) = E
ce qui montre que L ∪ M0 est une partie génératrice de E. Comme elle est libre donc une
base de E d’après le théorème ci-dessus, c’est une partie génératrice minimale de E et donc
L ∪ M0 est fini. Alors L est finie de E et B = L ∪ M0 ⊂ G, B ainsi définie, vérifie le théorème.
∎
1.4 Codimension
Si l’espace vectoriel quotient E/F est de dimension finie, l’entier dim(E/F ) est appelé
codimension de F .
E = ∑ Ei
i=1...n
Ð
→
et si le seul élément commun à Ei et Ej est le vecteur 0 , i, j = 1...n, i ≠ j.
On dira que les Ei sont supplémentaires. Tout x ∈ E se met d’une manière unique sous la
forme :
x = ∑ xi , xi ∈ Ei
i=1...n
on écrira :
E = ⊕ni=1 Ei ,
L’écriture ⊕ni=1 Ei est appelée la somme directe des espaces (Ei )i=1...n ,
parfois notée∶ ∏i=1...n Ei . (le produit cartésien des espaces (Ei )i=1...n ).
Cette dernière écriture est justifiée par le théorème suivant :
(v, w) = (v ′ , w′ ) .
F ×G→E
ϕ∶{
(v, w) ↦ v + w
.
Retrouver ce titre sur Numilog.com
Proposition 1.7.1 Soit F et G deux sous-espaces vectoriels supplémentaires d’un espace vec-
toriel E. La projection p de E sur F parallèlement à G est une application linéaire qui vérifie :
ainsi : p ○ p = p.
Soit u ∈ E alors u − p(u) ∈ G donc si u ∈ ker(p) alors u ∈ G. Réciproquement si
u ∈ G alors 0 ∈ F et 0 − u ∈ G donc toujours d’après le théorème 1.6.1 et de l’unicité de la
projection : p(u) = 0 et u ∈ ker(p) ainsi ker(p) = G.
Montrons la réciproque :
Soient p un endomorphisme tel que∶ p ○ p = p et u ∈ ker(p) ∩ im(p) alors il existe v ∈ E
tel que : u = p(v) et alors :
donc ker(p) ∩ im(p) = {0} ainsi ker(p), im(p) sont en somme directe.
Soit u ∈ E alors : u = p(u) + (u − p(u)) et p est linéaire donc :
donc u − p(u) ∈ ker(p) et comme p(u) ∈ im(p) la somme de ker(p) et de im(p) vaut E.
Par conséquent im(p) et ker(p) sont supplémentaires dans E. De plus pour tout u ∈ E,
p(u) vérifie p(u) ∈ im(p) et u − p(u) ∈ ker(p) donc p est la projection de E sur im(p)
parallèlement à ker(p). ∎
F ×G→E
ϕ∶ et
(f, g) ↦ f + g
F ∩G→F ×G
ψ∶
f ↦ (f, −f )
alors :
1. ker ϕ = F ∩ G.
2. dim(F + G) = dim F + dim G − dim(F ∩ G).
De plus ψ est injective, donc induit un isomorphisme sur son image d’où
ker ϕ = F ∩ G
.
Preuve de 2) :
imϕ = F + G.
Appliquons à ϕ le théorème du rang on a :
Théorème 1.10.1 Soit E un espace vectoriel de dimension finie n sur le corps K et soit u un
endomorphisme de E.
Les assertions suivantes sont équivalentes :
u inversible
u−1 existe
rg(u) = n
u est injective
u est surjective
l’image par u d’une base est une base
Retrouver ce titre sur Numilog.com
< x, ϕ > .
Définition 1.11.1 Soit (e1 , e2 , ..., en ) une base de E ; une base duale de E ∗ est donnée par :
1 si i = j
e∗i (ej ) = δij = { .. (1.3)
0 si i ≠ j
Définition 1.11.2 Dans un espace vectoriel E de dimension finie n tout sous espace F de
codimension 1 est appelé un hyperplan.
Proposition 1.11.1 Si B = (e1 , e2 , ..., en ) une base de E, alors B ∗ = (e∗1 , e∗2 , ..., e∗n ) est une
base de E, appelée base duale de B. De plus, on dispose de l’isomorphisme :
E → E∗
ΦB ∶ { .
ei ↦ e∗i
de sorte que :
dim E = dim E ∗ . (1.4)
∗
∑ λi ei = 0 ⇒ ∀j = 1..n, [ ∑ λi e∗i ] (ej ) = 0
i=1...n i=1...n
⇒ ∀j = 1..n, ∑ λi e∗i (ek ) = 0
i=1...n
⇒ ∀j = 1..n, ∑ λi δij = 0
i=1...n
∀j = 1..n, λj = 0.
Montrons que B ∗ est génératrice : pour ϕ ∈ E ∗ , ϕ = ∑i=1...n ϕ (ei ) e∗i , en effet évaluons
les deux membres de cette égalité en un point :
x = ∑ λ i ei
i=1...n
Retrouver ce titre sur Numilog.com
quelconque de E.
⎛ ⎞
[ ∑ ϕ (ei ) e∗i ] (x) = [ ∑ ϕ (ei ) e∗i ] ∑ λj ej
i=1...n i=1...n ⎝j=1...n ⎠
∗ ⎛ ⎞
= ∑ ϕ (ei ) ei ∑ λj ej
i=1...n ⎝j=1...n ⎠
∗
= ∑ ϕ (ei ) ∑ λj ei (ej )
i=1...n j=1...n ´¹¹ ¹ ¹ ¸¹¹ ¹ ¹ ¶
δij
= ∑ λi ϕ (ei )
i=1...n
= ϕ ( ∑ λ i ei )
i=1...n
= ϕ (x) .
Ainsi ΦB envoie par conséquent une base de E sur une base de E ∗ , donc ΦB est un
isomorphisme, d’où l’égalité des dimensions. ∎
Exemple 1.11.1 Soient e1 = (1, 1, 1), e2 = (1, 0, −1), e3 = (0, 1, 1) une base de R3 et
∗
déterminons la base de (R3 ) duale de
{e1 , e2 , e3 } .
θi (x) = ai x1 + bi x2 + ci x3.
et doivent vérifier :
θi (ej ) = δij
d’où les trois systèmes :
⎧
⎪ a +b +c =1 ⎧ ⎪ a +b +c =0 ⎧ ⎪ a +b +c =0
⎪ 1 1 1
⎪ ⎪ 2 2 2
⎪ ⎪ 3 3 3
⎪
⎨ a1 − c1 = 0 ⎨ a2 − c2 = 1 ⎨ a3 − c3 = 0
⎪
⎪ ⎪
⎪ ⎪
⎪
⎩ b1 + c1 = 0
⎪ ⎩ b2 + c2 = 0
⎪ ⎩ b3 + c3 = 1
⎪
ainsi on a la solution :
⎧
⎪ θ (x) = x1 − x2 + x3
⎪ 1
⎪
⎨ θ2 (x) = x2 − x3
⎪
⎪
⎩ θ3 (x) = −x1 + 2x2 − x3
⎪
1.12 Bidualité
Définition 1.12.1 Le bidual de E (un espace vectoriel sur un corps quelconque K) est par
définition le dual de E ∗ ; i.e. :
∗
E ∗∗ = (E ∗ ) = L(E ∗ , K).
Retrouver ce titre sur Numilog.com
x
̂(λϕ + µψ) = [λϕ + µψ] (x) = λϕ(x) + µψ(x) = λ̂
x (ϕ) + µ̂
x (ψ) .
J est injective, en effet : Soit x ∈ ker J , si x ≠ 0, on complète la famille libre (x) en une
base de E puis on la ‘dualise’, on considère la forme linéaire x∗ dans la base considérée,
ainsi on obtient :
0=x ̂ (x∗ ) = x∗ (x) = 1
ce qui est absurde donc x = 0, d’où J injective.
Et pour finir J est surjective par le théorème 1.10.1 car E est de dimension finie donc J
est un isomorphisme. L’isomorphisme et l’égalité 1.4 donnent l’égalité 1.5. ∎
f t (ϕ) = ϕ ○ f, ∀ϕ ∈ F ∗ ,
et donc la formule mécanique suivante :
Chapitre 2
Matrices
2.1 Définition
On appelle matrice de type (n, p) ou une (n, p)−matrice à coefficients dans corps K,
une application de Nn × Np → Kn×p , donc la donnée de (np)− éléments de K notés pour
i ≤ n, j ≤ p, aij ∈ K.
Et sous forme de tableau :
L’ensemble des (n, p)−matrices se note Mn,p (K). Lorsque n = p on dit que l’on a une
matrice carrée, l’ensemble des matrices carrées d’ordre n se note Mn (K).
15
Retrouver ce titre sur Numilog.com
On ne peut réaliser que le produit de matrices (n, p) et (p, k) le résultat est une matrice
(n, k).
p ⎫
³¹¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ·¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹µ⎪
⎪
⎡ 1 0 0 ... 0 ⎤⎪ ⎪
⎪
⎢ ⎥⎪
⎪
⎪
⎪
⎢ 0 1 ... ⎥⎪ ⎥⎪
⎢
⎢ ⎥⎪
⎪
Inp = ⎢ ... 1 0 ⎥⎬ n.
⎢ ⎥⎪
⎪
⎢ 0 1 0 ⎥⎥⎪ ⎪
⎢
⎢ 0 0 ... ... 1 ⎥⎪ ⎪
⎣ ⎦⎪
⎪
⎪
⎪
⎪
⎪
⎪
⎭
On note In la matrice ci-dessus pour n = p, une matrice d’ordre n est inversible s’il existe
une matrice P telle que P M = M P = In . P est alors notée P = M −1 .
2.5 Transposition
(AB)t = B t At (2.1)
On désigne par Eij la matrice de Mn,p (K) dont tous les coefficients sont nuls à l’excep-
tion de celui de la i-ème ligne et de la j-ième colonne qui vaut 1.
Proposition 2.6.3 La famille (Eij )(i,j)∈[1..n]×[1..n] est une base de Mn,p (K), que l’on ap-
pelle base canonique de Mn,p (K). L’espace vectoriel des matrices à n lignes et p colonnes
est donc de dimension np.
Retrouver ce titre sur Numilog.com
Chapitre 2. Matrices 17
Soit ϕ un endomorphisme linéaire de matrice M = (mij )i≤n,j≤p alors ϕ(x) est un vecteur
d’expression :
⎡ λ ⎤ ⎡ ∑ ⎤
⎢ 1 ⎥ ⎢ j=1..n m1j λj ⎥
⎢ ⎥ ⎢ ⎥
M × ⎢ ... ⎥=⎢ ... ⎥
⎢ ⎥ ⎢ ⎥
⎢ λn ⎥ ⎢ ∑j=1..n mnj λj ⎥
⎣ ⎦ ⎣ ⎦
On note L(E), l’algèbre des endomorphismes de E et Mn (K), l’algèbre des matrices
carrées d’ordre n à coefficients dans K. On note id, identite (resp In ) l’endomorphisme
(resp la matrice) identité. Le choix d’une base de E permet de réaliser un isomorphisme
d’algèbre de L(E) sur Mn (K). Cet isomorphisme est réalisé de la façon suivante : Si
B = {e1 , e2 , ..., en } est une base de E, alors à tout isomorphisme u de E on associe la matrice
M = (mij )1≤i,j≤n dans Mn (K) définie par :
B = QAP.
B = {e1 , ..., en }
est semblable à une matrice triangulaire inférieure : en effet il suffit de la considérer dans la
base :
= (i = en−i+1 , i = 1...n).
2.9 Déterminants
Soit M = (mij )i≤n,j≤n ,une matrice carrée d’ordre n.
On appelle déterminant de M et on le note det(M ) le scalaire :
RRR m11 ... ... mn1 RRR
RRR RRR
RRR ... ... RRR
det(M ) = RRRRR ... mij ... RRR ,
RRR
RRR ... ... RRR
RRR RRR
RRR m1n mnn RR
ou sous forme développée,
1 2 3 1 2 3
σ1 = = ( ) , σ2 = ( ),
1 2 3 2 3 1
1 2 3 1 2 3
σ3 = ( ) , τ1 = ( ),
3 1 2 1 3 2
1 2 3 1 2 3
τ2 = ( ) , τ3 = ( )
3 2 1 2 1 3
les 3 dernières transformations sont des transpositions. On vérifie que :
det M = m11 m22 m33 + m21 m32 m13 + m31 m12 m23
−m11 m32 m23 − m31 m22 m13 − m21 m12 m33 .
Chapitre 2. Matrices 19
Méthode de Sarrus
⎡ a b c ⎤
⎢ ⎥
M = ⎢ a′ b′ c′
⎢ ⎥
⎥
⎢ ′′ ⎥
⎢ a
⎣ b′′ c′′ ⎥
⎦
a↘ b↘ c↘ a b
a′ b′ ↘↗ c′ ↘↗ a′ ↗↘ b′
′′
a ↗ b′′ ↗ c′′ ↗ a′′ b′′
Le produit des nombres situés sur les flèches montantes moins le produit des nombres
situés sur les flèches descendantes.
Pour développer un déterminant on utilise souvent ceci :
Le mineur Mij d’une matrice M d’ordre n est le déterminant de la sous matrice d’ordre
n − 1 obtenue après suppression de la ième ligne et la j ème colonne de M .
k+j
det(A) = ∑ (−1) akj Mkj (2.4)
k=1...n
k+j
= ∑ (−1) ajk Mjk (2.5)
k=1...n
où Mij désigne le mineur relatif à i, j.Dans la première égalité on dit qu’on a développé
det M par rapport à la j − ième colonne, dans la deuxième égalité qu’on développé det M
par rapport à la ième ligne.
2.10 Cofacteur
c
On définit le cofacteur Mij d’une matrice M d’ordre n en fonction du mineur associé
par :
c
Mij = (−1)i+j Mij (2.6)
La matrice formée par les cofacteurs s’appelle comatrice ou la matrice des cofacteurs
notée Mc .
Comme on a aussi :
(σ −1 ) = (σ)
il vient :
det M t = ∑ (σ −1 ) aσ−1 (1)1 aσ−1 (2)2 ...aσ−1 (n)n ,
σ∈Sn
det M t = det M.
– Si dans une matrice, une colonne (ou une ligne) est combinaison linéaire de plu-
sieurs autres colonnes (ou lignes), son déterminant est nul. En particulier une matrice
possédant une ligne ou une colonne nulle a son déterminant nul.
– Si dans une matrice on ajoute à une colonne une combinaison de plusieurs colonnes le
déterminant de cette matrice ne change pas.
– Si A et B sont des matrices d’ordre n alors :
det(A × B) = λ × det B
det E = −1
Retrouver ce titre sur Numilog.com
Chapitre 2. Matrices 21
0 1
E=[ ]
1 0
et det E vaut bien -1. Supposons l’hypothèse vraie au rang n − 1 et considérons une
matrice d’ordre n , élémentaire. Soit m la première ligne de E non permutée. En
développant à l’aide des cofacteurs selon la ligne m on a :
Mais Mmm est le déterminant d’une matrice élémentaire du premier genre d’ordre
n − 1 et est par hypothèse égal à −1, par suite det E = −1.
Si on obtient B à partir de A en permuttant deux lignes (ou deux colonnes) de A alors
B = EA où E est une matrice élémentaire du premier genre et par suite :
det B = det(E × A)
= det E × det A
= − det A
∎
– Le déterminant d’une matrice triangulaire est égal au produit des éléments diagonaux.
– Pour calculer un déterminant, on fait apparaı̂tre un maximum de zéros sur une ligne (ou
colonne) en faisant des combinaisons linéaires de lignes ou de colonnes et on développe
par rapport à cette ligne (ou colonne).
Exemple 2.11.1 Désignons par Ci la colonne i :
en effectuant
⎧
⎪ C2 ← C2 − 2C1
⎪
⎪
⎨ C3 ← C3 − C1 ,
⎪
⎪
⎪
⎩ C 3 ← C 3 − 3C1
Chapitre 2. Matrices 23
1
M −1 = (M c )t . (2.7)
det(M )
Cette matrice est dite régulière.
Si le déterminant d’une matrice est nul , cette matrice est dite singulière.
cos θ − sin θ
Exemple 2.12.1 La matrice de rotation dans le plan xy est A (θ) = [ ].
sin θ cos θ
−1
Vérifions que : A (θ) A (ϕ) = A (θ + ϕ) et A (−θ) = A (θ) , on utilisera les matrices pro-
duits et les identités trigonométriques. Soit :
cos θ − sin θ
A (θ) = [ ]
sin θ cos θ
d’où :
d’où :
cos2 θ + sin2 θ 0 1 0
[ ]=[ ]
0 cos2 θ + sin2 θ 0 1
2.14 Application
Démonstration de l’égalité ci dessus :
1 a0
Pour n = 1, H1 ∶ V (a0 , a1 ) = ∣ ∣ = a1 − a0 , ainsi H1 est vraie.
1 a1
Supposons Hn−1 et prenons des scalaires a0 , ..., an .
Si les scalaires a0 , ..., an ne sont pas distincts deux à deux, le déterminant :
V (a0 , ..., an )
présente deux lignes identiques donc il est nul et l’hypothèse est vérifiée.
Dans le cas contraire le développement de V (a0 , ..., an−1 , x) par rapport à la dérnière
ligne donne une fonction polynomiale f en x de degré inférieur ou égal à n dont le terme de
plus haut degré est :
V (a0 , ..., an−1 )xn .
Retrouver ce titre sur Numilog.com
Chapitre 2. Matrices 25
est donc non nul , f admet a0 , ..., an pour racines, car pour tout i ∈ [0, n − 1], f (ai ) est
un déterminant admettant deux lignes identiques donc nul.
D’où f est un polynôme de degré n dont le coefficient dominant est V (a0 , ..., an−1 ) et qui
admet les racines a0 , ..., an .
Ainsi on a :
= ∏ (ai − aj ).
0≤i≤j≤n
1 1 1
A=[ ]
1 0 2
Retrouver ce titre sur Numilog.com
⎡ x ⎤
⎢ 1 ⎥ 0
⎢ ⎥
L’ensemble des solutions x = ⎢ x2 ⎥ de l’équation Ax = [ ] est :
⎢
⎢ x3 ⎥
⎥ 0
⎣ ⎦
a un espace engendré par une colonne de A
b une ligne de A
c l’espace nul associé à A
d un plan
e une droite
f un point
Les solutions de cette équation sont dans R3 , l’espace engendré par les colonnes de A
est dans R2 , ainsi les solutions ne peuvent pas être les colonnes de A. Le noyau de A est un
sous espace de R3 . Le produit de A par la première ligne de A est :
⎡ 1 ⎤
1 1 1 ⎢⎢ ⎥⎥ 3
[ ]⎢ 1 ⎥ = [ ],
1 0 2 ⎢⎢ ⎥⎥ 3
⎣ 1 ⎦
0
et non [ ], ainsi la solution n’est pas une ligne de A.
0
⎡ x ⎤ ⎡ −2t ⎤
1 1 1 ⎢⎢ 1 ⎥⎥ 0 ⎢
⎢
1 ⎥
⎥
[ ] ⎢ x ⎥ = [ ] , la solution est : ⎢ t1 ⎥
1 0 2 ⎢⎢ 2 ⎥⎥ 0 ⎢ ⎥
⎣ x3 ⎦ t1 ⎥⎦
⎢
⎣
Chapitre 2. Matrices 27
M = A − λI (2.15)
on a :
an λn I + an−1 λn I + ... + a1 λI + a0 I
= ABn−1 λn−1 + ABn−2 λn−2 +
... + AB1 λ1 + AB0 − (Bn−1 λn−1 + Bn−2 λn−2 +
... + B1 λ1 + B0 )
an I = −Bn−1
an−1 I = ABn−1 − Bn−2
an−2 I = ABn−2 − Bn−3
...
a1 I = AB1 − B0
a0 I = AB0
On multiplie la première de ces équation par An , la deuxième par An−1 et ainsi de suite
la dernière par I = A0 puis on additionne membre à membre les équations obtenues on a :
P (A) = 0 (2.20)
∎
Définition 2.17.2 D’une manière générale pour f ∈ K (E), ensemble des endomorphismes
de E sur le corps K, un polynôme Q ∈ K[X] est dit polynôme annulateur de f si Q(f ) = 0.
D’après le théorème de Caley-Hamilton le polynôme caractéristique est un polynôme
annulateur de l’endomorphisme associé à la matrice donnant le polynôme caractéristique.
Il existe d’autres polynômes annulateurs, en effet pour tout endomorphisme f , il existe
un polynôme annulateur, si dimK E = n, dimEndK E = n2 donc toute n2 + 1 famille d’endo-
morphisme est liée, en particulier, les endomorphismes :
2
id, f, f 2 , ..., f n
sp(f ) ⊂ rac(Q).
Preuve 2.17.2 En effet : si λ est une valeur propre de f , il existe v un vecteur propre non nul
qui lui est associé tel que :
Retrouver ce titre sur Numilog.com
Chapitre 2. Matrices 29
⎧
⎪ f (v) = λv.
⎪
⎪
⎪
⎪
⎪ f 2 (v) = λ2 v
⎪
⎨ f 3 (v) = λ3 v
⎪
⎪
⎪
⎪
⎪ ...
⎪
⎪
⎩ f k (v) = λk v
Soit Q(X) un polynôme annulateur ,
i.e :
a0+ a1 f + ... + an f n = 0,
en appliquant cette relation au vecteur v on obtient :
(a0+ a1 f + ... + an f n )v = 0
c’est à dire :
(a0+ a1 λ + ... + an λn )v = 0
comme v est non nul il vient que :
a0+ a1 λ + ... + an λn = 0,
Remarque 2.17.1 Toutes les racines de Q ne sont pas nécéssairement valeurs propres de f
par exemple ’l”identité vérifie :
id2 = id,
donc Q(X) = X(X − 1) est annulateur mais 0 n’est pas valeur propre.
Remarque 2.17.2 Un projecteur ne peut avoir que 0 et (ou) 1 comme valeurs propres.
B = {v1 , ..., vn }
Retrouver ce titre sur Numilog.com
de vecteurs propres. Si λ1 , ..., λp sont les valeurs propres , pour tout v dans B , il existe au
moins une valeur propre λj telle que f − λj idv = 0 ; donc pour tout v dans B on a :
s’annule sur une base, il s’annule sur tout vecteur de E. Donc le polynôme :
Q(x) = (X − λ1 )...(X − λp )
est un annulateur de f . ∎
Remarque 2.18.1 Définition 2.18.1 Un polynôme est scindé dans le corps K si toutes ses
racines sont dans K.
Lemme 2.18.1 (lemme des noyaux) Soit f ∈End(E) et Q un polynôme factorisé en produit
de polynômes deux à deux premiers entre eux, Q(X) = Q1 (X)...Qp (X).
si Q(f ) = 0 alors :
E = ker Q1 (X) ⊕ ... ⊕ ker Qp (X). (2.24)
Avant de démontrer ce lemme montrons comment il s’applique :
Remarque 2.18.3 Soit un projecteur p, i.e : un endomorphisme tel que p2 = p, son polynôme
Q s’écrit :
Q(X) = X(X − 1)
annule f et X , X − 1 sont premiers entre eux d’où :
∀x ∈ E; Q1 (f )x = 0,
U1 Q1 + U1 Q2 = 1
d’où
U1 (f ) ○ Q1 (f ) + U1 (f ) ○ Q2 (f ) = identité.
Retrouver ce titre sur Numilog.com
Chapitre 2. Matrices 31
Ainsi :
∀x ∈ E, x = U1 (f ) ○ Q1 (f )x + U1 (f ) ○ Q2 (f )x,
ie :
E ⊂ im(U1 (f ) ○ Q1 (f )) + im(U1 (f ) ○ Q2 (f )).
Or
Q2 (f ) ○ U1 (f ) ○ Q1 (f ) = 0,
car
Q1 (f )Q2 (f ) = 0,
d’où
im(U1 (f ) ○ Q1 (f )) ⊂ ker(Q2 (f )).
De même
im(U2 (f ) ○ Q2 (f )) ⊂ ker(Q1 (f )).
Par conséquent :
E = ker(Q1 (f )) ⊕ ker(Q2 (f )),
car
x ∈ ker(Q1 (f )) ∩ ker(Q2 (f )), x
= U1 (f ) ○ Q1 (f )x + U1 (f ) ○ Q2 (f )x
= 0.
Supposons le théorème vrai jusqu’à p − 1 et posons :
Q = Q1 Q2 ...Qp−1 Qp = Q∗ Qp .
´¹¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¸¹∗ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¶
Q
où
̃ i (f ) = {x ∈ F, Qi (f )(x) = 0} ⊂ ker Qi (f ).
kerQ
Or ker Qi (f ) = kerQi (f ), en effet x ∈ ker Qi (f ), Q∗ (f )x = 0,
̃
̃ i (f ).
donc x appartient à F et donc à kerQ
On a ainsi :
F = ker Q1 (f ) ⊕ ... ⊕ ker Qp−1 (f ).
∎
le plus petit entier positif pi pour lequel le rang de (M − λi I)pi est égal à n − µi , où n
représente le nombre de lignes ou de colonnes, alors le polynôme minimal est donné par :
2.20 Exemple
Soit la matrice M définie par :
⎡ 3 2 0 1 ⎤
⎢ ⎥
⎢ 0 3 0 0 ⎥
⎢ ⎥
M =⎢ ⎥
⎢
⎢ 0 0 3 −1 ⎥
⎥
⎢ 0 0 0 3 ⎥
⎣ ⎦
Elle admet la valeur propre λ = 3 de multiplicité quatre. Donc n = 4, µ = 4,
⎡ 0 2 0 1 ⎤
⎢ ⎥
⎢ 0 0 0 0 ⎥
⎢ ⎥
M − 3I = ⎢ ⎥
⎢
⎢ 0 0 0 −1 ⎥
⎥
⎢ 0 0 0 0 ⎥
⎣ ⎦
est de rang 2 alors que :
⎡ 0 0 0 0 ⎤
⎢ ⎥
⎢ 0 0 0 0 ⎥
2 ⎢ ⎥
(M − 3I) = ⎢ ⎥
⎢
⎢ 0 0 0 0 ⎥
⎥
⎢ 0 0 0 0 ⎥
⎣ ⎦
est de rang 0 donc p = 2. Son polynôme minimal est m(λ) = (λ − 3)2 .
Soit E un espace vectoriel de dimension n , u ∈ L(E), un endomorphisme de E, Pu (X) =
α
Πi=1...p (λi − X) i , son polynôme caractéristique. Si Ni désigne le sous- espace caractéristique
associé à λi , on a dim(Ni ) = αi , αi étant la multiplicité de la valeur propre λi .
Proposition 2.20.1 Soit m(t) le polynôme minimal d’une matrice A d’ordre n alors le po-
lynôme caractéristique de A divise (m(t))n .
Chapitre 2. Matrices 33
la valeur propre 2 est de multiplicité 4 , il lui est associé deux vecteurs propres indépendants :
⎡ 2 0 0 0 ⎤⎡ 0 ⎤ ⎡ 0 ⎤⎥
⎢ ⎥⎢ ⎥ ⎢
⎢ 1 2 0 0 ⎥⎢ 0 ⎥ ⎢ 0 ⎥⎥
⎢ ⎥⎢ ⎥ ⎢
⎢ ⎥⎢ ⎥ = ⎢ ⎥
⎢
⎢ 0 0 2 0 ⎥⎢
⎥⎢ 0 ⎥
⎥
⎢
⎢ 0 ⎥⎥
⎢ 0 0 −3 2 ⎥⎢ 1 ⎥ ⎢ 2 ⎥⎦
⎣ ⎦⎣ ⎦ ⎣
⎡ 0 ⎤
⎢ ⎥
⎢ 0 ⎥
⎢ ⎥
= 2⎢ ⎥
⎢ 0 ⎥
⎢ ⎥
⎢ 1 ⎥
⎣ ⎦
⎡ 2 0 0 0 ⎤⎡ 0 ⎤ ⎡ 0 ⎤⎥
⎢ ⎥⎢ ⎥ ⎢
⎢ 1 2 0 0 ⎥⎢ 1 ⎥ ⎢ 2 ⎥⎥
⎢ ⎥⎢ ⎥ ⎢
⎢ ⎥⎢ ⎥ = ⎢ ⎥
⎢
⎢ 0 0 2 0 ⎥⎢
⎥⎢ 0 ⎥
⎥
⎢
⎢ 0 ⎥⎥
⎢ 0 0 −3 2 ⎥⎢ 0 ⎥ ⎢ 0 ⎥⎦
⎣ ⎦⎣ ⎦ ⎣
⎡ 0 ⎤
⎢ ⎥
⎢ 1 ⎥
⎢ ⎥
= 2⎢ ⎥
⎢ 0 ⎥
⎢ ⎥
⎢ 0 ⎥
⎣ ⎦
Exemple 2.20.2 1. La matrice :
⎛ −1 1 1 ⎞
A=⎜ 1 −1 1 ⎟,
⎝ 1 1 1 ⎠
mA (X) = (X + 2)(X − 1)
A − id = 0,
ce qui n’est pas vérifié dans notre cas donc A est non diagonalisable.
Retrouver ce titre sur Numilog.com
Chapitre 2. Matrices 35
⎛ 3 −1 1 ⎞
3. La matrice A = ⎜ 2 0 1 ⎟ , a pour polynôme caractéristique :
⎝ 1 −1 2 ⎠
.
Son polynôme minimal est sous l’une des forme :
(X − 1)(X − 2)
mA (X) = { ,
(X − 1)(X − 2)2
A est diagonalisable si :
(A − I)(A − 2I) = 0
or
⎛ 1 ... ⎞
(A − I)(A − 2I) = ⎜ ... ⎟ ≠ 0,
⎝ ⎠
donc A est non diagonalisable.
Le théorème suivant est une conséquence de ce qu’il a été dit plus haut :
Définition 2.21.1 Un endomorphisme u est dit nilpotent s’il existe un entier naturel m tel
que um = 0.
Et par la suite une matrice M est dite nilpotente si l’endomorphisme qui lui est associé
est nilpotent, c’est à dire s’il existe un entier naturel m tel que :
M m = 0.
Ni = ker(u − λI)βi
Retrouver ce titre sur Numilog.com
De plus posons :
ui = λi Ii + (ui − λi Ii ) = λi Ii + vi ;
(Ii est l’identité de Ni ). vi est nilpotent, de polynôme minimal X βi .
Théorème 2.21.1 Il existe une base dans laquelle l’endomorphisme nilpotent u est représenté
par une matrice de Jordan.
Preuve 2.21.1 On démontre a) : pour cela il faut démontrer que ker f l ⊂ ker f l+1 pour tout
entier l.
Soit x élément de ker f l on a f l+1 (x) = f ○f l (x) = f (0) = 0 donc x appartient à ker f l+1 .
Démontrons b) : on montre d’abord que f (S) ⊂ ker f k−1 .
Soit y un élément de f (S) il existe x de S tel que y = f (x), en composant par f k−1 ,on
obtient f k−1 (y) = f k (x).
Comme S ⊂ ker f k , f k (x) = 0, d’où f k−1 (y) = 0, donc y appartient à ker f k−1
et donc f (S) ⊂ ker f k−1 .
Montrons maintenant que f (S) ∩ ker f k−2 = {0} ∶
En effet soit y un élément commun à f (S) et ker f k−2 , il existe un x de S tel que y = f (x)
et f k−2 (y) = 0, on en déduit que f k−1 (x) = 0
donc x appartient à S ∩ ker f k−1 , comme S est supplémentaire de
ker f k−1 , x = 0
Retrouver ce titre sur Numilog.com
Chapitre 2. Matrices 37
d’où :
y = f (x) = f (0) = 0.
Montrons l’existence de T :
On a f (S) + ker f k−2 ⊂ ker f k−1 .
Si l’inclusion est une égalité on prendra T = f (S).
Si ce n’est pas le cas , considérons B une base de
f (S) + ker f k−2 .
On sait qu’il existe B ′ une base telle que (B, B ′ ) est une base de ker f k−1 .
On prendra pour T le sous-espace engendré par f (S) et B ′ .
Montrons maintenant que f restreinte à S est injective : Cette restriction est
linéaire de S à T . Montrons que le noyau de cette restriction ϕ est réduit à 0.
En effet x appartenant à ker ϕ ⇒
ϕ(x) = f (x) = 0
d’où x appartient à ker f . Comme ker f ⊂ ker f k−1 . x appartient à S ∩ ker f k−1 . Donc x
est nulle. Comme ϕ est injective l’image d’une base de S est une partie libre de T et on a :
dim ϕ (S) = dim f (S) ≤ dim T.
∎
Preuve 2.21.3 Soit mk la dimension de Mk . Dans chaque sous-espace Mk , il existe une base
B k = {ek1 , ek2 , ..., ekmk } telle que pour j = 1...mk , k = 1...p − 1,
f (ekj ) = ek+1
j .
Le cas où f a une valeur propre multiple d’ordre n, alors l’endomorphisme f vérifie
d’après le théorème de Cayley-Hamilton :
(f − λI)n = 0.
Posons ϕ = f −λid. Alors f = ϕ+λid. Ainsi ϕ est nilpotente donc on applique le théorème
précédent , ϕ est représentée par une matrice de Jordan dont les éléments diagonaux sont nuls,
et f est la matrice de Jordan dont les éléments diagonaux sont égaux à λ.
Le cas général , soient P le polynôme caractéristique de f et λ1 , ..., λp ses racines, valeurs
propres de f et α1 , ..., αp , leurs multiplicités. On obtient la matrice J de Jordan
⎡ J ⎤
⎢ 1 ⎥
⎢ ⎥
J =⎢ ... ⎥
⎢ ⎥
⎢
⎣ Jp ⎥
⎦
où Ji est une matrice de Jordan.
2.22 Exemple
Exemple 2.22.1 Soit A la matrice de M4 (R), définie par :
⎡ −10 7 −8 13 ⎤
⎢ ⎥
⎢ −18 12 −11 19 ⎥
⎢ ⎥
⎢ ⎥
⎢
⎢ −14 8 −7 15 ⎥
⎥
⎢ −10 6 −7 13 ⎥
⎣ ⎦
Retrouver ce titre sur Numilog.com
Chapitre 2. Matrices 39
dim M2 ≥ 2
et M1 ∩ M2 = {0} .
On en déduit que R4 = M1 ⊕ M2 . On obtient la base B2 = {ϕ(e1 ), e1 , ϕ(e2 ), e2 } .
La réduite de Jordan s’écrit :
⎡ 2 1 0 0 ⎤
⎢ ⎥
⎢ 0 2 0 0 ⎥
⎢ ⎥
⎢ ⎥,
⎢
⎢ 0 0 2 1 ⎥
⎥
⎢ 0 0 0 0 ⎥
⎣ ⎦
la matrice de passage étant
⎡ −12 1 7 0 ⎤
⎢ ⎥
⎢ −18 0 10 1 ⎥
⎢ ⎥
⎢ ⎥.
⎢
⎢ −14 0 8 1 ⎥
⎥
⎢ −10 0 6 0 ⎥
⎣ ⎦
Preuve 2.23.1 Supposons f trigonalisable et soit une base {e1, e2 , ..., en } de Kn , dans cette
base la matrice de f a la forme :
⎡ a11 ∗ ⎤
⎢ ⎥
⎢ 0 a21 ⎥
⎢ ⎥
Mf = ⎢ ⎥
⎢
⎢ ... ... ... ⎥
⎥
⎢ 0 ... 0 ann ⎥
⎣ ⎦
et son polynôme caractéristique est :
⎡ a11 − λ ∗ ⎤
⎢ ⎥
⎢ 0 a − λ ⎥
⎢ 21 ⎥
pf (X) = det ⎢ ⎥
⎢ ... ... ... ⎥
⎢ ⎥
⎢ 0 ... 0 ann − λ ⎥
⎣ ⎦
= (a11 − λ)(a21 − λ)...(ann − λ),
Retrouver ce titre sur Numilog.com
qui est bien scindé. Réciproquement pour n = 1, il n’y a rien à démontrer, par récurrence sur
n, supposons que cela soit vrai jusqu’au rang n − 1 et démontrons le pour le rang n. Puisque
pf est scindé il existe au moins une racine correspondant à une valeur propre, à laquelle est
rattaché un vecteur propre v. Complétons par une base de E, {e2 , ..., en } , la matrice de f a
l’allure suivante :
⎡ a11 ⎤
⎢ ⎥
⎢ 0 ⎥
⎢ ⎥
Mf = ⎢ ⎥
⎢ ... B ⎥
⎢ ⎥
⎢ 0 ⎥
⎣ ⎦
B ∈ Mn−1 (K),soit F ={e2 , ..., en } et g ∶ F → F, telle que M restreinte à {e2 , ..., en } soit
B. On a
⎡ a11 − λ ∗ ⎤⎥
⎢
⎢ 0 ⎥
⎢ ⎥
pf (λ) = det ⎢ ⎥
⎢ ... B − λI n−1 ⎥
⎢ ⎥
⎢ 0 ⎥
⎣ ⎦
= (a11 − λ) det(B − λIn−1 )
= (a11 − λ)pg (λ).
Puisque pf est scindé pg l’est aussi. D’après l’ hypothèse de récurrence B est triangulaire et
donc M est triangulaire. ∎
Corollaire 2.23.1 Si le polynôme caractéristique de A ∈ Mn (K) est scindé dans K, alors
Trace de A, TrA = ∑ni=1 λi ,et det A = ∏ni=1 λi .
Preuve 2.23.2 On applique le fait que A est semblable à une matrice triangulaire. ∎
Chapitre 2. Matrices 41
on obtient :
⎡ 2 ⎤ ⎡ −2 ⎤ ⎡ 1 ⎤
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
u = ⎢ 0 ⎥ , v = ⎢ −3 ⎥ , w = ⎢ 0 ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ −2 ⎥ ⎢ 4 ⎥ ⎢ −1 ⎥
⎣ ⎦ ⎣ ⎦ ⎣ ⎦
et
⎡ 1 1 0 ⎤
⎢ ⎥
′⎢ ⎥
A =⎢ 0 1 0 ⎥,
⎢ ⎥
⎢ 0 0 −2 ⎥
⎣ ⎦
de matrice de passage,
⎡ 2 −2 1 ⎤⎥
⎢
⎢ ⎥
P = ⎢ 0 −3 0 ⎥.
⎢ ⎥
⎢ −2
⎣ 4 −1 ⎥⎦
(X, Y )W = ⟨W X, W Y ⟩ (2.25)
où le crochet est le produit scalaire. (X, Y )W est un produit scalaire si W = I matrice
identité , le produit intérieur est le produit scalaire :
AH A = AAH (2.27)
Les matrices normales ont les Propriétés suivantes :
1. Toute matrice normale est semblable à une matrice diagonale.
2. Toute matrice normale possède une base canonique de vecteurs propres que l’on peut
mettre sous forme d’un ensemble orthonormé.
Matrice hermitienne :
Une matrice est dite hermitienne si elle est égale à sa transposée hermitienne , autrement
dit si :
A = AH (2.28)
Retrouver ce titre sur Numilog.com
Propriétés :
1. La somme de deux matrices hermitiennes est hermitiennes.
2. Le produit d’une matrice hermitienne par un nombre est hermitienne.
3. Les valeurs propres d’une matrice hermitienne sont réelles.
4. Une matrice hermitienne vérifie :
⟨AX, X⟩
est un réel quel que soit le vecteur X réel ou complexe de dimension n.
5. Si on peut mettre une matrice hermitienne U sous forme triangulaire supérieure en
n’utilisant que des transformations élémentaires sur les lignes alors la diagonale de U
contient le même nombre de zéros de valeurs positives et de valeurs négatives que les
valeurs propres de A.
2.26 Exemples
Exemple 2.26.1 Les matrices suivantes sont normales :
⎡ 1 2 3 ⎤⎥ ⎡ 2 6 −3 ⎤
⎢ 2 3 + 4i ⎢ ⎥
⎢ ⎥ ⎢ ⎥
A=⎢ 2 4 −5 ⎥ B = [ ] C=⎢ 3 2 6 ⎥
⎢
⎢ 3 −5
⎥ 3 − 4i −5 ⎢ ⎥
⎣ 0 ⎥⎦ ⎢ −6
⎣ 3 2 ⎥
⎦
A∗ = (W H W )−1 AH (W H W ) (2.30)
Retrouver ce titre sur Numilog.com
Chapitre 2. Matrices 43
A∗ = AH (2.31)
Propriétés :
1. (A∗ )∗ = A
2. (A + B)∗ = A∗ + B ∗
3. (AB)∗ = B ∗ A∗
4. (λA)∗ = λA∗ .
Une matrice est dite auto-adjointe si elle est égale à son adjointe.
Une telle matrice vérifie :
Théorème 2.28.1 Une matrice est auto-adjointe par rapport au produit intérieur euclidien
si et seulement si elle est hermitienne.
⟨AX, X⟩ ≥ 0 (2.34)
Si on inverse ces inégalité on obtient respectivement une matrice définie négative et semi-
définie négative.
On démontre assez facilement les propriétés et caractéristiques suivantes des ma-
trices définies positives voir exercice ?? :
Propriétés :
1. La somme de deux matrices définies de même type est une matrice de même type.
2. La transposée hermitienne vérifie la même chose.
3. Les matrice définies positives (resp définies négatives) sont inversibles , leurs inverses
étant également de même type.
Retrouver ce titre sur Numilog.com
2.30 Exemple
Exemple 2.30.1 On peut vérifier sur
⎡ 2 10 −2 ⎤
⎢ ⎥
⎢ ⎥
A = ⎢ 10 5 8 ⎥
⎢ ⎥
⎢ −2
⎣ 8 11 ⎥
⎦
les caractéristiques nécessaires ci-dessus et voir que A n’est pas définie positive ni définie
négative. Les valeurs propres de A étant −9, 9 et 18.
∥x − p(x)∥ ≤ ∥x − y∥ (2.35)
Si {u1 , u2 , ..., up } est une base orthonormée de F alors p(x) est donnée par la formule :
p
p(x) = ∑ ⟨x, uk ⟩ uk (2.36)
k=1
Chapitre 2. Matrices 45
Preuve 2.31.1 Démonstration de la formule 2.36 : Comme p(x) est dans F on a : p(x) =
p
∑k=1 αk uk , le produit scalaire de p(x) − x par le vecteur uj s’écrit :
p
⟨p(x) − x, uj ⟩ = ⟨ ∑ αk uk − x, uj ⟩
k=1
= αj − ⟨x, uj ⟩ = 0,
d’où la formule. ∎
⎡ 1 ⎤ ⎡ 1 ⎤
⎢ ⎥ ⎢ ⎥
⎢ ⎥ ⎢ ⎥
Exemple 2.31.1 -Les vecteurs u = ⎢ 1 ⎥ et v = ⎢ 1 ⎥ sont dans l’espace R3 . Trouver P la
⎢ ⎥ ⎢ ⎥
⎢ 0 ⎥ ⎢ 1 ⎥
⎣ ⎦ ⎣ ⎦
matrice de projection dans le plan engendré par (u, v) et le vecteur qui se projette en zéro.
Nous cherchons la matrice projection P dans l’espace R3 engendré par les vecteurs
u = [1, 1, 0] et v = [1, 1, 1] de telle sorte que :
1. P A = A, At P t = At où A = [u, v] , où u et v sont les colonnes de A.
2. P 2 = P.
3. L’endomorphisme p associé à P vérifie la formule 2.36 ainsi p est la projection dans
le plan engendré par (u, v) .
La condition 1. donne :
At P A = At A
−1
Or (At A) existe car u, v sont indépendants d’où :
−1
At P A (At A) =I
Comme :
−1 −1
At A (At A) At A (At A) =I
−1
Une solution pour P est la matrice P = A (At A) At et P ainsi définie vérifie les
conditions 1. et 2., pour vérifier la condition 3. on partira de la matrice AAt qui l’ on sait
vérifie la formule 2.36 donc l’endomorphisme associé à P AAt = AAt vérifie aussi la formule
2.36 on obtient ainsi :
P AAt x =< x, u > u+ < x, v > v
or :
AAt u = u et AAt v = v
donc :
P AAt x =< x, AAt u > u+ < x, AAt v > v
⇔
P AAt x =< At x, At u > u+ < At x, At v > v
⇔
P Ay =< y, At u > u+ < y, At v > v, y = At x
⇔
P Ay =< Ay, u > u+ < Ay, v > v
Retrouver ce titre sur Numilog.com
⇔
P z =< z, u > u+ < z, v > v, z = Ay.
Comme u, v sont indépendants alors y et x existent par le théorème 1.10.1, ainsi 3. est
vérifiée. Ce résultat se généralise à un système de p vecteurs indépendants dans Rn , la ma-
trice de projection est donnée par :
−1
P = A (At A) At
où A est la matrice dont les colonnes sont les p vecteurs en question. Pour notre exemple P
s’écrit :
⎡ 1 1 ⎤ ⎛⎡ 1 1 ⎤t ⎡ 1 1 ⎤⎞−1 ⎡ 1 1 ⎤t
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ ⎥ ⎜⎢ ⎥ ⎢ ⎥⎟ ⎢ ⎥
P = ⎢ 1 1 ⎥ ⎜⎢ 1 1 ⎥ ⎢ 1 1 ⎥⎟ ⎢ 1 1 ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢
⎣ 0 1 ⎥ ⎝⎢ 0
⎦ ⎣ 1 ⎥ ⎢ 0
⎦ ⎣ 1 ⎥⎠ ⎢ 0
⎦ ⎣ 1 ⎥
⎦
⎡ 1 1
⎢ 2 2
0 ⎤⎥
⎢ 1 1 ⎥
= ⎢ 2 2
0 ⎥
⎢ ⎥
⎢
⎣ 0 0 1 ⎥⎦
Noter que pour tout vecteur w = (x, y, z) dans R3 , P w ,est une combinaison linéaire de
u et v tel que P transforme R3 dans le plan engendré par u et v.
⎡ 1 1
0 ⎤⎥ ⎡ x ⎤ ⎡ 1 ⎤
x+ 1
y
⎢ 2 2 ⎢ 2 ⎥ 2
⎢ 1 ⎥⎢ ⎥ ⎢ ⎥
⎢
⎢ 2
1
2
0 ⎥⎥ ⎢⎢ y ⎥⎥ = ⎢
⎢
1
2
⎥
x+
⎥
1
2
y
⎢ ⎥ ⎢⎢ ⎥ ⎢ ⎥
1 ⎥⎦ ⎣ z ⎦
⎢ 0 ⎥ ⎢ ⎥
⎣ 0 z
⎣ ⎦
⎡ 1 ⎤ ⎡ 1 ⎤
x+y ⎢ ⎥ ⎢ ⎥
⎢ ⎥ ⎢ ⎥
= ( − z) ⎢ 1 ⎥ + z ⎢ 1 ⎥
2 ⎢ ⎥
⎢ 0 ⎥
⎢ ⎥
⎢ 1 ⎥
⎣ ⎦ ⎣ ⎦
Chapitre 2. Matrices 47
p devient :
2x + y + t x + 2y − t x − y + 2t
p(x) = ( , , 0, )
3 3 3
la matrice de p est donc
⎡ 2 1 0 1 ⎤
⎢ ⎥
1 ⎢⎢ 1 2 0 −1 ⎥
⎥
A= ⎢ ⎥.
3 ⎢⎢ 0 0 0 0 ⎥
⎥
⎢ 1 −1 0 2 ⎥
⎣ ⎦
Exemple 2.31.3 Si p est une projection ≠ id et ≠ 0 alors p est diagonalisable et ses valeurs
propres sont 0 et 1.
A = TTH (2.37)
où T est une matrice triangulaire inférieure possédant des valeurs positives sur la diago-
nale d’une manière unique.
Application, démonstration par récurrence de ce fait dans le cas réel :
α Ct
A1 = [ ]
C A
où α est un nombre réel, C une matrice 1 × n et A d’ordre n définie positive.
Nous allons déterminer un nombre réel β une matrice L, 1 × n, et T1 triangulaire
inférieure de façon à ce qu’on ait :
Retrouver ce titre sur Numilog.com
β L
A1 = T T t où T = [ ].
0 T1
pour cela :
A1 = T T t ⇔
t
α Ct β L β L
[ ] =[ ][ ]
C A 0 T1 0 T1
⇔ β 2 = α, βL = C t , A = LLt + T1 T1t .
Soit x dans R, X1 une matrice n × 1,puisque A est définie positive on a en posant :
x
X =[ ] , X t A1 X ≥ 0.
X1
C’est à dire :
αx2 + 2xC t X1 + X1t AX1 ≥ 0.
√
En remplaçant x par 1 et X1 par 0 , on en déduit α ≥ 0. On pose ainsi β = α.
Si α > 0 : prenons L = √1α C t . En remplaçant une cette fois x par −1
α
C t X1 on obtient :
−1 2
(C t X1 ) + X1t AX1 ≥ 0,
α
c’est à dire :
X1t (A − LLt )X1 ≥ 0,
et ainsi A − LLt , est définie positive, ce qui impliquer d’après l’hypothèse de récurrence qu’
il existe T1 , triangulaire inférieure telle que :
A − LLt = T1 T1t .
comme X1 est quelconque ceci entraine que C = 0 d’où A définie positive. Donc d’après
l’hypothèse de récurrence il existe T1 triangulaire inférieure telle que :
A = T1 T1t .
Chapitre 2. Matrices 49
U −1 = U H . (2.38)
Les matrices unitaires sont normales car :
U U H = U U −1 = I = U −1 U = U H U.
Et on a les propriétés suivantes :
Propriétés :
1. Une matrice est unitaire si et seulement si ses colonnes (ou ses lignes) forment un
ensemble orthonormé de vecteurs.
2. Le produit de deux matrices unitaires de même ordre est une matrice unitaire.
3. Si U est unitaire alors :
⟨U X, U Y ⟩ = ⟨X, Y ⟩
quels que soient les vecteurs X et Y de dimensions appropriées.
4. Toutes les valeurs propres d’une matrice unitaire ont une valeur absolue égale à 1.
5. Le déterminant d’une matrice unitaire a un module égale à 1.
Une matrice orthogonale est une matrice unitaire dont tous les éléments sont réels. A
orthogonale alors :
A−1 = At (2.39)
ou encore :
At A = I (2.40)
Théorème 2.33.1 (Théorème de Schur) Toute matrice carrée est semblable à une matrice
triangulaire supérieure et la transposée peut s’effectuer à l’aide d’une matrice unitaire. Au-
trement dit, si A est une matrice carrée il existe une matrice unitaire U telle que :
U −1 AU = U H AU = T (2.41)
La décomposition de Schur n’est pas unique. Les éléments de la diagonale de T sont les
valeurs propres de A.
Théorème 2.33.2 Toute matrice normale est semblable à une matrice diagonale.
La similitude s’effectue à l’aide d’une matrice unitaire.
Retrouver ce titre sur Numilog.com
Transformation de Householder :
Associée à un vecteur colonne réel V de dimension n est la matrice d’ordre n :
VVt
R=I −2 2
(2.42)
∥V ∥2
où I est la matrice identité d’ordre n et :
2
∥V ∥2 = x21 + x22 + ... + x2n ,
où (x1 , x2 , ..., xn ) sont les composantes de V .
Une transformation de Householder est à la fois réelle, symétrique et orthogonale.
Théorème 2.33.3 Toute matrice carrée symétrique réelle A d’ordre n est diagonalisable sur
R et il existe une base orthonormée formée de vecteurs propres de A.
Il existe une matrice orthogonale P telle que :
P t AP = P −1 AP
soit diagonale.
a b
A=[ ];
b d
montrons que cette matrice est diagonalisable.
Son polynôme caractéristique vaut :
P (λ) = λ2 − (a + d)λ + ad − b2 .
dont le discriminant est :
∆ = (a − d)2 + 4b2 ≥ 0.
Ce discriminant n’est nul que si a = d et b = 0 dans ce cas on a : A = aI qui est diagonale.
Pour ∆ > 0 on a deux solutions distinctes donc en dimension deux A est diagonali-
sable.Oon peut trouver deux vecteurs propres orthogonaux :
√
v1 = (−2b, a − d − ∆)
√
v2 = (−2b, a − d + ∆)
on a :
⟨v1 , v2 ⟩ = ∆ − ∆ = 0.
Retrouver ce titre sur Numilog.com
Chapitre 2. Matrices 51
Soit alors {u2 , u3 , ..., un } une base orthonormée de F ⊥ , la famille {U, u2 , u3 , ..., un } est
une base orthonormée de Rn . La stabilité de F ⊥ par f signifie qu’il existe une matrice carrée
B de dimension n − 1, telle que :
n
∀j ≥ 2, f (uj ) = ∑ bi,j ui .
i=2
⎡ λ 0 0 ... 0 ⎤
⎢ ⎥
⎢ 0 b2,2 b2,3 ... b2,n ⎥
⎢ ⎥
′ ⎢ ⎥
A =⎢ 0 ... ... ... ... ⎥
⎢ ⎥
⎢
⎢ ... ... ... ... ... ⎥
⎥
⎢ 0 bn,2 bn,3 ... bn,n ⎥
⎣ ⎦
{U, u2 , u3 , ..., un }
A′−1 AP = P t AP
il en résulte que
(A′ ) = A′
t
donc A′ est symétrique réelle et donc B est symétrique réelle d’ordre n − 1 hypothèse de
récurrence est diagonale , d’où A′ diagonale. ∎
Retrouver ce titre sur Numilog.com
X t AX (2.44)
où :
A = (aij ), X = (x1 , x2 , ..., xn )t .
La forme quadratique X t AX est équivalente algébriquement à :
(A + At )
Xt X (2.45)
2
La matrice associée à cette écriture est symétrique, c’est pour cela que dorénavant on peut
considérer la matrice de la forme quadratique symétrique.
Une forme quadratique complexe a la représentation matricielle suivante :
X H AX (2.46)
où A est hermitienne . Cette écriture est équivalente au produit intérieur euclidien :
⟨AX, X⟩ (2.47)
Ce produit est réel dès que A est hermitienne.
Si ce produit est positif ( ou non négatif, négatif ou non positif ) la forme quadratique est
du même type.
Congruence :
Deux matrices A et B sont dites congruentes s’il existe une matrice réelle régulière P
telle que :
A = P BP t (2.48)
Deux matrice A et B sont dites congruentes hermitiennes ou conjonctives s’il existe une
matrice régulière P telle que :
A = P BP H (2.49)
Retrouver ce titre sur Numilog.com
Chapitre 2. Matrices 53
⟨AX, X⟩ , ⟨BX, X⟩ ,
Inertie :
Pour toute matrice d’ordre n de rang r , il existe une et une seule matrice congruente
ayant la forme partionnée suivante :
⎡ I 0 0 ⎤
⎢ k ⎥
⎢ ⎥
⎢ 0 −Im 0 ⎥ (2.50)
⎢ ⎥
⎢ 0 0 0 ⎥
⎣ ⎦
où Ik , Im sont respectivement les matrices identités d’ordre k et m.
On appelle matrice d’inertie une matrice de cette fome.
Quotient de Rayleigh :
Définition 2.34.1 Le quotient de Rayleigh d’une matrice hermitienne A est le rapport sui-
vant :
⟨AX, X⟩
R(X) = (2.51)
⟨X, X⟩
λ1 ≤ λ2 ≤ ... ≤ λn ,
alors :
λ1 ≤ R(X) ≤ λn (2.52)
Le minimum de R(X) est atteint lorsque X est un vecteur propre correspondant à la valeur
propre λ1 .
Le maximum de R(X) est atteint lorsque X est un vecteur propre correspondant à la valeur
propre λn .
Retrouver ce titre sur Numilog.com
∥f (X)∥ = 0 = ∥X∥ ⇔ X = 0
Le noyau de f est réduit à zéro, donc f est injective , comme on est en dimenion finie
cela veut dire que f est bijective.
L’endomorphisme réciproque est aussi une isométrie.
Théorème 2.35.1 Soit f un endomorphisme de E. Alors les quatre propriétés suivantes sont
équivalentes
1. f est une isométrie
2. f conserve le produit scalaire
3. f transforme une base orthonormée en une base orthonormée
4. la matrice de f sur une base orthonormée est une matrice orthogonale.
1 2 2 2
⟨X, Y ⟩ = (∥X + Y ∥ − ∥X∥ − ∥Y ∥ )
2
Appliquons ceci à <f (X), f (Y )> il vient que :
1 2 2 2
< f (X), f (Y )> = (∥f (X) + f (Y )∥ − ∥f (X)∥ − ∥f (Y )∥ )
2
1 2 2 2
= (∥f (X + Y )∥ − ∥f (X)∥ − ∥f (Y )∥ )
2
1 2 2 2
= (∥X + Y ∥ − ∥X∥ − ∥Y ∥ ) = ⟨X, Y ⟩ .
2
⟨ui , uj ⟩ = δij
Chapitre 2. Matrices 55
{u1 , u2 , ..., un } ,
vaut
{f (u1 ), f (u2 ), ..., f (un )} ,
qui forme une base orthonormée donc cette matrice est orthogonale.
4 ⇒ 1 : Supposons que f est orthogonale sur une base orthonormée :
{u1 , u2 , ..., un } ;
2
∥f (X)∥ = < f (X), f (X) >
= < AX, AX >
= (AX)t AX
= X t At AX
= X tX
2
= ∥X∥ .
Théorème 2.35.3 Les valeurs propres d’une isométrie sont égales à +1 ou à −1 , plus généralement
les valeurs propres complexes sont de module 1.
Propriétés :
a b
A=[ ],
c d
a, b, c et d vérifient :
a2 + b2 = 1, c2 + d2 = 1, ac + bd = 0.
Chapitre 2. Matrices 57
est stable par f ; elle y est une isométrie de valeur propre double −1 ; il s’agit de la
symétrie dans ce plan par rapport à l’origine. Puis globalement f est la symétrie par
rapport à D.
e) une unique valeur propre réelle simple égale à −1 les deux autres sont complexes
conjuguées. Le sous-espace propre associé à cette valeur propre réelle est une droite
D. Dans le plan P orthogonale f est une isométrie, d’où une rotation elle a une
matrice semblable à :
⎡ 1 0 0 ⎤⎥
⎢
⎢ ⎥
⎢ 0 cos θ − sin θ ⎥ .
⎢ ⎥
⎢ 0 sin θ cos θ ⎥⎦
⎣
f) une unique valeur propre réelle égale à −1 pour les mêmes raisons que ci-dessus,
on a cette fois-ci une anti-rotation de matrice semblable à :
⎡ −1 0 0 ⎤
⎢ ⎥
⎢ ⎥
⎢ 0 cos θ − sin θ ⎥.
⎢ ⎥
⎢ 0 sin θ cos θ ⎥
⎣ ⎦
dans les deux cas ci-dessus on peut calculer l’angle de rotation puisque la trace de
A vaut ±1 + 2 cos θ.
On appelle norme d’une matrice carrée A, notée ∥A∥ . une fonction à valeurs réelles qui
verifie les conditions suivantes :
1. ∥A∥ ≥ 0.
2. ∥A∥ = 0 ⇔ A = 0.
Retrouver ce titre sur Numilog.com
∥v∥1 = ∑ ∣vi ∣
i
1
2
2
∥v∥2 = (∑ ∣vi ∣ )
i
∥v∥∞ = max ∣vi ∣
i
Pour une matrice A = (aij )1≤i≤n,1≤j≤n , aij ∈ C, on définit la norme induite ou subor-
donnée par :
∥Ax∥p
∥A∥E = sup (2.54)
x∈E−{0} ∥x∥p
∥Ax∥p
= sup
∥x∥p ≤1,x∈E−{0} ∥x∥p
∥Ax∥p
= sup
∥x∥p =1,x∈E ∥x∥p
En particulier :
∥Ax∥p
∥A∥Rn = sup (2.55)
x∈Rn −{0} ∥x∥p
∥Ax∥p
= sup
∥x∥p ≤1,Rn −{0} ∥x∥p
∥Ax∥p
= sup
∥x∥p =1,Rn ∥x∥p
Retrouver ce titre sur Numilog.com
Chapitre 2. Matrices 59
ainsi :
– La norme de Frobenius :
1
2
⎛ 2⎞
∥A∥F = ∑ ∑ ∣aij ∣ (2.56)
⎝i=1...n j=1...n ⎠
1
= {Tr(A∗ A} 2 ,
est une norme matricielle non induite par une norme (on dira qu’elle est non subor-
donnée). √ t
– La norme spectrale ∥A∥s = max( ∣λ∣, λ est une valeur propre de A A), est une norme
matricielle.
– La norme de l∞ induite sur les matrices n’engendre pas une norme :
1 1 2 2
A=B=[ ] , AB = [ ],
1 1 2 2
Définition 2.36.1 Le rayon spectral noté σ(A)d’une matrice A est la plus grande valeur
propre en valeur absolue de A.
– σ(A) ≤ ∥A∥ .
1
– σ(A) = limn→∞ ∥An ∥ n .
Preuve 2.36.1 Preuve de ce dernier point : Prenons une norme matricielle induite par une
norme vectorielle. Soit > 0 et
1
A = A.
σ(A) +
On a :
σ(A)
σ(A ) = < 1,
σ(A) +
donc
lim (Ak ) = 0,
k→∞
d’où :
∃k ∈ N, ∀k ≥ k , ∥Ak ∥ < 1.
On a alors :
k
∀k ≥ k , ∥Ak ∥ < (σ(A) + ) .
Retrouver ce titre sur Numilog.com
1
1
σ(A) = (σ(Ak )) k ≤ ∥Ak ∥ k .
On déduit que :
1
∀k ≥ k , σ(A) ≤ ∥Ak ∥ k ≤ σ(A) + .
C’est le résultat.
Pour toute norme sur Mn (K), il existe deux constante α > 0, β > 0, telle que
pour toute A ∈ Mn (K) (Toutes les normes sont équivalentes sur un espace vectoriel de
dimension finie). On a alors :
1 1 1
1 1
∀k > 0, α k ∥Ak ∥1k ≤ ∥Ak ∥ k ≤ β k ∥Ak ∥1k .
Avec :
1 1
lim α k = lim β k = 1
k→∞ k→∞
et 1
lim ∥Ak ∥1k = σ(A).
k→∞
Théorème 2.36.2 Soit ∥∥ une norme matricielle subordonnée et A une matrice vérifiant :
∥A∥ < 1;
Si la matrice A (subordonnée ou non) est telle que I+A est singulière alors nécessairement
∥A∥ ≥ 1 .
Preuve 2.36.2 Montrons que seule la valeur u = 0 donne (I+A)u = 0 et donc I+A inversible
en effet :
(1 + A)u = 0 ⇒ ∥u∥ = ∥Au∥ ,
or si ∥A∥ < 1 et u ≠ 0 ⇒ ∥Au∥ < ∥u∥ pour la norme vectorielle correspondante, on en déduit
que :
(I + A)u = 0 ⇒ u = 0
donc la matrice (I + A) est inversible, on peut écrire :
(I + A)(I + A)−1 = I
⇒ (I + A)−1 = (I + A − A)(I + A)− 1
⇒ (I + A)−1 = I − A(I + A)− 1
Retrouver ce titre sur Numilog.com
Chapitre 2. Matrices 61
Pour la deuxième affirmation dire que (I + A) est singulière revient à dire que −1 est
valeur propre de A. Dans ces conditions, une application du théorème 2.36.1 nous donne :
∥A∥ ≥ σ(A) ≥ 1.
Propriétés :
1. Si 0 ≤ A ≤ B alors les rayons spectraux σ(A) de A et σ(B) de B vérifient σ(A) ≤
σ(B).
2. Si A est non négative et si les sommes en lignes (ou colonnes) de A sont égales à une
constante k, alors σ(A) = k.
3. Si m est le minimum des sommes en lignes (ou en colonnes) de A, M le maximum des
sommes en lignes (ou en colonnes) de A et si A est non négative alors m ≤ σ(A) ≤ M .
4. Toute matrice carrée non négative possède une valeur propre égale à son rayon spectral
et il existe un vecteur propre à droite et un vecteur propre à gauche associés à cette
valeur propre dont toutes les composantes sont non négatives.
Am ≤ B m ,
puis
∥Am ∥E ≤ ∥B m ∥E
et du paragraphe 2.36 on a :
1 1
σ(A) ≤ lim ∥Am ∥Em ≤ lim ∥B m ∥Em ≤ σ(B).
m→∞ m→∞
σ(A) ≤ ∥A∥∞ = k.
Retrouver ce titre sur Numilog.com
t
Puis dans l’autre sens en prenant X = {1, 1, ..., 1} ,comme les sommes en lignes valent
k, il en résulte que AX = kX de sorte que k est valeur propre donc σ(A) ≥ k.
Preuve de la propriété 3), soit B la matrice dont les coefficients (bij ) vérifient :
0 si m = 0
bij = { maij
si m ≠ 0 ,
∑j=1..n aij
σ(B) = m ⇒ m ≤ σ(A).
Matrice irréductible :
On appelle matrice de permutation une matrice obtenue à partir de la matrice identité par
permutation quelconque de ses lignes. Elle est orthogonale car elle est le produit de matrices
élémentaires du premier genre.
Une matrice A non-négative est dite réductible s’il existe une matrice P de permutation
telle que :
B C
P AP t = [ ] (2.57)
0 D
où B et D sont des matrices carrées d’ordre inférieur à celui de A.
S’il n’existe pas de matrice de permutation de ce genre on dira que A est irréductible.
Propriétés :
1. Les matrices positives sont irréductibles.
2. Une matrice A carrée d’ordre n est irréductible si et seulement si :
(I + A)n−1 ≥ 0.
Chapitre 2. Matrices 63
laisse égalemnet les valeurs des éléments diagonaux inchangés. Une telle transfor-
mation ne peut déplacer le zéro en position (3,1), elle n’engendre pas d’élément nul
supplémentaire puisque il n’y a pas de zéro disponible à mettre dans cette position la
matrice est irréductible.
2. La matrice
⎡ 1 0 0 ⎤
⎢ ⎥
⎢ ⎥
A=⎢ 2 0 1 ⎥,
⎢ ⎥
⎢ 3 1 0 ⎥
⎣ ⎦
vérifie :
⎡ 0 0 1 ⎤⎡ 1 0 0 ⎤⎡ 0 0 1 ⎤t ⎡ 0 1 3 ⎤
⎢ ⎥⎢ ⎥⎢ ⎥ ⎢ ⎥
t ⎢ ⎥⎢ ⎥⎢ ⎥ ⎢ ⎥
P AP = ⎢ 0 1 0 ⎥⎢ 2 0 1 ⎥⎢ 0 1 0 ⎥ =⎢ 1 0 2 ⎥,
⎢ ⎥⎢ ⎥⎢ ⎥ ⎢ ⎥
⎢ 1 0 0 ⎥⎢ 3 1 0 ⎥⎢ 1 0 0 ⎥ ⎢ 1 0 1 ⎥
⎣ ⎦⎣ ⎦⎣ ⎦ ⎣ ⎦
dans cette dernière matrice si :
0 1
B=[ ] , D = [1] ,
1 0
ainsi :
B C
A=[ ].
0 D
Par conséquent A est réductible.
Matrice primitive :
Une matrice non-négative est dite primitive si elle est irréductible et ne possède qu’une
valeur propre dont la valeur absolue soit égale à son rayon spectral.
Une matrice est dite régulière si l’une de ses puissances est une matrice positive.
Une matrice non-négative est primitive si et seulement si elle est régulière.
Preuve 2.38.1 Soit λ une valeur propre d’une matrice carrée d’ordre n , A = (aij ) corres-
t
pondant au vecteur propre X = [x1 , ..., xn ] , soit xm la plus grande composante en valeur
absolue de X on a alors :
AX = λX
et donc :
∑ amj xj = λxm .
j=1..n
(λ − amm ) xm = ∑ amj xj .
j=1..n,j≠m
On obtient alors :
∣∑j=1..n,j≠m amj xj .∣ xj
∣λ − amm ∣ xm = ≤ ∑ ∣amj ∣ ∣ ∣≤ ∑ ∣amj ∣ .
∣xm ∣ j=1..n,j≠m x m j=1..n,j≠m
Théorème 2.38.2 (Théorème d’Ostrowski) Soit A une matrice carrée d’ordre n sur K, s’il
existe un réel α ∈ [0, 1], tel que :
α 1−α
⎛ ⎞ ⎛ ⎞
∀i = 1..n, ∣aii ∣ > ∑ ∣aij ∣ ∑ ∣aji ∣ (2.59)
⎝j=1..n,j≠i ⎠ ⎝j=1..n,j≠i ⎠
Alors A est inversible.
Commentaire : pour α = 1 on retrouve le théorème de Gerschgörin-Hadamard.
Li = ∑ ∣aij ∣ , Cj = ∑ ∣aij ∣ ,
j=1..n,j≠i i=1..n,j≠i
Chapitre 2. Matrices 65
∑ aij xj = 0,
j=1..n
on obtient :
∑ ∣aij ∣ ∣xj ∣ ≥ ∣aii ∣ ∣xi ∣ ,
j=1..n,i≠j
avec :
Lα 1−α
i Ci < ∣aii ∣ ,
pour tout i = 1..n, on déduit que :
Lα 1−α
i Ci ∣xi ∣ < ∣aii ∣ ∣xi ∣ ≤ ∑ ∣aij ∣ ∣xj ∣ , 1 ≤ i ≤ n.
j=1..n,i≠j
L’inégalité étant stricte pour tout les indices i tels que xi ≠ 0. On utilise alors l’inégalité
de Hölder (avec p = α1 , q = 1−α1
voir partie, analyse réelle , fonction convexe), ce qui donne
pour i = 1..n :
α 1−α
Lα 1−α
i Ci ∣xi ∣ ≤ ∑ ∣aij ∣ (∣aij ∣ ∣xj ∣)
j=1..n,i≠j
α
1−α
⎛ ⎞ ⎛ 1 ⎞
≤ ∑ ∣aij ∣ ∑ ∣aij ∣ ∣xj ∣ 1−α .
⎝j=1..n,i≠j ⎠ ⎝j=1..n,i≠j ⎠
D’où :
1−α
⎛ ⎞ 1
Lα 1−α
i Ci ∣xi ∣ ≤ Lα
i ∑ ∣aij ∣ ∣xj ∣ 1−α , i = 1...n.
⎝j=1..n,i≠j ⎠
Si xi ≠ 0, alors l’inégalité est stricte et Li > 0. On déduit donc :
1−α
⎛ 1 ⎞
Ci1−α ∣xi ∣ ≤ ∑ ∣aij ∣ ∣xj ∣ 1−α , i = 1...n.
⎝j=1..n,i≠j ⎠
L’inégalité étant stricte pour xi ≠ 0 , et évidente pour xi = 0 , en additionnant ces
inégalités on obtient :
1 ⎛ 1 ⎞ 1
S = ∑ Ci ∣xi ∣ 1−α < ∑ ∑ ∣aij ∣ ∣xj ∣ 1−α = ∑ Cj ∣xj ∣ 1−α = S.
i=1..n i=1..n ⎝j=1..n,i≠j ⎠ j=1..n
α 1−α
⎛ ⎞ ⎛ ⎞
∣λ − aii ∣ ≤ ∑ ∣aij ∣ ∑ ∣aji ∣ (2.60)
⎝j=1..n,j≠i ⎠ ⎝j=1..n,j≠i ⎠
Preuve 2.38.3 Si λ est valeur propre de A alors A − λI est non inversible, le théorème d’Os-
trowski permet de déduire pour tout α ∈ [0, 1], on peut trouver un indice i ∈ {1, 2, ..., n} tel
que l’inégalité 2.60 soit vérifiée. ∎
y = a1 + a2 r + a3 r2 + ... + an rn−1 ,
en multipliant successivement cette relation par r, r2 , ..., rn−1 ,on obtient
yX = AX,
n−1 t
avec X = {1, r, r2 , ..., r } ,c’est à dire que y est valeur propre et X est vecteur
propre lui correspondant.
Par la suite une somme d’une ligne quelconque est une valeur propre de cette matrice
car r = 1 est toujours solutions de rn = 1. ∎
Chapitre 2. Matrices 67