Vous êtes sur la page 1sur 37

1

École Normale Supérieure d’Atakpamé

ENS-ATAKPAME

Année scolaire:2019-2020

UE: MATH 110

ALGÈBRE MULTILINÉAIRE

Professeur Chargé:

Prof GNEYOU
2
Contents

1 RAPPELS SUR LES FORMES LINÉAIRES - DUALITÉ 5


1.1 Base duale de E . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2 Indépendance des formes linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . 7

2 APPLICATIONS ET FORMES MULTILINÉAIRES ALTERNÉES 9


2.1 Produit tensorielle de deux formes multilinéaires . . . . . . . . . . . . . . . . . . 10
2.2 Formes multilinéaires alternées en dimension finie . . . . . . . . . . . . . . . . . 12
2.3 Déterminant . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.3.1 Déterminant de matrice particulière . . . . . . . . . . . . . . . . . . . . . 14
2.4 Application de la théorie du déterminant au calcul du rang et à l’orientation
d’un espace vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

3 RÉDUCTION DES ENDOMORPHISMES 19


3.1 Vecteurs propres, Valeurs propres d’un vecteur . . . . . . . . . . . . . . . . . . . 19
3.1.1 Recherche des vp et des vp ~ de u . . . . . . . . . . . . . . . . . . . . . . . 20
3.2 Caractérisation des endomorphismes diagonalisables . . . . . . . . . . . . . . . . 21
3.3 Trigonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.3.1 Polynôme annulateur - Théorème de Hamilton-Cayley . . . . . . . . . . . 23
3.4 Diagonalisation par blocs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
3.4.1 Réduction par blocs de Jordan . . . . . . . . . . . . . . . . . . . . . . . . 25
3.5 Exponentielle d’un endomorphisme ou d’une matrice carrée . . . . . . . . . . . . 25
3.5.1 Application à la résolution d’un système différentiel . . . . . . . . . . . . 27

4 BILINÉAIRES SYMÉTRIQUES - FORMES QUADRATIQUES 31


4.0.1 Sous espace orthogonaux . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
4.0.2 Formes positives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
4.0.3 Groupes orthogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
4.0.4 Formes bilinéaires symétrique et formes quadratiques en dimension finie . 33
4.0.5 Existence de la base orthogonale . . . . . . . . . . . . . . . . . . . . . . 34
4.0.6 Réduction d’une forme quadratique sous forme de combinaison linéaires
de carrés de forme linéaire indépendantes . . . . . . . . . . . . . . . . . . 34
4.0.7 Classification des formes quadratiques sur un espace complexe (K = C) . 36
4.0.8 Classification des formes quadratiques sur un espace vectoriel réel (K = R) 36
4.0.9 Endomorphisme Adjoint d’un espace vectoriel (ev) . . . . . . . . . . . . . 36
4.0.10 Espaces euclidiens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4.0.11 Produit scalaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4.0.12 Norme d’un vecteur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4.0.13 Inégalité de Schwartz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
4.0.14 Groupe orthogonal d’un espace euclidien . . . . . . . . . . . . . . . . . . 38

3
4 CONTENTS

4.0.15 Endomorphisme autoadjoint d’un espace euclidien . . . . . . . . . . . . . 39


4.0.16 Diagonalisation d’un endomorphisme autoadjoint . . . . . . . . . . . . . 39
Chapter 1

RAPPELS SUR LES FORMES


LINÉAIRES - DUALITÉ

Soit f : E → F = R, f est linéaire si


f (x, y) = f (x) + f (y);
f (αx) = αf (x).

Définition .1 Soit E un Kespace vectoriel, on appelle forme linéaire sur E, tout appli-
cation linéaire de E dans K.
f : E → R est linéaire ⇒ f est une forme linéaire sur E. LK (E, K) est noté E ∗ et est dit
Dual de E.
L’espace dual de E ,c’est l’ensemble des formes linéaires sur E.

Proposition .1 Si E est de dimension fini n et f ∈ E ∗ − (0); on a:


dimKerf = n − 1 et Ker (f ) (noyau de f ) est dit hper-plan de E déterminer par f .

NB: Tout sous-espace de dimension (n − 1) est un hyper-plan de E. On rappelle que


dimImf + dimKerf = dimE = n or dimImf = 1, donc dimKerf=n-1

Remarque .1 Si f : E → K
x = x1 e1 + x2 e2 + ... + xn en 7→ f (x) = a1 x1 + ... + an xn .
Kerf = noyau ⇒ f (x) = 0 alors Kerf est hyper-plan de E déterminer par f et a pour équation
:a1 x1 + ... + an xn = 0; avec a1 ; a2 ; ...; an ∈ K

1.1 Base duale de E


Proposition .2 Si E est de dimension fini alors on a : dimE ∗ = dimE. E ∗ et E sont donc
isomorphes car ils ont même dimension.

Théorème .1 Soit E de dimension fini n, (e1 , ...,en ) une base de E.Soit les formes linéaires
1, si i=k
f1 , f2 , ..., fn définies par fi (ek ) = ςik tel que : ςik =
0, sinon
ςi est appelé symbole de Khronecker. Alors (f1 , f2 , ..., fn ) est une base de E ∗ dite base
k

duale de la base (e1 , ..., en ).

5
6 CHAPTER 1. RAPPELS SUR LES FORMES LINÉAIRES - DUALITÉ

Prenons un vecteur x ∈ E donc x = x1 e1 + .... + xn en


Soit fi ∈ B ∗ ; fi (x) = fi (x1 e1 + .... + xj ej + ... + xn en ). comme fi est linéaire fi (x) =
x1 fi (e1 ) + ... + xn fi (en ), soit fi (x) = xi .

u : E → K linéaire c’est à dire u ∈ E ∗ .


u(x) = x1 u(e1 ) + ... + xn u(en )
Soit (e∗1 , e∗2 , ...., e∗n ) la base duale:
u(x) = u(e1 )e∗1 (x) + ... + u(en )e∗n (x)
u(x) = λ1 e∗1 (x) + ..... + λn e∗n (x)
Donc ∀u ∈ E ∗ ; ∃λ1 , λ2 , ...., λn ∈ R/u = λ1 e∗1 + λ2 e∗2 + .... + λn e∗n
     
1 1 0
Exemple .1 Trouver la base duale de E = R3 , e1 = 1 , e2 =  0  , e3 = 1
1 −1 1
-Vérifier que (e1 , e2 , e3 ) est une base de E.
-Déterminer la base duale de E.

Solution

 e1 , e2 , e3 sont libre si et
 seulement si: α1 e1 + α2 e2 + α3 e3 = 0
 α1 + α2 = 0  α1 = 0
α1 + α3 = 0 ⇔ α2 = 0
α1 − α2 + α3 = 0 α3 = 0
 

α1 = α2 = α3 = 0 donc ils sont libre,


⇒ (e1 , e2 , e3 ) est une base de E = R3 .
Trouvons la base duale correspondante: soit (f1 , f2 , f3 ) sa base duale, on doit avoir f1 (x) =
a1 x1 + a2 x2 + a3 x3 si x = (x1 , x2 , x3 ) ∈ E = R3 et
  
 f1 (e1 ) = 1  a1 + a2 + a3 = 1  a1 = 1
f1 (e2 ) = 0 ⇒ a1 − a3 = 0 ⇒ a2 = −1 ⇒ f1 (x) = x1 − x2 + x3
f1 (e3 ) = 0 a2 + a3 = 0 a3 = 1
  
 
1
∗ ∗ ∗ ∗
NB:Dans E on a f1 = e1 − e2 + e3 c’est a dire f1 = −1 
1
Pour
 x = 2, f 2 (x) = a
 1 1x + a x
2 2 + a x
3 3 
 f2 (e1 ) = 0  a1 + a2 + a3 = 0  a1 = 0
f2 (e2 ) = 1 ⇒ a1 − a3 = 1 ⇒ a2 = 1 ⇒ f1 (x) = x2 − x3
f2 (e3 ) = 0 a2 + a3 =0  a3 = −1
  
0
Dans E ∗ on a f2 = e∗2 − e∗3 et f2 =  1 
−1
 x = 3, f3 (x) 
Pour = a1 x 1 + a2 x 2 + a3 x 3 
 f3 (e1 ) = 0  a1 + a2 + a3 = 0  a1 = −1
f3 (e2 ) = 0 ⇒ a1 − a3 = 0 ⇒ a2 = 2 ⇒ f1 (x) = −x1 + 2x2 − x3
f3 (e3 ) = 1 a2 + a3 = 1 a = −1
  
 3
−1
∗ ∗ ∗ ∗
Dans E on a f2 = −e1 + 2e2 − e3 et f2 =  2
−1

Ainsi (f1 , f2 , f3 ) est la base duale de E .
1.2. INDÉPENDANCE DES FORMES LINÉAIRES 7

1.2 Indépendance des formes linéaires


Pour étudier l’indépendance des formes linéaires, il faut ramener les formes linéaires sous formes
de vecteurs.

Exemple .2 Soit φ1 ; φ2 ; φ3 un système de forme linéaire sur E = R4 donnés par:


φ1 (x) = x1 − 3x2 + 2x3 − x4
φ2 (x) = x1 + 2x2 − x4
φ3 (x) = 2x1 − x2 + 2x3 + x4 ,
Étudier l’indépendance de φ1 , φ2 , φ3 .

Solution:
Ramenons
  les formes
 linéaires
 sous
 formes
 de vecteurs:
1 1 2
−3
 φ2 =  2  φ3 = −1
   
φ1 = 2 0 2
−1 −1 1
Méthode de Pivot de Gauss: Il s’agit d’échelonner le système (si le nombre de ligne est inférieur
au
 nombre de colonne,
  on transpose chaque
 vecteur). 
1 −3 2 −1 1 −3 2 −1 1 −3 2 −1
1 2 0 −1 ⇒ 0 5 −2 0  ⇒ 0 5 −2 0 .
2 −1 2 1 0 5 −2 3 0 0 0 3
Aucune ligne n’étant nulle après l’échelonnage, le système est de rang 3 (le rang du système
est le nombre de ligne non nulle après échelonnage). φ1 , φ2 , φ3 sont donc linéairement indépen-
dant .

Bidual: puisque E ∗ est un K − ev, on peut définir son dual, c’est a dire l’espace des formes
linéaires sur (E ∗ )∗ ) dit bidual de E noté E ∗∗
En dimension fini on a: dimE ∗∗ = dimE ∗ = dimE, d’où E et E ∗∗ sont isomorphe.

Exemple .3 φ : E → E ∗∗
x 7→ φx
φx : E ∗ → K
f 7→ φx (f ) = f (x) où φx opère dans E ∗∗ .

Exercice .1 Soit E = R3
a) φ1 (x) = 2x1 − x2 + 3x3
φ2 (x) = 3x1 − 5x2 + x3
φ3 (x) = 4x1 − 7x2 + x3
φ1 , φ2 , φ3 libres ?sinon dépendance linéaire ?
b) φ1 (x) = x1 + x2 + x3
φ2 (x) = 2x1 + 3x2 + 3x3
φ3 (x) = 3x1 + 7x2 + x3
(φ1 , φ2 , φ3 ) base de E ∗ ? si oui base duale de (φ1 , φ2 , φ3 ) ?
8 CHAPTER 1. RAPPELS SUR LES FORMES LINÉAIRES - DUALITÉ
Chapter 2

APPLICATIONS ET FORMES
MULTILINÉAIRES ALTERNÉES

Définition .2 Soit Kun corps commutatif, E1 , E2 , ...., Ep , F des K − ev , une application


p
Y
f: Ei → F
i=1

(x1 , x2 , ....., xp ) 7→ f (x1 , x2 , ....., xp )


est dites p-linéaire si elle est linéaire par rapport à chacune des composantes. Dans le cas
particulier où F = K, on dit que F est une forme p-linéaire.

Exemple .4 a) Posons E1 = E2 = ..... = Ep = K alors l’application f : Kp → K définie par


f (x1 , x2 , ....., xp ) = x1 x2 x3 ......xp est une forme p-linéaire. Démontrer que f (x, y) = xy est une
forme bilinéaire.
Rep: D’après l’Exemple 2.1 du cours avec p = 2 , f est une forme bilinéaire.
b) Soit f1 , ....., fp des formes linéaires sur E.Alors f : E p → K définie par f (x1 , x2 , ....., xp ) =
f1 (x1 )f2 (x2 ).........fp (xp )(un produit de p-forme linéaire) donne une forme p-linéaire sur E.

Proposition .3 L’ensemble des application de


p
Y
Ei → F
i=1

p-linéaire est un sous-espaces vectoriel de l’espace des applications de


p
Y
Ei
i=1

dans F , cet espace est noté Lp (E1 , ..., Ep ; F ) ou Lp (E, F ) si tous les Ei sont égaux à E

Définition .3 Soit E, F deux K − ev, une application f :p-linéaire de E p dans F est


dite alterné si pour tout système de p vecteurs x1 , x2 , ....., xp de E ayant deux vecteurs
identique, f prend la valeur nulle.
L’espace des applications p-linéaires alternées de E p dans F est noté ∧p(E,F )

Proposition .4 ∧p(E,F ) est un sous-espace vectoriel de Lp (E, F ).

9
10 CHAPTER 2. APPLICATIONS ET FORMES MULTILINÉAIRES ALTERNÉES

Proposition .5 On ne modifie pas la valeur d’une application p-linéaire alternée sur un sys-
tème de vecteurs si on ajoute à un vecteur de ce système P une combinaison linéaire des autres.
f (x1 , .....xp ) = f (x1 , xi−1 , xi + y + xi+1 + xp ) où y = i=j αj xi

Définition .4 Soit f : E p → F p-linéaire , on dit que f est anti-symétrique si ∀ système


de p-vecteurs x1 , x2 , ....., xp de E et toute permutation σ du groupe multiplicatif ζp deux
permutations des entiers de 1 à p on a: 
−1
f (xσ1 ; ......; xσp ) = ε(σ)f (x1 , x2 , ....., xp ) où ε(σ) = est la signature de la permuta-
1
tion σ.
Lorsque ε(σ) = 1 dans la formule précédente , quel que soit σ ∈ ζp on dit que F est
symétrique.

Proposition .6 Si Kest un corps de caractéristique différent de 2,alterné et anti-symétrique

Définition .5 Soit f une application p-linéaire de E p → F ; on appel anti-symétrisé de


f l’application sf : P Ep → F
f (x1 , x2 , ....., xp ) = σ∈ζp ε(σ)f (xσ1 ; ......; xσp ) ; ∀σ ∈ ζp = p!;

2.1 Produit tensorielle de deux formes multilinéaires


Définition .6 soit E ∗ l’espace duale de K − ev, on appel tenseur p-fois contravariant et
q-fois covariant toute forme (p + q)-linéaire sur (E ∗ )p × E q , le nombre p + q ou le couple
(p; q) est appélé l’ordre de tenseur.
t : (E ∗ )p × E p → K
(u1 , u2 , ...un ; x1 , .....xq ) 7→ t(....)
L’ensemble des tenseurs p fois contravariant et q fois covariant est un espace vectoriel
noté Tqp (E).

Définition .7 Soit (Ei )pi une famille de p espace vectorielle (Fi )qi une famille de q espace
vectorielle , tous sur le même corps commutatif f K, soit f (respectivementg) une forme
p(respectivementq)-linéaire sur
p q
Y Y
Ei (respectivement Fi )
i=1 i=1

f : Q pi=1 Ei → K
Q
g : qi=1 Fi → K
On appel produit tensoriel de f par g noté f ⊗ g, la forme (p + q)-linéaire sur
p q
Y Y
Ei (respectivement Fi )
i=1 i=1

définie par f ⊗Q g(x1 , x2 , ...., xp ; y1 , y2 , ...., yq ) = f (x1 , ......, xp ) × g(y1 , y2 , ......, yq )


∀(x1 , ...., xp ) ∈ Qpi=1 Ei et
∀(y1 , ....., yq ) ∈ qi=1 Fi
NB: ⊗ est bilinéaire, associatif, non commutatif.
2.1. PRODUIT TENSORIELLE DE DEUX FORMES MULTILINÉAIRES 11

Exemple .5 a)Une forme linéaire est un tenseur une fois covariant et zéro fois contravariant
.Si f1 , f2 , ..., fp sont des formes linéaire sur E (tenseur d’ordre (0, 1)) et f = f1 × f2 × ...... × fp
est un tenseur d’ordre (0; p)
b)∀x ∈ E; et ∀u ∈ E ∗ on peut définir x(u) = u(x) .
Donc ∀x ∈ E, x est un tenseur d’ordre (1; 0).

Théorème .2 Soit f : pi=1 Ei → F ,p-linéaire où pour tout i = 1; 2; .......; p, Ei est de dimen-


Q
sion fini n.; (ei , ki )nkii=1 une base de Ei et F est un K − ev. Alors
1)f est entièrement déterminer par les valeurs f (e1 , k1 ; e2 , k2 ; ......; ep , kp ) qu’elle prend sur les
systèmes de p vecteurs e1 , k1 ; e2 , k2 ; ......; ep , kp lorsque k1 (respk2 , ..., kp ) parcourt (1, ....., n1 ) .
2) Réciproquement si (Ck1 , ....., kp ) est une famille de vecteurs de F indexés par les systèmes
de p indices ,k1 , ..., kp déterminer Qp comme ci-dessous, alors il existe une application p-linéaire
unique sur produit de PE i sur i=1 Ei telle que f (e1 , k1 ; e2 , k2 ; ......; ep , kp ) = Ck1 , ....., kp ∀i =
ni ki
1...p; ∀xi ∈ Ei ; xi = ki =1 λi ei , ki
k
f (x1 , ...., x2 ) = f ( nkii=1 λk11 e1 , k1 , ............., nkii=1 λpp ep , kp )
P P
Pn1 Pn2 Pnp k1 k2 k
f (x1 , ...., x2 ) = k=1 k=2 , ........, k=p λ1 λ2 , ......., λpp f (e1 , k1 ; e2 , k2 ; ......; ep , kp )
Pn1 Pnp
d’où f = k=1 , ...., k=p Ck1 ,......,kp e∗1,k1 ⊗ e∗2,k2 ⊗, ......., ⊗e∗p,kp

Corollaire .1 Soit E un K − ev de dimension n , (ei )ni=1 une base de E et (ei )ni=1 la base
duale, base de E ∗ ; Alors l’espace vectoriel Tqp (E) des tenseurs d’ordre (p + q) (p fois con-
travariant et q fois covariant) est de dimension np+q et admet pour base la famille des tenseurs
ei1 ⊗ ei2 ⊗, ....., ⊗eip ⊗ ej1 ⊗ ej2 ⊗, ....., ⊗ejr
1 ≤ ik ≤ n
1≤k≤p
1 ≤ jr ≤ n
1≤r≤p
Les composantes d’un tenseur f dans cette base sont données par:
i ,.....,i
Tj11,.....,jqp = f (ei1 , ei2 , ......, eip ; ej1 , ej2 , ......, ejq )
E ∗ × E ∗ × E ∗ , ....., ×E ∗ × E × E × E × E×, ....., E
n
X
∀ui ∈ E ∗ ; ui = λi ki eki
k=1

n
X
∀xj ∈ E; xj = uj lj elj
lj =1

Définition .8 Soit E un K − ev , f une forme p-linéaire alternée sur E ,g une forme


q-linéaire alternée sur E ; on appel produit extérieur de f par g noté f ∧ g la forme (p + q)
linéaire alternée sur E definieP par :
f ∧ g(x1 , x2 , ....., xp+q ) = σ∈Ap+q ε(σ)f (xσ1 , ........, xσp )g(xσp+1 , .........., xσp+q ) ,où Ap+q ⊂
ςp+q formé des éléments σ telles que
σ1 < σ2 < ........ < σp et
p
σp+1 < σp+2 < ....... < σp+q avec card(Ap+q ) = Cp+q

Exemple .6 p = 1, q = 1; p + q = 2 et ς2 = σ1 ; τ , soit f ∈ E ∗ , g ∈ E ∗ alors f ∧ g ∈ ∧2 E ∗ est


définie par f ∧ g(x1 , x2 ) = f (x1 )g(x2 ) − f (x2 )g(x1 )
12 CHAPTER 2. APPLICATIONS ET FORMES MULTILINÉAIRES ALTERNÉES

Proposition .7 ∧ (multiplication extérieur) est:


1) Bilinéaire
2)Associative
3)Anticommutatif c’est à dire si f ∈ ∧p E ∗ , g ∈ ∧q E ∗ g ∧ f = (−1)pq f ∧ g

P on a: u1 ∧ u2 ∧ ......... ∧
Proposition .8 Si u1 , u2 , ......, un sont n forme linéaires sur E , alors
n ∗
un ∈ ∧ E et donnée par u1 ∧ u2 ∧ ......... ∧ un (x1 , x2 , ....., xn ) = σ∈ςn u1 (xσ1 )........un (xσn )
n
∀(x1 , x2 , ......., xn ) ∈ E
Application:Soit (e1 , .....en ) une base de E de dimension de n et (e1 , ....., en ) la base duale,
base de E ∗ .Alors e1 ∧ e2 ∧ ........ ∧ en ∈P ∧n E ∗ et on a si ∀i = 1, ......., n; xi = nk xik ek
P
e1 ∧ e2 ∧ e3 ∧ ........ ∧ en (x1 , ....., xn ) = σ∈ςn ε(σ)x1σ1 ...........xnσn
Illustration pour
 n =3: ς3 = (σ 1 , σ2 , σ3 , σ4 , σ5 , σ
6)     
1 2 3 1 2 3 1 2 3 1 2 3 1 2 3
σ1 = id = σ2 = σ3 = σ4 = σ5 =
 1 2 3 2 3 1 3 1 2 2 1 3 3 2 1
1 2 3
σ6 = . ∀σ ∈ ςn ε(σ) = (−1)?I(σ) où ?I(σ) =nombre d’inversion de σ.
1 3 2
e1 ∧ e2 ∧ e3 (x1 , x2 , x3 ) = x11 x22 x33 + x12 x23 x31 + x13 x21 x32 − x12 x21 x33 − x13 x22 x31 − x11 x23 x32

2.2 Formes multilinéaires alternées en dimension finie


Soit E un ev de dimension finie n et ∧p E ∗ l’espace des formes p-linéaire alterné:
∗ Pour p = 1 , ∧1 E ∗ = E ∗ ; espace vectorielle des formes linéaire sur E ,qui est de dimension
dimE = n et admet comme base , la base duale de celle de E.
∗ Pour p ≥ n + 1; ∧p E ∗ = 0 application linéaire nulle.
∗ Cas 2 ≤ p ≤ n reste donc seul cas à examiner .La théorie du déterminant est l’étude du cas
particulier p = n.
Exemple .7 ∗ Cas p = 2 et n = 2; soit E = R2 muni de sa base canonique (e1 ; e2 ), soit
f ∈ ∧2 E ∗ et soit x, y ∈ E; x = x1 e1 + x2 e2 ; y = y 1 e1 + y 2 e2
f (x, y) = f (x1 e1 + x2 e2 ; y 1 e1 + y 2 e2 )
f (x, y) = x1 y 1 f (e1 ; e1 ) + x1 y 2 f (e1 ; e2 ) + x2 y 1 f (e2 ; e1 ) + x2 y 2 f (e2 ; e2 )
f (x, y) = (x1 y 2 − x 2 y 1 )f (e 1 ; e2 )
x1 y 1
f (x, y) = f (e1 ; e2 ) 2 2
x y
f (x, y) = f (e1 ; e2 )e ∧ e2 (x, y).
1

Le vecteur non nul e1 ∧ e2 de ∧2 E ∗ est donc une base de ∧2 E ∗ qui est de dimension 1.
Donc ∀f ∈ ∧2 E ∗ , f = f (e1 , e2 )e1 ∧ e2 ∗ Cas pour p = 2, n = 3 comme précédemment;
f (x, y) = f (x1 e1 + x2 e2 + x3 e3 ; y 1 e1 + y 2 e2 + y 3 e3 )
f (x, y) = f (e1 ; e2 )e1 ∧ e2 (x, y) + f (e1 ; e3 )e1 ∧ e3 (x, y) + f (e2 ; e3 )e2 ∧ e3 (x, y)
Donc ∀f ∈ ∧2 E ∗ ,
f = f (e1 ; e2 )e1 ∧ e2 + f (e1 ; e3 )e1 ∧ e3 + f (e2 ; e3 )e2 ∧ e3
On voit donc que les 3 formes bilinéaires alternées e1 ∧ e2 ; e1 ∧ e3 ; e2 ∧ e3 forment un système
générateur de ∧2 E ∗ de dimension 3 .Elle sont aussi libre et forme une base de ∧2 E ∗ .
Donc dimE ∗ = 3 avec E ∗ = (R3 )∗
∗ Cas n = 3 et p = 3
∀f ∈ ∧3 E ∗ ; ∀x, y, z ∈ E = R3
x1 y 1 z 1
2 2 2
f (x, y, z) = f (e1 , e2 , e3 ) x y z
x3 y 3 z 3
2.3. DÉTERMINANT 13

f (x, y, z) = f (e1 , e2 , e3 )e1 ∧ e2 ∧ e3 (x, y, z)


d’où f = f (e1 , e2 , e3 )e1 ∧ e2 ∧ e3 et dim ∧3 E ∗ = 1 avec E = R3

Théorème .3 Soit E un espace vectoriel de dimension finie n , (e1 , e2 , ...., en ) une base de E
et (e1 , e2 , ...., en ) sa base duale; ∀1 ≤ p ≤ n, dim ∧p E ∗ = Cnp , la famille des formes p-linéaire
alternés (ei1 ∧ ei2 ∧ ei3 ∧ .......... ∧ eip , 1 ≤ i1 ≤ i2 ≤ ....... ≤ ip ≤ n), constitue une base de ∧p E ∗
p ∗
P plus précise ∀f ∈ ∧ E
de façons
f = 1≤i1 ≤.......≤ip ≤n f (ei1 , ei2 , ....., eip )ei1 ∧ ei2 ∧ ........ ∧ eip
En particulier pour p = n , ∧n E ∗ est une Droite vectorielle, tout élément f ∈ ∧n E ∗ s’écrit;
f = f (e1 , e2 , ....., ep )e1 ∧ e2 ∧ ........ ∧ ep

2.3 Déterminant
Soit E un espace vectoriel de dimension fini n ,(ei )ni=1 une base de E , α = (ei )ni=1 sa base
duale.
Posons α = (ei )ni=1 , on appel déterminant (dans la base α), la forme n-linéaire alternées sur E
définie par:
detα (x1 , x2 , ....., xn ) = e1 ∧ e2 ∧ ......... ∧ en (x1 , x2 , ....., en ) , ∀(x1 , x2 , x3 , ......., xn ) ∈ E n

NB: Si xi = nl=1 λli el , ∀i = 1, 2, ....., n on a


P
detα (x1 , x2 ....., xn ) = e1 ∧e 2
∧......∧en (x1 ......xn ) detα (x1 , x2 ....., xn ) = σ∈ςn ε(σ)λ1σ1 λ2σ2 .........λnσn
P

λ11 λ21 . . λn1
1
λ2 λ22 . . λn2

detα = . . . . .
.
1 .2 . . .n

λ λ . . λ
n n n

Proposition .9 1) detα (α) = 1


2) Pour toute forme n-linéaire alternées f sur E on a: f = f (e1 , e2 , ......, en )detα
Preuve
1) Trivial,
2)C’est le théorème ;
0
On a par exemple si α est une autre base de E .

Remarque .2 On ne calcul que le determinant d’une matrice carrée


detα0 = detα0 (α)detα
detα0 (x1 , ...., xn ) = detα0 (e1 .......en )detα (x1 , ....., xn )

Définition .9 1) Soit A ∈ Un (K), A = C1 C2 ............. Cn avec Cj ∈ Kn ,
j = 1, .....n alors det(A) = detα (C1 , C2 , ......, Cn )
2) Si u est un endomorphisme c’est a dire u ∈ EndK (E) det(u) = det(Mα (u)) .

0 0
Propriété .1 1) ∀A ∈ Un (K), det(A ) = det(A) où A = tA ; le determinant est une forme
n-linéaire alternée,
2) ∀A, B ∈ Un (K) on a: det(AB) = det(BA) = det(A) × det(B)
3) ∀u, v ∈ EndK (E); det(u ◦ v) = det(v ◦ u) = det(u) × det(v)
14 CHAPTER 2. APPLICATIONS ET FORMES MULTILINÉAIRES ALTERNÉES

Proposition .10 Soit E un ev de dimension n ,muni d’une base α(ei )ni soit x1 , x2 , ......, xn un
système de n vecteurs de E.
X = [xji ] la matrice carré d’ordre n formé de leurs composantes dans la base α, alors les
propriétés suivantes sont équivalente
i)x1 , x2 , ......, xn sont linéairement indépendante
ii) X est inversible
iii)detX 6= 0
Corollaire .2 Soit E un K − ev de dimension fini ;
1)Pour qu’un endomorphisme de E soit inversible,il faut et il suffit que son determinant soit
non nul
2)Pour qu’une matrice carrée à élement dans un corps commutatif soit inversible, i faut et il
suffit que son determinant soit non nul

2.3.1 Déterminant de matrice particulière


Théorème
" 0
# ∈ Mn (K) et r ≤ n on suppose que :
.4 Soit
A C 0
A= où A ∈ Mr (K);B ∈ Mn−r (K)et C ∈ Mr,n−r (K) alors
nulle B
0
det(A) = det(A ) × det(B)

Corollaire
 .3 Soit A8i; j des
 matrices à coefficient dans K, à ni lignes et nj colonnes
A1;1 A1;2 ..... A1;k
 0 A2;2 .... A2;k 
A=  0

0 ..... ..... 
0 0 0 Ak;k
Alors det(A) = det(A1;1 ) × det(A2;2 ) × ...... × det(Ak;k )

Corollaire .4 Si A est une matrice carrée diagonale ou triangulaire, alors det(A) est égale au
produit des éléments situé sur sa diagonale.

Définition .10 1) Soit A ∈ Mpq (K); on appel mineur d’ordre r , tout determinant d’une
matrice carrée d’ordre r en supprimant (p − r) ligne et (q − r) colonne de A.
2) Soit A ∈ Mn (K) et soit ai;j l’élément de A situé à la ieme ligne et à la j eme colonne.On
appel Cofacteur de ai;j donnée par: Cof (ai;j ) = (−1)i+j )detAji où Aji est la matrice obtenu
en supprimant la ieme ligne et la j eme colonne de A.
 
1 0 2
1 −1

Exemple .8 Soit A = −1 1 −1 ,le nombre 4 = est appelé mineur d’ordre 2 de
2 1
1 2 1
la matrice A.
Théorème .5 Soit A = [ai;j ] ∈ Mn (K) alors on a:
(1)
Xn
ai,k Cof (aj,k ) = ςji det(A)
k=1

(2)
n
X
ak,j Cof (ak,l ) = ςjl det(A)
k=1
2.4. APPLICATION DE LA THÉORIE DU DÉTERMINANT AU CALCUL DU RANG ET À L’ORIEN

Application: P
1) i = j , det(A) = nk=1 ai,k Cof (ai,k ) (développement de det(A) par rapport à la ligne numero
i)
2) j = l det(A) = nk=1 ak,j Cof (ak,j ) (développement de det(A) par rapport à la ligne numéro
P
j).
 
1 0 2 1 0 2

Exemple .9 A = −1 1 −1 det(A) = −1 1 −1 ;
1 2 1 1 2 1


1 −1
+ 2(−1)4 −1 1

det(A) = 1 × (−1)2
2 1 1 2
det(A) = P −3 , det(A) 6= 0 donc A est inversible.
det(A) = nk=1 ai,k Cof (ai,k )

Pn .5 C = AB
Corollaire
ci,j = k=1 ai,k bk,j ; soit A = [ai,j ] ∈ Mn (K)
A = [Cof (ai,j ]; alors
1
A−1 = tA
det(A)

2.4 Application de la théorie du déterminant au calcul du


rang et à l’orientation d’un espace vectoriel
Rappels: Soit E un K − ev de dimension fini n, et (v1 , v2 , ......, vp ) un système de p vecteurs
de E.
∗ On appel Rang du système (v1 , v2 , ......, vp ); la dimension du sous-espace engendré par ce
système:
rg(v1 , v2 , ......, vp ) = dim[v1 , v2 , ......, vp ]
C’est aussi le nombre maximum de vecteur de ce système qui sont linéairement indépendant
.Si donc r = rg(v1 , v2 , ......, vp ) alors r ≤ inf (n, p)
∗ Si A est une matrice, le rang de A est le rang des p-vecteurs colonnes de A qui sont des
élément de Kn .
rg(A) = rg(v1 , v2 , ......, vp ) avec A = v1 v2 ..... vp
∗ Si u ∈ L(E, F ) avec dimE = p et dimF = n; alors
rg(u) = dimImu = rg(u(e1 ); ....; u(ep ))
rg(u) = rg(M ei (u)), avec M ei (u) ∈ Mn,p (K) où (e1 , e2 , ......, ep ) est une base quelconque de E.
Théorème
E de dimension n (v1 , v2 , ......, vp ) un système de p vecteurs de E et A =
.6 Soit
v1 v2 ..... vp ∈ Mn,p (K) Alors la famille (v1 , v2 , ......, vp ) est libre si et seulement si on peut
extraire de A un mineur d’ordre p non nul.
     
1 0 1
2 1 5
     
Exemple .10 Soit E = R5 , v1 =   3, v2 = 2 ;v3 =  9  ; (v1 ; v2 ; v3 ) libre ?
   
3 4 −2
5 0 0
 
1 0 1
2 1 5 
 
Formons la matrice de A: A = v1 v2 v3 =  3 2 9 , ce mineur extrait de la matrice

3 4 −2
5 0 0
16 CHAPTER 2. APPLICATIONS ET FORMES MULTILINÉAIRES ALTERNÉES

3 2 9

de A est non nul ; 3 4 −1 = −200 6= 0 ⇒ la famille (v1 , v2 , v3 ) est libre.
5 0 0

Définition .11 Soit A ∈ Mpq (K) et δ un mineur d’ordre r extrait de A ,On appel bordant
de δ tout mineur d’ordre (r + 1) extrait de A dont δ est un determinant extrait.
 
1 2 2 −1 0
1 3 4 2 −1 1 2 2 1 2 −1

Exemple .11 A =    1 3 4 ; 1 3
2 Soit (v1 , v2 , ....., vr ) un
3 −1 2 1 0 
3 −1 2 3 −1 1
4 1 2 −1 1
système de r-vecteurs linéairement indépendant de E, A = v1 v2 ...... vr et δ un mineur
d’ordre r non nul extrait de A alors
pour qu’un vecteur w de E ,il faut et il suffit que tout les
bordant de δ dnns la matriceB = 1 2
v v ...... v r w soit nul.
     
1 0 α
 0

1 v3 =  2 
   
Exemple .12 Soit E = R4 ; v1 =  1 v2 = 0 1
0 1 β
Trouve α et β pour que w ∈ [v1 , v2 ]
   
1 0 1 0 α
0 1 
 δ = 1 0 ; B = 0 1 2  les bordant de δ sont : ∆1 =
 
Solution: Soit A =  1 0  0 1 1 0 1 
0 1 0 1 β
1 0 α 1 0 α

0 1 2 = 1 − α et ∆2 = 0 1 2 = β − 2, w ∈ [v1 , v2 ] si et seulement si α = 1 et β = 2

1 0 1 0 1 β

Théorème .7 Soit A une matrice à n ligne et p colonne; Alors le rang de A est r si et seulement
si on peut extraire de A un mineur δ d’ordre r non nul et tous les bordant de δ sont nuls.

Théorème .8 Soit A ∈ Mn,p (K) alors le rang de A est l’ordre maximale des mineurs non nuls
extrait de A.

Application à l’orientation
Soit E un espace vectoriel de dimension fini égale à n, Sur le corps K = R

Définition .12 On appel base ordonné de E , une base (e1 , e2 , e3 , ...., en ) de E muni d’une
relation d’ordre totale.
Proposition .11 Soit β l’ensemble des bases ordonnée de E , la relation
(e1 , e2 , .....en )<(f1 , f2 , ...., fn ) si et seulement si det( ei )(f1 , f2 , ...., fn ) ≥6= 0 est une relation
d’équivalence sur β et β/< a exactement deux éléments.
∗ Réflexivité: elle est réflexive car ∀β base ordonnée de E ; detβ (β) = 1 > 0
∗ La symétrie et la transitivité sont laissées aux lecteurs.

Définition .13 E étant donné un espace vectoriel de dimension fini sur R, E; On appel
Orientation de E , l’ensemble des deux classes β/< .
On dit que E est orienté si on l’a distinguer l’une des deux orientation en l’appelant direct
ou positive de l’autre appelé rétrograde ou négative. Cas simple ; E =Droite vectorielle.
2.4. APPLICATION DE LA THÉORIE DU DÉTERMINANT AU CALCUL DU RANG ET À L’ORIEN

Proposition .12 Soit E un espace vectoriel de dimension n,l’orientation de E est équivalente


à l’orientation de la droite vectorielle ∧n E ∗ .
En effet ,prenons une base ordonnée (e1 , e2 , ...., en ) de E;prenons une autre base de
E, (f1 , f2 , ......, fn ) On sait que:
f 1 ∧ f 2 ∧ ...... ∧ f n = detfi (e1 , e2 , ...en )(e1 ∧ e2 ∧ ...... ∧ en ) d’où
(e1 , e2 , ...en ) ≡ (f1 , f2 , ......, fn )modulo<
si et seulement si e1 ∧ e2 ∧ ...... ∧ en ≡ f 1 ∧ f 2 ∧ ...... ∧ f n dans ∧n E ∗ si detfi (e1 , e2 , ..., en ) > 0
les deux bases sont dans le meme sens; si detfi (e1 , e2 , ..., en ) < 0, les deux base ordonnée sont
dans de sens contraire.

Exercice
.2 Illustrer la première proposition pour calculer:
a b b ...... b

b a b ...... b

∆ = . . a ...... .
. . . . b

b b b ...... a
18 CHAPTER 2. APPLICATIONS ET FORMES MULTILINÉAIRES ALTERNÉES
Chapter 3

RÉDUCTION DES
ENDOMORPHISMES

Problème: Soit E un K − ev et u un endomorphisme de E , si E est de dimension fini et (ei )


est une base de E ,on peut construire la matrice qui représente u dans cette base.
On se propose de rechercher les bases de E dans lesquelles la forme de la matrice de u est
la plus simple possible, c’est à dire par exemple diagonale ou éventuellement triangulaire plus
précisément.

Définition .14 On dira que u est:


- Diagonalisable s’il existe une base (ei ) de E tel que M (u) et (ei ) est diagonale, M (u) =
diag(ei ) et on dira que u est diagonalisable
- Trigonalisation
 s’il 
existe  (ei ) de E soit triangulaire.
une base 
x x x x 0 0
M(ei ) (u) =  0 x x ou x x 0 
0 0 x x x x
Le problème a résoudre peut être ramener sous deux formes:
1) Caractériser les endomorphisme de E diagonalisable ou trigonalisation
2) Déterminer effectivement si elles existent les bases de E dans lesquelles la matrice de
u est diagonale ou triangulaire. Ce qui en terme de matrice est équivalent à:
1) Caractériser les matrices A ∈ Mn (K) pour lesquelles ∃P ∈ Mn (K) est inversible tel
qu’il existe.
0
A = P −1 AP soit diagonale ou triangulaire.
0
2) Déterminer P et A

3.1 Vecteurs propres, Valeurs propres d’un vecteur


Définition .15 Soit u un EndK (E), un vecteur x est dit propre de u si:
1) x 6= 0
2) ∃λ ∈ K/u(x) = λx
Le scalaire λ est appelé valeur propre de u associé au vecteur propre x.
Dans la suite du cours nous allons noté: vp =valeur propre; vp~ =vecteur propre.
Remarque:
1) λ peut être nul, eg: si x ∈ Keru.
2)Si x est vecteur propre de u associé à la valeur propre λ alors ∀u 6= 0, ux aussi est vp
~ de u
associé à la même vp λ.

19
20 CHAPTER 3. RÉDUCTION DES ENDOMORPHISMES

3)0 est vp
~ de tout endomorphisme de E, u(0) = 0.
Théorème .9 u est diagonalisable si et seulement si il existe une base de E formé de vp
~ de u.

3.1.1 Recherche des vp et des vp


~ de u
Proposition .13 Soit E de dimension fini n, u ∈ EndK (E), alors les valeurs propre de u sont
les zéro (racines) du polynôme Pu (λ) = det(u − λidE )
Pu (λ) est un polynôme de degré n en λ appelé polynôme caractéristique de u.
eg: P − u(X) = (−X)n + σ1 (−X)n−1 + ....... + σk (−X)n−k + ..... + σn−1 (−X) + σn où σk est la
somme des mineurs principaux d’ordre k de A = Mei (u)
En particulier σn = det(A); σ1 = T r(A) Trace de A.

NB: Si on pose A = Mei (u) alors Pu (λ) = det(u − λidE ) = det(A − λI) Pu (λ) = PA (λ)
,l’ensemble des valeurs propres est appelé spectre de u et noté SPK (u) = SPK (A) = ensemble
des vp de u (ou de A) appelé spectre de A.
 
2 2 2 1 2
Exemple .13 E = R , u : R → R dont la matrice est définie par A = Mei (u) =
−1 4
1 2 1 0
Pu (λ) = det(A − λI) = − λ
−1 4
0 1

1 − λ 2
Pu (λ) =
−1 4 − λ
2
Pu (λ) = λ − 5λ + 6
Donc det(A) = 6 et T r(A) = 5; d’où SpR (u) = {2, 3}; 2 et 3 sont les vp de u.

Définition .16 L’ensemble des polynômes de la variable X à coefficient dans K , est noté
K[X].
Soit P ∈ K[X], degré deP = n on dit que P est scindé dans K si P admet n racines dans
K (en comptant chaque racine avec sa multiplicité).

Exemple .14 X 2 est scindé dans R; X 2 + 1 ne l’es pas.


Remarque: Un polynôme scindé dont les racines (deux à deux distincts) sont a1 , a2 .....ap
de multiplicité α1 , α2 .......αp respectivement s’écrit:
P (x) = a(x − a1 )α1 (x − a2 )α2 .........(x − ap )αp avec a1 , a2 .....ap ∈ K et α1 + α2 + ...... + αp = n =
degré de P .
Si la dimension de E est n , dim(E) = n alors u ∈ EndK (E) admet au plus n vp et si Pu (x)
est scindé dans K,il s’écrit :
Pu (x) = (−1)n (x − λ1 )α1 (x − λ2 )α2 ......(x − λp )αp où λ1 , λ2 , ..., λp ∈ K sont les vp de u , deux à
deux distinctes de multiplicités α1 , α2 , ....., αp respectivement.
3) Une fois les vp trouver on détermine les vp ~ associé en résolvant pour chaque vp λ un système
linéaire de la forme : (A − λI)v = 0
 
1 2
Exemple .15 Avec l’exemple précédant ; A = Mei (u) = on a λ1 = 2 et λ2 = 3;
−1 4
 vp
les ~ associé
 à λ1 : 
onrésout
 (A − 2I)v = 0
1 2 1 0 x
−2 =0
−1 4   0 1 y
−1 2 x
=0
−1 2 y
3.2. CARACTÉRISATION DES ENDOMORPHISMES DIAGONALISABLES 21

⇔ x − 2y = 0

L’ensemble des vp ~ associé a la vp λ1 = 2 est la droite vectorielle d’équation x − 2y = 0,


un vecteur directeur de cette droite est v(x = 2y; y) et on a pour y = 1 v1 = (2; 1), de même
l’ensemble des vp
~ associé a la vp λ = 3 est la droite vectorielle dont un vecteur directeur est
v2 (1; 1).
On vérifie que {v1 , v2 } forme une base de vp~ de E = R2 et donc 
u(respA)
 est diagonale .
0 2 0
On sait que u(v1 ) = λ1 v1 et u(v2 ) = λ2 v2 donc : A = Mvi (u) =
0 3
 
0 −1
2 1
En terme de matrice on a: A = P AP avec P = v1 v2 et alors P =
or v1 et
1 1
v2 forme une base , et donc P est inversible.

3.2 Caractérisation des endomorphismes diagonalisables


Définition .17 Soit λ ∈ K, on appel sous espace propre de u associé a λ noté Eλ le sous
ensemble de E donné par Eλ = {x ∈ E/u(x) = λx}

Exemple .16 Dans l’exemple précédant, la droite vectorielle engendré par λ1 et λ2 sont des
sous espace de E.

Remarque:
1) Si λ ∈
/ SPK (u) , alors Eλ = {0}
2) Si λ ∈ SPK (u) alors Eλ est de dimension ≥ 1, dimEλ ≥ 1

Proposition .14 Soit λ1 , λ2 , ....., λp ∈ K les valeurs propre de u deux à deux distinct alors les
sous espaces propre Eλ1 , ......., Eλp sont en somme directe, c’est à dire x ∈ E ; x = x1 + x2 +
....... + xp
Eλi ∩ Eλj = {0} ∀i 6= j

Corollaire .6 u est diagonalisable si et seulement si E est somme directe des sous espace
propre.
E = Eλ1 ⊕ Eλ2 ⊕ ....... ⊕ Eλp
2) u est diagonalisable si et seulement si dimE = dimEλ1 + ....... + dimEλp

Théorème .10 u est diagonalisable si et seulement si on a:


1) Pu (x) est scindé dans K; Pu (x) = (−1)n (x − λ1 )α1 ........(x − λp )αp avec λ1 , λ2 , ....., λp ∈ K et
α1 + α2 + ..... + αp = n
2) Pour chaque λi ; dimEλi = αi

Corollaire .7 Si u admet n vp deux à deux distincts alors u est diagonalisable.


 
2 0 4
Exemple .17 1) A = 3 −4 12 on a:
1 −2 5
PA (λ) = −λ(λ − 1)(λ − 2); A admet trois vecteurs propre distincts
 donc A est diagonalisable.
−4
∗ Pour λ = 0, v ∈ E0 ⇔ Av = 0, on trouve E0 = [v1 ] avec v1 =  3  et dimE0 = 1
2
22 CHAPTER 3. RÉDUCTION DES ENDOMORPHISMES
 
−4
∗ Pour λ = 1 on trouve E1 = [v2 ] avec v2 =  0 
 1
2
∗ Pour λ = 2 on trouve E2 = [v3 ] avec v3 = 1 
0
(v1 , v2 , v3 ) forme une base de vp
~ de  A.  
−4 −4 2 0 0 0
0 0

P = v1 v2 v3 =  3 0 1 est inversible et on a: A = P −1 AP = 0 1 0; A =
2 1 0 0 0 2
Mvi (u) où u est l’endomorphisme dont la matrice est A.

3.3 Trigonalisation
Théorème .11 Un endomorphisme est trigonalisable si et seulement si sont polynôme carac-
téristique est scindé dans K.

Corollaire .8 Toute matrice A ∈ Mn (C) est semblable à une matrice triangulaire de Mn (C)
,toute matrice est trigonalisable dans C; Cest la clôture algébrique de R.

Corollaire .9 Soit A ∈ Mn r(C); SPC (A) = {λ1 , λ2 , ......., λn }, les λi etant les racines de
PA (λ), alors
Xn
T race(A) = λi
i=1

et n
Y
det(A) = λi
i=1

 
2 5 −6
Exemple .18 A = 4 6 −9 on a : PA (x) = (1 − x)(x2 + x + 1), PA (x) est non scindé
3 6 −8
dans Rdonc A n’est pas trigonalisable dans Rmais SPC (A) = {1, j, j 2 } et PA (x) = (1 − x)(x −
j)(x − j 2 ), A est donc diagonalisable et forcement trigonalisable dans C.
 
−4 0 −2
Exemple .19 A =  0 1 0  PA (x) = −(x − 1)2 (x + 2) , PA (x) est scindé dans Rdonc
5 1 3
A est trigonalisable dans R.
Notons par u l’endomorphisme de E = R3 dont la matricedans la base  canonique est A ; on
1 a b
sait qu’il existe une base (v1 , v2 , v3 ) de E tel que Mvi (u) = 0 1 c ; c’est à dire :
0 0 −2
u(v1 ) = v1
u(v2 ) = av1 + v2
u(v3 ) = bv1 + cv2 − 2v3
calcul de v1 , on resoud: (A − I)v = 0
calcul de v2 , on résout : (A − I)v = av1
calcul de v3 , on résout : (A + 2I) = bv1 + cv2
3.3. TRIGONALISATION 23
       
2 −2 1 1 1 0
0
Et on trouve v1 =  0 , v2 = −3 et v3 =  0  on as donc A = Mvi (u) = 0 1 0 
−5 4 −1 0 0 −2
, det(v1 , v2 , v3 ) 6= 0 donc (v1 , v2 , v3 ) est 
une base ; Enterme de matrice on as :
2 −2 1
0

A = P −1 AP avec P = v1 v2 v3 =  0 −3 0
−5 4 1

3.3.1 Polynôme annulateur - Théorème de Hamilton-Cayley


Théorème .12 Soit u un endomorphisme de E et Q un polynôme ,Q s’écrit :
Q(x) = am xm + am−1 xm−1 + ...... + a1 x + a0 ; on définie l’endomorphisme Q(u) de E:
Q(x) = am um + am−1 um−1 + ...... + a1 u + a0 IdE; où uk = u ◦ u ◦ ..... ◦ u k fois.

Remarque: on a u ◦ v 6= v ◦ u en général mais ∀P, Q ∈ K[x]; on a


P (u) ◦ Q(u) = Q(u) ◦ P (u) cela est du au faite qu’en général ; ∀x ∈ E, ul ◦ uk (x) = ul+k (x) =
uk+l (x)
ul◦k (x) = uk ◦ ul (x)

Définition .18 On dit de Q(x) qu’il est annulateur de u si on a Q(u) = 0.

Proposition .15 Si Q(x) est un polynôme annulateur de u alors les vp de u figurent parmi
les racines de Q(x).

Démonstration: Soit λ; vp de u ,∃v 6= 0/u(v) = λv.


D’où u2 (v) = u(u(v)) = u(λv) = λu(v) = λ2 v
D’où Q(u) = 0 ⇒ Q(u(v)) = 0 ⇔ (am xm + am−1 xm−1 + ...... + a1 x + a0 )v = 0 comme v 6= 0 on
a Q(λ) = 0

Théorème .13 Soit u un endomorphisme de E et Pu (x) son polynome caractéristique, alors


Pu (u) = 0; en terme de matrice PA (A) = 0

Lemme .1 Soit u un endomorphisme de E;


Q(x) = Q1 (x)Q2 (x)..............Qp (x) où Q1 , Q2 , ......, Qp sont des polynôme premier entre eux
(c’est à dire , n’ayant pas de racine commune). Si Q(u) = 0 alors
E = KerQ2 (u) ⊕ KerQ2 (u) ⊕ ...... ⊕ KerQp (u)

Corollaire .10 Si Pu (x) = (−1)n (x − λ1 )α1 ...............(x − λp )αp avec λi 6= λj alors avec Nλ1 =
Ker(u − λi idE)αi .
Comme u 6= 0 on a: Q(λ) = 0 et on a aussi :
E = Nλ1 ⊕ Nλ2 ⊕ ...... ⊕ Nλp . Nλ1 = Ker(u − λi idE)αi est appelé sous espace caractéristique
associé à la vp λi ou radicale.

Recherche des polynômes annulateurs-polynôme minimal

Définition .19 On appel polynôme minimal de u noté mu (x) le polynôme unitaire ,an-
nulateur de u de dégré le plus petit possible.
NB: Le polynôme minimale d’un endomorphisme est unique.
24 CHAPTER 3. RÉDUCTION DES ENDOMORPHISMES

Proposition .16 Soit P ∈ K[x], P est annulateur de u si et seulement si P (x) est multiple de
mu (x)
P (x) = kmu (x), mu (x) est le P GCD .

Proposition .17 Les racines de mu (x) sont exactement celle de P (x) c’est à dire les valeurs
propres de u, mais avec une multiplicité en générale différente : Si Pu (x) = (−1)n (x −
λ1 )α1 ..........(x−λp )αp avec λi 6= λj , α1 +α2 +.....+αp = n alors mu (x) = (x−λ1 )β1 .........(x−λp )βp
avec 1 ≤ βi ≤ αi

 
0 1 2
Exemple .20 1) A = 1 0 2
1 2 0
 PA (x) = −(x
On trouve + 1)(x + 2)(x − 3) donc mA (x) = (x + 1)(x + 2)(x − 3)
−1 1 1
2) A =  1 −1 1 
1 1 −1
PA (x) = −(x − 1)(x + 2)2 , on a:
mA (x) = (x − 1)(x + 2) ou (x − 1)(x + 2)2
Pour trouver mA (x) on verifie si mA (A) = 0; et on trouve que mA (x) = (x − 1)(x + 2)

Théorème .14 u est diagonalisable si et seulement si sont polynôme minimal est scindé et à
toute ses racines simples.

 
3 −1 1
Exemple .21 A = 2 0 1
1 −1 2
PA (x) = −(x − 1)(x − 2)2
mA (x) = (x − 1(x − 2) ou (x − 1)(x − 2)2 vérifions si mA (A) = 0 pour trouver mA (x) ; et on
trouve que mA (x) = (x − 1)(x − 2)2 et donc mA (x) est scindé et toutes ses racines ne sont pas
simples donc A ne peut être diagonalisé.

3.4 Diagonalisation par blocs


Théorème .15 On suppose que Pu (x) est scindé et s’écrit:
Pu (x) = (−1)n (x − λ1 )α1 ...........(x − λp )αp ; λi 6= λj alors il existe une base B de E;
B = {B1 , B , ......, Bp
2 } où Bi est une base du sous espace  caractéristique Nλi telles que;
λ1 ∗
 0 λ1 0 0 0 
   
 λ 2 ∗ 
 0 0 0 
Mβ (u) =  0 λ2 


 0 0 ......  0 

 λp ∗ 
0 0 0
  0 λp
λi ∗
= MBi (u/Nλi )
0 λi
3.5. EXPONENTIELLE D’UN ENDOMORPHISME OU D’UNE MATRICE CARRÉE 25

3.4.1 Réduction par blocs de Jordan


Blocs de
 Jordan: Un blocde Jordan est de la forme
λ 1 0 0 0
0 λ 1 0 0
 
 0 0 λ ...... 0 
J(λ) =  
 0 0 0 ........ 1 
0 0 0 0 λ
et un bloc de Jordan d’ordre 1 est de la forme J(λ) = [λ]

Théorème .16 Supposons que Pu (λ) est scindé;


1)Supposons que u n’a qu’une seule vp λ et que l’on ait:
Pu (x) = (−1)n (x − λ)n
mu (x) = (x − λ)β et dim(Eλ ) = γ.
 la base B de E tel que 
Alors il existe
J1 (λ) 0 0 0
 0 J2 (λ) 0 0 
MB (u) =   où Jk (λ) est un bloc de Jordan, l’ordre du plus grand
 
..
 0 0 . 0 
0 0 0 Jγ (λ)
bloc est B et γ est le nombre de bloc.

2) Si u admet les vp λ1 , λ2 , ......, λp de telle sorte que :

Pu (x) = (−1)n Πpk=1 (x − λk )αk

 base B de E:
il existe une 
J1 (λ1 ) 0 0 0
 0 J2 (λ2 ) 0 0 
MB (u) = 
 
 0 . .. 
0 0 
0 0 0 Jγ (λp )

Exemple .22 Supposons que dimE = 5 ; Pu (x) = −(x − λ)5 ; mu (x) = (x − λ)3 et dimEλ = 2,
 une base B =
alors il existe (v1 , v2 , ...., v5 ) de E. tel que :
λ 1 0 0 0
0 λ 1 0 0
 
Mβ (u) =   0 0 λ 0 0 

0 0 0 λ 1
0 0 0 0 λ

3.5 Exponentielle d’un endomorphisme ou d’une matrice


carrée
Définition .20 Soit u un endomorphisme de E(resp A) où E est K − ev de dimension
finie n
Pon pose:
e = k=0 k! , (resp eA = ∞
u ∞ uk Ak k
P
k=0 k! , où u = u ◦ u ◦ u ◦ ..... ◦ u k fois.

Propriété .2
1) u 7→ eu (resp A 7→ eA ) est continue,
2) t 7→ etu (resp t 7→ etA ) est continue sur R et dérivable, de dérivé:t 7→ u ◦ etu (resp t 7→ AetA )
26 CHAPTER 3. RÉDUCTION DES ENDOMORPHISMES

3) Si u ◦ v = v ◦ u (resp AB = BA) alors eu+v = eu ◦ ev resp eA+B = eA × eB


En particulier eu (resp eA ) est inversible et (eu )−1 = e−u (resp (eA )−1 = e−A )
Exemple .23
1) Soit λ ∈ R, et In la matrice unité d’ordre n. Alors
eλIn = eλ In .
Pour λ = 0 on obtient e0 = In .

2) Soit A ∈ Mn (K) nilpotent d’ordre r (c’à-d Ar−1 6= 0 et Ar = 0). Alors


r−1
X Ak
eA = .
k=0
k!

cas 1:) Soit A ∈ Mn (K). On suppose que une seule vp, λ. Alors A = λIn +N avec N = nilpotent
d’ordre n. D’où puisque In et N commutent,
n−1 n−1
A λIn +N λ N λ
X Nk λ
X (A − λI)k
e =e = e In e = e =e .
k=0
k! k=0
k!

cas 2:) On suppose que A est diagonale : A = diag(λ1 , · · · , λn ). Alors on a Ak = diag(λk1 , · · · , λkn )
et donc
eA = diag(eλ1 , · · · , eλn ).
cas 3:) On suppose que A est diagonalisable, c-à-d il existe P inversible tel que P −1 AP = D
avec D diagonale. Alors A = P DP −1 , Ak = P Dk P −1 et donc
eA = P eD P −1 .
cas 4:) On suppose que A est diagonale par blocs triangulaires (resp. diagonalisable par
blocs triangulaires), c-à-d A = diag(A1 , A2 , · · · , Ap ) (resp. il existe P inversible telles que
A = P diag(A1 , A2 , · · · , Ap )P −1 avec Ai = λi Iαi + N où Iαi est la matrice unité d’ordre αi .
Alors

eA = diag(eA1 , · · · , eAp ) (resp. eA = P diag(eA1 , · · · , eAp )P −1 ).


Exemple .24
3
   
0 1 1 1 1 2
1) A = 0 0 1. A est nilpotente d’ordre 3. D’où eA = ∞ 1 2
P
0 1 1 .
k=0 = I + A + 2 A =
0 0 0 0 0 1
     
0 1 0 −1 0 1 0 1 1
2) A = A est diagonalisable et on a A = P A P avec A = et P = .
1 0 0 −1 1 −1
1 e + e−1 e − e−1

A
D’où e = .
2 e − e−1 e + e−1
 
−4 1 1
3) A =  1 −1 −2. On a PA (X) = −(X + 2)3 et λ = −2 est la seule v.p. de A.
−2 1 −1    
3 0 −3 −2 1 1 −1
e 
N = A + 2I est nilpotente d’ordre 3. avec N 2 = 3 0 −3. D’où eA = −5 2 −7.
2
3 0 −3 −1 1 −1
3.5. EXPONENTIELLE D’UN ENDOMORPHISME OU D’UNE MATRICE CARRÉE 27
 
8 −1 −5
4) A = −2 3 1 . On a PA (X) = −(X − 2)(X − 4)2 . dimE4 = 1 et A n’est pas
4 −1 −1    
2 0 0 1 1 1
diagonalisable. Toutefois A = P A0 P −1 avec A0 = 0 4 3 et P = 1 −1 1. A0 est
0 0 4  1 1 0
4 3
diagonale par blocs : A0 = diag(M1 , M2 ) avec M1 = [2], M2 = . M2 = 4I + N
  0  4 
0 3 M1 2 M2 4 N 4 4 1 3
avec N = . e = e I, e = e .e = e (I + N ) = e . Finalement
 2 0 0  2 0 1

e 0 0 −e + 9e4 e2 − e4 2e2 − 8e4
0 0
eA =  0 e4 3e4  et eA = P eA P −1 = −e2 − 5e4 e2 + e4 2e2 + 4e4 .
0 0 e4 −e2 + 7e4 e2 − e4 2e2 − 6e4

3.5.1 Application à la résolution d’un système différentiel


Exemple simple :
Soit à résoudre le système différentiel

 dx(t) = x − y

(1) dt
 dy(t) = 2x + 4y

dt  
x
où x(t) et y(t) sont des fonctions dérivables sur R. Posons X = . Alors le système (1)
y
est équivalent à

dX
(2) = AX
dt 
1 −1
avec A =
2 4
     
−1 2 0 1 1 y1
Or A = P DP avec D = et P = . Soit Y = la matrice du
0 3 −1 −2 y2
vecteur colonne X dans la base formée par les vecteurs propres de A qui sont les colonnes de
P . On sait que X = P Y . En reportant dans le système (2) on obtient

dY dX
(2’) = P −1 = P −1 AX = P −1 AP Y = DY .
dt dt
Soit

 dy1 (t) = 2y1

(2’) dt
 dy2 (t) = 3y2

dt
2t 3t
  y1 (t) = C1 e , y2 (t) = C2 e où C
Ce dernier système donne immédiatement 1 et C2 sont des
x y1
constantes réelles. En revenant à X = par la relation X = P Y = P , on trouve
y y2

x(t) = C1 e2t + C2 e3t
y(t) = −C1 e2t − 2C2 e3t
28 CHAPTER 3. RÉDUCTION DES ENDOMORPHISMES

où C1 et C2 sont des constantes réelles déterminées par les conditions initiales.

Cas général :
Soit à résoudre le système différentiel
dX
(3) = AX + B
dt
où A ∈ Mn (K) et B ∈ Mn,1 (K) (vecteur colonne de n constantes). Les solutions de (3) sont
obtenues en ajoutant à la solution générale de l’équation homogène (2) une solution particulière
de (3).
La solution de l’équation homogène (sans second membre) est de la forme
(4) X = etA C
où C ∈ Mn,1 (K). En utilisant la méthode de variation de la constante, on trouve

dC(t)
(5) = e−tA B
dt
d’où C(t) donnée par n primitives. La solution du système (3) est donc la somme de la
solution générale de l’équation sans second membre (2) et de la solution particulière de (3)
obtenue par la méthode de variation de la constante.
Lemme .2 La fonction g de R dans Mn (K), t → etA est dérivable sur R et sa dérivée est
g 0 (t) = AetA = etA A
0
Rappel : etA = P etA P −1 .

Exemple
Résoudre
 le système différentiel suivant
dx(t)

 = −8x + y + 5z
 dt


dy(t)
(1) = 2x − 3y − z
 dt
 dz(t) = −4x + y + z



dt    
x −8 1 5
dX
On a en posant X = y , (1) équivalent à (2) = AX avec A =  2 −3 −1.
dt
z
    −4 1 1
−4 −3 0 1 1 1 1 −1 0
0 −1 0 −1 1
Or A = P A P avec A =  0 −4 0 , P = −1 1 1 et P =
   2 0 −2.
2
0 0 −2 1 0 1 −1 1 2
a
0 0 0
Donc etA = P etA P −1 et X(t) = P etA P −1 C = P etA Γ avec Γ = P −1 C =  b . On a
 −4t c
−4t
  −4t −4t

e −3te 0 γ1 e − 3γ2 te
0
etA =  0 e−4t 0 . D’où X(t) = P  γ2 e−4t , soit
−2t −2t
0 0 e γ3 e

 x(t) = (a + b − 3bt)e−4t + ce−2t
y(t) = (−a + b + 3bt)e−4t + ce−2t , où a, b, c sont des constantes déterminées par les
z(t) = (a − 3bt)e−4t + ce−2t

conditions initiales.
Chapter 4

BILINÉAIRES SYMÉTRIQUES -
FORMES QUADRATIQUES

1-Généralités
Définition .21 S E un K − ev (K=R) et f : E × E → R , on dit que f est une forme
bilinéaire symétrique su E si:
a)L’application fx : E → K,
y 7→ f (x, y) = fx (y) est linéaire et que
b) ∀x, y ∈ E, f (x, y) = f (y, x).
L’ensemble des formes bilinéaire symétrique sur E est un sous espace vectoriel de L2 (E; K)
et est noté ς2 (E)
Définition .22 Soit q : E → K , on dit que q est une forme quadratique sur E s’il existe
une forme bilinéaire symétrique f sur E tel que ∀x ∈ E,q(x) = f (x, x), s’il en ait ainsi ,
f est appelé forme polaire de q et on a:
1
f (x, y) = [q(x + y) − q(x) − q(y)]
2
L’ensemble Q(E) des formes quadratiques sur E est un sous espace vectoriel de l’ensemble
des applications de E dans K; l’application ς2 → Q(E) qui a toute formes bilinéaire
symétrique associe sa forme quadratique est un isomorphisme.
Définition .23 Soit f une forme bilinéaire symétrique sur E et q sa forme quadratique,
a) On appel noyau de f (ou de q) noté N (f ) ou N (q) , le noyau de l’application linéaire
Φ : E → E∗
y 7→ f (.; y) Ψ : E → E ∗
x 7→ f (x; .)
N (f ) = N (q) = {y ∈ E/Φ(y) = f (.; y) = 0}
N (f ) = N (q) = {y ∈ E/f (x, y) = 0, ∀x ∈ E}
b) f (ou q) est dite non dégénéré si Φ est injective, c’est à dire si N (f ) = {0}

Exemple .25 1) E = C([a; b], R)


Φ : E × ER→ R ;
b
(f, g) 7→ a f (t)g(t)dt est une forme bilinéaire symétrique, la forme quadratique associé est
Rb
q(f ) = a f 2 (t)dt .
2)E = Kn
Ψ : E × EP→ K
(x, y) 7→ ni=1 ai xi yi , a1P
; ......; an ∈ K est une forme bilinéaire symétrique et la forme quadra-
tique associé est :q(x) = ni=1 ai x2i
3) E = R3 ; f (x, y) = x1 y1 − 3x3 y3 + x1 y2 + x2 y1 − x1 y3 − x3 y1 − 3x2 y3 − 3x3 y2 , f est bien

29
30 CHAPTER 4. BILINÉAIRES SYMÉTRIQUES - FORMES QUADRATIQUES

bilinéaire symétrique car c’est la somme des formes bilinéaires ; la forme quadratique associé
est q(x) = x21 − 3x23 + 2x1 x2 − 2x1 x3 − 6x2 x3 ,
∀x ∈ E on a:
f (x, y) = (y1 + y2 − y3 )x1 + (y1 − 3y3 )x2 + (−y1 − 3y2 − 3y3 )x3
Donc
 f (x, y) = 0, ∀x ∈ E , si
 et seulement si
 y1 + y2 − y3 = 0  y1 = 3y3
y1 − 3y3 = 0 ⇔ y2 = −2y3
−y1 − 3y2 − 3y3 = 0   y3 = y3
 
3
D’où N (f ) = [v] avec v =  −2  et f est dégénéré.
1
Définition .24 Soit f une forme bilinéaire symétrique su E. On dit que x et y sont
orthogonaux pour f (ou g) si f (x, y) = 0
∗ Une famille de vecteur {x1 , ......., xn } est  f-orthogonale (resp , orthonormé) si :
0sii 6= j
f (xi , xj ) = 0 ; ∀i 6= j (resp, f (xi , xj )) ;ζij =
1sii = j
∗ x ∈ E est isotope si q(x) = f (x, x) = 0
On appel cône isotope de E , l’ensemble I(q) = {x ∈ E/q(x) = 0}
NB: N (q) ⊂ I(q)

4.0.1 Sous espace orthogonaux


Définition .25 Soit F un sous ensemble de E ; on appel orthogonal de F le sous ensemble
donné par F ⊥ = {x ∈ E/f (x, y) = 0; ∀y ∈ E}
Propriété .3 1) F ⊥ est un sous espace vectoriel de E.
2) 0⊥ = E
3) E ⊥ = N (q)
4) ∀F ⊂ E; N (q) ⊂ F ⊥
Définition .26 Soit F un sous espace vectoriel de E; F est isotope s’il existe x 6= 0,
x ∈ F tel que x ⊥ F c’est à dire si F ∩ F ⊥ 6= {0}

4.0.2 Formes positives


Théorème .17 Soit f une p forme p bilinéaire symétrique positive, alors on a:
1) ∀x, y ∈ E | fp
(x, y) |≤ q(x)
p × q(y)
p appelé inégalité de Schwartz
2) ∀x, y ∈ E , q(x + y) ≤ q(x) + q(y) appelé inégalité de Minkowsky.
Démonstration:
1) ∀x, y ∈ E, ∀λ ∈ K , on a : f (x + λy; x + λy) ≥ 0 c’est à dire q(x) + 2λf (xy) + λ2 q(y) ≥ 0
2)q(x + y) = q(x) + q(y) +p2f (x, y)

q(x + y) ≤ q(x) + q(y) + 2 q(x) × y
p √
q(x, y) ≤ ( q(x) + y)2

4.0.3 Groupes orthogonal


Définition .27 Soit f une forme bilinéaire symétrique sur E et u un endomorphisme de
E ;on dit que u est orthogonal pour f ou pour q si
f (u(x), u(y)) = f (x, y); ∀x, y ∈ E ou encore si q(u(x)) = q(x), ∀x ∈ E
NB: L’ensemble des automorphismes de E muni de la loi de composition ◦ est un groupe noté
31

GL(E) est appelé groupe linéaire de E.


L’ensemble des automorphismes de E, f-orthogonaux est un sous groupe de GL(E) appelé
groupe orthogonal de E et noté O(q) ou O(f ).

4.0.4 Formes bilinéaires symétrique et formes quadratiques en dimen-


sion finie
∗ Expressions analytiques et matrices
Soit E un espace vectoriel sur K(K = R) de dimension finie n ; (ei )ni=1 est une base de E et f
une forme
Pn bilinéaireP symétrique sur E , ∀x, y ∈ E
x = i=1 xi ei , y = Pnj=1 P yj ej
on a: (1) fP (x, y) = ni=1 nj=1P xi yj f (ei , ej )
f (x, y) = i=1 xi yj f (ei , ei ) + n1<i<j<n (xi yj − xj yi )f (ei , ej )
n

On appel matrice de f ( ou q) par rapport à la base (ei )ni=1 la matrice A de terme général
aij = f (ei , ej ), 1 < i, j < n
NB: La matrice A d’une forme bilinéaire symétrique est symétrique.
Écriture  matricielle
 de (4)
x1 y1
 x2   y2 
Soit X =  ..  Y =  ..  alors (1) s’écrit :
   
. .
xn yn
0
(1) f (x, y) = tX AY
f (x, y) = tY AX
NB: A = Mei (f ) = Mei (q) = M(ei ,e∗j ) (Φ)
où Φ : E → E ∗
y 7→ f (., y) (linéaire)

0
Théorème .18 Soit (ei )i=1 )n et (ei )ni=1 deux bases de E, P la matrice de passage de la base ei
0
à la base ei et f (ou q) une forme bilinéaire symétrique (ou quadratique) dont la matrice par
0
rapport à la base de (ei ) est A = M(ei ) (f ) alors la matrice de f par rapport à la base (ei ) est
0 0 0 0 0
A = tP AP ; X = Mei (x), X = Mei )(x) on a X = P x (de même Y = P Y d’où
0
f (x, y) = tX AY = tP Y 0 A(P Y )
0 0
f (x, y) = tX 0 A Y

NB: D’après (1) on : q(x) = ni=1 ai x2i + 2 1<i<j<n aij xi xj


P P
D’où ai = f (ei , ei )
aij = f (ei , ej )
Réciproquement: Si q est polynôme homogène de degré 2 dans une base (ei ) de E par rapport
au coordonnée xi deP
X: P
q(x) = i=1 ai xi + ni=1 nj=1 bij xi xj alors q est une forme quadratique sur E dont la forme
Pn 2

polaire est définie par : ai = f (ei , ei ) et bij = 2f (ei , ej ) avec 1 < i < j ≤ x

5 −3
 
4 2 2
5
Exemple .26 E q(x) = 4x21 −3x22 +5x1 x2 −3x1 x3 +8x2 x3 alors A = Mei (q) =  2
−3 4
−3
2
4 0
5 3 5 3
f (x, y) = 4x1 y1 + x1 y2 − x1 y3 + x2 y1 − 3x2 y2 + 4x2 y3 − x3 y1 + 4x3 y2
2 2 2 2
32 CHAPTER 4. BILINÉAIRES SYMÉTRIQUES - FORMES QUADRATIQUES

Définition .28 Soit E , un R − ev de dimension finie n et f une forme bilinéaire


symétrique sur E alors on appel rang, rg(f ) = rg(q) = rg(A) où A = Mei (f ) = Mei (q)
∗ On appel aussi discriminant de f le nombre 4 = det(A).
∗ f ou q sera dite non dégénéré si le 4 =
6 0 (⇔ rg(f ) = n).

Exemple .27 E = R3, q(x) = x1 y1 −  3x3 y3 + x1 y2 + x2 y1 − x1 y3 − x3 y1 − 3x2 y3 − 3x3 y2


1 1 −1
Alors A = Mei (q) =  1 0 −3 on verfie que 4 = det(A) = 0; ⇒ q est dégénéré, le
−1 −3 −3
1 1
mineur donné par extrait de A est non nul donc rg(q) = 2.
1 0
Déterminant de Vondermond
1 a1 a2 ... an−1
1 1
1 a2 a2 .... an−1
2 2
1 a3 a2 ... an−1 Q
3 3 = 1≤i≤j≤n (aj − ai )
.. .. ..
. . ..... .
2 n−1

1 an an .... an
x ⊥ y ⇔ f (x,  y) = 0, {x1 , ......., xn } orthonormé (orthogonal et normé) pour f si :
0sii 6= j
f (xi , yj ) =
1sii = j

4.0.5 Existence de la base orthogonale


Remarque: Soit E un K − ev de dimension finie n, (e1 , e2 , ......, en ) une base de E et q une
forme quadratique sur E.
1) (ei )ni=1 est une base orthogonale si et seulement si A = mei (q) =P diagonal(a1 , a2 , ......, an ) où
ai = f (ei , ei ) = q(ei ) ou encore d’une manière équivalente, q(x) = ni=1 ai x2i . Pn 2
n
2) DePn même (e i )i=1 est une base orthonormé pour q si et seulement si q(x) = i=1 xi si
x = i=1 xi ei .
Etant donné ; (E, q) , le problème de recherche d’une base orthogonale pour q revient donc à
déterminer une base de E dans laquelle la matrice Mei (C) est diagonale ou encore à ecrire q(x)
sous forme d’une somme de combinaison linéaire de carrés de formes linéaire indépendante.
Théorème .19 Soit E un K − ev de dimension finie n muni d’une forme quadratique q alors
il existe toujours une base q orthogonale de E.

4.0.6 Réduction d’une forme quadratique sous forme de combinaison


linéaires de carrés de forme linéaire indépendantes
Méthode de Gauss
Par récurrence sur dimE = n;
• Pour n = 1 il n’y a rien à démontré , q(x) = ax2
• Supposons Pque la propriété P à démontré soit vrai à l’ordre (n − 1) et démontrons à l’ordre n,
Soitq(x) = ni=1 a1 x21 + 1≤i<j≤n bij xi yj ; Si x = (x1 , x2 , ......., xn )
0
1er Cas: L’un des ai est non nul disons a1 6= 0 alors q(x) = a1 x21 + x1 ( nj=2 b1j kj ) + q1 (x ) avec
P
0
x = (x2 , x3 , ......., xn ),
1 0 1 P
q(x) = γ12 (x) + q2 (x ) où γ1 (x) est la forme linéaire définie par γ1 (x) = a1 x1 + ( nj=2 b1j xj )
a1 2
0
L’hypothèse de récurrence montre que q2 (x ) est une combinaison linéaire de forme linéaire
33

indépendant γ2 , γ3 , ........, γn .
Il en est de même pour q puise qu’on vérifie bien que γ2 , γ3 , ........, γn sont indépendantes.
2eme Cas: Tous les aiP sont nuls et que un Pndes bij est non nul, disons b1,2 6= 0 donc:
n 0 0
q(x) = b1,2 x1 x2 + x1 ( k=3 b1,k xk ) + x2 ( h=3 b2,h xh ) + q1 (x ) avec x = (x3 , x4 .......xn ) or q(x) =
1 0
γ1 (x)γ2 (x) + q2 (x )
b1,2
∂q(x)
γ1 (x) = b1,2 x1 + nh=3 b2,h xh =
P
∂x2
Pn ∂q(x)
γ2 (x) = b1,2 x2 + k=0 b1,k xk =
∂x1
1
On sait que ab = [(a + b)2 − (a − b)2 ]
4
1 0
D’où q(x) = [(γ1 (x) + γ2 (x))2 − (γ1 (x) − γ2 (x))2 ] + q2 (x )
4b1,2
L’hypothèse de récurrence montre que q(x) est une combinaison linéaire des carrés des formes
linéaire : γ1 + γ2 ; γ1 − γ2 ; γ3 ; .......; γn qui sont indépendant.

Exemple .28 1) E = R3 q(x) = x21 + 2x22 + 5x23 + 2x1 x3 − 4x2 x3


q(x) = (x1 + x2 )2 − x22 + 2x22 + 5x23 − 4x2 x3
q(x) = (x1 + x2 )2 + (x2 − 2x3 )2 + x23
q(x) = γ12 (x) + γ22 (x) + γ32 (x)
Avec γ12 (x) = x1 + x2 ,
γ22 (x) = x2 − 2x3 ,
γ32 (x) = x3
Cherchons la base q orthogonal:
Posons
0
x1 = x1 + x2
0
x2 = x2 − 2x3  0 0 0  
 x1 = x1 − x2 − 2x3 1 −1 −2
0 0 0 0

x3 = x3 or X = P X ⇒ x2 = x2 + 3x3 d’où P = 0 1 2  P = v1 , v2 , v3
0
x3 = x3 0 0 1

     
1 −1 −2
avec v1 = 0 v2 =  1  v3 =  2 
0  0 1
 f (v1 , v2 ) = 0
En suite vérifié que f (v1 , v3 ) = 0
f (v2 , v3 ) = 0


 q(v1 ) = f (v1 , v1 ) = 1
Calculer q(v2 ) = f (v2 , v2 ) = 1 donc (v1 , v2 , v3 ) est une base orthonormé
q(v3 ) = f (v3 , v3 ) = 1

2) E = R3 q(x) = 5x1 x2 + 6x1 x3 + 3x2 x3
b1,2 6= 0
∂q
γ1 (x) = = 5x1 + 3x3
∂x2
∂q
γ2 (x) = = 5x2 + 6x3
∂x1
1
q(x) = [(5x1 + 5x2 + 9x3 )2 − (5x1 − 5x2 − 3x3 )2 ]
20
1
q(x) = (x21 − x22 − 72x23 )
20
34 CHAPTER 4. BILINÉAIRES SYMÉTRIQUES - FORMES QUADRATIQUES

4.0.7 Classification des formes quadratiques sur un espace complexe


(K = C)
n
Théorème .20 Soit E une K − ev de dimension finie n sur K = C muni d’une base Pn (ei )i=1 et
n
q une forme quadratique sur E alors il existe une base (vi )i=1 de E tel que si x = i=1 xi vi on
 
1 0 0 ... 0
0 1 0 . . . 0
Pr 2
 .. 
ait q(x) = i=1 xi où r = rg(q) ou encore tel que M(vi ) (q) = 0 0 1 . 0
 
. . . .
 .. .. .. . . ... 

0 0 0 ... 0

4.0.8 Classification des formes quadratiques sur un espace vectoriel


réel (K = R)
Théorème .21 (D’inertie de Sylvester)
Soit E un K − ev réel de dimensionPfinie n et q une forme quadratique sur E alors il existe
0 0 0
une base (vi )ni=1 de E tel que si s = ni=1 xi vi on ait , q(x) = (x1 )2 + ....... + (xp )2 − (xp+1 )2 −
0
....... − (xr )2 ou encore M(vi ) (q) Où r = rg(q) et p est un entier naturel qui ne dépend que de la
forme quadratique q (et non pas de la base vi ) le couple (p, r − p) est appelé signature de q.
La signature est le couple formé par le nombre (+1) et le nombre (−1) dans la réduction de
Gauss. P
q(x) = ni=1 ai γi2 (x)
rg(q) = r = n, sign(q) = (n, 0)

Théorème .22 Soit q une forme quadratique sur R − ev , E de dimension finie n alors
∗ q est définie positive si et seulement si : sign(q) = (n, 0) ⇔ ∃ une base orthonormé.
∗ q est non dégénéré ⇔ sign(q) = (n, n − p)

Exemple .29 E = R3 , K = R
q(x) = x21 + 2x22 + 15x23 − 4x1 x2 + 6x1 x3 − 8x2 x3
sign(q) ?
La methode de Gauss donne :
q(x) = (x1 − 2x2 + 3x3 )2 − 2(x2 − x3 )2 + 8x23
0 0 0
Donc √sign(q) = (2, 1) q(x) = (x1 0 )2 + 2(x2 )2 − (x3 )2 avec x1 = x1 − 2x2 + 3x3
0
x2 = √8x3
0
x3 = 2x2 − x3
rg(q) = r = n = 3

4.0.9 Endomorphisme Adjoint d’un espace vectoriel (ev)


Soit (E, q) un espace quadratique de dimension finie n, u un endomorphisme de E.
On appel adjoint de u; u∗ vérifiant:
1)f (u(x), y) = f (x, u∗ (y)), ∀x, y ∈ E
Traduction matricielle
A = Mei (f ), U = Mei (u), X = Mei (x), Y = Mei (y)
Alors 1) s’écrit :
tU X AY = tXA U ∗ Y , ∀X, Y ∈ M(n,1) (K) donc U ∗ est vérifié. tuA = AU ∗ et si q non dégénéré
(det(A) 6= 0) U ∗ = A−1 t(U A) base non orthonormé et si (ei ) est une base orthonormé (A = I),
U ∗ = tU si E est muni d’une base orthonormé.
35

NB: L’operateur ∗ vérifie;


i) (u + v)∗ = u∗ + v ∗
(λU )∗ = λU ∗
(u • v)∗ = v ∗ • u∗
ii) U ∗∗ = (U ∗ )∗ = U
iii) det(U ∗ ) = det(U )
rg(U ∗ ) = rg(U )
L’adjoint d’un endomorphisme est unique.

Proposition .18 Soit (E, q) un espace vectoriel quadratique de dimension finie avec q non
dégénéré , et soit u un endomorphisme de E: Les propriété i) et ii) sont équivalentes
i) u est un endomorphisme orthogonal;
ii) U ∗ • U = U • U ∗ = idE donc u orthogonal ⇔ U −1 existe et U −1 = U ∗ ;
A ∈ Mn (R) , A orthogonal ⇔ tA = A−1

4.0.10 Espaces euclidiens


4.0.11 Produit scalaire
Un produit scalaire est une forme bilinéaire symétrique définie positive
• Notation; < ., . >
• Un espace vectoriel muni d’un produit scalaire de dimension finie est appelé espace euclidien.

Exemple .30 1) E = Rn et < x, y >= ni=1 xi yi si


P
x = (x1 , x2 , ....., xn ) et
y = (y1 , y2 , ......., yn )
est un produit scalaire dit produit scalaire canonique .La forme canonique associé s’écrit:
n
X
2
q(x) =k x k = x2i
i=1

2) E = R3
f (x, y) = x1 y1 + 2x2 y2 + 3x3 y3 + x1 y2 + x2 y1
si
x = (x1 , x2 , x3 )
y = (y1 , y2 , y3 )
f est une forme bilinéaire symétrique.
Positivité: Etudier f (x, x) ≥ 0
q(x) = f (x, x) = x21 + 2x22 + 3x23 + 2x1 x2
q(x) = f (x, x) = (x1 +  x2 )2 + x22 + 3x23 ≥ 0 
 (x1 + x2 )2 = 0  x1 = 0
2
q(x) = f (x, x) = 0 ⇔ x2 = 0 ⇔ x2 = 0 ⇔ x = 0 q est positif non dégénéré ,
2
3x3 = 0 x3 = 0
 
Donc f est bien un produit scalaire et (R3 , q) est un espace euclidien; Rn est muni du produit
scalaire canonique donc c’est un espace euclidien.

4.0.12 Norme d’un vecteur


La norme d’un vecteur est une application de E dans R noté k . k vérifiant les trois propriété
suivantes:
36 CHAPTER 4. BILINÉAIRES SYMÉTRIQUES - FORMES QUADRATIQUES

Non dégénérescence
• k x k≥ 0 et k x k= 0 ⇔ x = 0.
Homogénéité absolue
• k λx k=| λ |k x k ∀x ∈ E, ∀λ ∈ K •
• k x + y k≤k x k + k y k, l’inégalité triangulaire.
Norme euclidienne

• k x k= < x, x > est une norme euclidienne car elle est issue d’un produit scalaire.

4.0.13 Inégalité de Schwartz


∀x, y ∈ E; le produit scalaire de q par lui même :
|< x, y >|≤k x kk y k
Déduction:
< x, y >
−1 ≤ ≤1
k x kk y k
< x, y >
Donc ∀θ ∈ [0, π]/ = Cos(θ), θ est dit angle (non orienté) entre x et y.
k x kk y k
pPn n
2
Exemple .31 1) (x1 , P x2 , ......, xn ) 7→ i=1 xi une norme euclidien sur R .
n
2) (x1 , x2 , ......, xn ) 7→ i=1 | xi |
3) (x1 , x2 , ......, xn ) 7→ max1<i<n (| xi |)

4.0.14 Groupe orthogonal d’un espace euclidien


Définition .29 Soit (E, <, >) un espace euclidien et soit u un endomorphisme , u est
orthogonal où u est une isométrie vectorielle si ; ∀x, y ∈ E
< u(x), u(y) >=< x, y > ou ∀x ∈ E, k u(x) k=k x k
La matrice Mn est une base quelconque de E d’un endomorphisme orthogonal est aussi
orthogonal.

Proposition .19 u est un endomorphisme orthogonale si et seulement si u transforme tout


base orthonormé en une base orthonormé.

Exemple .32 1) La matrice de passage Pei est orthogonale (elle transforme une base or-
thonorméen une base orthonormé).

2 −1 2
2)A = 91  2 2 −1 est une matrice orthogonal car les colonnes sont orthonormé.
−1 2 2

θ(q) = {u ∈ E/u est q-orthogonal } est un groupe (sgGL(E)).


L’ensemble des matrice carrée;
θ(n, R) = {A ∈ Mn (R)/tA A = I} est un groupe orthogonal de Mn (R), le sous ensemble
SO(n, R) = {A ∈ θ(n, R)/det(A) = +1} est un sous groupe dit groupe spéciale orthogonal de
Mn (R), ou groupe des rotations.
 
2 −1 2
Exemple .33 A = 91  2 2 −1; A ∈ θ(3, R) et det(A) = +1 donc A est une matrice de
−1 2 2
rotation.
37

4.0.15 Endomorphisme autoadjoint d’un espace euclidien


Définition .30 Soit (E, <; >) un espace euclidien de dimension n et u un endomor-
phisme de E , on dit que u est autoadjoint ou symétrique si
1) < u(x), y >=< x, u(y) > , ∀x, y ∈ E; (u∗ = u)
En terme de matrices: soit A = Mei (u) et (ei )ni=1 une base orthonormé , alors 1) s’écrit:
t(AX) Y = tx AY ⇔ tX t(AY = tXAY ; ∀X, Y ∈ Mn,1 (K). Donc u autoadjoint ⇔ tA = A.
u est autoadjoint si sa matrice dans une base orthonormé est symétrique.

4.0.16 Diagonalisation d’un endomorphisme autoadjoint


Théorème .23 Soit u un endomorphisme autoadjoint d’un espace euclidien E , Alors;
1) u est diagonalisable
2) Les vp de u sont tous des réels
3) Les sous espaces propres de u sont deux a deux orthogonaux.
En terme de matrice
1) Toutes matrice symétrique est diagonalisable
2) Les vp sont tous réels
3) Les sous espaces propre sont deux à deux orthogonaux.
Théorème .24 1) Soit (E, <; >) un espace euclidien , q une forme quadratique sur E ; alors
∃! u = uf ∈ End(E) tel que < x, u(y) >= f (x, y); ∀x, y ∈ E.
2) U f est autoadjoint pour < ., . >, on peut donc construire une base orthogonale pour < ., . >
formé de vecteurs propres de U f et cette base est aussi orthogonale pour f (ou q).
Corollaire .11 Soit f une forme bilinéaire symétrique sur un espace euclidien de dimension n
; (ei )ni=1 une base quelconque de E et A = Mei (f ), alors on peut construire une base orthonormé
pour f formé de vecteurs propre de A de plus sign(f ) = (n+ ; n− ) où
n+ est le nombre de valeurs propre strictement positive
n− est le nombre de valeurs propre strictement négative de A.
La matrice d’une forme quadratique est toujours symétrique, conséquence; elle est diagonalis-
able.
Exemple .34  E = R3 , q(x) = 2 2 2
 −x1 − x2 − x3 + 2x1 x2 + 2x1 x3 + 2x2 x3
−1 1 1
A = Mei (q) =  1 −1 1 
1 1 −1
PA (λ) = −(λ − 1)(λ + 2)2
SPR (A) = {1, −2, −2} donc d’après le corollaire,
sign(q) = (1, 2)
  des vp
La recherche ~ de A donne:
1
v1 = 1 ∈ E1
1  
1
3
Pour λ = −2, E−2 = {(x, y, z) ∈ R /x + y + z = 0} v2 =  0  ∈ E−2
−1
On prend v3 ∈ E−2 avec v3 ⊥ v2    
a 1
donc v3 ∈ E−2 et v3 ⊥ v2 ⇔ v3 = b et donc v3 = −2 après calcul. ./.
  
c 1

Vous aimerez peut-être aussi