Vous êtes sur la page 1sur 29

EA - FORMES BILINEAIRES

FORMES QUADRATIQUES
PRODUITS SCALAIRES

I - Espaces vectoriels sur R


Dans ce qui suit, E désigne un espace vectoriel sur R. Si E est de dimension finie, on notera p sa
dimension. On désigne par f une application de E × E dans R et par Q l’application de E dans R
définie par
Q(x) = f (x, x) .

Définition 1 L’application f est appelée forme bilinéaire, si, pour tout y fixé de E, l’application
qui à x associe f (x, y) est linéaire, et si, pour tout x fixé dans E, l’application qui à y associe f (x, y)
est linéaire.

Ces deux conditions se traduisent donc par


quels que soient x, x′ , y, y ′ dans E, λ et µ dans R

f (λx + µx′ , y) = λf (x, y) + µf (x′ , y)

f (x, λy + µy ′ ) = λf (x, y) + µf (x, y ′ ) .

Remarque : si f est bilinéaire, on a, quels que soient x, y, dans E et λ dans R

f (0, y) = f (x, 0) = Q(0, 0) = 0 ,

Q(λx) = λ2 Q(x) .
Q(x + y) = Q(x) + f (x, y) + f (y, x) + Q(y) .

Définition 2 Une forme bilinéaire f est dite symétrique, si, quels que soient x et y dans E,

f (x, y) = f (y, x) .

Dans ce cas, l’application Q est appelée forme quadratique associée à f .

Remarque : pour montrer que f est bilinéaire symétrique, il suffira donc, de démontrer la symétrie,
et la linéarité par rapport à une des deux variables.
EA 2

Matrice d’une forme bilinéaire


Si l’espace E est de dimension finie, soit
B = (e1 , .., ep )
une base de E. Posons
p
X p
X
x= xi ei et y = yi ei .
i=1 i=1
Si f est bilinéaire, on obtient alors
X
f (x, y) = xi yj f (ei , ej ) .
1≤i,j≤p

La forme bilinéaire f est donc entièrement déterminée par les nombres réels f (ei , ej ).

Inversement, si l’on se donne p2 nombres réels aij et si l’on pose


X
f (x, y) = xi yj aij ,
1≤i,j≤p

on définit une forme bilinéaire sur E. La matrice


h i
A = aij
1≤i,j≤p

est alors appelée matrice de la forme bilinéaire f dans la base B.

Le nombre réel f (x, y) peut se confondre avec une matrice carrée d’ordre 1. Alors, si X et Y sont les
vecteurs colonnes    
x1 y1
 ..   .. 
X =  .  et Y =  .  ,
xp yp
on aura
f (x, y) = tX.A.Y .
Dire que la forme bilinéaire f est symétrique revient à dire, que, quels que soient les indices i et j
f (ei , ej ) = f (ej , ei ) ,
c’est-à-dire que la matrice A de f est une matrice symétrique. Dans ce cas
p
X X
f (x, y) = xi yi f (ei , ei ) + (xi yj + xj yi )f (ei , ej ) ,
i=1 1≤i<j≤p

et
p
X X
Q(x) = x2i f (ei , ei ) + 2 xi xj f (ei , ej ) .
i=1 1≤i<j≤p
On a donc
f (x, y) = tX.A.Y = tY.A.X .
EA 3

Changement de bases
Soit B = (e1 , . . . , ep ) et B ′ = (e′1 , . . . , e′p ) deux bases de E. Soit P la matrice dont les vecteurs colonnes
sont les vecteurs de B ′ décomposés dans B, (matrice de passage). Si X et Y sont les vecteurs colonnes
des coordonnées de x et y dans B, et X ′ et Y ′ celles dans B ′ , on a donc

X = P.X ′ et Y = P.Y ′ .

Soit A la matrice de f dans B. On a


t
f (x, y) = X.A.Y
t
= (P.X ′ ).A.(P.Y ′ )
t
= X ′ .( tP.A.P ).Y ′ ,

et il en résulte que la matrice A′ de f dans B ′ est

A′ = tP.A.P .

C’est la formule de changement de bases, qu’il ne faut pas confondre avec celle obtenue pour les matrices
d’application linéaire
A′ = P −1 .A.P .
Remarques

1) On peut retrouver la forme bilinéaire f à partir de la forme quadratique Q grâce à une des deux
formules suivantes :
1
f (x, y) = (Q(x + y) − Q(x) − Q(y)) ,
2
(identité de polarisation), et
1
f (x, y) = (Q(x + y) − Q(x − y)) .
4
2) Si E est de dimension finie, et si l’on a
p
X X
Q(x) = aii x2i + 2 aij xi xj ,
i=1 1≤i<j≤p

il ne faut pas oublier de diviser par 2 les éléments non diagonaux pour obtenir la matrice de f
a 
a11 a212 . . . 21p

 .. 
 . 
A= 
..

.

 
ap1 ap2
2 2 app
EA 4

Vecteurs orthogonaux pour une forme bilinéaire symétrique f

Définition 3 Deux vecteurs x et y sont dits orthogonaux pour f si

f (x, y) = 0 .

De la relation
Q(x + y) = Q(x) + 2f (x, y) + Q(y)
il résulte immédiatement le théorème de Pythagore.

Théorème 1 Deux vecteurs x et y sont orthogonaux pour f si et seulement si

Q(x + y) = Q(x) + Q(y) .

Définition 4 Si A est une partie non vide de E, on appelle, orthogonal de A (pour f ) l’ensemble

A⊥ = {x ∈ E | f (x, y) = 0 ∀y ∈ A} .

L’orthogonal de A est un espace vectoriel sur R. En effet, si x et x′ sont dans A⊥ et si λ et µ sont dans
R, on a, quel que soit y dans A,

f (λx + µx′ , y) = λf (x, y) + µf (x′ , y) = 0 ,

et donc λx + µx′ se trouve dans A⊥ .

Définition 5 On appelle noyau de f , l’orthogonal E ⊥ de E pour f , c’est-à-dire l’ensemble des


éléments de E orthogonaux à tous les éléments de E.

En particulier les éléments de E ⊥ sont orthogonaux à eux-mêmes.

Définition 6 On appelle vecteur isotrope un vecteur orthogonal à lui même, c’est-à-dire tel
que
f (x, x) = 0 ou Q(x) = 0 .
EA 5

Définition 7 Deux espaces vectoriels F et G seront dits orthogonaux, si, quels que soient x
dans E et y dans G, les vecteurs x et y sont orthogonaux.

Définition 8 Une forme bilinéaire symétrique f est dite non dégénérée, si le noyau de f est
réduit à zéro.

Définition 9 Si E est de dimension finie p, le rang de f (ou de Q) sera le nombre entier

rg f = p − dim E ⊥ .

Il en résulte que f est non dégénérée si et seulement si le rang de f vaut p.

Définition 10 Une forme bilinéaire symétrique f est dite positive si, pour tout x de E, le
nombre Q(x) est positif ou nul.

Exemples

Dans E = R2 , notons x = (x1 , x2 ) et y = (y1 , y2 ). La base de R2 étant constituée des vecteurs


e1 = (1, 0) et e2 = (0, 1).

1) Soit la forme bilinéaire f définie par

f (x, y) = x1 y1 − x2 y2 .

Cette forme n’est pas positive, car


Q(e2 ) = −1 .
Elle n’est pas dégénérée. En effet, si x appartient à E ⊥ , on doit avoir

0 = f (x, e1 ) = x1 et 0 = f (x, e2 ) = −x2 .

Donc x = (0, 0) et l’orthogonal de E est réduit à (0, 0).

Les vecteurs isotropes vérifient


Q(x) = x21 − x22 = 0 .
Ce sont donc les vecteurs des deux droites vectorielles engendrées par (1, 1) et (1, −1) respectivement.
EA 6

2) Soit la forme bilinéaire f définie par

f (x, y) = x1 y1 .

Cette forme est positive, car Q(x) = x21 est toujours positif. Elle est dégénérée, car E ⊥ est la droite
vectorielle engendrée par e2 . Elle est donc de rang 1. Les vecteurs isotropes sont ceux de cette même
droite vectorielle.

Proposition 1 Une forme bilinéaire symétrique positive est non dégénérée, si et seulement si
Q(x) est nul uniquement si x est nul.

Si f est dégénérée, le sous-espace E ⊥ n’est pas réduit à zéro et ses éléments sont des vecteurs isotropes.
Il existe donc x non nul, tel que Q(x) soit nul.

Réciproquement, si f n’est pas dégénérée, soit x un vecteur isotrope. On a alors, quels que soient y
dans E et λ réel,

0 ≤ Q(λx + y) = λ2 Q(x) + 2λf (x, y) + Q(y) = 2λf (x, y) + Q(y) ,

et cette inégalité n’est vraie pour tout λ que si f (x, y) est nul. Donc, pour tout y, le nombre f (x, y)
est nul, ce qui prouve que x appartient à E ⊥ = {0}. Il en résulte que x est nul.

Inégalité de Schwarz

Théorème 2 Si f est une forme bilinéaire symétrique positive, quels que soient x et y dans E on
a l’inégalité p p
|f (x, y)| ≤ Q(x) Q(y) .

Considérons le polynôme de la variable λ,

Q(λx + y) = λ2 Q(x) + 2λf (x, y) + Q(y) .

Si Q(x) est nul, la même démonstration que dans le théorème précédent montre que f (x, y) est nul
pour tout y, et donc l’inégalité est vérifiée.

Supposons donc Q(x) non nul. Le polynôme du second degré en λ est toujours positif. Il en résulte que
son discriminant est négatif, d’où
f (x, y)2 − Q(x)Q(y) ≤ 0 ,
ce qui donne l’inégalité dans ce cas.
EA 7

Inégalité de Minkowski

Théorème 3 Si f est une forme bilinéaire symétrique positive, quels que soient x et y dans E
p p p
Q(x + y) ≤ Q(x) + Q(y) .

On a
p p
Q(x + y) = Q(x) + 2f (x, y) + Q(y) ≤ Q(x) + 2 Q(x) Q(y) + Q(y)
≤ ( Q(x) + Q(y))2 .
p p

Conséquence
p : si f est une forme bilinéaire symétrique positive et non dégénérée, l’application qui à
x associe Q(x) est une norme sur E, appelée, norme euclidienne associée à f .

Produit scalaire

Définition 11 On appelle produit scalaire sur E, une forme bilinéaire symétrique positive et
non dégénérée sur E.

Un espace vectoriel muni d’un produit scalaire est alors appelé espace euclidien.

On notera (x|y) le produit scalaire de deux vecteurs et kxk la norme euclidienne associée. L’orthogo-
nalité dans E sera celle définie à l’aide du produit scalaire.

Avec ces notations, on a donc :

inégalité de Schwarz |(x|y)| ≤ kxk kyk ,


inégalité de Minkowski kx + yk ≤ kxk + kyk ,
théorème de Pythagore (x|y) = 0 si et seulement si kx + yk2 = kxk2 + ky|2 .
Exemples

1) Dans Rp , si x = (x1 , . . . xp ) et y = (y1 , . . . , yp ), on définit un produit scalaire en posant

p
X
(x|y) = xi yi ,
i=1

donc
p
X
kxk2 = x2i .
i=1
EA 8

L’inégalité de Schwarz se traduit par


p v p
v
u p
X u
uX 2 uX
xi yi ≤ t xi y2 .
t

i
i=1 i=1 i=1

2) Dans C ( [ a, b ] ), on définit un produit scalaire en posant


Zb
(u|v) = u(t)v(t) dt ,
a

et
Zb
kuk2 = u(t)2 dt .
a
L’inégalité de Schwarz se traduit par
b v v
Zb
Z u u b
u uZ
u(t)v(t) dt ≤ u 2 t v(t)2 dt .
t u(t) dt
u


a a a

Dans la suite de cette partie nous nous plaçons dans un espace vectoriel euclidien.

Proposition 2 Une famille de vecteurs non nuls deux à deux orthogonaux est une famille libre.

Si l’on a
λ1 x1 + · · · + λp xp = 0 ,
en effectuant le produit scalaire avec xi , on obtient
0 = (xi |λ1 x1 + · · · + λp xp ) = λi (xi |xi ) ,
car (xi |xj ) est nul par hypothèse lorsque i est distinct de j. Mais (xi |xi ) est non nul, donc λi est nul
pour tout i, et la famille est libre.

Définition 12 On appelle base orthogonale, une base de E formée de vecteurs deux à deux
orthogonaux. La base sera orthonormée, si de plus tous les vecteurs sont de norme 1.

Proposition 3 Si (e1 , . . . , ep ) est une base orthonormée de E, on a


p
X
x= (x|ei ) ei .
i=1
EA 9

En effet, si
p
X
x= λi ei ,
i=1
on obtiendra
p
X
(x|ej ) = λi (ei |ej ) = λj .
i=1
Remarque : si x est non nul, il n’existe que deux vecteurs de norme 1 colinéaires à x. Ce sont les
vecteurs
1 1
x et − x.
kxk kxk

Procédé d’orthonormalisation de Schmitt

Proposition 4 Soit (e1 , . . . , en , . . .) une suite (éventuellement finie) de vecteurs indépendants


d’un espace euclidien E. Il existe une suite (u1 , . . . , un , . . .) de vecteurs orthogonaux deux à deux
et de norme 1 telle que
a) quel que soit n, les systèmes (e1 , . . . , en ) et (u1 , . . . , un ) engendrent le même espace.
b) quel que soit n, le vecteur en se décompose dans la base (u1 , . . . , un ) sous la forme

en = αnn un + αnn−1 un−1 + · · · + αn1 u1

avec ann > 0.

Remarque : le vecteur un est donc orthogonal à l’espace vectoriel engendré par (e1 , . . . , en−1 ).

Méthode

On prend
u′1
u′1 = e1 puis u1 = .
ku′1 k
Pour le second vecteur
u′2
u′2 = e2 − (e2 |u1 )u1 puis u2 = .
ku′2 k
Pour le troisième vecteur
u′3
u′3 = e3 − (e3 |u1 )u1 − (e3 |u2 )u2 puis u3 = .
ku′3 k
Si les vecteurs u1 , . . . , un−1 ont été construits, on obtient alors
u′n
u′n = en − (en |u1 )u1 − · · · − (en |un−1 )un−1 puis un = .
ku′n k
EA 10

Les vecteurs (e1 , .., en ) et (u1 , .., un ) engendrent bien le même espace, car la matrice de changement de
bases est triangulaire et ses éléments diagonaux sont

αnn = ku′n k > 0 .

D’autre part, si l’on suppose que (u1 , . . . , un−1 ) est une famille de vecteurs orthonormés, on a, pour
1 ≤ i ≤ n − 1,

(u′n |ui ) = (en |ui ) − (en |un−1 )(un−1 |ui ) − · · · − (en |ui )(ui |ui ) − · · · − (en |u1 )(u1 |ui )
= (en |ui ) − (en |ui )(ui |ui ) = 0 ,

et u′n , donc un , est orthogonal à ui . De plus un est de norme 1.

Réciproquement, cette construction est la seule possible. En effet, si (u1 , . . . , un ) est une base ortho-
normée du sous-espace engendré par (e1 , . . . , en ), on a nécessairement
n
X
en = (en |uj )uj ,
j=1

donc
n−1
X
(en |un )un = en − (en |uj )uj = u′n ,
j=1

et les vecteurs un et u′n sont colinéaires. Alors, en prenant la norme

|(en |un )| = ku′n k .

De plus
αnn = (en |un ) .
Si l’on veut avoir αnn strictement positif, il faudra donc prendre

αnn = ku′n k .

Corollaire 1 Si E est un espace de dimension finie, il existe des bases orthonormées de E.

Il suffit d’appliquer le procédé de Schmitt en partant d’une base quelconque (e1 , . . . , ep ) de E. Cela
fournit une base orthonormée (u1 , . . . , up ) de E.

Remarquons que si les coordonnées de x et de y dans une base orthonormée sont (x1 , . . . , xp ) et
(y1 , . . . , yp ) respectivement, on a
v
p
X
u p
t
uX
(x|y) = xi yi = X.Y et kxk = t x2i .
i=1 i=1
EA 11

Théorème de projection

Théorème 4 Soit E un espace euclidien, et F un sous-espace de E de dimension finie p. Pour


tout x de E, il existe un vecteur y et un seul dans F , appelé projection orthogonale de x sur F ,
tel que x − y soit orthogonal à F .

Si l’on pose
y = prF (x) ,
on définit ainsi une application linéaire prF de E sur F .

Si (e1 , . . . , ep ) est une base orthonormée de F , on a alors

prF (x) = (x|e1 )e1 + · · · + (x|ep )ep .

Enfin, y est l’unique vecteur de F tel que

d(x, F ) = inf kx − tk = kx − yk .
t∈F

Alors
p
X
d(x, F )2 = kxk2 − kyk2 = kxk2 − (x|ei )2 .
i=1

Unicité Soit y et y ′ dans F , tels que x − y et x − y ′ soient orthogonaux à F . Alors le vecteur

(x − y) − (x − y ′ ) = y ′ − y

est orthogonal à F et appartient à F : c’est donc le vecteur nul et les vecteurs y et y’ sont égaux.

Existence Soit
y = (x|e1 )e1 + · · · + (x|ep )ep ,
où (e1 , . . . , ep ) est une base orthonormée de F . Alors

(x − y|ei ) = (x|ei ) − (y|ei ) = 0 .

Ce vecteur est donc orthogonal à F .

L’application qui à x associe (x|e1 )e1 + · · · + (x|ep )ep est visiblement linéaire. De plus, si x est dans F ,
le vecteur x − x est orthogonal à F donc

prF (x) = x ,

et l’application est surjective.


EA 12

Enfin, si t est dans F ,


x − t = (x − y) + (y − t) .
Mais, si
y = prF (x) ,
le vecteur x − y est dans F ⊥ et y − t dans F . Donc, d’après le théorème de Pythagore,

kx − tk2 = kx − yk2 + ky − tk2 ≥ kx − yk2 ,

ce qui prouve que


inf kx − tk = kx − yk .
x∈F

De plus, le nombre kx − tk est égal à kx − yk si et seulement si ky − tk est nul (toujours d’après le


théorème de Pythagore), donc y est bien l’unique vecteur de F tel que

d(x, F ) = kx − yk .

Corollaire 2 Soit E un espace de dimension finie, et F un sous-espace de E. Alors F ⊥ est


l’unique supplémentaire de F qui soit orthogonal à F , et

(F ⊥ )⊥ = F .

Si x appartient à E, on peut écrire

x = (x − prF (x)) + prF (x) ,

et, puisque x − prF (x) et prF (x) sont dans F ⊥ et F respectivement, on a

E = F⊥ + F .

D’autre part
F ⊥ ∩ F = {0} ,
ce qui montre que
E = F ⊕ F⊥ .
Les sous espaces F et F ⊥ sont donc supplémentaires.

Si F ′ est un supplémentaire de F orthogonal à F , il est nécessairement inclus dans F ⊥ , mais F ⊥ et F ′


sont tous deux des supplémentaires de F et ont donc même dimension, alors

F′ = F⊥ .

En particulier, comme F est un supplémentaire orthogonal de F ⊥ on a

(F ⊥ )⊥ = F .
EA 13

Remarques

1) Si l’on décompose x sous la forme


x = x1 + x2 ,

où x1 est dans F , et x2 dans F ⊥ , on a

x1 = prF (x) et x2 = prF ⊥ (x) = x − prF (x) .

2) Si (e1 , · · · , er , er+1 , · · · , ep ) est une base orthonormée de E, telle que (e1 , · · · , er ) soit une base de
F , alors (er+1 , . . . , ep ) est une base de F ⊥ .

3) Pour déterminer F ⊥ , on peut partir d’une base (f1 , . . . , fr ) de F , la compléter pour avoir une base
(f1 , . . . , fp ) de E, puis appliquer le procédé de Schmitt pour obtenir une base orthonormée (e1 , . . . , ep )
de E. Alors (e1 , .., er ) est une base de F , et (er+1 , . . . , ep ) est une base de F ⊥ .

On peut aussi, à partir d’une base de F , écrire les relations



 (x|f1 ) = 0
.......... ,
(x|fr ) = 0

où (e1 , . . . , ep ) est une base de E et


p
X
x= xi ei .
i=1

Cela fournit un système de r équations à p inconnues, dont les solutions constituent l’espace F ⊥ (de
dimension p − r).

4) Dans un espace E de dimension infinie, on peut avoir

F ⊥ = {0}

sans que F soit égal à E, et donc F ⊥⊥ est différent de F .

II - Espaces vectoriels sur C


Toute l’étude précédente peut se reprendre dans le cadre des espaces vectoriels sur C avec des résultats
analogues.

On désigne par f une application de E × E dans C cette fois.


EA 14

Définition 13 L’application f est appelée forme sesquilinéaire, si, pour tout y fixé de E,
l’application qui à x associe f (x, y) est linéaire, et pour tout x fixé de E, l’application qui à y
associe f (x, y) est linéaire. Ces deux conditions se traduisent par

quels que soient x, x′ , y, y ′ dans E, et λ et µ, dans C, on a

f (λx + µx′ , y) = λf (x, y) + µf (x′ , y) et f (x, λy + µy ′ ) = λ̄f (x, y) + µ̄f (x, y ′ ) .

En particulier
Q(λx) = |λ|2 Q(x) .

Définition 14 On dira que la forme sesquilinéaire est hermitienne, si, quels que soient x et y
dans E
f (x, y) = f (y, x) .
Dans ce cas l’application Q est appelée, forme quadratique hermitienne associée à f .

Remarque : pour montrer que f est hermitienne, il suffira donc de montrer la symétrie hermitienne,
et la linéarité par rapport à la première variable.

Si E est de dimension finie p et si B = (e1 , . . . , ep ) est une base de E, on aura cette fois
X
f (x, y) = xi ȳj f (ei , ej ) .
1≤i,j≤p

La matrice A de la forme f sera encore


h i
A = f (ei , ej )
1≤i,j≤p

et
f (x, y) = tX.A.Y .
Si f est hermitienne, sa matrice vérifie

t
A = A,
(matrice hermitienne), car
f (ei , ej ) = f (ej , ei ) .
Dans ce cas
p
X X
Q(x) = |xi |2 f (ei , ei ) + 2 Re xi x̄j f (ei , ej ) .
i=1 1≤i<j≤p
EA 15

La formule de changement de bases devient

A′ = tP.A.P .

L’identité de polarisation s’écrit :


1
f (x, y) = (Q(x + y) − Q(x − y) + iQ(x + iy) − iQ(x − iy)) .
4
Les notions d’orthogonalité, de noyau, de vecteurs isotropes, de formes non dégénérées, de formes po-
sitives restent les mêmes que dans le cas réel.

On a encore les résultats suivants.

Théorème de Pythagore Si x et y sont orthogonaux

Q(x + y) = Q(x) + Q(y) .

Inégalité de Schwarz p p
|f (x, y)| ≤ Q(x) Q(y) ,
Cette inégalité se démontre en regardant Q(λx + y). On a

Q(λx + y) = |λ|2 Q(x) + 2 Re(λf (x, y)) + Q(y) ≥ 0 .

Si Q(x) est non nul, on prend


f (x, y)
λ=− ,
Q(x)
et l’on obtient l’inégalité voulue en remplaçant dans Q(λx + y).

Si Q(x) est nul,


Q(λx + y) = 2 Re(λf (x, y)) + Q(y)
ne peut garder un signe constant que si f (x, y) est nul lui aussi.

Inégalité de Minkowski
Q(x + y) ≤ Q(x) + Q(y) .
Elle se déduit de la précédente. En effet
p p
Re f (x, y) ≤ |f (x, y)| ≤ Q(x) Q(y) ,

donc

Q(x + y) = Q(x) + Q(y) + 2 Re f (xy) ≤ Q(x) + Q(y) + 2 Q(x) Q(y) = ( Q(x) + Q(y) )2 .
p p p p

p
Si f est une forme hermitienne positive non dégénérée, l’application qui à x associe Q(x) est une
norme sur E, appelée, norme hermitienne associée à f .
EA 16

Définition 15 On appelle produit scalaire sur E, une forme hermitienne positive et non dégénérée.
Un espace vectoriel E muni d’un produit scalaire est alors appelé espace hermitien.

Tous les résultats obtenus dans la partie I restent vrais dans ce cadre. (Procédé de Schmitt, théorème
de projection, supplémentaire orthogonal etc...)

Si (u1 , . . . , up ) est une base orthonormée de E, et si x et y ont pour coordonnées dans cette base
(x1 , . . . , xp ) et (y1 , . . . , yp ) respectivement, on a
v
Xp u p
t
uX
(x|y) = xi ȳi = X.Y et kxk = t |xi |2 .
i=1 i=1

Remarque : si x est non nul, les vecteurs colinéaires à x et de norme 1 sont

eiθ
x où θ ∈ R .
kxk

III - Espaces euclidiens ou hermitiens et endomorphismes


Dans ce qui suit E est un espace euclidien ou hermitien de dimension finie p.

Théorème 5 Soit h un endomorphisme de E. Il existe un endomorphisme et un seul h∗ de E tel


que, quels que soient x et y dans E,

(h(x)|y) = (x|h∗ (y)) .

Soit A la matrice de h dans une base orthonormée B. Si x et y sont deux vecteurs de E, nous notons
X et Y les matrices colonnes de ces vecteurs dans B. On peut écrire

t
(A.X).Y = tX. tA.Y = tX.( tA.Y ) .

Si nous notons h∗ l’endomorphisme de E de matrice

A∗ = tA

dans la base B, la relation ci-dessus se traduit donc par

(h(x)|y) = (x|h∗ (y)) ,

et ceci, quels que soient x et y dans E.


EA 17

S’il existait un autre endomorphisme h′ de E, tel que, quels que soient x et y dans E

(h(x)|y) = (x|h′ (y)) ,

on aurait en soustrayant
0 = (x|h′ (y) − h∗ (y)) ,
et comme ceci est vrai pour tout x, on en déduirait que h′ (y) − h∗ (y) est nul pour tout y, et donc que
h et h′ sont égaux. Donc h est l’unique endomorphisme vérifiant la relation ci dessus.

Définition 16 L’endomorphisme h∗ est appelé endomorphisme adjoint de h.

Sa matrice dans une base orthonormée est alors A∗ , si la matrice de h est A. Cette matrice A∗ est
appelée adjointe de A. (Si A est réelle, la matrice adjointe est la transposée de A).

Définition 17 On dit que l’endomorphisme h de E est autoadjoint, si

h = h∗ .

La matrice d’un endomorphisme autoadjoint dans une base orthonormée vérifie donc aussi
A = A∗ .

C’est une matrice hermitienne. (Symétrique si A est réelle).

Propriétés des endomorphismes autoadjoints


a) les valeurs propres sont réelles ;
b) les sous-espaces propres sont orthogonaux deux à deux ;
c) si F est un sous-espace de E stable par h, alors F ⊥ l’est aussi ;
d) l’endomorphisme h est diagonalisable dans une base orthonormée ;
e) l’orthogonal du noyau de h est l’image de h∗ (et réciproquement).

Soit λ et µ deux valeurs propres de f , et x et y deux vecteurs propres associés. On a


(h(x)|y) = (λx|y) = λ(x|y) ,

mais aussi
(h(x)|y) = (x|h(y)) = (x|µy) = µ̄(x|y) .
Donc, si l’on prend λ = µ et x = y, on en tire

λ = λ̄ ,
EA 18

et λ est réelle.

Si l’on prend λ 6= µ, on en tire


(x|y) = 0 ,
ce qui prouve que les sous-espaces propres Eλ et Eµ sont orthogonaux. Ceci démontre donc les pro-
priétés a) et b).

Si F est stable par h, c’est-à-dire si, pour tout x de F , le vecteur h(x) est aussi dans F , prenons y
dans F ⊥ . On a, si x est dans F ,
(x|h(y)) = (h(x)|y) = 0 ,
ce qui montre que h(y) appartient à F ⊥ qui est donc stable par h. Ceci démontre c).

Soit λ1 , . . . , λr les valeurs propres distinctes de h, et

F = Eλ1 ⊕ · · · ⊕ Eλr .

Ce sous-espace est stable par h, car, si l’on a

x = x1 + · · · + xr ,

avec xi dans Fλi , le vecteur


h(x) = λ1 x1 + · · · + λr xr
appartient aussi à F . Donc, d’après c), le sous-espace F ⊥ est aussi stable par h. Soit alors h′ la
restriction de h à F ⊥ . C’est un endomorphisme autoadjoint de F ⊥ , donc, si F n’est pas réduit à 0, il
possède au moins une valeur propre λ associée à un vecteur propre x. Mais λ est aussi valeur propre
de h, donc il existe i tel que
λ = λi .
Alors x appartient à Eλi donc à F mais aussi à F ⊥ , d’où une contradiction. C’est donc que F ⊥ est
réduit à 0 et que F = E. Il en résulte que h est diagonalisable.

Les sous-espaces propres sont orthogonaux deux à deux. En choisissant dans chacun une base ortho-
normée, la réunion sera aussi une base orthonormée de E ; on a donc d).

Enfin, si x appartient à Ker h, et y à E,

0 = (h(x)|y) = (x|h(y)) ,

ce qui montre que tout élément de Ker h est orthogonal à tout élément de Im h, c’est-à-dire

(Ker h)⊥ = Im h ,

puis, en prenant l’orthogonal,


Ker h = (Im h)⊥ .
EA 19

Proposition 5 Si f est une forme bilinéaire symétrique sur un espace euclidien E de dimension
finie p, et si A est la matrice de f dans une base orthonormée B, alors le rang de f est aussi le rang
de A. En conséquence, pour toute matrice P inversible,

rg( tP.A.P ) = rg A .

Soit h l’endomorphisme de E de matrice A dans B ; il est autoadjoint puisque A est symétrique. On a

rg f = p − dim{x | f (x, y) = 0 ∀y ∈ E} .

Mais
f (x, y) = (x|h(y)) .
Dire que cette expression est nulle pour tout y de E, équivaut à dire que x appartient à l’orthogonal
de l’image de h qui est Ker h. Alors

rg f = p − dim(Ker h) = dim(Im h) = rg A .

Définition 18 Un automorphisme h de E est dit unitaire (orthogonal dans le cas réel) lorsque

h−1 = h∗ .

Dans une base orthonormée, la matrice A de h vérifie donc

A−1 = A∗ .

De telles matrices sont dites unitaires (orthogonales si elles sont réelles).

Proposition 6 Une matrice A est unitaire si et seulement si, une des propriétés équivalentes
suivantes est vérifiée
a) A∗ .A = I
b) les vecteurs colonnes de A forment une base orthonormée de Cp .
c) les vecteurs lignes de A forment une base orthonormée de Cp .

La propriété a) équivaut à écrire


A−1 = A∗ .
h i
Si l’on note aij la matrice A et
1≤i,j≤p

vi = (ai1 , . . . , aip )
EA 20

le i−ème vecteur ligne de la matrice A, on a


p
X
cik = aij ākj = (vi |vk ) .
j=1

Mais cik est le coefficient de la i−ème ligne et de la k−ème colonne de la matrice A.A∗ . Donc dire que
A est unitaire, équivaut à dire que A.A∗ est la matrice unité I, c’est-à-dire que

1 si i = k
cik = ,
0 si i 6= k
ou encore 
1 si i = k
(vi |vk ) = ,
0 si i =
6 k
ce qui signifie que les vecteurs (v1 , . . . , vp ) forment une base orthonormée de Cn pour le produit scalaire
rendant la base canonique orthonormée.

Enfin, comme A est unitaire si et seulement si tA est unitaire, on passe facilement des lignes de A aux
colonnes de A.

Corollaire 3 La matrice de passage d’un changement de bases orthonormées, est une matrice
unitaire.

En particulier, si A est une matrice symétrique réelle (resp. hermitienne), il existe P orthogonale (resp.
unitaire) telle que P −1 .A.P soit diagonale.

Propriétés des endomorphismes unitaires


a) les valeurs propres sont de module 1 ;
b) les sous-espaces propres sont orthogonaux deux à deux ;
c) si F est stable par h, alors F ⊥ l’est aussi ;
d) l’automorphisme h est diagonalisable dans une base orthonormée de vecteurs propres.

Si A est la matrice de h dans une base orthonormée, soit λ et µ deux valeurs propres, et x et y deux
vecteurs propres associés. On a

(h(x)|h(y)) = (λx|µy) = λµ̄(x|y) .

Mais aussi
(h(x)|h(y)) = (x|h∗ h(y)) = (x|y) .
Donc, si λ = µ et x = y, on en déduit
λλ̄ = |λ|2 = 1 ,
EA 21

et λ est de module 1.

Si λ 6= µ, comme λ est de module 1, le produit, λµ̄ est différent de λλ̄ = 1, donc (x|y) est nul, et les
sous-espaces propres Eλ et Eµ sont orthogonaux. Ceci montre donc a) et b).

Si F est stable par h, alors h est une bijection de F sur F , et h∗ = h−1 aussi. Alors, si x est dans F
et y dans F ⊥ , le vecteur h∗ (x) est dans F , donc

0 = (h∗ (x)|y) = (x|h(y)) ,

ce qui montre que h(y) appartient à F ⊥ qui est bien stable par h. On a donc c).

La propriété d) se démontre comme pour les endomorphismes autoadjoints.

Proposition 7 L’ensemble des matrices orthogonales d’ordre n est un groupe pour le produit
matriciel, appelé groupe orthogonal et noté O(n).

On montre facilement que c’est un sous-groupe du groupe des matrices carrées d’ordre n inversibles.
En effet, si A et B sont orthogonales, alors
t
(A.B) = tB. tA = B −1 .A−1 = (A.B)−1

et donc A.B est orthogonale. On a aussi


t
(A−1 ) = t( tA) = A = (A−1 )−1 ,

donc A−1 est orthogonale.

On a vu que les valeurs propres d’une matrice orthogonale sont des nombres complexes de module 1.
Les valeurs propres réelles sont donc 1 ou −1, et si λ est une valeur propre non réelle d’ordre r, alors
λ̄ est aussi une valeur propre non réelle d’ordre r. Le produit des valeurs propres est donc 1 ou −1,
selon que la valeur propre −1 est d’ordre pair ou impair.

On appellera O+ (n) (resp. (O− (n)) l’ensemble des matrices orthogonales de déterminant +1 (resp.
−1). Il est facile de vérifier que O+ (n) est un sous-groupe de O(n) pour le produit de matrices.

Exemple Dans R2 , l’ensemble O+ (n) est constitué des matrices de rotation


 
cos θ − sin θ
,
sin θ cos θ

alors que O− (n) est formé des matrices de symétries orthogonales


 
cos θ sin θ
.
sin θ − cos θ
EA 22

IV Réduction des formes quadratiques réelles

Définition 19 Soit E un espace vectoriel sur R. On appelle forme linéaire sur E une application
linéaire de E dans R.

Si E est de dimension finie p, soit B = (e1 , . . . , ep ) une base de E. Si x a pour coordonnées (x1 , . . . , xp )
dans cette base, et si Φ est une forme linéaire sur E, on a
p
X
Φ(x) = xi Φ(ei ) .
i=1

Donc Φ est déterminée par sa matrice ligne Φ(e1 ) . . . , Φ(ep ) , et l’espace vectoriel E ∗ des formes
 

linéaires sur E est isomorphe à E et de dimension p. Pour montrer que des formes h (Φ1 ,i. . . , Φq ) sont
linéairement indépendantes dans E ∗ , il suffira donc de montrer que la matrice (Φi (ej ) 1≤i≤q
est de
1≤j≤p
rang q.

Soit Q une forme quadratique sur E. Réduire la forme quadratique Q, c’est trouver r formes linéaires
Φ1 , . . . , Φr linéairement indépendantes, et r réels non nuls λ1 , . . . , λr , tels que, pour tout x de E

Q(x) = λ1 (Φ1 (x))2 + · · · + λr (Φr (x))2 .

On peut envisager le problème d’une autre manière. Soit B = (e1 , . . . , ep ) une base de E, et (x1 , . . . , xp )
les coordonnées de x dans cette base. Soit A la matrice de Q dans B. La forme linéaire Φi est alors
une fonction gi des variables (x1 , . . . , xp ). Posons

 y1 = g1 (x1 , .., xp )
................ .
yr = gr (x1 , .., xp )

Si r < p, on peut compléter par p − r autres relations, de manière à obtenir une matrice S inversible,
telle que, matriciellement
Y = S.X
   
y1 x1
 ..   .. 
si Y et X sont les matrices colonnes  .  et  .  respectivement.
yp xp
Cela signifie que l’on a effectué un changement de bases, et que, dans une nouvelle base B ′ , la forme
quadratique Q est définie par
Q(x) = λ1 y12 + · · · + λr yr2 ,

où (y1 , . . . , yr ) sont les coordonnées de x dans B ′ .


EA 23

Il faut remarquer que la matrice dont les colonnes sont les vecteurs de B ′ décomposés dans B est S −1 .
On a alors  
λ1
..
.
 
 
 
t −1 −1 ′
 λr 
(S ).A.(S ) = A =   .
 0 

 . . 
 . 
0
C’est une matrice diagonale. Donc, réduire la forme Q, revient à trouver une base B ′ dans laquelle la
matrice de Q est diagonale. En particulier, le nombre r ne dépend pas de la décomposition puisque
c’est le rang de A′ donc le rang de Q.

Remarque : la base B ′ est une base orthogonale pour la forme quadratique Q puisque f (e′i , e′j ) est
nul si i est différent de j.

Méthodes de réduction

A) Méthode de diagonalisation

La matrice A de Q, dans B étant symétrique, il existe P orthogonale telle que

P −1 .A.P = A′

soit diagonale. Mais


P −1 = tP ,
donc
t
P.A.P = A′ ,
et A′ est la matrice de Q dans une nouvelle base B ′ . Si les valeurs propres de A′ sont λ1 , . . . , λp , on a
dans la nouvelle base
Q(x) = λ1 x21 + · · · + λp x2p .
B) Méthode de Gauss

Elle repose sur la méthode classique de réduction d’un trinôme du second degré à sa forme canonique.

Si a 6= 0, on a
2
4ac − b2

2 b
ax + bx + c = a x + + .
2a 4a
La forme Q étant donnée dans B par une expression de la forme
p
X X
Q(x) = aii x2i + 2 aij xi xj ,
i=1 1≤i<j≤p
EA 24

on choisit un terme carré aii x2i de coefficient non nul, s’il en existe un, et on considère Q(x) comme
un trinôme du second degré en xi . On peut donc écrire
 2
1 X
Q(x) = aii xi + aij xj  + g2 (x1 , . . . , xi−1 , xi+1 , . . . , xp ) ,
aii
j6=i

puis on regarde dans g2 , qui ne dépend plus que de p − 1 variables, s’il existe un terme carré non nul
et l’on recommence l’opération jusqu’à ce que toutes les variables aient été utilisées.

Si au cours du calcul, une des formes quadratiques gk ne contient plus de terme carré, on effectue un
changement de variables qui en fait apparaître un. En remarquant que
1
xi xj = ((xi + xj )2 − (xi − xj )2 ) ,
4
on posera
1 1
x′i = (xi + xj ) , x′j = (xi − xj ) ,
2 2
et, si ℓ est distinct de i et de j,
x′ℓ = xℓ ,
puis on exprimera gk en fonction des nouvelles variables.

La méthode précédente assure que les formes linéaires obtenues sont linéairement indépendantes. (Dans
le cas où il existe des termes carrés à chaque étape, la matrice de passage est triangulaire).

D’après ce qui précède, on peut donc toujours réduire une forme quadratique, en l’écrivant

Q(x) = λ1 (Φ1 (x))2 + · · · + λr ((Φr (x))2 ,

où les formes
p linéaires sont indépendantes et les λi non nuls. On peut d’ailleurs, en rentrant dans les
carrés |λi |, faire en sorte que les coefficients soient 1 ou −1.

Notons σ+ le nombre de coefficients λi strictement positifs, et σ− le nombre de coefficients strictement


négatifs. La somme σ+ + σ− est donc le rang r de Q. Mais de plus on a le résultat suivant.

Loi d’inertie de Sylvester

Proposition 8 Les nombres σ+ et σ− ne dépendent pas de la décomposition de Q. Le couple


(σ+ , σ− ) s’appelle la signature de Q.

En particulier, si A est la matrice de Q dans une base B, les nombre σ+ et σ− sont respectivement
le nombre de valeurs propres strictement positives de A et le nombre de valeurs propres strictement
négatives de A.
EA 25

Prenons deux bases (e1 , . . . , ep ) et (e′1 , . . . , e′p ) dans lesquelles Q s’écrit respectivement

Q(x) = x21 + · · · + x2s − x2s+1 − . . . − x2r


et
Q(x) = y12 + · · · + ys2′ − ys2′ +1 − . . . − yr2 .
Il s’agit de montrer que s = s′ .

Soit F le sous-espace de E engendré par (e1 , . . . , es ) et G celui engendré par (e′s′ +1 , . . . , e′p ).

Sur F , on a
Q(x) = x21 + . . . + x2s ,
et donc Q est une forme quadratique positive et non dégénérée (rg Q = dim F ). Alors Q(x) est stric-
tement positive sur F \ {0}.

Sur G,
Q(x) = −(ys2′ +1 + . . . + yr2 ) ,
et donc −Q, est une forme quadratique positive, et Q(x) est négative sur G. Il résulte de ces deux
remarques que F ∩ G est réduit à 0. Donc F et G sont indépendants et
dim F + dim G ≤ p ,
c’est-à-dire
s + (p − s′ ) ≤ p ,
et donc
s ≤ s′ .
En inversant les rôles de s et s′ on aura l’inégalité inverse, d’où l’égalité.

Remarque : si P est inversible, les matrices A et tP.A.P n’ont, en général pas les mêmes valeurs
propres, mais le nombre de valeurs propres strictement positives (resp. strictement négatives, nulles),
est le même pour les deux matrices.

Exercices
1) Dans R3 , soit x = (x1 , x2 , x3 ) et y = (y1 , y2 , y3 ). Pour chacune des formes bilinéaires f suivantes,
écrire la matrice A dans la base canonique, et dire si f est symétrique. Dans ce cas préciser le rang,
déterminer E ⊥ et les vecteurs isotropes. Quelles sont celles qui sont positives, qui sont des produits
scalaires ?

a) f (x, y) = x1 y1 + x2 y2 − x3 y3
b) f (x, y) = 2x1 y1 + x3 y3 + x1 y3 + x3 y1
c) f (x, y) = x1 y2 + x2 y1 + x1 y 1 + 2x2 y 2 + 3x3 y3
d) f (x, y) = x1 y2 + x1 y1 + x2 y2 + x3 y3
e) f (x, y) = x1 y1 + 3x2 y2 + 2x1 y2 + 2x2 y1 + x1 y3 + x3 y1 + x2 y3 + x3 y2
EA 26

2) A quelle condition la forme bilinéaire f suivante, définie sur R2 est-elle un produit scalaire ?

f (x, y) = ax1 y1 + bx1 y2 + b′ x2 y1 + cx2 y2 ,


où x = (x1 , x2 ) et y = (y1 , y2 ).

3) Soit (x|y) un produit scalaire sur un espace vectoriel E sur R. A quelle condition a-t-on égalité dans
l’inégalité de Schwarz ? dans l’inégalité de Minkowski ?

4) Montrer que dans l’espace vectoriel Mn (C) des matrices carrées d’ordre n à coefficients complexes,
on définit un produit scalaire en posant

(A|B) = tr(A∗ .B) .

5) a) Si k ∈ N, on pose

X nk
uk = .
n=0
k!
Montrer que cette série converge, et que, si k ≥ 1,
k−1  
X k−1
uk = ur .
r
r=0

En déduire que la suite (uk /e)k≥0 est une suite strictement croissante de nombres entiers, et calculer
uk pour 0 ≤ k ≤ 4.

b) Montrer que l’on définit un produit scalaire dans R[x] en posant



X P (n)Q(n)
(P |Q) = .
n!
n=0

Trouver les polynômes (P0 , P1 , P2 ) déduits de (1, x, x2 ) par le procédé de Schmitt.

6) Soit E l’espace vectoriel des fonctions développables en série entière de rayon R ≥ 1, à coefficients
réels.

a) Si l’on a

X ∞
X
n
f (x) = an x et g(x) = bn xn ,
n=0 n=0

et si |x| < |x′ | < 1, montrer qu’il existe une constante M , telle que pour tout entier n

|an bn | |x|n ≤ M |an | |x′ |n .

En déduire que la série



X
h(x) = an bn xn
n=0
EA 27

appartient à E.

b) Montrer que si x est un nombre fixé de l’intervalle ] 0, 1 [ , on définit sur E un produit scalaire en
posant

X
(f |g) = an bn xn .
n=0

En déduire que si x appartient à ] 0, 1 [



X xn ex/2
√ ≤ √ .



n=0 n! 1−x

7) Dans R5 , soit les vecteurs

V1 = (1, 0, −1, 2, 3) , V2 = (2, 1, −1, 3, 2) , V3 = (0, 2, −1, 4, 2) .

Trouver une base orthonormée de l’espace vectoriel F engendré par (VI , V2 , V3 ), puis une base de F ⊥ .

Soit W = (1, −1, 0, 2, −2). Calculer prF (W ), prF ⊥ (W ) et d(W, F ). (La base canonique de R5 est sup-
posée orthonormée).
Rb
8) Soit une fonction Φ continue, strictement positive, sur ] a, b [ , telle que les intégrales a xn Φ(x) dx
convergent pour tout entier n ≥ 0.

a) Montrer que l’on définit un produit scalaire sur C[x], en posant :


Z b
(P |Q) = P (x)Q(x)Φ(x) dx .
a

(où Q désigne le polynôme dont les coefficients sont les conjugués de ceux de Q).

Soit (P0 , P1 , ..., Pn ...) la famille orthonormée de polynômes, construite à partir de (1, x, .., xn , ...) par
le procédé de Schmitt.

b) Montrer que, si n ≥ 1, le polynôme Pn est un polynôme de degré n à coefficients réels, orthogonal


à Cn−1 [x].

c) Montrer que les racines de Pn sont réelles, et appartiennent à ] a, b [ . (Si x0 est racine de Pn , étudier
(Pn |Qn ) où Pn = (x − x0 )Qn ).

d) Montrer que les racines de Pn sont simples. (Si x0 est racine multiple de Pn étudier (Pn |Rn ), où
Pn = (x − x0 )2 Rn ).

e) Calculer P0 , P1 , P2 lorsque Φ(t) = e−t et ] a, b [ = ] 0, ∞ [ .


EA 28

9) Calculer
Z1
I= inf (sin(πx) − ax2 − bx − c)2 dx .
(a,b,c)∈R3
−1

(On considérera I comme la distance d’un élément f à un sous-espace F dans un espace euclidien
convenable).

10) Soit la matrice  


2 −1 2
1
A = −1 2 2.
3
2 2 −1
Vérifier que A est orthogonale et symétrique. Quelles sont ses valeurs propres ? Déterminer les sous-
espaces propres correspondants, ainsi qu’une matrice S telle que tS.A.S soit diagonale. Quelle est la
nature géométrique d’un endomorphisme de matrice A dans une base orthonormée de R3 ?

11) Soit h un endomorphisme d’un espace hermitien E, vérifiant

h∗ = −h ,

(h est dit antisymétrique). Montrer que

a) les valeurs propres de h sont imaginaires pures ;


b) les sous-espaces propres sont deux à deux orthogonaux ;
c) si F est un sous-espace stable par h, il en est de même de F ⊥ ;
d) h est diagonalisable dans une base orthonormée de vecteurs propres ;
e) (Ker h)⊥ = Im h ;
f) si h a pour matrice dans une base orthonormée
 
0 1 0
A = −1 0 1
0 −1 0

déterminer les valeurs propres et les vecteurs propres. Trouver S unitaire telle que S −1 .A.S soit dia-
gonale.

12) Déterminer la signature et le rang des formes quadratiques suivantes. Donner une matrice S telle
que tS.A.S soit diagonale.
a) 4x2 + y 2 − 8z 2 + 4xy − 4xz + 8yz
b) − z 2 + t2 − 4xy − 2xz + 2xt − 2yz − 2yt
c) xy + xz + xt + yz + yt + zt.
13) Déterminer la signature et le rang des formes quadratiques suivantes
a) 5x2 + y 2 + az 2 + 4xy − 2xz − 2yz (a constante réelle)
b) (ax + y)2 + (bx + z)2 − (y + z)2 (a et b constantes réelles)
c) a(x21 + · · · + x2n ) − (x1 + · · · + xn )2 (a constante réelle).
EA 29

14) Soit a1 , . . . , an des nombres réels. Trouver le rang et la signature de la forme quadratique
X
ai aj xi xj .
1≤i,j≤n
h i
En déduire les valeurs propres de la matrice A = ai aj .
1≤i,j≤n

15) Soit E un espace euclidien de dimension finie et Q une forme quadratique de matrice A dans une
base orthonormée. Soit Λ la plus grande valeur propre de A et λ la plus petite. Montrer que pour tout
x de E
λkxk2 ≤ Q(x) ≤ Λkxk2 .
Quand a-t-on égalité dans une des deux inégalités ci-dessus ?

16) Soit S la sphère de R3 d’équation x2 + y 2 + z 2 = 1. Soit Φ l’application de S dans R , qui à (x, y, z)


associe
Φ(x, y, z) = y 2 + 2xy + 4xz + 2yz .
Trouver les points de S où Φ présente un maximum.