Académique Documents
Professionnel Documents
Culture Documents
FORMES QUADRATIQUES
PRODUITS SCALAIRES
Définition 1 L’application f est appelée forme bilinéaire, si, pour tout y fixé de E, l’application
qui à x associe f (x, y) est linéaire, et si, pour tout x fixé dans E, l’application qui à y associe f (x, y)
est linéaire.
Q(λx) = λ2 Q(x) .
Q(x + y) = Q(x) + f (x, y) + f (y, x) + Q(y) .
Définition 2 Une forme bilinéaire f est dite symétrique, si, quels que soient x et y dans E,
f (x, y) = f (y, x) .
Remarque : pour montrer que f est bilinéaire symétrique, il suffira donc, de démontrer la symétrie,
et la linéarité par rapport à une des deux variables.
EA 2
La forme bilinéaire f est donc entièrement déterminée par les nombres réels f (ei , ej ).
Le nombre réel f (x, y) peut se confondre avec une matrice carrée d’ordre 1. Alors, si X et Y sont les
vecteurs colonnes
x1 y1
.. ..
X = . et Y = . ,
xp yp
on aura
f (x, y) = tX.A.Y .
Dire que la forme bilinéaire f est symétrique revient à dire, que, quels que soient les indices i et j
f (ei , ej ) = f (ej , ei ) ,
c’est-à-dire que la matrice A de f est une matrice symétrique. Dans ce cas
p
X X
f (x, y) = xi yi f (ei , ei ) + (xi yj + xj yi )f (ei , ej ) ,
i=1 1≤i<j≤p
et
p
X X
Q(x) = x2i f (ei , ei ) + 2 xi xj f (ei , ej ) .
i=1 1≤i<j≤p
On a donc
f (x, y) = tX.A.Y = tY.A.X .
EA 3
Changement de bases
Soit B = (e1 , . . . , ep ) et B ′ = (e′1 , . . . , e′p ) deux bases de E. Soit P la matrice dont les vecteurs colonnes
sont les vecteurs de B ′ décomposés dans B, (matrice de passage). Si X et Y sont les vecteurs colonnes
des coordonnées de x et y dans B, et X ′ et Y ′ celles dans B ′ , on a donc
X = P.X ′ et Y = P.Y ′ .
A′ = tP.A.P .
C’est la formule de changement de bases, qu’il ne faut pas confondre avec celle obtenue pour les matrices
d’application linéaire
A′ = P −1 .A.P .
Remarques
1) On peut retrouver la forme bilinéaire f à partir de la forme quadratique Q grâce à une des deux
formules suivantes :
1
f (x, y) = (Q(x + y) − Q(x) − Q(y)) ,
2
(identité de polarisation), et
1
f (x, y) = (Q(x + y) − Q(x − y)) .
4
2) Si E est de dimension finie, et si l’on a
p
X X
Q(x) = aii x2i + 2 aij xi xj ,
i=1 1≤i<j≤p
il ne faut pas oublier de diviser par 2 les éléments non diagonaux pour obtenir la matrice de f
a
a11 a212 . . . 21p
..
.
A=
..
.
ap1 ap2
2 2 app
EA 4
f (x, y) = 0 .
De la relation
Q(x + y) = Q(x) + 2f (x, y) + Q(y)
il résulte immédiatement le théorème de Pythagore.
Définition 4 Si A est une partie non vide de E, on appelle, orthogonal de A (pour f ) l’ensemble
A⊥ = {x ∈ E | f (x, y) = 0 ∀y ∈ A} .
L’orthogonal de A est un espace vectoriel sur R. En effet, si x et x′ sont dans A⊥ et si λ et µ sont dans
R, on a, quel que soit y dans A,
Définition 6 On appelle vecteur isotrope un vecteur orthogonal à lui même, c’est-à-dire tel
que
f (x, x) = 0 ou Q(x) = 0 .
EA 5
Définition 7 Deux espaces vectoriels F et G seront dits orthogonaux, si, quels que soient x
dans E et y dans G, les vecteurs x et y sont orthogonaux.
Définition 8 Une forme bilinéaire symétrique f est dite non dégénérée, si le noyau de f est
réduit à zéro.
rg f = p − dim E ⊥ .
Définition 10 Une forme bilinéaire symétrique f est dite positive si, pour tout x de E, le
nombre Q(x) est positif ou nul.
Exemples
f (x, y) = x1 y1 − x2 y2 .
f (x, y) = x1 y1 .
Cette forme est positive, car Q(x) = x21 est toujours positif. Elle est dégénérée, car E ⊥ est la droite
vectorielle engendrée par e2 . Elle est donc de rang 1. Les vecteurs isotropes sont ceux de cette même
droite vectorielle.
Proposition 1 Une forme bilinéaire symétrique positive est non dégénérée, si et seulement si
Q(x) est nul uniquement si x est nul.
Si f est dégénérée, le sous-espace E ⊥ n’est pas réduit à zéro et ses éléments sont des vecteurs isotropes.
Il existe donc x non nul, tel que Q(x) soit nul.
Réciproquement, si f n’est pas dégénérée, soit x un vecteur isotrope. On a alors, quels que soient y
dans E et λ réel,
et cette inégalité n’est vraie pour tout λ que si f (x, y) est nul. Donc, pour tout y, le nombre f (x, y)
est nul, ce qui prouve que x appartient à E ⊥ = {0}. Il en résulte que x est nul.
Inégalité de Schwarz
Théorème 2 Si f est une forme bilinéaire symétrique positive, quels que soient x et y dans E on
a l’inégalité p p
|f (x, y)| ≤ Q(x) Q(y) .
Si Q(x) est nul, la même démonstration que dans le théorème précédent montre que f (x, y) est nul
pour tout y, et donc l’inégalité est vérifiée.
Supposons donc Q(x) non nul. Le polynôme du second degré en λ est toujours positif. Il en résulte que
son discriminant est négatif, d’où
f (x, y)2 − Q(x)Q(y) ≤ 0 ,
ce qui donne l’inégalité dans ce cas.
EA 7
Inégalité de Minkowski
Théorème 3 Si f est une forme bilinéaire symétrique positive, quels que soient x et y dans E
p p p
Q(x + y) ≤ Q(x) + Q(y) .
On a
p p
Q(x + y) = Q(x) + 2f (x, y) + Q(y) ≤ Q(x) + 2 Q(x) Q(y) + Q(y)
≤ ( Q(x) + Q(y))2 .
p p
Conséquence
p : si f est une forme bilinéaire symétrique positive et non dégénérée, l’application qui à
x associe Q(x) est une norme sur E, appelée, norme euclidienne associée à f .
Produit scalaire
Définition 11 On appelle produit scalaire sur E, une forme bilinéaire symétrique positive et
non dégénérée sur E.
Un espace vectoriel muni d’un produit scalaire est alors appelé espace euclidien.
On notera (x|y) le produit scalaire de deux vecteurs et kxk la norme euclidienne associée. L’orthogo-
nalité dans E sera celle définie à l’aide du produit scalaire.
p
X
(x|y) = xi yi ,
i=1
donc
p
X
kxk2 = x2i .
i=1
EA 8
et
Zb
kuk2 = u(t)2 dt .
a
L’inégalité de Schwarz se traduit par
b v v
Zb
Z u u b
u uZ
u(t)v(t) dt ≤ u 2 t v(t)2 dt .
t u(t) dt
u
a a a
Dans la suite de cette partie nous nous plaçons dans un espace vectoriel euclidien.
Proposition 2 Une famille de vecteurs non nuls deux à deux orthogonaux est une famille libre.
Si l’on a
λ1 x1 + · · · + λp xp = 0 ,
en effectuant le produit scalaire avec xi , on obtient
0 = (xi |λ1 x1 + · · · + λp xp ) = λi (xi |xi ) ,
car (xi |xj ) est nul par hypothèse lorsque i est distinct de j. Mais (xi |xi ) est non nul, donc λi est nul
pour tout i, et la famille est libre.
Définition 12 On appelle base orthogonale, une base de E formée de vecteurs deux à deux
orthogonaux. La base sera orthonormée, si de plus tous les vecteurs sont de norme 1.
En effet, si
p
X
x= λi ei ,
i=1
on obtiendra
p
X
(x|ej ) = λi (ei |ej ) = λj .
i=1
Remarque : si x est non nul, il n’existe que deux vecteurs de norme 1 colinéaires à x. Ce sont les
vecteurs
1 1
x et − x.
kxk kxk
Remarque : le vecteur un est donc orthogonal à l’espace vectoriel engendré par (e1 , . . . , en−1 ).
Méthode
On prend
u′1
u′1 = e1 puis u1 = .
ku′1 k
Pour le second vecteur
u′2
u′2 = e2 − (e2 |u1 )u1 puis u2 = .
ku′2 k
Pour le troisième vecteur
u′3
u′3 = e3 − (e3 |u1 )u1 − (e3 |u2 )u2 puis u3 = .
ku′3 k
Si les vecteurs u1 , . . . , un−1 ont été construits, on obtient alors
u′n
u′n = en − (en |u1 )u1 − · · · − (en |un−1 )un−1 puis un = .
ku′n k
EA 10
Les vecteurs (e1 , .., en ) et (u1 , .., un ) engendrent bien le même espace, car la matrice de changement de
bases est triangulaire et ses éléments diagonaux sont
D’autre part, si l’on suppose que (u1 , . . . , un−1 ) est une famille de vecteurs orthonormés, on a, pour
1 ≤ i ≤ n − 1,
(u′n |ui ) = (en |ui ) − (en |un−1 )(un−1 |ui ) − · · · − (en |ui )(ui |ui ) − · · · − (en |u1 )(u1 |ui )
= (en |ui ) − (en |ui )(ui |ui ) = 0 ,
Réciproquement, cette construction est la seule possible. En effet, si (u1 , . . . , un ) est une base ortho-
normée du sous-espace engendré par (e1 , . . . , en ), on a nécessairement
n
X
en = (en |uj )uj ,
j=1
donc
n−1
X
(en |un )un = en − (en |uj )uj = u′n ,
j=1
De plus
αnn = (en |un ) .
Si l’on veut avoir αnn strictement positif, il faudra donc prendre
αnn = ku′n k .
Il suffit d’appliquer le procédé de Schmitt en partant d’une base quelconque (e1 , . . . , ep ) de E. Cela
fournit une base orthonormée (u1 , . . . , up ) de E.
Remarquons que si les coordonnées de x et de y dans une base orthonormée sont (x1 , . . . , xp ) et
(y1 , . . . , yp ) respectivement, on a
v
p
X
u p
t
uX
(x|y) = xi yi = X.Y et kxk = t x2i .
i=1 i=1
EA 11
Théorème de projection
Si l’on pose
y = prF (x) ,
on définit ainsi une application linéaire prF de E sur F .
d(x, F ) = inf kx − tk = kx − yk .
t∈F
Alors
p
X
d(x, F )2 = kxk2 − kyk2 = kxk2 − (x|ei )2 .
i=1
(x − y) − (x − y ′ ) = y ′ − y
est orthogonal à F et appartient à F : c’est donc le vecteur nul et les vecteurs y et y’ sont égaux.
Existence Soit
y = (x|e1 )e1 + · · · + (x|ep )ep ,
où (e1 , . . . , ep ) est une base orthonormée de F . Alors
L’application qui à x associe (x|e1 )e1 + · · · + (x|ep )ep est visiblement linéaire. De plus, si x est dans F ,
le vecteur x − x est orthogonal à F donc
prF (x) = x ,
d(x, F ) = kx − yk .
(F ⊥ )⊥ = F .
E = F⊥ + F .
D’autre part
F ⊥ ∩ F = {0} ,
ce qui montre que
E = F ⊕ F⊥ .
Les sous espaces F et F ⊥ sont donc supplémentaires.
F′ = F⊥ .
(F ⊥ )⊥ = F .
EA 13
Remarques
2) Si (e1 , · · · , er , er+1 , · · · , ep ) est une base orthonormée de E, telle que (e1 , · · · , er ) soit une base de
F , alors (er+1 , . . . , ep ) est une base de F ⊥ .
3) Pour déterminer F ⊥ , on peut partir d’une base (f1 , . . . , fr ) de F , la compléter pour avoir une base
(f1 , . . . , fp ) de E, puis appliquer le procédé de Schmitt pour obtenir une base orthonormée (e1 , . . . , ep )
de E. Alors (e1 , .., er ) est une base de F , et (er+1 , . . . , ep ) est une base de F ⊥ .
Cela fournit un système de r équations à p inconnues, dont les solutions constituent l’espace F ⊥ (de
dimension p − r).
F ⊥ = {0}
Définition 13 L’application f est appelée forme sesquilinéaire, si, pour tout y fixé de E,
l’application qui à x associe f (x, y) est linéaire, et pour tout x fixé de E, l’application qui à y
associe f (x, y) est linéaire. Ces deux conditions se traduisent par
En particulier
Q(λx) = |λ|2 Q(x) .
Définition 14 On dira que la forme sesquilinéaire est hermitienne, si, quels que soient x et y
dans E
f (x, y) = f (y, x) .
Dans ce cas l’application Q est appelée, forme quadratique hermitienne associée à f .
Remarque : pour montrer que f est hermitienne, il suffira donc de montrer la symétrie hermitienne,
et la linéarité par rapport à la première variable.
Si E est de dimension finie p et si B = (e1 , . . . , ep ) est une base de E, on aura cette fois
X
f (x, y) = xi ȳj f (ei , ej ) .
1≤i,j≤p
et
f (x, y) = tX.A.Y .
Si f est hermitienne, sa matrice vérifie
t
A = A,
(matrice hermitienne), car
f (ei , ej ) = f (ej , ei ) .
Dans ce cas
p
X X
Q(x) = |xi |2 f (ei , ei ) + 2 Re xi x̄j f (ei , ej ) .
i=1 1≤i<j≤p
EA 15
A′ = tP.A.P .
Inégalité de Schwarz p p
|f (x, y)| ≤ Q(x) Q(y) ,
Cette inégalité se démontre en regardant Q(λx + y). On a
Inégalité de Minkowski
Q(x + y) ≤ Q(x) + Q(y) .
Elle se déduit de la précédente. En effet
p p
Re f (x, y) ≤ |f (x, y)| ≤ Q(x) Q(y) ,
donc
Q(x + y) = Q(x) + Q(y) + 2 Re f (xy) ≤ Q(x) + Q(y) + 2 Q(x) Q(y) = ( Q(x) + Q(y) )2 .
p p p p
p
Si f est une forme hermitienne positive non dégénérée, l’application qui à x associe Q(x) est une
norme sur E, appelée, norme hermitienne associée à f .
EA 16
Définition 15 On appelle produit scalaire sur E, une forme hermitienne positive et non dégénérée.
Un espace vectoriel E muni d’un produit scalaire est alors appelé espace hermitien.
Tous les résultats obtenus dans la partie I restent vrais dans ce cadre. (Procédé de Schmitt, théorème
de projection, supplémentaire orthogonal etc...)
Si (u1 , . . . , up ) est une base orthonormée de E, et si x et y ont pour coordonnées dans cette base
(x1 , . . . , xp ) et (y1 , . . . , yp ) respectivement, on a
v
Xp u p
t
uX
(x|y) = xi ȳi = X.Y et kxk = t |xi |2 .
i=1 i=1
eiθ
x où θ ∈ R .
kxk
Soit A la matrice de h dans une base orthonormée B. Si x et y sont deux vecteurs de E, nous notons
X et Y les matrices colonnes de ces vecteurs dans B. On peut écrire
t
(A.X).Y = tX. tA.Y = tX.( tA.Y ) .
A∗ = tA
S’il existait un autre endomorphisme h′ de E, tel que, quels que soient x et y dans E
on aurait en soustrayant
0 = (x|h′ (y) − h∗ (y)) ,
et comme ceci est vrai pour tout x, on en déduirait que h′ (y) − h∗ (y) est nul pour tout y, et donc que
h et h′ sont égaux. Donc h est l’unique endomorphisme vérifiant la relation ci dessus.
Sa matrice dans une base orthonormée est alors A∗ , si la matrice de h est A. Cette matrice A∗ est
appelée adjointe de A. (Si A est réelle, la matrice adjointe est la transposée de A).
h = h∗ .
La matrice d’un endomorphisme autoadjoint dans une base orthonormée vérifie donc aussi
A = A∗ .
mais aussi
(h(x)|y) = (x|h(y)) = (x|µy) = µ̄(x|y) .
Donc, si l’on prend λ = µ et x = y, on en tire
λ = λ̄ ,
EA 18
et λ est réelle.
Si F est stable par h, c’est-à-dire si, pour tout x de F , le vecteur h(x) est aussi dans F , prenons y
dans F ⊥ . On a, si x est dans F ,
(x|h(y)) = (h(x)|y) = 0 ,
ce qui montre que h(y) appartient à F ⊥ qui est donc stable par h. Ceci démontre c).
F = Eλ1 ⊕ · · · ⊕ Eλr .
x = x1 + · · · + xr ,
Les sous-espaces propres sont orthogonaux deux à deux. En choisissant dans chacun une base ortho-
normée, la réunion sera aussi une base orthonormée de E ; on a donc d).
0 = (h(x)|y) = (x|h(y)) ,
ce qui montre que tout élément de Ker h est orthogonal à tout élément de Im h, c’est-à-dire
(Ker h)⊥ = Im h ,
Proposition 5 Si f est une forme bilinéaire symétrique sur un espace euclidien E de dimension
finie p, et si A est la matrice de f dans une base orthonormée B, alors le rang de f est aussi le rang
de A. En conséquence, pour toute matrice P inversible,
rg( tP.A.P ) = rg A .
rg f = p − dim{x | f (x, y) = 0 ∀y ∈ E} .
Mais
f (x, y) = (x|h(y)) .
Dire que cette expression est nulle pour tout y de E, équivaut à dire que x appartient à l’orthogonal
de l’image de h qui est Ker h. Alors
rg f = p − dim(Ker h) = dim(Im h) = rg A .
Définition 18 Un automorphisme h de E est dit unitaire (orthogonal dans le cas réel) lorsque
h−1 = h∗ .
A−1 = A∗ .
Proposition 6 Une matrice A est unitaire si et seulement si, une des propriétés équivalentes
suivantes est vérifiée
a) A∗ .A = I
b) les vecteurs colonnes de A forment une base orthonormée de Cp .
c) les vecteurs lignes de A forment une base orthonormée de Cp .
vi = (ai1 , . . . , aip )
EA 20
Mais cik est le coefficient de la i−ème ligne et de la k−ème colonne de la matrice A.A∗ . Donc dire que
A est unitaire, équivaut à dire que A.A∗ est la matrice unité I, c’est-à-dire que
1 si i = k
cik = ,
0 si i 6= k
ou encore
1 si i = k
(vi |vk ) = ,
0 si i =
6 k
ce qui signifie que les vecteurs (v1 , . . . , vp ) forment une base orthonormée de Cn pour le produit scalaire
rendant la base canonique orthonormée.
Enfin, comme A est unitaire si et seulement si tA est unitaire, on passe facilement des lignes de A aux
colonnes de A.
Corollaire 3 La matrice de passage d’un changement de bases orthonormées, est une matrice
unitaire.
En particulier, si A est une matrice symétrique réelle (resp. hermitienne), il existe P orthogonale (resp.
unitaire) telle que P −1 .A.P soit diagonale.
Si A est la matrice de h dans une base orthonormée, soit λ et µ deux valeurs propres, et x et y deux
vecteurs propres associés. On a
Mais aussi
(h(x)|h(y)) = (x|h∗ h(y)) = (x|y) .
Donc, si λ = µ et x = y, on en déduit
λλ̄ = |λ|2 = 1 ,
EA 21
et λ est de module 1.
Si λ 6= µ, comme λ est de module 1, le produit, λµ̄ est différent de λλ̄ = 1, donc (x|y) est nul, et les
sous-espaces propres Eλ et Eµ sont orthogonaux. Ceci montre donc a) et b).
Si F est stable par h, alors h est une bijection de F sur F , et h∗ = h−1 aussi. Alors, si x est dans F
et y dans F ⊥ , le vecteur h∗ (x) est dans F , donc
ce qui montre que h(y) appartient à F ⊥ qui est bien stable par h. On a donc c).
Proposition 7 L’ensemble des matrices orthogonales d’ordre n est un groupe pour le produit
matriciel, appelé groupe orthogonal et noté O(n).
On montre facilement que c’est un sous-groupe du groupe des matrices carrées d’ordre n inversibles.
En effet, si A et B sont orthogonales, alors
t
(A.B) = tB. tA = B −1 .A−1 = (A.B)−1
On a vu que les valeurs propres d’une matrice orthogonale sont des nombres complexes de module 1.
Les valeurs propres réelles sont donc 1 ou −1, et si λ est une valeur propre non réelle d’ordre r, alors
λ̄ est aussi une valeur propre non réelle d’ordre r. Le produit des valeurs propres est donc 1 ou −1,
selon que la valeur propre −1 est d’ordre pair ou impair.
On appellera O+ (n) (resp. (O− (n)) l’ensemble des matrices orthogonales de déterminant +1 (resp.
−1). Il est facile de vérifier que O+ (n) est un sous-groupe de O(n) pour le produit de matrices.
Définition 19 Soit E un espace vectoriel sur R. On appelle forme linéaire sur E une application
linéaire de E dans R.
Si E est de dimension finie p, soit B = (e1 , . . . , ep ) une base de E. Si x a pour coordonnées (x1 , . . . , xp )
dans cette base, et si Φ est une forme linéaire sur E, on a
p
X
Φ(x) = xi Φ(ei ) .
i=1
Donc Φ est déterminée par sa matrice ligne Φ(e1 ) . . . , Φ(ep ) , et l’espace vectoriel E ∗ des formes
linéaires sur E est isomorphe à E et de dimension p. Pour montrer que des formes h (Φ1 ,i. . . , Φq ) sont
linéairement indépendantes dans E ∗ , il suffira donc de montrer que la matrice (Φi (ej ) 1≤i≤q
est de
1≤j≤p
rang q.
Soit Q une forme quadratique sur E. Réduire la forme quadratique Q, c’est trouver r formes linéaires
Φ1 , . . . , Φr linéairement indépendantes, et r réels non nuls λ1 , . . . , λr , tels que, pour tout x de E
On peut envisager le problème d’une autre manière. Soit B = (e1 , . . . , ep ) une base de E, et (x1 , . . . , xp )
les coordonnées de x dans cette base. Soit A la matrice de Q dans B. La forme linéaire Φi est alors
une fonction gi des variables (x1 , . . . , xp ). Posons
y1 = g1 (x1 , .., xp )
................ .
yr = gr (x1 , .., xp )
Si r < p, on peut compléter par p − r autres relations, de manière à obtenir une matrice S inversible,
telle que, matriciellement
Y = S.X
y1 x1
.. ..
si Y et X sont les matrices colonnes . et . respectivement.
yp xp
Cela signifie que l’on a effectué un changement de bases, et que, dans une nouvelle base B ′ , la forme
quadratique Q est définie par
Q(x) = λ1 y12 + · · · + λr yr2 ,
Il faut remarquer que la matrice dont les colonnes sont les vecteurs de B ′ décomposés dans B est S −1 .
On a alors
λ1
..
.
t −1 −1 ′
λr
(S ).A.(S ) = A = .
0
. .
.
0
C’est une matrice diagonale. Donc, réduire la forme Q, revient à trouver une base B ′ dans laquelle la
matrice de Q est diagonale. En particulier, le nombre r ne dépend pas de la décomposition puisque
c’est le rang de A′ donc le rang de Q.
Remarque : la base B ′ est une base orthogonale pour la forme quadratique Q puisque f (e′i , e′j ) est
nul si i est différent de j.
Méthodes de réduction
A) Méthode de diagonalisation
P −1 .A.P = A′
Elle repose sur la méthode classique de réduction d’un trinôme du second degré à sa forme canonique.
Si a 6= 0, on a
2
4ac − b2
2 b
ax + bx + c = a x + + .
2a 4a
La forme Q étant donnée dans B par une expression de la forme
p
X X
Q(x) = aii x2i + 2 aij xi xj ,
i=1 1≤i<j≤p
EA 24
on choisit un terme carré aii x2i de coefficient non nul, s’il en existe un, et on considère Q(x) comme
un trinôme du second degré en xi . On peut donc écrire
2
1 X
Q(x) = aii xi + aij xj + g2 (x1 , . . . , xi−1 , xi+1 , . . . , xp ) ,
aii
j6=i
puis on regarde dans g2 , qui ne dépend plus que de p − 1 variables, s’il existe un terme carré non nul
et l’on recommence l’opération jusqu’à ce que toutes les variables aient été utilisées.
Si au cours du calcul, une des formes quadratiques gk ne contient plus de terme carré, on effectue un
changement de variables qui en fait apparaître un. En remarquant que
1
xi xj = ((xi + xj )2 − (xi − xj )2 ) ,
4
on posera
1 1
x′i = (xi + xj ) , x′j = (xi − xj ) ,
2 2
et, si ℓ est distinct de i et de j,
x′ℓ = xℓ ,
puis on exprimera gk en fonction des nouvelles variables.
La méthode précédente assure que les formes linéaires obtenues sont linéairement indépendantes. (Dans
le cas où il existe des termes carrés à chaque étape, la matrice de passage est triangulaire).
D’après ce qui précède, on peut donc toujours réduire une forme quadratique, en l’écrivant
où les formes
p linéaires sont indépendantes et les λi non nuls. On peut d’ailleurs, en rentrant dans les
carrés |λi |, faire en sorte que les coefficients soient 1 ou −1.
En particulier, si A est la matrice de Q dans une base B, les nombre σ+ et σ− sont respectivement
le nombre de valeurs propres strictement positives de A et le nombre de valeurs propres strictement
négatives de A.
EA 25
Prenons deux bases (e1 , . . . , ep ) et (e′1 , . . . , e′p ) dans lesquelles Q s’écrit respectivement
Soit F le sous-espace de E engendré par (e1 , . . . , es ) et G celui engendré par (e′s′ +1 , . . . , e′p ).
Sur F , on a
Q(x) = x21 + . . . + x2s ,
et donc Q est une forme quadratique positive et non dégénérée (rg Q = dim F ). Alors Q(x) est stric-
tement positive sur F \ {0}.
Sur G,
Q(x) = −(ys2′ +1 + . . . + yr2 ) ,
et donc −Q, est une forme quadratique positive, et Q(x) est négative sur G. Il résulte de ces deux
remarques que F ∩ G est réduit à 0. Donc F et G sont indépendants et
dim F + dim G ≤ p ,
c’est-à-dire
s + (p − s′ ) ≤ p ,
et donc
s ≤ s′ .
En inversant les rôles de s et s′ on aura l’inégalité inverse, d’où l’égalité.
Remarque : si P est inversible, les matrices A et tP.A.P n’ont, en général pas les mêmes valeurs
propres, mais le nombre de valeurs propres strictement positives (resp. strictement négatives, nulles),
est le même pour les deux matrices.
Exercices
1) Dans R3 , soit x = (x1 , x2 , x3 ) et y = (y1 , y2 , y3 ). Pour chacune des formes bilinéaires f suivantes,
écrire la matrice A dans la base canonique, et dire si f est symétrique. Dans ce cas préciser le rang,
déterminer E ⊥ et les vecteurs isotropes. Quelles sont celles qui sont positives, qui sont des produits
scalaires ?
a) f (x, y) = x1 y1 + x2 y2 − x3 y3
b) f (x, y) = 2x1 y1 + x3 y3 + x1 y3 + x3 y1
c) f (x, y) = x1 y2 + x2 y1 + x1 y 1 + 2x2 y 2 + 3x3 y3
d) f (x, y) = x1 y2 + x1 y1 + x2 y2 + x3 y3
e) f (x, y) = x1 y1 + 3x2 y2 + 2x1 y2 + 2x2 y1 + x1 y3 + x3 y1 + x2 y3 + x3 y2
EA 26
2) A quelle condition la forme bilinéaire f suivante, définie sur R2 est-elle un produit scalaire ?
3) Soit (x|y) un produit scalaire sur un espace vectoriel E sur R. A quelle condition a-t-on égalité dans
l’inégalité de Schwarz ? dans l’inégalité de Minkowski ?
4) Montrer que dans l’espace vectoriel Mn (C) des matrices carrées d’ordre n à coefficients complexes,
on définit un produit scalaire en posant
5) a) Si k ∈ N, on pose
∞
X nk
uk = .
n=0
k!
Montrer que cette série converge, et que, si k ≥ 1,
k−1
X k−1
uk = ur .
r
r=0
En déduire que la suite (uk /e)k≥0 est une suite strictement croissante de nombres entiers, et calculer
uk pour 0 ≤ k ≤ 4.
6) Soit E l’espace vectoriel des fonctions développables en série entière de rayon R ≥ 1, à coefficients
réels.
a) Si l’on a
∞
X ∞
X
n
f (x) = an x et g(x) = bn xn ,
n=0 n=0
et si |x| < |x′ | < 1, montrer qu’il existe une constante M , telle que pour tout entier n
appartient à E.
b) Montrer que si x est un nombre fixé de l’intervalle ] 0, 1 [ , on définit sur E un produit scalaire en
posant
∞
X
(f |g) = an bn xn .
n=0
Trouver une base orthonormée de l’espace vectoriel F engendré par (VI , V2 , V3 ), puis une base de F ⊥ .
Soit W = (1, −1, 0, 2, −2). Calculer prF (W ), prF ⊥ (W ) et d(W, F ). (La base canonique de R5 est sup-
posée orthonormée).
Rb
8) Soit une fonction Φ continue, strictement positive, sur ] a, b [ , telle que les intégrales a xn Φ(x) dx
convergent pour tout entier n ≥ 0.
(où Q désigne le polynôme dont les coefficients sont les conjugués de ceux de Q).
Soit (P0 , P1 , ..., Pn ...) la famille orthonormée de polynômes, construite à partir de (1, x, .., xn , ...) par
le procédé de Schmitt.
c) Montrer que les racines de Pn sont réelles, et appartiennent à ] a, b [ . (Si x0 est racine de Pn , étudier
(Pn |Qn ) où Pn = (x − x0 )Qn ).
d) Montrer que les racines de Pn sont simples. (Si x0 est racine multiple de Pn étudier (Pn |Rn ), où
Pn = (x − x0 )2 Rn ).
9) Calculer
Z1
I= inf (sin(πx) − ax2 − bx − c)2 dx .
(a,b,c)∈R3
−1
√
(On considérera I comme la distance d’un élément f à un sous-espace F dans un espace euclidien
convenable).
h∗ = −h ,
déterminer les valeurs propres et les vecteurs propres. Trouver S unitaire telle que S −1 .A.S soit dia-
gonale.
12) Déterminer la signature et le rang des formes quadratiques suivantes. Donner une matrice S telle
que tS.A.S soit diagonale.
a) 4x2 + y 2 − 8z 2 + 4xy − 4xz + 8yz
b) − z 2 + t2 − 4xy − 2xz + 2xt − 2yz − 2yt
c) xy + xz + xt + yz + yt + zt.
13) Déterminer la signature et le rang des formes quadratiques suivantes
a) 5x2 + y 2 + az 2 + 4xy − 2xz − 2yz (a constante réelle)
b) (ax + y)2 + (bx + z)2 − (y + z)2 (a et b constantes réelles)
c) a(x21 + · · · + x2n ) − (x1 + · · · + xn )2 (a constante réelle).
EA 29
14) Soit a1 , . . . , an des nombres réels. Trouver le rang et la signature de la forme quadratique
X
ai aj xi xj .
1≤i,j≤n
h i
En déduire les valeurs propres de la matrice A = ai aj .
1≤i,j≤n
15) Soit E un espace euclidien de dimension finie et Q une forme quadratique de matrice A dans une
base orthonormée. Soit Λ la plus grande valeur propre de A et λ la plus petite. Montrer que pour tout
x de E
λkxk2 ≤ Q(x) ≤ Λkxk2 .
Quand a-t-on égalité dans une des deux inégalités ci-dessus ?