Vous êtes sur la page 1sur 36

1 Définition des vecteurs

Soit V un espace vectoriel de dimension finie n sur un corps K (corps des réels R ou corps des complexes C).

Une base de V est un ensemble {e1 , e2 . . . en } = (ei )i=1...n = (ei ) de n vecteurs linérairement indépen-
dants de V . Alors tout vecteur v ∈ V admet une décomposition unique
n
X
v= a i ei ,
i=1

les scalaires ai étant les composantes du vecteur v sur la base (ei ).

Preuve : on suppose qu’il y a deux décompositions et on montre qu’elles sont identiques.


n
X
En notation matricielle, le vecteur v = ai ei sera représenté par un vecteur colonne
i=1
 
a1
 
 a2 
 
 ..  ,
v= 
.
 
an

et on désignera par t v et v ∗ les vecteurs lignes


   
t
v = a1 a2 . . . an , v ∗ = ā1 ā2 ... ān
où ᾱ désigne le complexe conjugué du nombre α.

– Le vecteur ligne t v est le vecteur transposé du vecteur colonne v,


– le vecteur ligne v ∗ est le vecteur adjoint du vecteur colonne v.
Xn n
X
Si v = ai ei , v = bi ei sont deux vecteurs de V et λ un scalaire de K : alors
i=1 i=1
 
   
a1 b1 a1 + b1
     
n
 a2   b2   a2 + b2 
     
X
v+w = (ai + bi )ei =  + =
 ..   ..   .. 

i=1 . .  . 
     
an bn an + bn
   
a1 λa1
   
n
 a2   λa2 
   
X
λv = λai ei = λ  .  =  . 
   (1)
 ..   .. 

i=1
   
an λan
Soit V1 une partie non vide de V . On dit que V1 est un sous-espace vectoriel de V si :
* ∀x, y ∈ V1 alors x + y ∈ V1
* ∀x ∈ V1 , λ ∈ K alors λx ∈ V1
En particulier, soient x1 , x2 , . . . , xn ∈ V On définit le sous-espace vectoriel engendré par x1 , x2 , . . . , xn ,
ou espace des combinaisons linéaires de x1 , x2 , . . . , xn , de la manière suivante :
< x1 , x2 , . . . , xn > = V ect(x1 , x2 , . . . , xn )
= {x ∈ V /∃ λ1 , . . . , λn ∈ K : x = λ1 x1 + λ2 x2 + . . . + λn xn } (2)

1
2 Définition des matrices
2.1 Définitions :
Etant donnés deux espaces vectoriels E et F sur le même corps commutatif K, on appelle application
linéaire de E dans F toute application de E dans F telle que :

i) ∀x, y ∈ E , f (x + y) = f (x) + f (y)


ii) ∀x ∈ E , ∀α ∈ K f (αx) = αf (x)
– L’ensemble des applications linéaires de E vers F est noté L(E, F ).
– La somme de deux applications linéaires de L(E, F ) est une application linéaire.
– La composée de deux applications linéaires de L(E, F ) est une application linéaire.
– Si f est une application liéaire bijective de E vers F, la réciproque f −1 de f est une application linéaire
de F vers E.
Si E et F sont de dimensions finies sur K, a chaque choix d’une base (e1 , ..., en ) pour E et d’une base
(f1 , ..., fm ) pour F, l’application linéaire g de E vers F est caractérisée par le tableau des coefficients (aij )
tels que :
m
X
g(ej ) = aij fi , pour j = 1, ..., n
j=1

En écrivant en colonne les composantes des g(ej ) dans la base (f1 ,. . .,fp )

g(e1 )g(e2 ) . . . .g(ej ) . . . .g(en )


 
f1 a11 a12 ... a1j ... a1n
 
f2  a
 21 a22 ... a2j ... a2n 

...
 . .. .. .. 
 . 
 . . ... . ... . 
 
 
fi  ai1 ai2 ... aij ... ain 
 
..  .
 .. .. .. .. 
.  . ... . ... . 

fp am1 am2 ... amj ... amn
Le tableau des aij s’appelle la matrice de f relativement aux bases (ei )i=1,...,n et (fj )j=1,...,p . On note

A = (aij )1≤i≤m , 1≤j≤n

i indice de la ième ligne et j indice de la jième colonne.


Si n = m la matrice M est dite matrice carrée d’ordre n.
Soit  
a11 a12 . . . a1j ... a1n
 
 a
 21 a22 . . . a2j ... a2n 

 . .. .. .. 
 . 
 . . ... . ... . 
A= 


 ai1 ai2 . . . aij ... ain 
 
 . .. .. ..
 ..

 . ... . ... . 

an1 an2 . . . anj ... ann
– A est dite la matrice de l’application linéaire g de E vers F relatives aux bases (ei ) et (fi ).
– On note Mm,n (K) l’ensemble des matrices de m lignes, n colonnes à coefficient dans K.
– On note alors Mn ou Mn (K) l’ensemble des matrices carrées. On dira alors d’une matrice non néces-
sairement carrée qu’elle est rectangulaire.
– Soit A une matrice carrée. Les éléments aii sont appelés éléments diagonaux.

2
   
x1 y1
.. ..
   
Posons X = (x1 , x2 , . . . , xn ) =   et Y = g(X) = (y1 , y2 , . . . , ym ) =   son image par g, les
   
 .   . 
xn ym
yi s’obtienent de la façon suivante :
    
a11 a12 ... a1j ... a1n x1 y1
    
 a a22 ... a2j ... a2n  x2   y2 
 21    
 . .. .. ..  ..   .. 
 .    
 . . ... . ... .  .   . 
Y = AX = 



=
 


 ai1 ai2 ... aij ... ain  xj   yi 
    
 . .. .. .. .. .. 
 ..
  
 . ... . ... . 
 .  
  . 

am1 am2 ... amj ... amn xn ym

les yi sont donnés par :


n
X
y1 = x1 a11 + x2 a12 + . . . + xj a1j + . . . + xn a1n = a1j xj
j=1
Xn
y2 = x1 a21 + x2 a22 + . . . + xj a2j + . . . + xn a2n = a2j xj
j=1
...
n
X
yi = x1 ai1 + x2 ai2 + . . . + xj aij + . . . + xn ain = aij xj
j=1
...
n
X
ym = x1 am1 + x2 am2 + . . . + xj amj + . . . + xn amn = amj xj
j=1

ou encore :

       
y1 a11 a1j a1n
       

 y2 

 a
 21


 a
 2j


 a
 2n



 .. 

 .
 .


 .
 .


 .
 .


 .   .   .   . 
  = x1   + ... + xj   + ... + xn   (3)
       
 yi   ai1   aij   ain 
       
 ..   .
 ..
  .
 ..
  .
 ..


 . 



 

 


ym am1 amj amn

2.2 Matrices particulières


Identité :
L’application de V dans V qui a tout x ∈ V , IV (x) = x est l’application identité, sa matrice dans une
base de V est :

3
 
1 0 ... 0 ... 0
 

 0 1 ... 0 ... 0 


 .. .. .. .. 

 . . ... . ... . 
I=



 0 0 ... 1 ... 0 
 
 .. .. .. .. 

 . . ... . ... . 

0 0 ... 0 ... 1

Matrice Diagonale
Considérons l’application linéaire dRn de E dans E tel que pour tout i = 1, . . . , n : dRn (ei ) = λi ei , λi ∈ K.
La matrice de dE relativement à la base de E est :
 
λ1 0 . . . 0 . . . 0
 
 0 λ ... 0 ... 0 
 2 
 . .. .. .. 
 . 
 . . ... . ... . 
MdE = λi δij =  

 0 0 . . . λi . . . 0 
 
 . .. .. .. 
 .. . ... . ... . 
 
0 0 . . . 0 . . . λn
cette matrice est appelée matrice diagonale.

Matrice Triangulaire
Une matrice carrée M = (aij ) est dite triangulaire supérieure si on a aij = 0 pour i > j.
 
a11 a12 . . . a1i . . . a1n
 
 0 a
22 . . . a2i . . . a2n 


 . .. . .. 
 .
. . . .. . . .

 . . . 
M =  

 0 0 . . . aii . . . ain 
 
 . .. .. .. 
 .. . . . . . . . . . 
 
0 0 . . . 0 . . . ann
Elle est dite triangulaire inférieure si aij = 0 pour i < j.

Matrice Symétrique, antisymétrique


Une matrice carrée M = (aij ) est dite symétrique si aij = aji pour tout i, j.
 
a11 a12 . . . a1i . . . a1n
 
 a
 12 a22 . . . a2i . . . a2n  
 . .. .. .. 
 . 
 . . ... . ... . 
M =  

 a1i a2i . . . aii . . . ain 
 
 . .. .. .. 
 .. . ... . ... . 
 
a1n a2n . . . ain . . . ann

4
Elle est dite antisymétrique si aij = −aji pour tout i, j.
 
0 a12 ... a1i ... a1n
 
 −a 0 ... a2i ... a2n 
 12 
 . .. .. .. 
 . 
 . . ... . ... . 
M =  
 −a1i −a2i

... 0 ... ain 
 
 . .. .. ..
 ..

 . ... . ... . 

−a1n −a2n ... −ain ... 0

Image et noyau :
Soit A la matrice d’une application linéaire g de E dans F, L’image de A est :
ImA = {y ∈ F , il , existe x ∈ E tel que y = Ax} ⊂ F
= V ect(A(e1 ), ..., A(en ))
On appelle rang de A, noté rg(A) la dimension de ImA, c’est le nombre de vecteurs colonnes de A qui sont
linéairement indépendants.
g est surjective si et seulement si ImA = F , c’est à dire rg(A) = m.

Le noyau de A est défini par :


KerA = {x ∈ E , Ax = 0F } ⊂ E
Le kerA est un sous espace vectoriel de E.
g est surjective si et seulement si kerA = {0E }.
Pour toute matrice A on a :
rg(A) + dim(KerA) = dim(E)

Matrice de permutation
1. Une matrice de permutation est une matrice carrée qui vérifie les propriétés suivantes :
les coefficients sont 0 ou 1 ;
il y a un et un seul 1 par ligne ;
il y a un et un seul 1 par colonne.

1 0 0
 
Par exemple :  0 0 1  est une matrice de permutation.
 
 
0 1 0
2. Une permutation σ est une bijection de {1, 2, ..., n} dans lui même : σ(i) = j pour tout i, j = 1, 2, ..., n.
On définit l’application linéaire g par :
g(ei ) = eσ(i) , i = 1, 2, ..., n
n
ou ei est une base K espace vectoriel sur K.
La matrice P de g dans la base (e1 , ..., en ) est appelée une matrice de permutation.
Exemple : Pour n = 4, on définit σ(1) = 1, σ(2) = 3 et σ(3) = 2 donc g(e1 ) = e1 , g(e2 ) = e3 , g(e3 ) = e4
et g(e4 ) = e2 . La matrice de g dans la base (e1 , e2 , e3 , e4 ) est
 
1 0 0 0
 
 
 0 0 0 1 
P =  
 ; Pij = δi,σj
 0 1 0 0 
 
0 0 1 0

5
La bijection réciproque σ −1 est définie par : σ −1 (e1 ) = e1 , σ −1 (e2 ) = e4 , σ −1 (e3 ) = e2 et σ −1 (e4 ) = e3 ;
donc :  
1 0 0 0
 
 
 0 0 1 0 
P −1 = 

 ; Pij−1 = δi,σ−1 j
 0 0 0 1 
 
0 1 0 0

On vérifie que P −1 =t P
3. On appelle permutation élémentaire (ou transposition) une permutation σ telle que :

σ(i) = j , σ(i) = j et σ(k) = k pour k 6= i, j


La matrice de cette permutation est :
 
1 0 0 0 0 0 0 0
 
 
 0 1 0 0 0 0 0 0 
 
 
 0 0 0 0 0 1 0 0 
 
 
 0 0 0 1 0 0 0 0 
P36 =



 0 0 0 0 1 0 0 0 
 
 
 0 0 1 0 0 0 0 0 
 
 
 0 0 0 0 0 0 1 0 
 
0 0 0 0 0 0 0 1
−1
Ou on remarque que P36 =t P36 et donc P36 = P36
Les matrices de permutation permettent de permuter les lignes et les colonnes d’une matrice A. Ainsi,
– AP est la matrice
 déduite deA en permutantles colonnesde A suivant la permutation σ ;
1 0 0 a b c
   
Exemple : P =  0 , A= d
   
0 1  f  e
   
0 1 0 g h k
 
a c b
 
AP =  d f e 
 
 
g k h

– P A est la matrice déduite de A en permutant les lignes de A suivant la permutation σ −1 ;


 
a b c
 
PA =  g h
 
k 
 
d e f

– On peut montrer que toute permutation peut s’obtenir comme compositiond’au plus n−1 permutations
élémentaires.
Exemple :
     
1 2 3 4 1 2 3 4 1 2 3 4
p=  , p24 =   , p23 =  
1 3 4 2 1 4 3 2 1 3 2 4

6
On pourra vérifier que p = p24 op23 et
     
1 0 0 0 1 0 0 0 1 0 0 0
     
     
 0 0 0 1   0 0 1 0   0 0 0 1 
P24 = 
 , P23 = 
 

 , P =

 = P24 P23

 0 0 1 0   0 1 0 0   0 1 0 0 
     
0 1 0 0 0 0 0 1 0 0 1 0

3 Opérations sur les matrices


Soit Mm,n (K) l’ensemble des matrices à coefficients dans K.

Addition des matrices


A, B ∈ Mm,n (K), on définit l’addition de la façon suivante :

A = (aij ) et B = (bij )
A + B = (aij + bij ) (4)

Produit par un scalaire


A ∈ Mm,n (K), λ ∈ K On définit la loi externe par :

∀λ ∈ K λA = (λaij ) où A = (aij ) (5)

Théorème : Mm,n (K) muni de ces deux lois est un K espace vectoriel.
L’élément neutre pour la loi “+” est la matrice nulle θ (tous les coefficients sont nuls).
L’opposé de A = (aij ) est −A = (−aij )
Pour tout A ∈ Mm,n (K) : A + θ = θ + A = A et A − A = θ.

Proposition : L’espace vectoriel Mm,n (K) est de dimension mn et admet pour base la famille des matrices
élémentaires Eij (1 ≤ i ≤ m,1 ≤ j ≤ n).

Eij = (δij,kl )1≤k≤n , 1≤l≤n

en d’autres termes, l’élément aij de Eij vaut 1, et tous les autres éléments sont nuls.

En particulier l’espace vectoriel Mn,n (K) des matrices carrées est de dimension n2 .

Produit des matrices


Définition : Le produit de la (m,p) matrice A = (aij )1≤i≤m,1≤j≤p et de la (p, n) matrice B = (bkl )1≤k≤p,1≤l≤n
est la matrice (m, n) notée A.B ou AB définie par :
p
X
AB = (cij )1≤i≤m,1≤j≤n , cij = aik bkj (6)
k=1

Ce produit n’est défini que si le nombre de colonnes de la matrice A est égal au nombre de lignes de la
matrice B.

7
Produit successif
La puissance m-ième d’une matrice carrée A d’ordre n étant définie par :

A0 = In , A1 = A , A2 = AA , Am = Am−1 A

La matrice A est dite :


– involutive si A2 = In
– nilpotente s’il existe un p tel que Ap−1 6= θ et Ap = θ
– idempotente s’il existe un p tel que Ap = A.

Propriétés du produit
Soit A, A1 , A2 ∈ Mm,p (K) ; B, B1 , B2 ∈ Mp,n (K) ; , C ∈ Mn,q (K) ; λ ∈ K :
– A(B1 + B2 ) = AB1 + AB2
– (A1 + A2 )B = A1 B + A2 B
– λ(AB) = (λA)B = A(λB)
– (AB)C = A(BC)
– Pour toute matrice A d’ordre n : AIn = In A = A
– La matrice A est inversible s’il existe une matrice (unique si elle existe) notée A−1 et appelée matrice
inverse de la matrice A telle que AA−1 = A−1 A = I.
Dans le cas contraire, on dit que la matrice est singulière.
– Si A1 et A2 sont deux matrices carrées d’ordre n sont inversibles on a :

(A1 A2 )−1 = A−1 −1


2 A1

– Si A1,2,...,n sont des matrices carrées d’ordre n inversibles on a :


−1 −1
(A1 A2 ...An )−1 = A−1
n . . . A2 A1

3.1 Matrice Transposée et matrice adjointe


Définitions :
1. La transposée d’une (m, n) matrice A = (aij )1≤i≤m,1≤j≤n est la matrice (n, m), notée t A définie par :
t
A = (bij )1≤i≤n,1≤j≤m et bij = aji ∀ i, j. t A est donc une (n, m) matrice.
2. On appelle matrice adjointe d’une (m, n) matrice A = (aij )1≤i≤m,1≤j≤n , matrice A∗ d’ordre (n, m)
définie par : a∗ij = aji , ou aji est le complexe conjugué de aji .
Prendre l’adjoint d’une matrice revient a faire la transposée de la matrice suivi de la conjugaison de
chaque élément de la matrice.
Si la matrice est réelle : A∗ = At .
3. une matrice est dite hermitienne si A∗ = A
4. une matrice est dite symétrique si t A = A.

On a les proprietés suivantes :


– t (t A) = A , (A∗ )∗ = A
– t (A + B) =t A +t B , (A + B)∗ = A∗ + B ∗
– t (λA) = λt A , (λA)∗ = λA∗
– t (A1 A2 ) =t At2 A1 (A1 A2 )∗ = A∗2 A∗1
– t (A1 A2 . . . An ) =t An . . .t At2 A1
– (A1 A2 . . . An )∗ = A∗n . . . A∗2 A∗1
– Si A matrice carrée inversible : t (A−1 ) = (t A)−1 , (A−1 )∗ = (A∗ )−1

– La matrice A hermitienne est définie positive si, pour tout vecteur v ∈ V non nul, v ∗ Av > 0.
– La matrice A est orthogonale si A est réelle et A t A =t AA = I.
– La matrice A est unitaire si AA∗ = A∗ A = I.
– La matrice A est normale si AA∗ = A∗ A.

8
Remarques :
– L’adjointe d’une matrice coincide avec sa transposée si et seulement si la matrice est réelle.
– Le produit de deux matrices hermetiennes n’est pas nécessairement hermetienne : En effet : (AB)∗ =
B ∗ A∗ = BA 6= AB.

3.2 Nombre d’opérations pour le calcul matricielle


Produit de deux matrices
1. Pour calculer un élément cij de C on effectue :

p multiplications , p − 1 additions

Le coût de calcul de C est de :

mnp multiplications , mn(p − 1) additions

Soit au total : 2mnp − mn.


En particulier, si A et B sont deux matrices carrées d’ordre n, le coût de calcul de C est :

n3 multiplications , n2 (n − 1)additions

Produit d’une matrice par un vecteur


2. Nombre d’opérations pour calculer : y = Ax.
Pour A ∈ Mm,n (K) et x ∈ E, on peut voir x comme une matrice n × 1 et y = Ax comme une matrice
m × 1 avec
n
X
yi = (Ax)i = aik xk , i = 1, ..., m
k=1

Le coût de calcul de y = Ax est :


Pour chaque composante yi de y : il y a n multiplications et n − 1 additions.
Au total pour calculer y il faut donc mn multiplications et m(n − 1) additions.
Soit au total : 2mn − m.

4 Chagement de base
0
Soit E un espace vectoriel de dimension n. BE = (e1 , e2 , . . . , en ) une base de E. BE = (f1 , f2 , . . . , fn )
une nouvelle base de E.
0
La matrice de passage de la base BE à la base BE est la matrice notée P et dont les colonnes sont les
composantes des vecteurs fi dans la base BE . Les fi et les ei sont alors reliés par les ralations suivantes :

fi = P ei , i = 1, ..., n
−1
ei = P fi , i = 1, ..., n

Remarques :
i La matrice de passage est toujours inversible
ii On peut voir P −1 comme étant la matrice de passage de la base BE 0
à la base BE , c’est à dire que P −1
0
est la matrice dont les colonnes sont les composantes des vecteurs ei dans la base BE .

4.1 Action du changement de base sur les composantes d’un vecteur


Soit x ∈ E un vecteur de E, de composantes t x = (x1 , . . . , xn ) dans la base BE et de composantes
t 0
x = (x01 , . . . , x0n ) dans la base BE
0
, on a alors :

x = P x0 ou x0 = P −1 x

9
4.2 Action du changement de base sur la matrice d’une application linéaire :
Soit g une application linéaire de E vers F (dimF = m). Soit BF = (f1 , ..., fm ) une base de F et
BF0 = (f10 , ..., fm
0
) une nouvelle base de F. Soit A la matrice de g dans les bases BE à BF et A0 la matrice de
0
g dans les bases BE à BF0 .
0
Soit P la matrice de passage de BE à BE et Q la matrice de passage de BF à BF0 . La relation entre les
matrices A et A’ est :

A0 = Q−1 AP ou A = QA0 P −1

Si g est une application linéaire (endomorphisme) de E vers E, alors :

A0 = P −1 AP ou A = P A0 P −1

Dans ce cas A et A0 sont dites semblabes.

5 Vecteur propre, valeur propre, réduction d’une matrice


Définition : Soient E un espace vectoriel sur un corps K et A la matrice d’un endomorphisme g de E.
On définit le polynôme caractéristique de A comme étant :

PA (λ) = det(A − λIE ) (7)

λ est un scalaire de K. PA est un polynôme à coefficient dans K dont le degré est la dimension de E.
Les valeurs propres λi = λi (A) (1 ≤ i ≤ n) d’une matrice d’ordre n sont les n racines réelles ou
complexes, distinctes ou confondues, du polynôme caractéristique de la matrice A

pA : λ ∈ C 7−→ pA (λ) = det(A − λI).

A toute valeur propre λ d’une matrice A, on associe (au moins) un vecteur v tel que

v 6= 0 et Av = λv ;

le vecteur v est un vecteur propre de la matrice A associé à la valeur propre λ. Si λ ∈ sp(A), le


sous-espace vectoriel
Eλ = {v ∈ V ; Av = λv}
est appelé sous-espace propre associé à la valeur propre λ.
Théorème : Soient A une matrice d’un endomorphisme de E et λ1 , λ2 deux scalaires distincts (λ1 6= λ2 )
alors :
i. Eλ1 ∩ Eλ2 = {0E }.
ii. Si v1 et v2 sont vecteurs propres associés respectivement aux valeurs propres λ1 et λ2 (λ1 6= λ2 ) alors
la famille : {v1 , v2 } est libre.
Théorème Soient E un espace vectoriel de dimension finie sur un corps K et A une matrice d’un
endomorphisme f de E. Soient λi , i = 1, . . . , m, m valeurs propres de A deux à deux distinctes et {vi }
(i = 1, . . . , m), vi les vecteurs propres correspondants. Alors la famille {vi } (i = 1, . . . , m) est libre.
Théorème de Cayley-Hamilton (admis) : Soit E un espace vectoriel sur K de dimnsion n. Pour
toute matrice A d’un endomorphisme g de E, tel que le polynôme caractéristique PA ai toutes ses racines
dans K on a : PA (A) = 0Mn .

Remarques :
– Si le polynôme caractéristique PA est de la forme PA (λ) = a0 + a1 λ + a2 λ2 + . . . + an λn , alors PA (A)
s’obtient en remplacant ai λi par ai Ai et le terme constant a0 par a0 IE :

PA (A) = a0 IE + a1 A + a2 A2 + . . . + an An

10
– Le théorème de Cayley-Hamilton permet de calculer l’inverse de A si il existe. En effet : si A est
inversible, detA=PA (0) = a0 6= 0. Cayley-Hamilton implique :

PA (A) = a0 IE + a1 A + a2 A2 + . . . + an M n = 0Mn ⇒
a0 IE = M (−a1 − a2 M − . . . − an M n−1 ) = (−a1 − a2 M − . . . − an M n−1 )M ⇒
a1 a2 an n−1 a1 a2 an n−1
IE = M (− − M − . . . − M ) = (− − M − . . . − M )M (8)
a0 a0 a0 a0 a0 a0
On conclut donc que M −1 est donnée par :
a1 a2 an n−1
M −1 = − − M − ... − M
a0 a0 a0

spectre et rayon spectral


Le spectre de la matrice A est le sous ensemble

sp(A) = {λ1 (A), λ2 (A), . . . λn (A)}.

Le rayon spectral de la matrice A est le nombre positif défini par

ρ(A) = max{|λi (A)|, 1 ≤ i ≤ n}.

6 Produit scalaire
6.1 Produit scalaire réel : Définitions et exemples
Définition : Soit E un espace vectoriel sur R. On appelle produit scalaire réel sur E toute application
φ : E × E → R vérifiant :
1) φ est bilinéaire , c.a.d :
1a. ∀x, y, z ∈ E, ∀λ ∈ R : φ(λx + y, z) = λφ(x, z) + φ(y, z)
1b. ∀x, y, z ∈ E, ∀λ ∈ R : φ(x, λy + z) = λφ(x, y) + φ(x, z)
( φ est linéaire relativement à chaque argument.)
2) φ est symétrique i.e. ∀x, y ∈ E, φ(x, y) = φ(y, x)
3) φ est positive i.e. ∀x ∈ E ,φ(x, x) ≥ 0
4) φ est définie i.e. ∀x ∈ E , φ(x, x) = 0 ⇒ x = 0 On dit qu’un produit scalaire est un forme bilinéaire
symétrique définie positive.
Remarques :
– Puisque le produit scalaire est linéaire par rapport à la première et seconde composante donc il est
évident que
∀x ∈ E , (x, 0) = (0, x) = 0
– Dans la pratique, si φ est symétrique, pour que φ soit bilináire il est suffisant de montrer 1a ou 1b.
– Par la suite on notera (x, y) au lieu de φ(x, y)
Exemples :
A. Considèrons E = Rn . Pour tout x = (x1 , x2 , . . . , xn ) ∈ Rn , y = (yP n
1 , x2 , . . . , yn ) ∈ R , on définit l’applica-
n n n
tion φ de R × R → R par : φ(x, y) = x1 y1 + x2 y2 + . . . + xn yn = k=1 xk yk .
Montrons que φ est un produit scalaire sur Rn .
1. En effet, φ : Rn × Rn → R est bien définie.
Pour tout λ ∈ R et P ∀x, y, z ∈ Rn , on écrit x
P= . , xn )t ,y = (y1 , y2 , . . . , yn )t , z = (z1 , z2 , . . . , zn )t
(x1 , x2 , . .P
n n n
alors φ(λx + y, z) = k=1 (λxk + yk )zk = λ k=1 xk zk + k=1 yk zk = λφ(x, z) + φ(y, z) Donc φ est linéaire
en sa premième variable.
Pn Pn
2. On a φ(y, x) = k=1 yk xk = k=1 xk yk = φ(x, y) par conséquent φ est symétrique et donc bilinéaire.
Pn Pn
3. ∀x ∈ Rn , φ(x, x) = k=1 xk xk = k=1 x2k ≥ 0 Donc φ est positive.

11
Pn
4. ∀x ∈ Rn , si φ(x, x) = k=1 x2k = 0. La somme des termes positives est nulle si tous les termes sont nuls,
par suite xk = 0 , k = 1, ..., n et donc x = 0 d’où φ est définie.

En conclusion φ est un produit scalaire de Rn c ’est le produit scalaire canonique de Rn .

B. Considérons E = C([a, b], R) l’ensemble des fonctions continues de [a, b] dans R, c’est un espace vectorile
Z b
sur R. L’application C([a, b], R) × C([a, b], R) → R, (f, g) → f × g est un produit scalaire sur C([a, b], R).
a Rb
Comme f et g sont continues sur [a, b], le produit scalaire de f et g définie comme a f ×g est donc bien défini.
Rb Rb
2. ∀f, g ∈ C([a, b], R) , x ∈ [a, b], on a : (f, g) = a
f (x) × g(x)dx = a
g(x) × f (x)dx = (g, f ), ce qui prouve
que c’est symétrique.
Rb Rb
1a. ∀f, g, h ∈ C([a, b], R) , λ ∈ R , x ∈ [a, b], (λf + g, h) = a (λf (x) + g(x)) × h(x)dx = λ a f (x) × h(x)dx =
Rb
+ a g(x) × h(x)dx = λ(f, h) + (g, h).
Rb
Du fait que (f, g) = a f (x)g(x)dx est symétrique, on aura donc (f, λg + h) = λ(f, g) + (f, h).
Rb Rb
3. ∀f ∈ C([a, b], R) , x ∈ [a, b], on a : (f, f ) = a
f (x) × f (x)dx = a
f (x)2 dx ≥ 0.
RbRb
4. ∀f ∈ C([a, b], R) , x ∈ [a, b], Si (f, f ) = a a
f (x)2 dx = 0 alors f (x) = 0 pour tout x ∈ [a, b] donc f = 0.
Z b
On conclut donc que l’application C([a, b], R) × C([a, b], R) → R, (f, g) → f × g est un produit scalaire
a
sur C([a, b], R).

C. On considère E = Mn,p (R). ∀A, B ∈ E on pose φ(A, B) = (A, B) = tr(t AB).

Puisque t A ∈ Mp,n (R) et B ∈ Mn,p (R), le produit t AB ∈ Mpp (R) la trace tr(t AB) = est donc bien définie.

φ est symétrique, en effet : ∀A, B ∈ E , φ(B, A) = tr(t BA) = tr(t (t AB)) = tr(t AB) = φ(A, B).

∀A, B, C ∈ E , λ ∈ R ; φ(A, λ B + C) = tr(t A(λ B + C)) = λ tr(t AB) + tr(t AC) = λ φ(A, B) + φ(A, C).
Donc φ est bilinéaire.

On pose A = (aij ) matrice n × p, i = 1, ..., n, j = 1, ..., p, At = (bij ) une matrice p × n, avec bij = aji ; At A
est une matrice p × p P
:
p Pp Pp Pp Pp Pp
φ(A, A) = tr(t AA) = i=1 k=1 bik aki = i=1 k=1 aki aki = i=1 k=1 a2ki ≥ 0, φ est positive.
Pp Pp
De plus si φ(A, A) = i=1 j=1 a2ij = 0, or la somme de quantités positives n’est nulle que si chacune des
quantités est nulle et donc aij = 0 pour tout i, j et donc A = OMn,p .

Finalement φ est un produit scalaire sur E, c’est le produit scalaire canonique de Mn,p (R).

D. On considère E = C, espace vectoriel sur R. DimCR = 2. On considère φ une application de C × C → R


tel que φ(z1 , z2 ) = <e(z1 z2 ). φ est un produit scalaire sur R.

En effet : φ est symétrique : ∀ z1 , z2 ∈ C ; φ(z1 , z2 ) = <e(z1 z2 ) = <e(z1 z2 ) = <e(z1 z2 ) = φ(z2 , z1 ).

∀ z1 , z2 , z3 ∈ C ; λ ∈ R , φ(λz1 + z2 , z3 ) = <e(λz1 + z2 z3 ) = <e(λz1 z3 + z2 z3 ) = λ<e(z1 z3 ) + <e(z2 z3 ) =


λφ(z1 , z3 ) + φ(z2 , z3 ). du fait que φ est symétrique, on conclut que φ est bilinéaire.

∀ z ∈ C ; φ(z, z) = <e(zz) = |z|2 ≥ 0, donc φ est positive.

12
∀ z ∈ C ; si φ(z, z) = |z|2 = 0 alors z = 0. ainsi φ est définie.

On conclut donc que φ est un produit scalaire.

Définition : Un espace euclidien est un espace vectoriel réel de dimension finie muni d’un produit scalaire
( , ) et est noté (E, ( , )).

6.2 Produit scalaire hermitien


Dans le cas d’un espace vectoriel sur C, nous avons besoin de la notion de semi-linéarité :
Une application f d’un espace vectoriel E dans C est semi-linéaire si :

∀(x, y) ∈ E × E f (x + y) = f (x) + f (y)


∀x ∈ E, ∀λ ∈ C f (λx) = λf (x). (9)

Soit E un espace vectoriel sur C. On dit qu’une application ( , ) :


E × E → C(x, y) 7→ (x, y) est un produit scalaire hermitien si il est :
1. Linéaire par rapport au deuxième argument :

∀x, y, z ∈ E; λ ∈ C , (x, λy + z) = λ(x, y) + (x, z),

semi-linéaire relativement au premier argument

∀x, y, z ∈ E; λ ∈ C , (λx + y, z) = λ(x, z) + (y, z);

2. symétrique hermitienne :

∀x, y ∈ E , ∀(x, y) ∈ E × E (y, x) = (x, y);

3. positive :

∀x ∈ E (x, x) ≥ 0;
4. définie :
∀x ∈ E (x, x) = 0 ⇒ x = 0

Exemples :
A. Considèrons E = Cn . Pour tout x = (x1 , x2 , . . . , xn ) ∈ Cn y = (yP n
1 , x2 , . . . , yn ) ∈ C , on définit l’applica-
n n n
tion φ de C × C → R par : φ(x, y) = x1 y1 + x2 y2 + . . . + xn yn = k=1 xk yk .
Montrons que φ est un produit scalaire sur Cn .

1a. En effet, φ : Cn × Cn → C est bien définie.


Pour tout λ ∈ C Pet ∀x, y, z ∈ Cn , on écrit
Pnx = (x1 , x2P
, . . . , xn ), y = (y1 , y2 , . . . , yn ), z = (z1 , z2 , . . . , zn ) alors
n n
φ(x, λy + z) = k=1 xk (λyk + zk ) = λ k=1 xk yk + k=1 xk zk = λφ(x, z) + φ(y, z) Donc φ est linéaire en
sa deuxième variable.

C et ∀x, y, z ∈ Cn , on écrit
Pour tout λ ∈ P Pn x = (x1 , xP
2 , . . . , xn ), y = (y1 , y2 , . . . , yn ), z = (z1 , z2 , . . . , zn ) alors
n n
φ(λx + y, z) = k=1 (λxk + yk )zk = λ k=1 xk zk + k=1 yk zk = λφ(x, z) + φ(y, z) Donc φ est semi-linéaire
en sa première variable.
Pn Pn Pn
2. On a φ(y, x) = k=1 yk xk = k=1 xk yk = k=1 xk yk = φ(x, y) par conséquent φ est symétrique
hermitienne. Pn Pn
3. ∀x ∈ Cn , φ(x, x) = k=1 xk xk = k=1 |xk |2 ≥ 0 Donc φ est positive.
n
4. ∀x ∈ Cn , si φ(x, x) = k=1 |xk |2 = 0. La somme des termes positives est nulle si tous les termes sont
P
nuls, par suite |xk | = 0 , k = 1, ..., n et donc x = 0 d’où φ est définie.

13
En conclusion φ est un produit scalaire de Cn c ’est le produit scalaire canonique de Cn .
B. Considérons E = C([a, b], C) l’ensemble des fonctions continues de [a, b] dans C, c’est un espace vectorile
Z b
sur C. L’application C([a, b], C) × C([a, b], C) → C, (f, g) → f (t) × g(t)dt est un produit hermitien sur
a
C([a, b], C).
Rb Rb Rb
2. ∀f, g ∈ C([a, b], C) , x ∈ [a, b], on a : (f, g) = a f (x) × g(x)dx = a f (x) × g(x)dx = a g(x) × f (x)dx =
(g, f ), ce qui prouve que c’est symétrique hermitienne.
Rb Rb
1a. ∀f, g, h ∈ C([a, b], C) , λ ∈ C , x ∈ [a, b], (λf + g, h) = a (λf (x) + g(x)) × h(x)dx = λ a f (x) × h(x)dx +
Rb
a
g(x) × h(x)dx = λ(f, h) + (g, h). C’est donc semi-linéaire
Rb Rb
∀f, g, h ∈ C([a, b], C) , λ ∈ C , x ∈ [a, b], (f, λg + h) = a f (x) × (λg(x) + h(x))dx = a f (x) × λg(x)dx +
Rb Rb Rb
a
f (x) × h(x)dx = λ a f (x) × g(x)dx + a f (x) × h(x)dx = λ(f, g) + (f, h).
c’est donc linéaire.
Rb Rb
3. ∀f ∈ C([a, b], C) , x ∈ [a, b], on a : (f, f ) = a
f (x) × f (x)dx = a
|f (x)|2 dx ≥ 0.
Rb
4. ∀f ∈ C([a, b], C) , x ∈ [a, b], Si (f, f ) = a
|f (x)|2 dx = 0 alors |f (x)| = 0 pour tout x ∈ [a, b] donc f = 0.
Z b
On conclut donc que l’application C([a, b], C) × C([a, b], C) → C, (f, g) → f (x) × g(x)dx est un produit
a
scalaire sur C([a, b], C).

C. On considère E = Mn,p (C). ∀A, B ∈ E on pose φ(A, B) = (A, B) = tr(A∗ B).

Puisque A∗ ∈ Mp,n (R) et B ∈ Mn,p (R), le produit A∗ B ∈ Mpp (R) la trace tr(A∗ B) est donc bien définie.

φ est symétrique hermitienne,


t
en effet : ∀A, B ∈ E , φ(B, A) = tr(B ∗ A) = tr((A∗ B)∗ ) = tr((A∗ B) ) = tr(A∗ B) = φ(A, B).

∀A, B, C ∈ E , λ ∈ C ; φ(A, λB + C) = tr(A∗ (λB + C)) = λtr(A∗ B) + tr(A∗ C) = λφ(A, B) + φ(A, C). Donc
φ est linéaire par rapport à la seconde variable.

∀A, B, C ∈ E , λ ∈ C ; φ(λA + B, C) = tr((λA + B)∗ C) = tr(λA∗ C) + tr(B ∗ C) = λφ(A, C) + φ(B, C). Donc
φ est semi-linéaire par rapport à la première variable.

On pose A = (aij ), i = 1, ..., n, j = 1, ..., p, A∗ = (bij ) est une matrice p × n avec bij = aji , donc A∗ A est
une matrice p × p. Pp Pp Pp Pp Pp Pp
φ(A, A) = tr(A∗ A) = i=1 k=1 bik aki = i=1 k=1 aki aki = i=1 j=1 |aki |2 ≥ 0, φ est positive.
Pp Pp
De plus si φ(A, A) = i=1 k=1 |aki |2 = 0, or la somme de quantités positives n’est nulle que si chacune
des quantités est nulle et donc aki = 0 pour tout i, k et donc A = OMn,p .

Finalement φ est un produit scalaire sur E, c’est le produit scalaire canonique de Mn,p (C).

Définition : Un espace hermitien est un espace vectoriel E sur C de dimension finie et muni d’un produit
scalaire hermitien (., .). On le note (E, (., .)).

Définition : Un espace préhilbertien est défini comme un espace vectoriel réel ou complexe muni d’un
produit scalaire. Cette notion généralise celles d’espace euclidien ou hermitien dans le cas d’une dimension
quelconque

14
6.3 Norme associée à un produit scalaire
Définition : Soit E un espace vectoriel muni d’un produit scalaire ou hermitien. On définit sur E la norme
préhilbertienne || · || , c’est-à-dire associée au produit scalaire (·, ·), par :
p
∀x ∈ E, ||x|| = (x, x)

Elle vérifie les propriétés suivantes :


– ∀x ∈ E kxk ≥ 0, and kxk = 0 si et seulement x = 0.
– ∀x ∈ E, ∀α ∈ R kαxk = |α|kxk
– Inégalité triangulaire : ∀x, y ∈ E kx + yk ≤ kxk + kyk

Exemples :
1. La norme associée au produit scalairePcanonique sur Cn :
n
φ(x, y) = x1 y1 + x2 y2 + . . . + xn yn = k=1 xk yk est :
n
X n
X
n 2
∀x ∈ C , ||x|| = (x, x) = xk xk = |xk |2
k=1 k=1

2. L’ensemble C([a, b], C) muni du produit hermitien :


Z b
C([a, b], C) × C([a, b], C) → C, (f, g) → f (t) × g(t)dt admet comme norme :
a
Z b Z b
∀f ∈ C([a, b], C) , ||f ||2 = f (t) × f (t)dt = |f (t)|2 dt
a a
3. Le produit hermitien (A, B) = tr(A∗ B) définie sur Mn,p (C) admet comme norme :
p X
X p
∀A ∈ Mn,p (C) , ||A||2 = (A, A) = T r(A∗ A) = |aij |2
i=1 j=1

C’est la norme de Frobenius.

Proposition : Identité du parallélogramme

∀x, y ∈ E, ||x + y||2 + ||x − y||2 = 2||x||2 + 2||y||2


Preuve : on a :

||x + y||2 = (x + y, x + y) = (x, x) + (x, y) + (y, x) + (y, y) = ||x||2 + ||y||2 + (x, y) + (x, y)
= ||x||2 + ||y||2 + 2<e(x, y)
||x − y||2 = (x − y, x − y) = (x, x) − (x, y) − (y, x) + (y, y) = ||x||2 + ||y||2 − (x, y) − (x, y)
= ||x||2 + ||y||2 − 2<e(x, y)

en faisant la some on trouve l’Identité du parallélogramme.

Proposition : Formules de polarisation :

∀x, y ∈ E, ||x + y||2 = ||x||2 + ||y||2 + 2<e((x, y))


∀x, y ∈ E , ||x + y||2 − ||x − y||2 = 4<e(x, y)
∀x, y ∈ E , 4(x, y) = ||x + y||2 − ||x − y||2 + i||y + ix||2 − i||y − ix||2 (10)

Preuve :
La première egalité déja prouvée. La seconde est facile a démontrée.
pour démontrer la troisième égalité, on écrit :

i||y + ix||2 = i(y + ix, y + ix) = i(y, y) + i(y, ix) + i(ix, y) + i(ix, ix) = i||y||2 + i||x||2 − (y, x) + (x, y)

15
i||y − ix||2 = i(y − ix, y − ix) = i(y, y) + i(y, −ix) + i(−ix, y) + i(−ix, −ix) = i||y||2 + i||x||2 + (y, x) − (x, y)

en faisant la différence :

i||y + ix||2 − i||y − ix||2 = −2(y, x) + 2(x, y) = 2(x, y) − 2(x, y) = 4i=m(x, y)

La combination de ||x + y||2 − ||x − y||2 = 4<e(x, y) avec i||y + ix||2 − i||y − ix||2 = 4i=m(x, y) montre que :

4(x, y) = ||x + y||2 − ||x − y||2 + i||y + ix||2 − i||y − ix||2

Remarque : Dans le cas d’un produit scalaire réel on a :

∀x, y ∈ E, ||x + y||2 − ||x − y||2 = 4<e(x, y) = 4(x, y)

Théorème : Soit E un espace euclidien, ∀x, y ∈ E ||x + y|| ≤ ||x|| + ||y||


Preuve :

||x + y||2 = ||x||2 + ||y||2 + 2<e(x, y) ≤ ||x||2 + ||x||2 + 2|(x, y)|


≤ ||x||2 + ||y||2 + 2||x||||y|| = (||x|| + ||y||)2 (11)

Corollaire : (Inégalité triangulaire renversée) Soit E un espace euclidien,

∀x, y ∈ E |||x|| − ||y||| ≤ ||x − y|| ≤ ||x|| + ||y||

Preuve :
Soient x, y ∈ E, on a ||x|| = ||(x − y) + y|| ≤ ||x − y|| + ||y||, donc ||x|| − ||y|| ≤ ||x − y|| de même (par sym-
métrie) on montre que ||y||−||x|| ≤ ||y −x|| = ||x−y||. Ce qui prouve que |||x||−||y||| ≤ ||x−y|| ≤ ||x||+||y||.

Théorème : Soit (E, (., .)) un espace préhilbertien réel ou complexe. Alors,

∀x, y ∈ E , |(x, y)|2 ≤ (x, x) (y, y).


Il y a égalité si et seulement si x et y sont colinéaires.
Preuve : Le résultat est vraie si y = 0. On suppose par la suite que y 6= 0. On considére la quantité suivante :
∀λ ∈ C , (λx + y, λx + y). Cette quantité est positive ou nulle (c’est un produit scalaire (w, w)). On a :

P (λ) = (λx + y, λx + y) = λ(x, λx + y) + (y, λx + y)


= λ(λ(x, x) + (x, y)) + (λ(y, x) + (y, y))
= |λ|2 (x, x) + λ(x, y) + λ(y, x) + (y, y)
= |λ|2 (x, x) + 2<e(λ(x, y)) + (y, y)
(12)

(x, y) est un complee, il existe donc θ ∈ R tel que (x, y) = |(x, y)|eiθ . On choisit λ = reiθ , avec r ∈ R, donc :

P (λ) = P (riθ ) = r2 (x, x) + 2r|(x, y)| + (y, y) ≥ 0

Comme y 6= 0 et le produit scalaire est défini, alors (y, y) 6= 0.


L’expression P (λ) est un polynôme du second degré est positive ou nulle ∀r ∈ R, On en déduit que le
descriminant de Cramer est positif ou nul donc :

∆ = 4|(x, y)|2 − 4(x, x)(y, y) ≥ 0 → |(x, y)|2 ≥ (x, x) (y, y) (13)

Reste à montrer le cas d’égalité. Si x et y sont liés alors il existe un sclaire α ∈ C tel que y = αx.
|(x, y)|2 = |(x, αx)|2 = |α(x, x)|2 = |α|2 (x, x)2 = (x, x)αα(x, x) = (x, x)(αx, αx) = (x, x)(y, y).

Réciproquement si |(x, y)|2 = (x, x)(y, y) dans ce cas le discriminant ∆ = 0 et le polynm̂e aura une racine
double λ0 . et pour ce λ0 on aura : P (λ0 ) = (x + λ0 y, x + λ0 y) = 0 et parsuite x + λ0 y = 0 (car le produit

16
scalaire est défini positive) donc x = −λ0 y, (x, y) sont colinéaires.

Corollaire : Si x1 , . . . , xn ∈ C et y1 , . . . , yn ∈ C on a :
2
X n n
X n
X
2
xi ȳi ≤ |xj | |yk |2 .



i=1 j=1 k=1

Preuve : Ceci est une conséquence de l’inégalité Pi=n de Cauchy-Schwartz pour le produit scalaire : ∀x =
(x1 , ..., xn )t , y = (y1 , ..., yn )t ∈ Cn , (x, y) = i=1 xi yi .

Dans le cas de Rn muni du produit scalaire canonique, l’inégalité de Cauchy–Schwarz devient :


n
!2 n
! n
!
X X X
xi yi ≤ x2i yi2 = ||x||2 ||y||2
i=1 i=1 i=1

n
La preuve est similaire au cas de C . On considère le polynôme P (α) = (λx + y, λx + y) ≥ 0 ou x =
(x1 , ..., xn ), y = (y1 , ..., yn ) ∈ Rn .
On developpe P (λ) et on demande a ce que le discriminant soit négative ou nul. Ce qui donne :
X 2 X X
(xi yi ) − x2i · yi2 ≤ 0,

ce qui donne l’inégalité de Cauchy–Schwartz.

7 Produit scalaire et orthogonalité


Définition : On considère un espace prehilbertien (E, (, )).
– Deux vecteurs v1 , v2 de E sont dits orthogonaux si (v1 , v2 ) = 0
– Une famille de vecteurs (vi )i∈I est orthogonale si ∀i, j ∈ I, i 6= j alors (vi , vj ) = 0.
– Une famille de vecteurs (vi )i∈I est orthonormale s’elle est orthogonale et de plus si ∀i ∈ I, (vi , vi ) = 1.
– Un vecteur v est dit unitaire si ||v|| = 1

Exemples :
A. Dans R3 munit du produit scalaire canonique.
1. Les vecteurs (1, 1, 1) et (1, −1, 0) sont orthogonaux.
2. les vecteurs e1 = (1, 0, 0), e2 = (0, 1, 0) , e3 = (0, 0, 1) sont tels que (e1 , e2 ) = (e1 , e3 ) = (e2 , e3 ) = 0
et (e1 , e1 ) = (e2 , e2 ) = (e3 , e3 ) = 1. On conclut que la base (e1 , e2 , e3 ) est orthonormale.
B. Dans l’espace préhilbertien C([0, 2π]) des fonctions contines sur [0, 2π], ∀f, g ∈ C([0, 2π]) , (f, g) =
R 2π
0
f (x)g(x)dx. La famille de fonctions fm (x) = cos(mx) est orthogonale. En effet :
Z 2π
(fm , fn ) = cos(mx) cos(nx)dx
0
1 2π
Z
= (cos(m + n)x + cos(m − n)x)dx
2 0
= 0 si n 6= m

Si m = n 6= 0 (fm , fm ) = π.
Si m = n = 0, (f0 , f0 ) = 2π.

Remarques :
v
i Pout tout vecteur non nul de E, le vecteur u = ||v|| est un vecteur unitaire qui es associé à v. (Car
p p
||u|| = (u, u) = (v, v)/||v||2 = 1).

17
ii On passe d’une famille orthogonale de vecteurs non nuls (vi )i∈I à une famille orthonormale en rem-
plaçont chaque vecteur vi par le vecteur unitaire qui lui est associé ||vvii || .

Théorème : Toute famille orthogonale ne comportant pas le vecteur nul est libre.

Preuve : Soit (vi )i∈I une


P famille orthogonale formée de vecteurs non nuls (meme si I est infini). Soit
λi des scalaires tels que i∈I λvi = 0E . Pour tout j ∈ I, on a :
X X
0 = (vj , λ i vi ) = λi (vj , vi ) = λj (vj , vj )
i∈I i∈I

comme vj 6= 0E , (vj , vj ) 6= 0 et donc λj = 0 et par suite la famille (vi )i∈I est libre.

Théorème de Pythagore : Dans un espace préhilbertien E, pour toute famille orthogonale de vecteurs
(v1 , v2 , ..., vn ) de E on a

||v1 + v2 + ... + vn ||2 = ||v1 ||2 + ||v2 ||2 + ... + ||vn ||2

Preuve :
Par récurrence sur n ∈ N.
Pour n = 1 trivial.
Pour n = 2, ||v1 + v2 ||2 = ||v1 ||2 + ||v2 ||2 + (v1 , v2 ) + (v2 , v1 ) = ||v1 ||2 + ||v2 ||2 . Supposons la propriété vraie
au rang n ≥ 2.

Soit (v1 , v2 , ..., vn , vn+1 ) une famille orthogonale. Il est facile de verifier que (v1 + v2 + ... + vn ) est orthogonale
à vn+1 , de plus on a :

||v1 + v2 + ... + vn + vn+1 ||2 = ||v1 + v2 + ... + vn ||2 + ||vn+1 ||2 + (v1 + v2 + ... + vn , vn+1 ) + (vn+1 , v1 + v2 + ... + vn )
= ||v1 + v2 + ... + vn ||2 + ||vn+1 ||2

d’après l’hypothèse de récurrence on obtient : ||v1 +v2 +...+vn +vn+1 ||2 = ||v1 ||2 +||v2 ||2 +...+||vn ||2 +||vn+1 ||2 .
D’ou le résultat.

Autre preuve :
D’après les propriétés du produit scalaire on pourra montrer que
n
X Xn n
X n X
X n n
X
|| vi ||2 = ( vi , vj ) = (vi , vj ) = ||vi ||2
i=1 i=1 j=1 i=1 j=1 i=1

Remarque : En utilisant Pythatgore on peut démontrer l’inégalité de Cauchy Schwartz. En effet, soit
x, y ∈ E, tel que y 6= 0. On introduit le vecteur z = x − (x,y)
(y,y) y. Les vecteur z et y sont orthogonaux :

(x, y) (x, y)
(z, y) = (x − y, y) = (x, y) − (y, y) = 0 (14)
(y, y) (y, y)
(x,y)
Or, on a x = z + (y,y) y et d’après Pythagore :

(x, y) 2 (x, y) 2
||x||2 = ||z + y|| = ||z||2 + | | ||y||2
(y, y) (y, y)
|(x, y)|2 |(x, y)|2
= ||z||2 + 2
≥ (15)
||y|| ||y||2

on aura donc |(x, y)|2 ≤ ||x||2 ||y||2 ce qui donne |(x, y)| ≤ ||x||||y||.

18
8 Procédé d’orthonormalisation de Gram-Schmidt
Proposition : Soit E un espace vectoriel euclidien et (v1 , v2 , . . . , vn ) une base de E. On peut construire une
famille orthonormé (e1 , e2 , . . . , en ) de E vérifiant

∀k = 1, ..., n , vect(v1 , v2 , . . . , vk ) = vect(e1 , e2 , . . . , ek )

Preuve : La démonstration se fait par récurrence sur n.


Pour n = 1. Soit (v1 ) une famille libre de E. Alors v1 6= 0E , le vecteur e1 = v1 /||v1 || convient.
Supposons que la propriété est établie à l’ordre n et montrons pour n + 1.
Soit (v1 , . . . , vn , vn+1 ) une famille libre de E. D’après l’hypothèse de récurrence il existe une famille ortho-
normée (e1 , e1 , . . . , en ) de E tel que :

∀k = 1, ..., n , vect(v1 , v2 , . . . , vk ) = vect(e1 , e2 , . . . , ek )

il nous reste à déterminer un vecteur en+1 tel que (e1 , e1 , . . . , en , en+1 ) est orthonormée dans E et vect(v1 , v2 , . . . , vn , vn+1 ) =
vect(e1 , e2 , . . . , en , en+1 ).

Si en+1 convient, il appartient donc à vect(v1 , v2 , . . . , vn , vn+1 ) et par suite, il existe des scalaires α1,2,...,n,n+1
tels que :
en+1 = α1 v1 + ... + αn vn + αn+1 vn+1
Or puisque vect(v1 , v2 , . . . , vn ) = vect(e1 , e2 , . . . , en ), on conclut que :

en+1 = β1 e1 + ... + βn en + λn+1 vn+1 (16)

De plus (e1 , e2 , . . . , en , en+1 ) est orthonormée, on a : ∀k = 1, ..., n , (ek , en+1 ) = 0. A partir de l’éq(16), on
en déduit que :
∀k = 1, ..., n , βk = −λn+1 (ek , vn+1 )
et par suite
n
X
en+1 = λn+1 (vn+1 − (ek , vn+1 )ek )
k=1
| {z }
X
1
puisqu’on veut que ||en+1 || = 1, on obtient |λn+1 | = 1/||X||. En fin le vecteur en+1 = X/||X|| = ||X|| ((vn+1 −
Pn
k , vn+1 )ek )). (Notez que X 6= 0E car sinon vn+1 serait combinaison linéaire des vk (k = 1, ..., n)
k=1 (eP
n
vn+1 = k=1 (vk , en+1 ))ek ).
Par construction (e1 , e2 , ..., en , en+1 ) est orthonormée et vect(v1 , v2 , . . . , vn , vn+1 ) = vect(e1 , e2 , . . . , en , en+1 ).
Le procédé de Gram-Schmidt repose sur cette proposition.

8.1 Procédé de Gram-Schmidt


Le procédé de Gram-Schmidt est une méthode pour orthonormaliser une famille libre de vecteurs (v1 , ..., vn )
d’un espace vectoriel E muni d’un produit scalaire (·, ·).
A partir de la famille libre (v1 , ..., vn ), on construit une famille orthonormale (e1 , ..., en ) qui engendre les
mêmes espaces vectoriels successifs :

pour tout 1 ≤ j ≤ n, Fj = Vect(e1 , . . . , ej ) = Vect(v1 , . . . , vj ).

L’étape générale de l’algorithme consiste à soustraire au vecteur vj+1 sa projection orthogonale sur l’espace
Fj . On s’appuie sur la famille orthonormale déjà construite (e1 , e2 , . . . ej ) pour le calcul de projection.

Nous définissons l’opérateur de projection sur une droite vectorielle u par :

(u, v)
proju v = u.
(u, u)

19
Le procédé de Gram-Schmidt est alors :
u1
u1 = v1 , e1 =
ku1 k
u2
u2 = v2 − proju1 v2 , e2 =
ku2 k
u3
u3 = v3 − proju1 v3 − proju2 v3 , e3 =
ku3 k
... ...
k−1
X uk
uk = vk − projuj vk , ek = .
j=1
kuk k

Exemples :
1. Dans R2 muni du produit scalaire canonique, on considr̀e la base B 0 = (v1 = (1, 1), v2 = (1, 2)). Il est
claire que B 0 n’est ni orthogonale ((v1 , v2 ) = 3 6= 0) ni orthonormale. On applique Gram-Schmidt :
u1 √ √
(1,1) 2 2
u1 = v1 , e1 = = √ =( 2 , 2 )
ku1 k 2

u2
u2 = v2 − proju1 v2 , e2 = ku2 k

√ √
(− 12 , 21 ) 2 2
u2 = (1, 2) − 32 (1, 1) e2 = √1 = (− 2 , 2 )
2

2. Dans R3 muni du produit scalaire canonique, on considr̀e la base B 0 = (v1 = (1, 0, 1), v2 = (1, 1, 0), v3 =
(0, 1, 1). Il est claire que B 0 n’est ni orthogonale ni orthonormale. On applique Gram-Schmidt :
u1 √ √
(1,0,1) 2 2
u 1 = v1 , e1 = = √ == ( 2 , 0, 2 )
ku1 k 2

u2
u2 = v2 − proju1 v2 , e2 = ku2 k

( 21 ,1,− 12 )
u2 = (1, 1, 0) − 12 (1, 0, 1) e1 = √
√3
= ( √16 , √26 , − √16 )
2

u3
u3 = v3 − proju1 v3 − proju2 v3 , e3 =
ku3 k
1/2 1 −1 √1 √1
u3 = (0, 1, 1) − 21 (1, 0, 1) − 1
3/2 ( 2 , 1, − 2 ) = (− 23 , 23 , 23 ), e3 = ( √ 3
, 3, 3)

Remarque : Il est facile de voir que la matrice de passage de la base (v1 , . . . , vn ) à la base (e1 , . . . , en ) est
donc triangulaire supérieure.  √ 
2 3

En effet dans l’exemple 1. La matrice de passage de (v1 , v2 ) à (e1 , e2 ) est P =  2 2 
est bien
0 1
triangulaire supérieure.
De même dans l’exemple 2, La matrice de passage de (v1 , v2 , v3 ) à (e1 , e2 , e3 ) est :
 √ 
2 √1 1
− − √
 2 √
6 2 3 
P = 0 √2 − 1
 
√ 
3 2 3 
 √
3
0 0 2

20
9 Sous-espaces vectoriels orthogonaux
9.1 Orthogonal d’une partie
Définition : E un espace préhilbertien, A ⊂ E. On appelle orthogonal de A l’ensemble noté A⊥ contenant
des vecteurs de E orthogonaux à tous les vecteurs de A

A⊥ = {x ∈ E ; ∀a ∈ A , (a, x) = 0}

Exemples :
1. Il est facile de voir que {0E }⊥ = E et E ⊥ = {0E }.
2. Dans R2 muni du produit scalaire canonique, A = vect(1, 0), B = vect(0, 1), A⊥ = vect(0, 1) = B et
B ⊥ = vect(1, 0) = A.
Théorème :
A⊥ est un sous espace vectoriel de E sur un corps K.

Preuve :
Par définition A⊥ ⊂ E, 0E ∈ A⊥ car 0E est orthogonal à tous les vecteurs de E et en particulier à ceux de
A.
Soit λ ∈ K, x, y ∈ A⊥ , on a ∀a ∈ A, (a, λx + y) = λ(a, x) + (a, y) = 0. Donc λx + y ∈ A⊥ et par suite A⊥
est un sous espace vectoriel.

Proposition :
∀A, B ⊂ E, on a :
i A ⊂ (A⊥ )⊥
ii Si A ⊂ B alors B ⊥ ⊂ A⊥
iii A⊥ = vect(A)⊥
Preuve :
i) Soit x ∈ A, alors ∀y ∈ A⊥ , (x, y) = 0 ce qui montre que x ∈ (A⊥ )⊥ donc A ⊂ (A⊥ )⊥ .
ii) Soit x ∈ B ⊥ , alors ∀y ∈ B, (x, y) = 0 donc x est orthogonal à tout élément y ∈ A (car A ⊂ B), ce
qui prouve que x ∈ A⊥ .
iii) D’après ii), on a A ⊂ vect(A) alors vect(A)⊥ ⊂ A⊥ .
Inversement A ⊂ (A⊥ )⊥ donc V ect(A) ⊂ (A⊥ )⊥ (car (A⊥ )⊥ est un sous-espace vectoriel qui contient
A). La dernière inclusion implique que ((A⊥ )⊥ )⊥ ⊂ V ect(A)⊥ (à partir de ii). On conclut, en remar-
quant : A⊥ ⊂ ((A⊥ )⊥ )⊥ ⊂ V ect(A)⊥ , d’où A⊥ = vect(A)⊥ .
Définition : Soit E un espace euclidien, Deux sous espaces vectoriels F et G de E sont dits orthogonaux si
∀(x, y) ∈ F × G , (x, y) = 0.

Exemples :
1. Dans R2 muni du produit scalaire canonique, F = vect(1, 0), G = vect(0, 1), F et G sont orthogonaux.
2. Dans E espace vectoriel sur K, si F est un sous espace vectoriel de E, alors F et F ⊥ sont orthogonaux.

proposition : Soit E un espace euclidien et F et G deux sous espaces vectoriels de E. Si F et G sont


orthogonaux alors F ∩ G = {0E }.

Preuve : Pour tout x ∈ F ∩ G alors x ∈ F et x ∈ G et par suite (x, x) = 0 (car F et G sont ⊥).
Comme E est euclidien, de (x, x) = 0 on déduit x = 0E . Donc F ∩ G ⊂ {0E }. L’inclusion inverse est triviale
puisque F et G sont 2 s.e.v de E donc contiennent le vecteur nul.

Théorème : Tout espace vectoriel euclidien E possède une base orthonormée.

Preuve : d’après Gram-Schmidt.

Théorème : Soit E un espace euclidien muni d’une base orthonormée B = (e1 , e2 , ..., en ). Pour tout x ∈ E

21
on a :
n
X
x = (ek , x)ek (17)
k=1

les composantes du vecteur x dans la base B sont : (e1 , x), (e2 , x), ..., (en , x) :
 
(e1 , x)
 
 (e2 , x) 
 
x= 
..



 . 

(en , x)
Pn
Preuve : B étant une base de E, donc il existe des scalaires λi tels que x = k=1 λk ek . Pour i = 1, ..., n on
calcul (ei , x) :
n
X n
X
(ei , x) = (ei , λ k ek ) = λk (ei , ek )
k=1 k=1
n
X
= λk δik = λi (18)
k=1

d’où le résultat.

Exemples :
– Dans R2 muni du produit scalaire canonique et B = (e1 = (1, 0), e2 = (0, 1)) sa base canonique. Il est
facile de voir que les coordonnées de x = (1, −1) sont 1 = (e1 , x) et −1 = (e2 , x).
– De même, dans R3 muni du produit scalaire canonique et B = (e1 = (1, 0, 0), e2 = (0, 1, 0), e3 =
(0, 0, 1)) sa base canonique. Il est facile de voir que les coordonnées de x = (2, 3, 5) sont 2 = (e1 , x),
3 = (e2 , x) et 5 = (e3 , x).

Proposition : Soit E un espace euclidien muni d’une base orthonormale B = (e1 , ..., en ). Si x et y sont des
vecteurs de E de composantes respectives x1 , . . . , xn et y1 , . . . , yn dans B alors

(x, y) = x1 y1 + . . . + xn yn
q
||x|| = x21 + . . . + x2n
Pn Pn
Preuve : x, y ∈ E, donc x = i=1 xi ei et y = j=1 yj ej . Le produit scalaire étant bilinéaire donc

Xn n
X n X
X n
(x, y) = ( xi ei , yj ej ) = xi yj (ei , ej )
i=1 j=1 i=1 j=1
n X
X n n
X
= xi yj δij = xi yi (19)
i=1 j=1 i=1
p pPn
il est facile de voir que ||x|| = (x, x) = i=1 x2i .

Théorème : Soit E un espace vectoriel euclidien, Si F un sous espace vectoriel de E alors F et F ⊥ sont
supplémentaires dans E (E = F ⊕ F ⊥ ) et on a

dim(F ⊥ ) = dimE − dimF

Preuve : Soit (e1 , ..., ek ) une base Pnorthonormée de F. On peut la compléter en une base orthonormée
(e1 , . . . , en ) de E. Un vecteur x = i=1 xi ei est orthogonal à F si et seulement si il est orthogonal à e1 , ...,

22
Pn
ek puisque F = vect(e1 , ..., ek ), donc si et seulement si ∀i = 1, ..., k ; xi = 0 et par suite x = i=k+1 xi ei .
Le sous-espace vectoriel F ⊥ est donc le sous-espace vectoriel de E engendré par ek+1 , ..., en .

Ecriture matricielle du produit scalaire :    


x1 y1
   
x2  y2 
   
 
Si E est muni d’un produit scalaire réel, on introduit l’écriture matricielle de x = 
 ..
 et y = 
  .. 


 . 

 . 
 
xn yn
on peut écrir le produit scalaire comme :

(x, y) =t xy
v
u n
√ uX
||x|| = t xx = t x2 i
i=1

 
x1
 
x2
 
 
Si E est muni d’un produit scalaire sur C, on introduit l’écriture matricielle de x = 
 ..
, et y =


 . 

xn
 
y1
 
y2
 
 
 on peut écrir le produit scalaire comme :
..

 

 . 

yn

n
X
(x, y) = x∗ y = y ∗ x = x̄i yi
i=1
v
u n
√ uX
||x|| = ∗
x x=t |xi |2
i=1

10 Endomorphisme orthogonal, groupe orthogonal, matrice ortho-


gonale
Définition : Soit E un espace vectoriel euclidien, f un endomorphisme de E. f est dit orthogonal si et
seulement si f conserve le produit scalaire dans E ⇔ ∀x, y ∈ E, (f (x), f (y)) = (x, y).

Théorème : f est orthogonal ⇔ f conserve la norme⇔ ∀x ∈ E, kf (x)k = kxk.

Preuve : ⇒) trivial d’après la définition.


⇐) Montrons que si kf (x)k = kxk alors f est orthogonal.
2 2
Soit x, y ∈ E tel que kf (x + y)k = kx + yk . Comme :
2
kf (x + y)k = (f (x + y), f (x + y)) = (f (x), f (x)) + (f (y), f (y)) + 2(f (x), f (y))
2 2
= kf (x)k + kf (y)k + 2(f (x), f (y))
2 2
= kxk + kyk + 2(f (x), f (y)) (20)

23
2 2 2 2
d’un autre coté kf (x + y)k = kx + yk = kxk + kyk + 2(x, y). En comparant les deux expressions on
trouve :
(f (x), f (y)) = (x, y)
ce qui veut dire que f conserve le produit scalaire, c’est donc orthogonal.

Exemples : Soit E un espace euclidien et F un s.e.v de E.


– IE et −IE sont des automorphismes orthogonaux de E
– La symétrie orthogonale S par rapport à F est un automorphisme orthogonal.
Pour tout x ∈ E, si x = y + z avec y ∈ F et z ∈ F ⊥ ((y, z) = 0), donc S(x) = y − z et par suite :

||S(x)||2 = ||y − z||2 = ||y||2 + ||z||2 car (y, z) = 0


= ||y + z||2 = ||x||2 (21)

donc S est orthogonal.

Théorème : Un endomorphisme orthogonal est bijectif.

Preuve : Il suffit de montrer que f est injectif.


En effet, soit x ∈ Kerf , donc f (x) = 0E ⇔ kf (x)k = 0 ⇔ kxk = 0 ⇔ x = 0E . Donc Kerf = {0E } et f est
injectif. Puisque E est de dimension finie f est bijectif.

Proposition : Un endomorphisme orthogonal conserve l’orthogonalité entre deux vecteurs.


En effet, soit x, y ∈ E tel que (x, y) = 0 donc (f (x), f (y)) = (x, y) = 0.

Théorème : Soit E un espace euclidien. L’ensemble des automorphismes orthogonaux de E est un sous
groupe de (GL(E), o) appelé groupe orthogonal et noté O(E).

Preuve : IE est un automorphisme orthogonal, donc O(E) 6= ∅.


Si f et g sont deux éléments de O(E) montrons que f og ∈ O(E), en effet soit x, y ∈ E :

(f og(x), f og(y)) = (f (g(x)), f (g(y))) = (g(x), g(y)) car f orthogonal


= (g(x), g(y)) = (x, y) car g orthogonal

donc f og ∈ O(E).
Si f ∈ O(E), f est un automorphisme, donc f −1 existe, montrons que f −1 ∈ O(E).

(f −1 (x), f −1 (y)) = (f (f −1 (x)), f (f −1 (y))) car f orthogonal


= (f of −1 (x), f of −1 (y)) = (x, y) (22)

donc O(E) est un sous groupe de GL(E).

Théorème : Un endomorphisme f de E est orthogonal si et seulement si f transforme une base orthonor-


male de E en une base orthonormale.

Preuve : D’aprés la proposition, si f est orthogonal alors elle conserve l’orthogonalité. Donc si B =
(e1 , ..., en ) est une base orthonormale de E, alors B 0 = (f (e1 ), ..., f (en )) est une base orthonormale.
Réciproquement : soit B = (e1 , ..., en ) une base orthonormale de E, f est un endomorphisme Pn tel que
(f (e1P ), ..., f (en )) est une base orthonormale de E. Pour tout x, y ∈ E, on peut écrire x = i=1 αi ei et
n
y = i=1 βi ei on aura
n
X n
X
(f (x), f (y)) = (f ( αi ei ), f ( βj ej ))
i=1 j=1

24
Xn n
X
( αi f (ei ), βj f (ej ))
i=1 j=1
n X
X n
= αi βj (f (ei ), f (ej ))
i=1 j=1
| {z }
=δij
n
X
= αi βj = (x, y) (23)
i=1

10.1 Matrice orthogonale


Définition : Une matrice carrée A est dite orthogonale si et seulement si A est la matrice d’un endomor-
phisme orthogonal dans une base orthonormale.
Théorème : Soit A une matrice carrée. Il y a équivalence entre :
1 A est orthogonale
2 les vecteurs colonnes de A sont normés et orthogonaux deux à deux
3 les vecteurs lignes de A sont normés et orthogonaux deux à deux
4 A−1 =t A
5 At A = I
6 t AA = I

Démonstration : Soit A une matrice orthogonale, A est la matrice d’un endomorphisme f orthogo-
nale dans la base orthonormale B = (e1 , e2 , ..., en ). Les colones de la matrice A sont les vecteurs B 0 =
(f (e1 ), f (e2 ), ..., f (en )), comme f est orthogonal donc B 0 est orthonormale, donc les vecteurs colonne de A
sont deux à deux othogonaux et normés.
Réciproquement, si les vecteurs colonnes sont orthogonaux deux à deux et normés, alors f transforme
une base orthonormale en une base orthonormale, donc f est orthogonal et par suite A est orthogonale.
L’équivalence à At A = I en découle facilement du fait que At A est une matrice dont l’élément aij sont le
produit scalaire ième ligne Li de A avec la jème colone Cj de t A (qui est en fait la jème ligne Lj de A). Or
A est orthjogonale donc les lignes sont deux à deux orthogonaux et normés, ce qui veut dire que At A = I.

At A = I ⇔t A = A−1 ⇔t AA = I ⇔t A est orthogonale


Exemples :  
cos a − sin a
a. pour tout a ∈ R, la matrice A =   est orthogonale, c’est la matrice d’une rotation
sin a cos a
d’angle a .
En notant C1 et C2 les colonnes de A, On remarque que (C1 , C2 ) = 0, (C1 , C1 ) = (C2 , C2 ) = 1.
On pourra aussi vérifier que t AA =  I. 
1 0 0
 
b. pour tout a ∈ R, la matrice A =  0 cos a − sin a  est orthogonale.
 
 
0 sin a cos a
En notant C1 , C2 et C3 les colonnes de A, On remarque que (C1 , C2 ) = (C1 , C3 ) = (C2 , C3 ) = 0 et
(C1 , C1 ) = (C2 , C
2 ) = (C3 , C3 ) = 1

1
3 − 23 2
3
 
2
c. La matrice A =  − 13 − 23  est orthogonale.
 
 3 
2 2 1
3 3 3
En notant C1 , C2 et C3 les colonnes de A, On remarque que (C1 , C2 ) = (C1 , C3 ) = (C2 , C3 ) = 0 et
(C1 , C1 ) = (C2 , C2 ) = (C3 , C3 ) = 1.
On peut également vérifier sans peine que At A = I3 .

25
Proposition : Toute matrice orthogonale a un déterminant égal à ±1.

Démonstration : En utilisant la relation At A = I, on obtient det(t AA) = (detA)2 = 1, d’où det(A) = ±1.
 
2 1
Remarque : La réciproque est fausse. En effet la matrice   a un déterminant =1, mais elle n’est
1 1
pas orthogonale car (C1 , C2 ) 6= 0.

Théorème : Soit A une matrice réelle d’ordre n, Rn muni du produit scalaire canonique. Il y a équivalence
entre :
1. A orthogonale
2. pour tout x ∈ Rn , ||Ax||2 = ||x||2 .
3. pour tout x, y ∈ Rn , (Ax, Ay) = (x, y)
Preuve :
1 ⇒ 2 Supposons que A est orthogonale, At A = I, pour tout x ∈ Rn : ||Ax||2 = (Ax, Ax) = xt At Ax =
xt Ix = xt x = (x, x) = ||x||2 .
2 ⇒ 3 supposons que pour tout x ∈ Rn on a : ||Ax||2 = ||x||2 alors :

1 1
(Ax, Ay) = (||Ax + Ay||2 − ||Ax − Ay||2 ) = (||A(x + y)||2 − ||A(x − y)||2 )
4 4
1
= (||x + y||2 − ||x − y||2 )
4
= (x, y) (24)
3 ⇒ 1 : supposons que (Ax, Ay) = (x, y) pour tout x, y ∈ Rn . On a
(Ix, y) = (x, y) = (Ax, Ay) = y t At Ax = (At Ax, y) (25)
ce qui implique que (At Ax, y) − (Ix, y) = ((At A − I)x, y) = 0 et ceci pour tout x, y ∈ Rn . En particulier, ca
doit être vraie pour y = (At A − I)x ce qui donne :
((At A − I)x, (At A − I)x) = 0
et par suite on aura : pour tout x ∈ Rn : (At A − I)x = 0.
On peut voir (At A − I)x = 0 comme un système linéaire ou les variables sont les n coordonnées de x, si on
veut que le système ai une solution pour tout x ∈ Rn alors il faut que la matrice (At A − I) = 0Mn et donc
At A = I, on conclut que A est orthogonale.

10.2 Matrice de passage entre deux bases orthonormées


Théorème : Soit E un espace euclidien. Soient B = (e1 , e2 , ..., en ) une base orthonormée de E, B 0 =
(f1 , f2 , ..., fn ) une famille de vecteurs de E et P la matrice de passage de B dans B’. On a équivalence entre :
1 B’ est une base orthonormée de E,
2 P est orthogonale.

Preuve : Soit P = PB→B 0 , notons pij les coefficients de P. pij est la i-ième composante dans la base B du
vecteur fj .

Notons p0ij les coefficients de P t , On a p0ij = pji . On note P t P = (aij ).


On aura :
X n n
X
aij = p0ik pkj = pki pkj
k=1 k=1
or, le calcul du produit scalaire de deux vecteurs par ses composantes dans une base orthonormée, on a aussi
n
X
(fi , fj ) = pki pkj
k=1

26
Ainsi aij = (fi , fj ) et donc P t P = In si, et seulement si, la famille B’ est orthonormée et donc B 0 une base
orthonormée de E.

Autre démonstration : Supposons B et B 0 deux bases orthonormales. Soit x ∈ Rn on peut d’ecomposer


x dans B et dans B 0 .

x = xB = α1 e1 + α2 e2 + ... + αn en αi ∈ R
x = xB 0 = β1 f1 + β2 f2 + ... + βn fn βi ∈ R
(26)

alors :
Xn n
X n
X
||xB ||2 = (x, x) = ( α i ei , αi ei ) = αi2
i=1 i=1 i=1

de meme :
n
X n
X n
X
||xB 0 ||2 = (x, x) = ( βi fi , βi fi ) = βi2
i=1 i=1 i=1

D’après les propriétés des matrices de passages on a xB 0 = P xB et donc ||xB || = ||xB 0 || = ||P xB || pour tout
xB ∈ R. Donc P est orthogonale.

11 Réduction des matrices


Diagonalisation
La matrice A ∈ Mn est diagonalisable si et seulement si il existe une matrice diagonale D ∈ Mn
telle que A soit semblable à D, c’est-à-dire qu’il existe une matrice de passage P inversible telle que
A = P DP −1 .
La matrice A ∈ Mn (K) est diagonalisable si et seulement si son polynôme caractéristique pA est scindé
sur K (c’est-à-dire PA (X) = C(X − a1 )n1 (X − a2 )n2 . . . (X − am )nm , avec n = n1 + n2 + ... + nm ) et si,
pour chaque valeur propre ai de A, la dimension du sous-espace propre associé à ai est égale à son ordre de
multiplicité ni .
Si la matrice A ∈ Mn admet n valeurs propres distinctes deux à deux, alors A est diagonalisable.

– Si la matrice A est normale, alors A est semblable à une matrice diagonale D par une transformation
unitaire, c’est-à-dire A = P DP −1 avec P matrice unitaire.
– Si la matrice A est symétrique, alors A est semblable à une matrice diagonale D par une transformation
orthogonale, c’est-à-dire A = P DP −1 avec P matrice unitaire orthogonale.

Triangularisation
– Une matrice A à coefficient dans C est triangularisable lorsqu’elle est semblable à une matrice tri-
angulaire supérieure, c’est à dire qu’il existe une matrice P inversible et une matrice T triangulaire
supérieure telle que A = P T P −1 .
– Lorsque A (à coefficient dans C) s’écrit A = P T P −1 avec T triangulaire supérieure, la diagonale de T
contient les valeurs propres de A.
Théorème : (Décomposition de Jordan) Pour toute matrice A d’ordre n à coefficient dans C il existe
une matrice inversible P telles que A = P JP −1 et où J a la structure par blocs suivante :

27
 
J1 (λ1 )
 

 J2 (λ2 ) 

..
 
J = .
 

 
 .. 

 . 

Jr (λr )
Chaque bloc diagonal Jk est d’ordre nk (n1 + n2 + ... + nr = n est soit du type Jk = λk Ink , soit du type :
 
λk 1
 

 λk 1 (0) 

.. ..
 
. .
 
 
Jk (λk ) =  
 .. .. 

 . . 

 

 (0) λk 1

λ
les scalaires λ1 , ... λr (qui ne sont pas nécessairement distincts) sont les valeurs propres de A : Spectre(A) =
{λ1 , ..., λr }.

Trace d’une matrice


– La trace (notée tr) d’une matrice carrée A est la somme de ses entrées diagonales
n
X
tr(A) = aii
i=1

tr(AB) = tr(BA) tr(A + B) = tr(A) + tr(B)


−1
tr(P AP ) = tr(A) det(AB) = det(BA) = det(A) det(B)
Xn n
Y
tr(A) = λi (A) det(A) = λi (A)
i=1 i=1

28
Produit scalaire, produit hermitien
L’application (·, ·) : V × V −→ K définie par
n
X
t t
(u, v) = vu = uv = ui vi si K = R
i=1

n
X

(u, v) = v u = u∗ v = ui v̄i si K = C
i=1

est appelée produit scalaire euclidien si K = R, hermitien si K = C, ou canonique si l’on ne précise


pas le corps des scalaires.
Soit V un espace muni de son produit scalaire canonique. Deux vecteurs u et v de V sont orthogonaux si
(u, v) = 0. Un ensemble {v1 , v2 , . . . vk } de vecteurs de l’espace V est dit orthonormal si

(vi , vj ) = δij 1 ≤ i, j ≤ k,

où δij est le symbole de Kronecker : δi,j = 1 si i = j, δij = 0 si i 6= j.

Soit A une matrice de type (m, n) (c’est-à-dire A ∈ Mm,n (K)) ; ses éléments sont les aij ∈ K, avec
1 ≤ i ≤ m, 1 ≤ j ≤ n.
Si A ∈ Mm,n (C), on note A∗ ∈ Mm,n (C) la matrice adjointe de la matrice A définie par

(Au, v) = (u, A∗ v) pour tout u ∈ Cn , v ∈ Cm .

On a alors : (A∗ )ij = āji .


De même, si A ∈ Mm,n (R), on note t A ∈ Mm,n (R) la matrice transposée de la matrice A définie par

(Au, v) = (u,t Av) pour tout u ∈ Rn , v ∈ Rm .

On a alors : (t A)ij = aji .


Soit A ∈ M(m, n) une matrice ; on appelle sous-matrice de la matrice A toute matrice de la forme
 
ai1 j1 ai1 j2 ... a i1 j q
 
ai2 j1 ai2 j2 ... a i2 j q 
 
 .. .. .. 
 
 . . . 
 
aip j1 aip j2 ... a ip j q

où les indices ik et j` vérifient

1 ≤ i1 < i2 < · · · < ip ≤ m et 1 ≤ j1 < j2 < · · · < jq ≤ n.

La matrice unité est la matrice I = (δij ).


Une matrice de type (n, n) est dite matrice carrée ou matrice d’ordre n. On note alors Mn ou Mn (K) l’en-
semble des matrices carrées. On dira alors d’une matrice non nécessairement carrée qu’elle est rectangulaire.

Soit A une matrice carrée. Les éléments aii sont appelés éléments diagonaux.
La matrice A est inversible s’il existe une matrice (unique si elle existe) notée A−1 et appelée matrice
inverse de la matrice A telle que AA−1 = A−1 A = I. Dans le cas contraire, on dit que la matrice est
singulière.
On rappelle que, si A et B sont des matrices inversibles,

(AB)−1 = B −1 A−1 (t A)−1 =t (A−1 ) (A∗ )−1 = (A−1 )∗ .

29
La matrice A est symétrique si A est réelle et A =t A.
La matrice A est hermitienne si A = A∗ .
La matrice A hermitienne est définie positive si, pour tout vecteur v ∈ V non nul, v ∗ Av > 0.
La matrice A est orthogonale si A est réelle et A t A =t AA = I.
La matrice A est unitaire si AA∗ = A∗ A = I.
La matrice A est normale si AA∗ = A∗ A.
La matrice A est diagonale si aij = 0 pour i 6= j ; on la note A = diag(aii ) = diag(a11 , a22 , . . . , ann ).

Soit Sn le groupe des permutations de l’ensemble {1, 2, . . . , n}. Le déterminant de la matrice A est
défini par X
det(A) = εσ aσ(1)1 aσ(2)2 . . . aσ(n)n ,
σ∈Sn

où εσ désigne la signature de la permutation σ.


Les valeurs propres λi = λi (A) (1 ≤ i ≤ n) d’une matrice d’ordre n sont les n racines réelles ou complexes,
distinctes ou confondues, du polynôme caractéristique de la matrice A

pA : λ ∈ C 7−→ pA (λ) = det(A − λI).

D’après le théorème de Cayley-Hamilton, la matrice A est racine de pA .


Le spectre de la matrice A est le sous ensemble

sp(A) = {λ1 (A), λ2 (A), . . . λn (A)}.

Le rayon spectral de la matrice A est le nombre positif défini par

ρ(A) = max{|λi (A)|, 1 ≤ i ≤ n}.

A toute valeur propre λ d’une matrice A, on associe (au moins) un vecteur v tel que

v 6= 0 et Av = λv ;

le vecteur v est un vecteur propre de la matrice A associé à la valeur propre λ. Si λ ∈ sp(A), le


sous-espace vectoriel
{v ∈ V ; Av = λv}
est appelé sous-espace propre associé à la valeur propre λ.

12 Matrices symétriques
Définition : Une matrice carrée A = (aij ) est dite symétrique si At = A, c’est-à-dire telle que aij = aji .

Remarque : L’ensemble des matrices carrées d’ordre n à coefficients dans un corps commutatif K est un
sous-espace vectoriel de dimension n(n + 1)/2 de l’espace vectoriel des matrices carrées d’ordre n Mn (K).

Exemples :
Les coefficients
 d’une matrice
 symétrique sont symétriques par rapport à la diagonale principale.
−1 1 1
 
– A =  1 1 0 est symétrique.
 
 
1 0 2
– Toute matrice diagonale est symétrique.

30
Proposition : Soit (., .) le produit scalaire canonique définis sur Rn . Une matrice A = (aij ) d’ordre n est
symétrique si et seulement si pour tout x, y ∈ Rn : (Ax, y) = (x, Ay)

Preuve : Soit B = (e1 , e2 , ..., en ) une base orthonormale de Rn tel que A = (aij ) dans cette base.
Si A est symétrique, on a :

(Ax, y) = (Ax)t y = xt At y = (x, At y) = (x, Ay) (27)


réciproque si pour tout x, y ∈ Rn : (Ax, y) = (x, Ay), alors ca sera vraie aussi pour les èléments de la
base B. Or pour tout i, j = 1, ..., n on a (ei , Aej ) = aij et (Aei , ej ) = aji et par suite aij = aji

Proposition : Soit (., .) le produit scalaire canonique définit sur Rn . A une matrice symétrique réelle alors
toutes ses valeurs propres sont réelles.

Preuve : Soit λ une valeur propre de A et x le vecteur propre associé. On a :


Ax = λx Āx̄ = λ̄x̄ c..d Ax̄ = λ̄x̄
t
λx̄ x = x̄t λx = x̄t Ax = (x̄, Ax)
= (Ax̄, x) = λ̄(x̄, x) = λ̄x̄t x (28)
t t t t
donc λx̄ x − λ̄x̄ x = 0 = (λ − λ̄)x̄ x et comme x est un vecteur propre, donc forcément x̄ x 6= 0 et par suite
λ − λ̄ = 0 et donc λ est réel.

Proposition : Soit A une matrice symétrique, si λ et µ sont deux valeurs propres distinctes de A alors les
vecteurs propres associés sont orthogonaux.

Preuve : Soit x le vecteur propre associé à λ : Ax = λx, et y le vecteur propres associé µ : Ay = µy.
On a :
λ(x, y) = (λx, y) = (Ax, y) = (x, Ay) = µ(x, y)
donc (λ − µ)(x, y) = 0, comme λ 6= µ on conclut que (x, y) = 0 et donc x et y sont orthogonaux.

Lemme : Soit A une matrice symétrique, si λ et µ sont deux valeurs propres distinctes de A alors Eλ
et Eµ sont orthogonaux.

Théorème Spectral : Toute matrice symétrique réelle A d’ordre n se diagonalise dans une base orthonor-
mée c.à.d il existe une matrice orthogonale P tel que P t AP soit diagonale.

Preuve :

 
−1 1 1
 
Exemple : Soit à diagonaliser la matrice symétrique : A =  1 −1 1 . Le polynôme caractéristique
 
 
1 1 −1
PA est donné par :
PM3 (λ) = det(A − λI3 ) = −(λ − 1)(λ + 2)2
On a donc deux valeurs propres : λ1 = 1 et λ2 = −2. On dit que λ1 est une valeur propre simple et λ2 est
une valeur propre double, son ordre de multiplicité est 2.
sous espaces propres :
   
x x
   
E1 = {(x, y, z) ∈ R2 ; A  y  = +1  y }
   
   
z z

31
Tout vecteur (x, y, z) ∈ E1 vérifie x = y = z. Donc E1 est un sous espace vectoriel de dimension 1 engendré
par v1 = (1, 1, 1).
   
x x
   
E−2 = {(x, y, z) ∈ R2 ; A  y  = −2  y }
   
   
z z
On remarque que les trois équations caractérisant E−2 sont équivalentes à x + y + z = 0. Donc E−2 est
un sous espace vectoriel de dimension deux engendré par v2 = (1, −1, 0) et v3 = (0, −1, 1).
On a donc une base de vecteur propres B 0 = (v1 , v2 , v3 ). Mais cette base n’est pas orthonormée car (v1 , v2 ) =
0, (v1 , v3 ) = 0 (car v2,3 ∈ E−2 et E−2 est orthogonal à E1 .
On pourra utiliser Gram-Schmidt pour rendre B 0 = (v1 , v2 , v3 ) orthonormée. Tout calcul fait on trouve :
u1 = √13 (1, 1, 1), u2 = √12 (1, −1, 0) et u3 = √16 (1, 1, −2)
La matrice de passage de la base canonique à la base B 0 est :
 
√1 √1 √1
 3 2 6 
P = √1 − √12 √1
 

 3 6 
√1 −2
3
0 √
6

qui es clairement une matrice orthogonale car ses vecteurs colonnes sont 2 à 2 orthogonaux et unitaire
et donc P −1 = P t et on a :

 
1 0 0
 
t
D= 0 −2 0  = P AP
 
 
0 0 −2

12.1 Matrice positive, matrice définie positive


Définition : Soit A une matrice réelle symétrique d’ordre n
– A est dite positive (ou semi-définie positive) si :

∀x ∈ Rn , xt Ax ≥ 0

– A est dite définie positive si :


∀x ∈ Rn , x 6= 0Rn , xt Ax > 0
autre définition :
∀x ∈ Rn , si xt Ax = 0 alors x = 0
Exemples :
– Si S est une matrice carrée alors A = S t S est symétrique positive.
En effet, pour tout x ∈ Rn

At = (S t S)t = S t (S t )t = S t S = A donc A est symtrique


xt Ax = xt S t Sx = (Sx)t Sx = (Sx, Sx) = ||Sx||2 ≥ 0

– Si S est une matrice inversible alors A = S t S est symétrique définie positive.


En effet, pour tout x ∈ Rn , si xt Ax = ||Sx||2 = 0 alors Sx = 0, donc x = 0 car S est inversible
(x ∈ KerS).

32
    
2 1 2 1 x
– La matrice A =   est définie positive. car pour tout (x, y) ∈ R2 on (xy)   =
1 2 1 2 y
 
2x + y
(xy)   = 2x2 + 2xy + 2y 2 = x2 + y 2 + (x + y)2 ≥ 0.
x + 2y
Il est facile de voir que si xt Ax = 0 alors forcément x = 0.

Théorème : Soit A une matrice réele symétrique. Il y a équivalence entre :


1. A est positive (resp. définie positive)
2. Sp(A) ⊂ R+ (resp. Sp(A) ⊂ R+∗
1) ⇒ 2) : Supposons que A est positive et soit λ ∈ Sp(A) et x un vecteur propre associè à λ. On a :

xt Ax = λxt x = λ||x||2 ≥ 0

comme ||x||2 > 0 alors λ ≥ 0


2) ⇒ 1) Supposons que Sp(A) ⊂ R+ . D’après le théorème spectrale, la matrice A est orthogonalement
semblable à une matrice diagonale, donc il existe une matrice orthogonale P tel que D = diag(λ1 , ..., λn ) =
P t AP . Soit x ∈ Rn :

xt Ax = xt P DP t x = (P t x)t D(P t x) = y t Dy avec y = P t x


= λ1 y12 + λ2 y22 + ... + λn yn2 ≥ 0 (29)

λ1 y12 + λ2 y22 + ... + λn yn2 est positive car toutes les valeurs propres sont positives.

Proposition : Soit A = (aij ) une matrice symétrique définie positive alors


1 les éléments diagonaux sont tous positifs aii > 0.
2 A est inversible
3 Det(A) > 0

Preuve :
1.) les aii > 0 car aii = (ei , Aei ) = eti Aei > 0.
2.) Soit x ∈ KerA donc Ax = 0 et par suite (x, Ax) = 0, alors forcément x = 0 car sinon A ne serait pas
définie positive. On conclut donc que KerA = {0} et que A est inversible.
3.) A est définie positive , donc toutes ses valeurs propres sont strictement positives et A est orthogonalement
diagonalisable. comme le déterminant de A est le produit des valeurs propres, donc det(A) > 0.
Le réciproque de 3) est fausse. En effet soit A = −I2 , ∀X = (x, y) ∈ R2 − {(0, 0)} ; (X, AX) = −x2 − y 2 < 0
donc A n’est pas définie positive et pourtant det(A) = 1 > 0.

Remarque : Le résultat 3, reste vraie meme si A n’est pas symétrique.


Si A est une matrice carée telle que xt Ax > pour tout x ∈ Rn x 6= 0 alors det(A) > 0.

Preuve :
Considèrons la fonction f (t) = det(tIn + (1 − t)A) définie sur le segment [0, 1]. Clairement, f (0) = detA et
f (1) = det(I) = 1. Il est claire que f est continue sur [0, 1].
Si on montre que f (t) 6= 0 pour tout t ∈ [0, 1], ca implique que f (0) et f (1) ont le même signe (théorème
des valeurs intermediares).
Montrons donc que f (t) 6= 0 pour tout t ∈ [0, 1]. Soit t ∈ [0, 1] et x ∈ Rn , x 6= 0 on a

(x, (tI + (1 − t)A)x) = xt (tI + (1 − t)A)x = txt x + (1 − t)xt Ax > 0 (30)

ce qui prouve que tI + (1 − t)A est inversible et donc f (t) = det(tI + (1 − t)A) 6= 0. ce qui prouve que f (0)
et f (1) ont le même signe et donc det(A) > 0.

Théorème : Soit A = (aij ) une matrice symétrique définie positive alors il existe une unique matrice B
positive tel que A = B 2 .

33
Preuve :
Existence : D’après le théorème spectrale il existe une matrice
√ √ orthogonale
√ P tel que A = P dia(λ1 , λ2 , ..., λn )P t
avec λi > 0 et P P t = I = P t P . On pose B = P diag( λ1 , λ2 , ..., λn )P t , il est claire que B 2 = A.
B est définie positive car : pour tout x ∈ Rn ,
p p p
(x, Bx) = xt Bx = xt P diag( λ1 , λ2 , ..., λn )P t x
p p p
= (P t x)t diag( λ1 , λ2 , ..., λn )(P t x) > 0
√ √ √
car diag( λ1 , λ2 , ..., λn ) est définie positive.
Unicité : Supposons qu’il existe deux matrices définies positives B et C tel que B 2 = A et C 2 = A.
Supposons que B 6= C c.à.d B − C 6= 0. Donc B − C admet au moins une valeur propre λ 6= 0. Soit x un
vecteur propre associé à λ : (B − C)x = λx (x 6= 0 par définition). On aura donc :

0 = (x, (B 2 − C 2 )x) = (x, (B(B − C) + (B − C)C)x)


= (x, B(B − C)x) + (x, (B − C)Cx)
= (x, λBx) + ((B − C)x, Cx)
= λ(x, Bx) + λ(x, Cx)
= λ((x, Bx) + (x, Cx)) (31)

comme λ 6= 0 alors (x, Bx) + (x, Cx) = 0 ce qui n’est possible que si (x, Bx) = 0 et (x, Cx) = 0 (car B et C
sont définies positives. Ce qui donne 0 = (x, Bx) − (x, Cx) = (x, (B − C)x) = λ(x, x) ce qui es impossible
car λ 6= 0 et x 6= 0. Par suite
 B = C,
 d’où l’unicité.
2 1
Exemple : Soit A =  . Sp(A) = {3, 1} donc A est définie positive. Les vecteurs propre de
1 2
A sont v1 = (1, 1) et v2 = (1, −1). La base orthonormale des vecteurs propres associés est B = (u1 =
√1 (1, 1), u2 = √1 (1, −1)).
2 2  
1 1
La matrice de passage P = √12   est orthogonale et sont inverse P −1 = P t = P . On a donc
1 −1

A = P DP avec D = diag(3, 1). On pose B = P D0 P avec D0 = diag( 3, 1), apres calcul, on trouve
√ √ 
1+ 3 −1+ 3
2 2
B= √ √ 
−1+ 3 1+ 3
2 2

13 Exercices :
Exercice 1 : Pour A, B ∈ Mn (R), on définit (A, B) = tr(At B).
1. Démontrer que cette formule définit un produit scalaire sur Mn (R)
2. En déduire que, pour tous A, B ∈ Sn (R) (Sn ensemble des matrices symétriques), on a (tr(AB))2 ≤
tr(A2 )tr(B 2 ).

Exercice 2 : Soit E = C([−1, 1]) l’ensemble des fonction continues sur [−1, 1].
– Montrer que l’application de E × E
Z 1
(f, g) = f (t)g(t)dt
−1

est un produit scalaire sur E.


– Montrer que pour toute fonction de C([−1, 1]) on a l’inégalité :
sZ
Z 1 √ 1
f (t)dt ≤ 2 f (t)2 dt
−1 −1

34
Dans quel cas a-t-on l’égalité ?

Exercice 3 : Soit E = C 1 ([0, 1]). Montrer que l’application de E × E


Z 1
(f, g) = f (0)g(0) + f 0 (t)g 0 (t)dt
0

est un produit scalaire sur E.

Exercice 4 :
Soient x1 , ..., xn ∈ Rn P
n Pn
1. Démontrer que ( k=1 xk )2 ≤ n k=1 x2k et étudier les cas d’égalité.
On suppose de plus que xk > 0 pour chaque k ∈ {1, ..., n} et que x1 + ... + xn = 1. Démontrer que
2. P
n 1 2
k=1 xk ≥ n et étudier les cas d’égalité.

Exercice 5 : Dans R3 muni du produit scalaire canonique, orthonormaliser en suivant le procédé de


Gram-Schmidt la base suivante : v1 = (1, 0, 1), v2 = (1, 1, 1), v3 = (−1, −1, 0).
R1
Exercice 6 : Déterminer une base orthonormale de R2 [X] muni du produit scalaire (P, Q) = −1
P (t)Q(t)dt.
Pn
Exercice 7 : Dans Rn [X] (ensemble des polynômes des degrés n). Montrer que (P, Q) = k=0 P (k)Q(k)
est un produit scalaire sur Rn [X].

Exercice 8 : Soient n ∈ N , (x0 , x1 , ..., xn ) ∈ Rn+1 distincts et L0 , L1 , ..., Ln la famille des polynômes
interpolateurs de Lagrange associée :
X − xj
∀i ∈ [0, 1] , Li (X) = Πj6=i
xi − xj

trouver le produit scalaire sur Rn [X] tel que la famille des (Li ) forme une base orthonormée pour ce produit
scalaire.

Exercice 9 : Soit u un endomorphisme symétrique d’un espace euclidien E vérifiant, pour tout x ∈ E,
(u(x), x) = 0, Que dire de u ?

Exercice 10 : Soit A ∈ Mn (R) symétrique. On suppose qu’il existe p ∈ N tel que Ap = 0. Que vaut A ?
 
1 −2 −2
 
Exercice 11 : Justifier que la matrice A = −2 1 −2 est diagonalisable, et trouver P ∈ O3 (R)
 
 
−2 −2 1
tel que P t AP soit diagonale.

Exercice 12 : Soit u un endomorphisme autoadjoint d’un espace euclidien E de dimension n. On note


λ1 ≤ λ2 ≤ ... ≤ λn les valeurs propres de u, comptées avec leur multiplicité. Démontrer que, pour tout
x ∈ E, on a λ1 ||x||2 ≤ (u(x), x) ≤ λn ||x||2

Exercice 13 : Soit E un espace vectoriel euclidien. Pour f ∈ L(E), on note ρ(f ) = max{|λ| ; λ valeur propre de f }
On pose également ||f || = sup{||f (x)||; ||x|| ≤ 1}.
1. Démontrer que si f est symétrique, alors ||f || = ρ(f ).
2. Soit H la matrice H = (1/(i + j − 1))i,j=1,...,n et soit X = (x1 , x2 , ..., xn )t un vecteur de Rn . Exprimer
R1
(HX, X) à l’aide d’une intégrale (on pourra remarquer que 1/(i + j − 1) = 0 xi+j−2 dx
3. En déduire que la matrice H est définie positive.

35
Exercice 14 : Soit E un espace vectoriel euclidien. Pour f ∈ L(E), on note ρ(f ) = max{|λ|; λvaleurpropredef }
On rappelle que ||f || = sup{||f (x)||; ||x|| ≤ 1}
On suppose que f est symétrique. Montrer que p ||f || = ρ(f ). On ne suppose plus que f est symétrique.
Montrer que ||f ||2 = ||f ∗ f ||. En déduire que ||f || = ρ(f ∗ f ).

Exercice 15 : Soit E un espace vectoriel euclidien, soit u un endomorphisme symétrique de E et soient (ei ),
(fj ) deux bases orthonormales de E. Démontrer que :

Σni=1 ||u(ei )||2 = Σni=1 ||u(fi )||2

Soit A = (aij) ) une matrice symétrique réelle d’ordre n, et soient λ1 , ..., λn ses valeurs propres. Démontrer
que

Σni,j=1 a2ij = Σni=1 λ2i


Exercice 16 : Soit A ∈ Mn (R). Démontrer que la matrice AT A est diagonalisable et que ses valeurs propres
sont des réels positifs.

36