Vous êtes sur la page 1sur 8

Algèbre linéaire d’un point de vue algorithmique

chap.VI ESPACES EUCLIDIENS ET APPLICATIONS

1 Définitions de base
En vrac: vecteurs dans le plan ou l’espace, module d’un vecteur, support d’un vecteur, vecteurs
de même direction, vecteurs de même sens, vecteurs équivalents, somme de vecteurs (la règle du
parallélogramme), produit d’un vecteur par un scalaire.
 
  v1
u1
Système de coordonnées, coordonnées d’un vecteur dans un système de coordonnées u2
, v2 ;

p p v3
kuk = u21 + u22 , kv k = v12 + v22 + v32 .

Proposition 1. Propriétés du calcul vectoriel


Soient (u,v,w) des vecteurs et (k,l) des scalaires
u+v=v+u
u+0=0+u
u+(-u)=(-u)+u=0
k(u+v)=ku+kv
(k+l)u=ku+lu
k(lu)=(kl)u.

Définition 2. Produit scalaire


Soient deux vecteurs u et v dans le plan ou l’espace leur produit scalaire est un scalaire, qui se
calcule comme suit:
   
u1 v1
i) dans le plan si u= u2
et v= v2
, <u, v > =u1v1 + u2v2
   
u1 v1
ii) dans l’espace si u= u2  et v= v2 , <u, v > =u1v1 + u2v2 + u3v3.
u3 v3

Proposition 3. Propriétés du produit scalaire


1. Soient trois vecteurs u, v et w dans le plan ou l’espace
<u,v>=<v,u>
<u+v,w>=<u,w>+<v,w>


<u,u>>0
<u,u>=0 u=0
<u,u>= kuk2.
2. Soit θ l’angle formé par les deux vecteurs u et v
<u,v>= kuk kvk cos (θ)
d’où : si u et v sont non nuls

1
u et v sont orthogonaux si et seulement si <u,v>=0 (on notera cela u ⊥ v).

Exercice 1.
 
1
Soit v =  2 , déterminer l’ensemble des vecteurs orthogonaux à v.
3
 
1
Soit w=  2 , déterminer l’ensemble des vecteurs orthogonaux à v et à w.
−1

2. Projection orthogonale
u

Définition 4. La projection orthogonale du vecteur u sur le vecteur v (non nul!)


<u, v >
On note proj v(u) le projeté orthogonal de u sur v; on le calcule comme suit: proj v(u)= kv k2
v.
Il a la propriété: u-proj v(u) est orthogonal à v.
 
−1
Exercice 2. Dans R3 on considère le vecteur v= 1 .
3
 
2
a. Déterminer la projection orthogonale de u =  2  sur v.
6
 
2
b. Déterminer la projection orthogonale de u ′ =  2  sur v.
−6

c. Déterminer l’ensemble des vecteurs z tels que projv(u)=projv(z).

3. Produit vectoriel (seulement dans l’espace R3)

Définition 5. Soient u et v deux vecteurs de l’espace

2
 
u 2 v2


   u3 v3


u2v3-u 3v2  
On désignera par u ∧ v (en anglais parfois u × v) le vecteur  u3v1-u 1v3 , c’est à dire
 u v1

 - 1 
 u3 v3

u1v2-u 2v1 
 u 
v1

1
u 2 v2
u v u ∧ v
u1 v1 uu2 vv2

3 3

u3 v3
; on peut résumer ce calcul comme suit u2 v2


u1 v1

u1 v1
u3 v3

u2 v2
u1 v 1

Proposition 6. Propriétés du produit vectoriel


Soient u,v et w trois vecteurs de l’espace, k un réel
0. u ∧ v=-v ∧ u
1. u ∧ v est orthogonal à u
2. u ∧ v est orthogonal à v
3. ku ∧ vk2 + <u, v >2 =kuk2kv k2
4. <u, v > ∧w = <u, w > v-<v, w > u (double produit vectoriel).
5. u ∧ (v + w) = u ∧ w + v ∧ w
6. k (u ∧ v) = (ku) ∧ v = u ∧ (kv)
7. u∧0 = 0 ∧ u = 0

Théorème 7. Produit vectoriel et colinéarité


Soient u et v deux vecteurs non nuls de l’espace,
u et v colinéaires u ∧ v = 0.


 
1
Exercice 3. Soit v= 0  et
 l’application fv: R3 R3 définie par ∀w ∈ R3, fv(w)=v ∧ w.

a. Montrer que fv est une application linéaire de R3 R3.


b. Déterminer son noyau et son rang.
c. Montrer que ∀x ∈ R3, ∃w ∈ R3, x = fv(w) x ⊥ v.

4. Droites et plans dans l’espace R3


Proposition 8. Equation du plan passant par un point P0 et ayant le vecteur n comme vecteur
normal.
 
4
 Dans
Exercice 4.  R3 déterminer l’équation du plan passant par A 1  et ayant comme vecteur normal le
2 4
vecteur v =  1 
0

Proposition 9. Paramétrisation de la droite passant par un point P0 et dirigée par le vecteur n


 
4
3
 5. Dans R déterminer une paramétrisation de la droite passant par A
Exercice 1  et dirigée par le vecteur


2 4
v = 1 
0

3
5. Le produit scalaire dans Rn

Définition 10. Le produit scalaire de vecteurs de Rn


   
u1 v1
 u2   v2 
Soient deux vecteurs u= et v= on définit leur produit scalaire par <u,v>=u1v1 +
   
   
 
 
 
un vn
u2v2 + + unvn.

Théorème 11. Propriétés du produit scalaire


Soient trois vecteurs (u, v, w) ∈ Rn × Rn × Rn et un scalaire k ∈R
1. <u,v>=<v,u>
2. <u+v,w>=<u,w>+<v,w>
3. <ku,v>=k<u,v>


4. <u,u>>0
5. <u,u>=0 u = 0.

Définition 12. Norme (euclidienne) et distance sur Rn


 
u1

u21 + . + u2n .
 u2  p
Soit un vecteur 
u= on définit sa norme kuk = <u, u > =
,
 



un
   
u1 v1
 u2   v2 
Soient deux points  
u= et  
v= , on définit leur distance d(u,v)= ku-v k==
   
 
   
un vn

(u1-v 1 ) 2+ . + (un-v n) 2 .
p

Théorème 13. (Inégalité de Cauchy-Schwarz)


Soient deux vecteur (u, v) ∈ Rn × Rn
|<u, v > | 6 kuk kv k

Théorème 14. Propriétés de la norme euclidienne et de la distance


Soient trois vecteur (u, v, w) et un scalaire k


1. kuk > 0.
2. kuk = 0 u=0
3. kkuk= |k |kuk
4. ku + vk 6 kuk + kv k (inégalité triangulaire)


1’. d(u,v)>0.
2’. d(u,v)=0 u = v.
3’ d(u,v)=d(v,u)
4’ d(u,v)6d(u, w) + d(w, v) (inégalité du triangle)

Définition 15.

4
On dit que deux vecteurs u et v sont orthogonaux lorsque
<u,v>=0 .

Théorème 16. de Pythagore


Soient deux vecteurs orthognoaux u et v , alors ku + v k2 = kuk2 + kvk2

Théorème 17. La projection orthogonale d’un vecteur u sur le vecteur v (non nul).
<u, v >
On note proj v(u) le projeté orthogonal de u sur v; on le calcule comme suit: proj v(u)= kv k2
v.
Il a la propriété: u-proj v(u) est orthogonal à v.

6. Représentation matricielle du produit scalaire de Rn


 
u1
 u2 
On considérera un vecteur  
u= comme une matrice à n lignes et 1 colonne; le produit scalaire
 

 
un
de deux vecteurs est alors le produit de deux matrices, une matrice-ligne et une matrice colonne:
 
v1
<u,v>=u1v1 + u2v2 + + unvn = ( u1, , un

)
 t
 = uv=tvu.
 
vn

Proposition 18. Soient A∈Mnn(R), (u,v)∈Rn × Rn


<Au,v>=<u,tAv>.

Remarque 19. Traduction des systèmes d’équations linéaires en termes de produit scalaire


 
<L1, X >
AX = b
  = b.



 
<Ln , X >

7. Orthogonalité (suite)

Définition 20. L’orthogonal d’un sous-espace vectoriel


Soit W un sous-espace vectoriel de Rn on désigne par W ⊥ l’ensemble des vecteurs qui sont orthogo-
naux à tous les vecteurs de W; c’est un sous-espace vectoriel de Rn, appelé l’ « orthogonal » de W.

Théorème 21. Soit A∈Mnp(R) le noyau de A est l’orthogonal de l’espace des lignes de A.
 
vi1
 vi2
,

Exercice 6. Dans Rp on considère une famille libre (v1, vn) telle que pour chaque i vi= et
 
 



vip
F=Vect((v1, , vn).
a. Déterminer au plus vite la dimension de F.
 
x1
 x2 
b. Ecrire le système que doivent vérifier les vecteurs x =  pour appartenir à F ⊥.
 




xp

c. Déterminer la dimension de l’ensemble des solutions de ce système.


d. En déduire la dimension de F ⊥.

5
Théorème 22.
Soit W un sous-espace vectoriel de Rn alors
1. W ∩ W ⊥ = {0}.
2. Si on concatène une base de W et une base de W ⊥ on obtient une base de Rn
3. Tout vecteur x de Rn s’écrit de manière unique comme la somme d’un vecteur xW de W et d’un
vecteur xW ⊥ de W ⊥.
   
1 2
 1   0 
Exercice 7. Dans R4 on considère la famille libre (v1, v2) telle que v1= 1 

 et v2= 2 

 et F=Vect(v1, v2).
-1 0

a. Déterminer au plus vite la dimension de F et une base de F.


 
x1
 x2 
b. Après avoir écrit le système que doivent vérifier les vecteurs x =
 x3  pour
 appartenir à F ⊥.
x4

c. Déterminer une base de F ⊥


d. Vérifier que la concaténation de cette base de F et de cette base de F ⊥ est une base de R4.

Définition 23. La projection orthogonale sur un sous-espace vectoriel W


Soit W un sous-espace vectoriel de Rn.
Si x est un vecteur de Rn, et si x = xW + xW ⊥ où xW ∈ W, xW ⊥∈W ⊥ , xW est appelé le projeté
orthogonal de x sur W.

Proposition 24. La distance d’un vecteur x au sous-espace W


Par application du théorème de Pythagore kx − xW k = min {kx − y k, y ∈ W }, c’est la raison pour
laquelle cette norme est appelée la distance de x au sous-espace W.

Proposition 25. Méthode de détermination de la projection orthogonale d’un vecteur sur W


Soit W un sous-espace vectoriel de Rn, (v1, v q ) une base de W, n
 et x un vecteur de R et xW sa

 xW ∈ W
 <v1, x − xW > =0


projection orthogonale sur W, alors xW est la seule solution à <v2, x − xW > =0 .



 .
<v q , x − xW > =0

En posant xW = x1v1 + + x qv q on obtient le système




 <v ,
1 1 v > x 1 + <v ,
1 2v > x 2 + . + <v ,
1 qv > x q = <v 1, x >
<v2, v1 > x1 + <v2, v2 > x2 + . + <v2, v q > x q = <v2, x >



.

 <v q , v1 > x1 + <v q , v2 > x2 + . + <v q , v q > x q = <v q , x >


     
1 2 1
 1   0   2 
Exercice 8. Dans R4 on considère F=Vect(v1, v2), où v1=
 1  et
 v2=
 2  et
 le vecteur x =
 1 .

-1 0 2

Déterminer la projection orthogonale de x sur F.

Définition 26. famille orthogonale, orthonormale de vecteurs de Rn


Une famille (v1, , vt) de vecteurs de Rn est dite orthogonale lorsque ∀i ∈ {1, , t}, ∀j  i, <vi ,
v j > =0.

6
Elle sera dite orthonormée lorsque
i) elle est orthogonale
ii) ∀i ∈ {1, , t}, kvi k=1.
On appellera base orthonormée toute base qui est orthonormée ( surprenant ?).

Théorème 27. Coordonnées dans une base orthonormée


Soit V un sous-espace vectoriel de Rn et une base orthonormée (v1, , vt) de V, alors
quel que soit u ∈ V , u = <u, v1 > v1 + <u, v2 > v2 + < u, vt>v t.

Théorème 28. La projection orthogonale sur un sous-espace vectoriel dont on connait par chance
une base orthonormée
Soit V un sous-espace vectoriel de Rn et une base orthonormée (v1, , vt) de V, alors
quel que soit x ∈ Rn , x = <x, v1 > v1 + <x, v2 > v2 + < x, vt>v t est la projection orthogonale de x
sur V.

Théorème 29. (Gram-Schmidt)


Tout sous-espace vectoriel de Rn possède une base orthonormée.

8. Une superbe application: la résolution au sens des moindres


carrés de l’équation AX=b.
Soit une matrice A∈Mnp(R) et un vecteur colonne b ∈ Mn1(R) et on suppose que l’équation AX=b
ne possède pas de solution.
On appellera solution au sens des moindres carrés tout vecteur colonne X0 tel que kAX0 − bk =
min {kAX − bk, X ∈ R p }; on sait que ce sera le cas lorsque AX0=projcol(A)(b).

Théorème 30. Caractérisation des solutions au sens des moindres carrés


X 0 est une solution au sens des moindres carrés si et seulement si tAAX 0=tAb.
Si les colonnes de A sont indépendantes la solution au sens des moindres carrés est unique et vaut
X 0=(tAA)−1 tAb.
   
1 2 1
Exercice 9. Soit A= 2 1  et b =  1 , déterminer la solution au sens des moindres carrés de l’équation
1 1 1
AX=b.

Objectifs:
1. Savoir calculer le produit scalaire de deux vecteurs dans le plan et l’espace.
2. Savoir trouver la projection orthogonale d’un vecteur sur un autre.
3. Savoir déterminer l’équation d’un plan dans l’espace (à partir d’un point et d’un vecteur normal).
4. Savoir déterminer une paramétrisation d’une droite dans l’espace (à partir d’un point et d’un
vecteur directeur)
5. Savoir calculer la distance d’un point à un plan.

7
6. Savoir calculer le produit scalaire de deux vecteurs dans Rn.
7. Connaître et savoir utiliser l’inégalité de Cauchy-Schwarz.
8. Savoir trouver la projection orthogonale d’un vecteur sur un autre dans Rn.
9. Savoir déterminer l’orthogonal d’un sous-espace de Rn.
10. Savoir déterminer la projection orthogonale d’un vecteur sur un sous-espace de Rn.
11. Savoir déterminer une (la) solution d’un système d’équations linéaires au sens des moindres
carrés.

9. Activité informatique Matlab


  
1 1 0 0 1
 0 1 1 0   1 
Soit la matrice A =  et le système AX =
 1 .
   
 0 0 1 1 

 0 0 0 1   1 
0 0 0 0 1

1. Expliquer pourquoi il ne possède pas de solution.


2. Déterminer informatiquement sa solution au sens des moindres carrés.

Vous aimerez peut-être aussi