Académique Documents
Professionnel Documents
Culture Documents
Les objectifs : Mise en place de deux résultats fondamentaux pour les applications : la projection orthogonale
sur un sous-espace d’une part et la diagonalisation des matrices symétriques d’autre part.
Dans ce chapitre, les mots « vecteurs » et « points » peuvent être considérés comme interchangeables.
Définition
Définition 1.1 : Produit scalaire usuel de Rn
On appelle produit scalaire usuel dans Rn l’application φ de E × E dans R définie par :
n
X
φ : (x, y) 7−→ (x|y) = xi yi
i=1
Notations : Selon les cas, on trouvera pour désigner le produit scalaire de x par y les notations :
Remarque
Remarque 1.1. Écriture matricielle
Si X = MB (x) et Y = MB (y) où B désigne la base canonique de R , alors (x|y) = tXY = tY X
n
Propriété
prop.1.1.Bilinéarité
∀x, y, z ∈ E, ∀λ ∈ R,
1
Propriété
prop.1.2 Forme symétrique définie positive
∀x, y ∈ E,
À φ(x, y) = φ(y, x) [φ est symétrique]
Á φ(x, x) ≥ 0 [φ est positive]
 φ(x, x) = 0 ⇒ x = 0E [φ est dite définie]
Remarque
Remarque 1.2. Produit scalaire
Si E est un R-e.v., on appelle produit scalaire sur E toute forme bilinéaire φ symétrique, positive et définie.
Remarque
Remarque 1.3
Soit F = {u1 , · · · , up } et G = {v1 , · · · , vq } deux familles de vecteurs de E.
X p q
X
Si u ∈ Vect{F } ⇔ ∃λ1 , · · · , λp ∈ R/u = λi ui et v ∈ Vect{G} ⇔ ∃µ1 , · · · , µq ∈ R/v = µj vj
i=1 j=1
alors :
p
X q
X p X
X q
(u|v) = λi ui µj vj = λi µj (ui |vj )
i=1 j=1 i=1 j=1
Définition
Définition 1.2 : Norme euclidienne
On appelle norme euclidienne associée au produit scalaire φ l’application définie sur E par :
v
u n 2
uX
p p
x 7−→ φ(x, x) = (x|x) = t xi
i=1
2
On notera kxk la norme de x associée au produit scalaire < . > et on remarque que kxk = tXX
Remarque
Remarque 1.4
On dira qu’un vecteur x ∈ E est normé ou unitaire si kxk = 1.
Soit x ∈ E/x 6= 0E et kxk =
6 1. On forme un vecteur normé de E colinéaire à x en écrivant :
1
y= x
kxk
2
Propriété
prop.1.3. Propriétés
∀x, y ∈ E, ∀λ ∈ R :
â kxk ≥ 0 et kxk = 0 ⇔ x = 0
â kλxk = |λ| kxk
2 2 2
â kx + yk = kxk + kyk + 2(x|y)
Propriété
prop.1.4. Inégalité de Cauchy-Schwarz
2
Soit x, y ∈ E, alors : (x|y) ≤ (x|x) · (y|y), ou encore :
Remarque
Remarque 1.5
L’inégalité précédente s’écrit pour le produit scalaire dans Rn :
v v
n
u n 2 uX
X uX u n
xi yi ≤ t xi t yi2
i=1 i=1 i=1
Exemple
Application à l’obtention d’inégalités
n 2
Pour tout (x1 , · · · , xn ) ∈ R : (x1 + · · · + xn ) ≤ n(x21 + ··· + x2n )
Remarque
Remarque 1.6
Si x et y sont deux vecteurs non nuls, alors :
(x|y) (x|y)
∈ [−1, 1] ⇒ ∃!α ∈ [0, π]/cos(α) =
kxk kyk kxk kyk
Par définition, cet angle unique est appelé angle des deux vecteurs non nuls x et y.
Propriété
prop.1.5. Inégalité triangulaire
∀x, y ∈ E,
kx + yk ≤ kxk + kyk
3
1.3 Bases orthonormées
Définition
Définition 1.3 : vecteurs orthogonaux
On dit que deux vecteurs x et y de E sont orthogonaux si (x|y) = 0. On note alors x⊥y.
Remarque
Remarque 1.7
Par symétrie du produit scalaire, si (x|y) = 0, alors (y|x) = 0, ce qui justifie la symétrie de la définition précédente.
Définition
Définition 1.4 : sous-espaces vectoriels orthogonaux
Soient F et G deux sous-espaces vectoriels de E.
F et G sont dit orthogonaux si tout vecteur de F est orthogonal à chaque vecteur G ou encore :
∀x ∈ F, ∀y ∈ G, (x|y) = 0
Remarque
Remarque 1.8
n ⊥
Soit F un sous-espace vectoriel de R . On désigne par F l’orthogonal de F défini par :
F ⊥ = {x ∈ Rn /∀y ∈ F, (x|y) = 0}
Propriété
Prop. 1.6. Théorème de Pythagore
Deux vecteurs x et y sont orthogonaux si, et seulement si :
2 2 2
kx + yk = kxk + kyk
Définition
Définition 1.5 : Famille orthonormée de Rn ou d’un ss-e.v. de Rn
Soit F un sous-espace vectoriel de R (éventuellement F = Rn ) et soit {xi }i∈I une famille de vecteurs de F .
n
{xi }i∈I est une famille orthonormée si les éléments de cette famille sont orthogonaux deux à deux et de norme égale à 1.
Propriété
Prop. 1.7.
Une famille orthogonale de vecteurs non nuls de F est libre.
Si le cardinal de cette famille est égale à la dimension de F , il s’agit d’une base orthogonale de F .
Si la famille est orthonormale, on parlera de base orthonormale de F
4
Exemple
Exemple 1.1
n
Si R est muni de son produit scalaire usuel, alors sa base canonique est orthonormée
Remarque
Remarque 1.9
Le produit scalaire et la norme se calculent de la même manière dans toutes les bases orthonormales.
Propriété
Prop. 1.8. Coordonnées dans une b.o.n
n n
Soit B = (u1 , · · · , un ) une base orthonormé de R . Alors pour tout x ∈ R , on a :
n
X n
X
2
x= (x|uk )uk et kxk = (x|uk )2
k=1 k=1
Propriété
Prop. 1.9. Interprétation matricielle
n 0 n
Soit B la base canonique de R et B = (u1 , · · · , un ) une base orthonormée de R .
Si P désigne la matrice de passage de la base B à la base B 0 , alors : tP P = In .
On dit que P est une matrice orthogonale. Elle est inversible et vérifie P −1 = tP .
Propriété
Prop. 2.1. Spectre des matrices symétriques réelles
Soit A une matrice symétrique réelle de Mn (R). Alors Sp(A) ⊂ R
Remarque
Remarque 1.8
Si A est une matrice symétrique réelle, alors les vecteurs propres associés à des valeurs propres distinctes sont ortho-
gonaux
Propriété
Prop. 2.2. Diagonalisation des matrices symétriques
Toute matrice carrée symétrique réelle est diagonalisable dans une base orthonormale de vecteurs propres.
Ou encore :
Soit A une matrice symétrique réelle de Mn (R). Alors il existe une matrice D diagonale et une matrice P inversible
telles que A = P DP −1 avec P −1 = tP
5
Exemple
Exemple 2.1
1 0 1
Montrer que A = 0 1 0 est diagonalisable dans une base orthonormale de vecteurs propres
1 0 1
3 Projection orthogonale
Définition
Définition 2.1 : distance entre vecteurs et d’un vecteur à une partie non vide
n
Soit x, y deux vecteurs de R et A une partie non vide de E. Alors :
v
u n
uX
– d(x, y) = ky − xk = t (xi − yi )2 .
i=1
– d(x, A) = inf d(x, y) = inf {kx − yk , y ∈ A}
y∈A
Définition
Définition 2.2 : Projection orthogonale
n
Soit F un sous-espace vectoriel de R .
On appelle projection orthogonale sur F de Rn un endomorphisme p de Rn défini par :
∀x ∈ Rn , p(x) ∈ F/(x − p(x)|y) = 0, ∀y ∈ F
Propriété
Prop. 2.3. Existence et unicité de la projection sur un ssev
Soit BF = (u1 , · · · , uq ) une base orthonormée d’un sous-espace vectoriel F de Rn .
Si p est la projection orthogonale de Rn sur F , alors :
q
X
∀x ∈ Rn , p(x) = (ui |x)ui
i=1
Propriété
Prop. 2.4.
Soit F un sous-espace vectoriel de Rn dont BF = (u1 , · · · , uq ) est une base et soit p la projection orthogonale sur F
de Rn . Alors :
À p◦p=p
Á Im(p) = F
 Ker(p) = F ⊥
Remarque
Remarque 1.9
n ⊥ n ⊥
On vient d’obtenir que pour tout SEV F de R , dim(F ) + dim(F ) = n = dim(R ) et puisque F ∩ F = {0}, on
construit une base orthonormale de Rn en juxtaposant une base orthonormale de F et de F ⊥ .
6
Exemple
Exemple 2.2
Soit B la base canonique de Rn et soit p la projection orthogonale sur F , droite vectorielle engendrée par le vecteur a
qu’on supposera normé. Alors :
∀x ∈ Rn , p(x) = (a|x)a
0 Remarque : Si a n’est pas normé, on reviendra à la définition et on écrira : p(x) = αa tel que (x − p(x)|a) = 0
(a|x)
soit α = et donc :
(a|a)
a
p(x) = (a|x) 2
kak
Si on suppose que a = (a1 , · · · , an )B , et kak = 1 alors :
2
a1 a1 a2 ··· a1 an
a1 a2 a22 ··· a2 an
. .. .. ∈ Sn (R)
M = MB (p) = ..
. .
.. 2
a1 an a2 an . an
Exemple
Exemple 2.3
Soit E = R3 et F = {(x, y, z) ∈ R3 /x + y − z = 0}.
Écrire les projections orthogonales p et q respectivement sur F et sur F ⊥
Propriété
Prop. 2.5. Distance à un sous-espace vectoriel
n n
Soit F un sous-espace vectoriel de R . Alors pour tout x ∈ R ,
∀x ∈ Rn , kx − p(x)k = inf {kx − yk , y ∈ F } et p(x) est l’unique vecteur de F qui réalise ce minimum
La projection orthogonale de x sur F peut être vue comme la meilleure approximation de x par un élément de F .
Conséquence : L’ajustement affine d’un nuage de points {(xi , yi ), i ∈ J0, nK} par la méthode des moindres
carrés peut-être interprété en termes de projection sur un sous-espace de dimension 2.
7
Géométrie et principales caractéristiques de séries statistiques
À Introduction : On considère une série statistique multivariée S = {Mx , My } de taille n portant sur deux ca-
ractères x et y de telle façon que Mx = {x1 , · · · , xn } et My = {y1 , · · · , yn }, les xi étant supposés deux à deux
distincts (On parle parfois de variable « explicative » pour x tandis que y est la variable « expliquée ».
Cette série peut-être représentée par un nuage de points Mi (Mxi , Myi ) pour i compris entre 1 et n et R2 devient
l’espace des individus.
2
On notera par la suite U = (1, · · · , 1), vecteur de Rn de norme kU k = n.
Á Moyenne et variance :
n
1X 1 1
– Moyenne : x̄ = xi = (Mx |U ) et de même : ȳ = (My |U ) .
n i=1 n n
0 Remarque : x̄U peut se lire comme le projeté orthogonal de Mx sur Vect{U } = Vect{U1 }
U U (Mx |U )
où U1 = = √ . En effet p(Mx ) = (Mx |U1 )U1 = U = x̄U .
kU k n n
Par la suite, on centrera les séries statistiques Mx et My en posant :
(Mx |U )
Vx = (x1 − x̄, · · · , xn − x̄) = Mx − x̄U = Mx − 2 U et Vy = My − ȳU
kU k
Vx et Vy sont deux vecteurs orthogonaux à U .
n 2 2
2
X 1 2 kVx k 2
kVy k
– Variance : sx = (xi − x̄) = et sy = .
i=1
n n n
n
X
(Vx |Vy ) = (xi − x̄)(yi − x̄) = nCov(x, y) = nsx,y
i=1
Dès lors :
Conséquence :
– Si rx,y = 0, alors cos(Vx , Vy ) = 0 et donc Vx ⊥Vy . On dira que x et y sont deux variables orthogonales (c’est
en particulier le cas lorsqu’elles sont indépendantes).
– Si |rx,y | = 1 alors cos(Vx , Vy ) = ±1 et donc Vx et Vy sont colinéaires. On en déduit que ∃a ∈ R/Vy = aVx ou
encore :
My − ȳU = a(Mx − x̄U ) soit My = aMx + (ȳ − ax̄)U
√ " #
3 π π
– Si ≤ |rx,y | < 1 soit environ 0, 866 ≤ |rx,y | < 1, alors α ∈ − , \ {0}. On dira qu’il existe une bonne
2 6 6
corrélation linéaire
√ entre x et y. # #
1 3 π π
– Si ≤ |rx,y | < , soit environ 0.5 ≤ |rx,y | < 0.866 alors |α| ∈ − , . On dira que la corrélation linéaire
2 2 6 3
entre x et y est médiocre.
1
– Si 0 < |rx,y | < on dira que la corrélation est mauvaise.
2
8
à Prédicteur linéaire :
Il s’agit de déterminer l’équation d’une droite qui réalisera un ajustement affine du nuage de points (xi , yi )i∈J0,nK ,
autrement dit d’une droite qui « approche au mieux » le nuage.
Xn
Le critère retenu consiste à minimiser Mi Hi2 où Hi (xi , axi + b).
i=1
Pour ça on pose, a et b étant deux réels, Pa,b = {axi + b = yei , i ∈ J1, nK} = aMx + bU .
En chaque point, l’erreur commise par l’ajustement est : ei = yi − (axi + b) = yi − Pa,b (xi ).
On peut donc constituer le vecteur des erreurs Me = {ei , 1 ≤ i ≤ n} = {Mi Hi , 1 ≤ i ≤ n}
2 2
Conclusion : On cherche à déterminer a, b ∈ R/ kMe k = kMy − Pa,b k soit minimale.
Si on désigne par F le plan vectoriel engendré par U et Vx , alors kMy − Pa,b k n’est autre que la distance de My
à l’élément Pa,b de F .
Xn
Rechercher une droite d’équation y = ax + b = Pa,b (x) telle que la somme Mi Hi2 soit minimale revient donc
i=1
à chercher Pa,b de sorte que la distance kMy − Pa,b k soit minimale. Ceci est réalisé si, et seulement si :