Explorer les Livres électroniques
Catégories
Explorer les Livres audio
Catégories
Explorer les Magazines
Catégories
Explorer les Documents
Catégories
Définition
√
Soit K un sous-corps de C (Par exemple Q, R, mais aussi Q( 2)). On appelle espace vectoriel sur K un ensemble
E muni d’une loi interne notée + et d’une loi externe notée . avec les propriétés suivantes :
1. (E, +) est un groupe abélien
2. La loi externe . vérifie
(a) ∀λ ∈ K ∀x ∈ E ∀y ∈ E λ.(x + y) = λ.x + λ.y
(b) ∀λ ∈ K ∀µ ∈ K ∀x ∈ E (λ + µ).x = λ.x + µ.x
(c) ∀λ ∈ K ∀µ ∈ K ∀x ∈ E (λµ).x = λ(µ.x)
(d) ∀x ∈ E 1.x = x
On a les propriétés suivantes : α.0 = 0, 0.x = 0, α.(−x) = −α.x = (−α).x
Applications linéaires
Soient E et F deux espaces vectoriels et u une application de E dans F . On dit que u est linéaire si u(x + y) =
u(x) + u(y) et u(λ.x) = λ.u(x)
On note L(E) l’ensembles des endomorphismes de E. C’est une algèbre pour les lois +, 0 .0 et ◦. On note GL(E) le
groupe des automorphimes de E muni de la loi ◦.
Sous-espaces vectoriels
Un ensemble E 0 ⊂ E non vide est un sous-espace vectoriel de E si E 0 est stable pour les lois + et ’.’. Si u : E → F
est une application linéaire alors E 0 ss-ev de E ⇒ u(E 0 ) ss-ev de F et F 0 ss-ev de F ⇒ u−1 (F 0 ) ss-ev de E. On a les
cas particuliers : imu = u(E) et ker u = u−1 (0F ) sont des sous-espaces vectoriels de F et E respectivement.
On appelle sous-espace vectoriel engendré par une partie X de E et on note vect(X) le plus petit sous-espace
vectoriel de E qui contient X. Si vect(X) = E, X est une partie génératrice de E. L’ensemble des combinaisons
linéaires d’une famille (xi ) d’éléments d’un espace vectoriel E est le sous-espace vectoriel engendré par la famille.
Pn Pi−1
On a le Théorème : La somme i=1 Mi est directe ssi ∀i ∈ {2, · · · , 0}, Mi ∩ j=1 Mj = {0}
1
Projecteur
Soit p ∈ L(E). On dit que p est un projecteur si p ◦ p = p.
On a le Théorème : Si p est un projecteur sur E alors E = im p ⊕ ker p.
Équivalence des notions de projections et de projecteurs
Une base est une famille libre et génératrice et on a : (xi )i∈I est une base ssi ∀x ∈ E, ∃!α ∈ K (I) x = i∈I αi xi
P
Soit e = (ei )i∈I une famille de vecteurs de E. Les assertions suivantes sont équivalentes.
1. e est une base de E.
2. e est une famille génératrice minimale pour l’inclusion.
3. e est une famille libre maximale pour l’inclusion.
Toute sous-famille d’une partie libre est une partie libre et toute sur-famille d’une partie génératrice est une partie
génératrice.
L’image par une surjection linéaire d’une famille génératrice est une famille génératrice. L’image par une injection
linéaire d’une famille libre est une famille libre.
L’image par un isomorphisme d’une base est une base.
L’image par une application linéaire u d’une famille génératrice est une famille génératrice de imu.
L’image d’une famille liée par une application linéaire est une famille liée.
On a le Théorème : Soient E et F deux espaces vectoriels, e = (ei )i∈I une base de E et f = (fi )i∈I une famille
d’éléments de F . Alors
∃!u ∈ L(E, F ), ∀i ∈ I, u(ei ) = fi
De plus
1. u est surjective ssi f est une famille génératrice de F .
2. u est injective ssi f est une famille libre.
3. u est bijective ssi f est une base de F .
Soient E et F deux espaces vectoriels de dimensions finies n et p respectivement, alors dim L(E, F ) = np.
Si u ∈ L(E, F ), on appelle rang de u la dimension de imu et on note rgu. On a alors le théorème :
2
1. u est injective.
2. u est surjective.
3. u est bijective.
4. rgu = n.
Dualité
Soit E un espace vectoriel sur K de dimension finie. On note E ∗ = L(E, K) l’espace des formes linéaires sur E. Il
est appelé l’espace dual de E. On a la propriété : dim E = dim E ∗ .
Un sous espace vectoriel est un hyperplan si il est le noyau d’une forme linéaire non nulle, ce qui revient à dire que
son noyau possède un supplémentaire de dimension 1, ou encore que sa dimension est dim E − 1
Soit B = (ei )i≤n une base de E, il existe une unique base B ∗ = (e∗i )i≤n de E ∗ appelée base duale de B telle que
∀i, j ≤ n, e∗i (ej ) = δij
Soit B 0 = (fi )i≤n une base de E ∗ , il existe une unique base B = (ei )i≤n de E telle que B 0 soit la base duale de B.
Pour une partie A ⊂ E, on définit A⊥ = {ϕ ∈ E ∗ ; ∀x ∈ A ϕ(x) = 0}. C’est un sous-espace-vectoriel de E ∗ , on
a E = {0}, A ⊂ B ⇒ B ⊥ ⊂ A⊥ .
⊥
3
CAPES de Mathématiques Université de Cergy Pontoise
Résumé de cours d’algèbre linéaire Valérie Nachef
2001/2002 Alexandre Mizrahi
Matrices
Définitions
Soit K un sous-corps de C. Une matrice à coefficients dans K est notée : A = (aij ) 1≤i≤p où p représente le nombre
1≤j≤q
de lignes et q le nombre de colonnes. On écrit A ∈ Mpq (K). Soient A et B deux matrices de Mnp (K).
On définit la matrice C = A + B où C = (cij ) avec cij = aij + bij , la matrice A0 = λA où A0 = (a0ij )
Pq
avec a0ij = λaij . Si A ∈ Mnp (K) et B ∈ Mpq (K), on définit la matrice P = AB par pij = k=1 aik bkj et
P ∈ Mnq (K).Mnn (K) que l’on note Mn (K) est une algèbre.
Pour A ∈ Mnp (K), on définit la matrice transposée de A par tA = M ∈ Mpn (K) avec mij = aji . On a la
propriété suivante : t(AB) = tB tA.
Soit A ∈ Mn (K). A est dite triangulaire supérieure si ∀(i, j) j < i ⇒ aij = 0 et triangulaire inférieure
si ∀(i, j) i < j ⇒ aij = 0. On dit que A est diagonale si i 6= j ⇒ aij = 0. Une matrice A ∈ M(K) est dite
symétrique si A = tA et antisymétrique si A = −tA.
On note Gln (K) le groupe des matrices inversibles. Mn (K) est un anneau non commutatif et non intègre.
Une matrice extraite de la matrice A est une matrice obtenue à partir de A en supprimant certaines lignes et certaines
colonnes .
Y = MX
On peut remarquer que Be et Bf étant fixées l’application qui à un élément u de L(E, F ) associe sa matrice dans les
bases Be et Bf et un morphisme d’espace vectoriel et d’anneau.
Changement de bases
Soient E un K-espace vectoriel, e = (e1 , · · · , en ) et e0 = (e01 , · · · , e0n ) deux basesPde E. On définit la matrice de
n
passage de e à e0 de la façon suivante : P = (pij ) où pij = he∗i , e0j i c’est à dire e0j = i=1 pij ei . C’est la matrice de
l’application
Pn identique de
Pla base e vers la base e. Les colonnes de P sont les coordonnées des e0i dans la base e. Si
0
n
x = i=1 ξi ei et x = j=0 ξj0 e0j , on a x = P x0 . Soient u ∈ L(E, F ), e et e0 deux bases de E, f et f 0 deux bases de
0
F . On note M la matrice de u exprimée dans les bases e et f et M 0 celle de u exprimée dans les bases e0 et f 0 . On note
également P la matrice de passage de e à e0 et Q la matrice de passage de f et f 0 . On a alors : M 0 = Q−1 M P .
4
Dans le cas d’un endomorphisme u, si P est la matrice de passage de e à e0 , M la matrice de u dans e et e, M 0 la
matrice de u dans e0 et e0 alors M 0 = P −1 M P .
Matrices équivalentes
Dans Mnp (K) on définit la relation ARB ssi il existe P ∈ GLn (K) et Q ∈ GLp (K) telles que B = QAP . C’est
une relation d’équivalence appelée équivalence des matrices A et B.
Théorème : Les conditions suivantes sont équivalentes
1. A et B sont équivalentes.
2. A et B ont même rang.
Matrices semblables
Dans Mn (K), on définit la relation ASB ssi il existe P ∈ GLn (K) telle que B = P −1 AP . C’est une relation
d’équivalence appelée la similitude des matrices carrées de taille n. Si ASB, on dit que les matrices A et B sont
semblables.
Théorème : Soient A et B deux matrices semblables. Alors
1. tA et tB sont semblables.
2. Pour tout m ∈ N, les matrices Am et B m sont semblables. C’est encore vrai pour m ∈ Z si A et B sont inversibles.
3. tr A = tr B
5
CAPES de Mathématiques Université de Cergy Pontoise
Résumé de cours d’algèbre linéaire Valérie Nachef
2001/2002 Alexandre Mizrahi
Systèmes linéaires
Soit K un sous-corps de C
Définitions
Soit (S) le système à n équations et m inconnues suivant :
Pm Pm
j=1 a1j xj = b1
j=1 a1j xj = 0
(S) = .
.. .
. (S 0
) = .. ..
Pm = . .P = .
m
a x = bn anj xj = 0
j=1 nj j j=1
Pm
On appelle ième ligne de (S) l’équation j=1 aij xj = bi .
On appelle système homogène associé à (S) le système (S 0 ). Matriciellement (S) peut s’écrire AX = B avec A ∈
Mnm (K), B ∈ Mn1 (K)
6
Définition : On appelle système de Cramer un système pour lequel m = n = rg A. Dans ce cas il y a une unique
solution.
Proposition : Si le système est compatible et rg A = r le système est équivalent à un système ayant r lignes. Il existe
r colonnes de A indépendantes, on appelle inconnues principales les inconnues associées à ces colonnes et inconnues
secondaires les autres. En regardant les inconnues secondaires comme des paramètres, on se ramène à un système de
Cramer en les inconnues principales.
On remarquera qu’il y a en général plusieurs familles de colonnes indépendantes possibles et donc plusieurs familles
d’inconnues principales.
det Bi
xi =
det A
où Bi est la matrice A dans laquelle la ième colonne a été remplacée par B.
Théorème : Si rg A = r, il existe une matrice extraite de A à r lignes et r colonnes quitte à échanger des lignes
(opération sur les lignes) et des colonnes (renumérotation des inconnues) on peut supposer
a11 a12 ... a1r
a21 a22 ... a2r
.. 6= 0
.. .. ..
.
. . .
ar1 ar2 ... arr
7
CAPES de Mathématiques Université de Cergy Pontoise
Résumé de cours d’algèbre linéaire Valérie Nachef
2001/2002 Alexandre Mizrahi
Déterminants
Déterminants
Soit E un espace vectoriel de dimension finie n dont une base est donnée par e = (e1 , · · · , en ). Le dual de E noté E ∗
est également de dimension n. On note e∗ = (e∗1 , · · · , e∗n ) la base duale de e. Il existe une et une seule forme n-linéaire
alternée sur E prenant la valeur 1 sur la base e. On l’appelle déterminant et on la note dete . L’espace vectoriel An (E)
admet pour base (dete ) et tout f ∈ An (E) s’ecrit f = λ dete avec λ = f (e1 , · · · , en ). Le scalaire dete (x1 , · · · , xn )
est dit déterminant dans la base e des vecteurs (x1 , · · · , xn ). Il admet les deux expressions :
Qn
(σ) j=1 ξj,σ(j) ξj,σ(j) = he∗j , xσ(j) i (jième coordonnée de xσ(j) )
P
Pσ∈Sn Qn
σ∈Sn (σ) j=1 ξσ(j),j ξσ(j),j = he∗σ(j) , xj i
Si a est une autre base a = (a1 , · · · , an ) alors dete = λ deta avec λ = dete (a1 , · · · , an )
Un système de n vecteurs est libre ssi le déterminant du système dans la base e est non nul.
8
Si on effectue sur le système de vecteurs colonnes d’une matrice une permutation σ, le déterminant est multiplié par
(σ). Le déterminant dépend linéairement de chacun des vecteurs colonnes. Le déterminant d’une matrice ne change pas
quand on ajoute à l’un des vecteurs colonnes une combinaison linéaire des autres vecteurs colonnes. Il est nul si l’un des
vecteurs colonnes est combinaison linéaire des autres vecteurs colonnes.
On obtient des énoncés identiques en remplaçant les colonnes par les lignes.
Théorème
Soit u un endomorphisme de E. On a det u = det M où M est une matrice de u dans une base quelconque. On
a également det I = 1, det(λM ) = λn det M , det(M N ) = (det M )(det N ) et M est inversible ssi det M 6= 0 et
det M −1 = (det M )−1
Calcul de déterminants
Soit
A C
M=
0 B
M ∈ Mn (K) avec n = p + p, A ∈ Mp (K), B ∈ Mq (K), 0 ∈ M(q,p) (K), et C ∈ M(p,q) (K). Alors, det M =
(det A)(det B)
Plus généralement, soit M la matrice suivante
N11 N12 · · · N1m
0 N22 · · · N2m
M = .
. .. . . ..
. . . .
0 0 · · · Nmm
Qm
Alors det M = i=1 det Nii
Dans le cas particulier d’une matrice triangulaire supérieure ou d’une matrice diagonale le déterminant est égal au
produit des éléments diagonaux.
Soit M = (αij ) une matrice carrée (n, n) (n > 0). On appelle mineur relatif à l’élément αij , le déterminant de la
matrice carrée (n − 1, n − 1), Mij déduite de M en supprimant la i-ème ligne et la j-ème colonne. On appelle cofacteur
de αij le scalaire α̂ij = (−1)i+j det Mij . Pn
On peut développer un déterminant
Pn par rapport à une colonne : ∀j ∈ Nn , det M = k=1 α̂kj Akj ou par rapport à
une ligne ∀i ∈ Nn , det M = k=1 α̂ik Aik .
9
CAPES de Mathématiques Université de Cergy Pontoise
Résumé de cours d’algèbre linéaire Valérie Nachef
2001/2002 Alexandre Mizrahi
Calcul matriciel
ainsi
A1 B1 A2 B2 A1 + λA2 B1 + λB2
+λ =
C1 D1 C2 D2 C1 + λC2 D1 + λD2
De même si A3 ∈ M(p1 , p3 ), B3 ∈ M(p1 , p4 ), C3 ∈ M(p2 , p3 ), D3 ∈ M(p2 , p4 )
A1 B1 A3 B3 A1 A3 + B1 C3 A1 B3 + B1 D3
=
C1 D1 C3 D3 C1 A3 + D1 C3 C1 B3 + D1 D3
On remarque que si la taille des matrices permettent de faire les calculs précédents alors l’égalité est vrai.
Norme matricielle
On suppose dans cette partie et la suivante que K = R ou C. Mp (K) est un espace vectoriel, on dit qu’une norme
k.k sur Mp (K) est matricielle si ∀M, N ∈ Mp (K), kM N k ≤ kM kkN k. Si on a une norme k.k sur K n et que l’on
pose |||M ||| = sup{kM Xk|X ∈ K n etkXk = 1} alors |||.||| est une norme matricielle sur Mp (K), appelée norme
subordonnée.
Conditionnement
Soit k.k, |||.||| définies comme précédemment, le conditionnement d’une matrice inversible M est définie par cond(M )=|||M ||| |||M −
. Ceci permet de majorer l’erreur relative commise lors de la résolution d’un système linéaire dont les données de départ
sont entachées d’erreurs.
Matrices de permutation
Soient n ∈ N∗ et σ ∈ Sn . On note Mσ = (µkl ) 1≤k≤n où µkl = δkσ(l) . On alors det M = (σ) et Mσ−1 = tMσ .
1≤l≤n
Soit M = (αij ) 1≤i≤n ∈ M(n, p). On a Mσ .A = (βkl )(k,l)∈Nn ×Np où βkl = ασ−1 (k)l . En particulier, si σ est la
1≤j≤p
transposition qui échange i etj, Mσ A se déduit de A en échangeant les lignes d’indice i et j. On note (li ↔ lj ). De
même, si A ∈ M(p, n), AMσ se déduit de A en échangeant les colonnes d’indice i et j. On note (ci ↔ cj )
Matrices d’affinité
Soit (i, α) ∈ Nn ×k ∗ . On note Di (α) = diag (1, 1, · · · , α, 1, · · · ) où α se situe en i-ème position. Alors det Di (α) =
α. Si A ∈ M(n, p), Di (α)A se déduit de A en multipliant la i-ème ligne par α. On note (li → αli ). Si A ∈ M(p, n),
ADi (α) se déduit de A en multipliant la i-ème colonne par α. On note (ci → αci ).
Matrices de transvections
Soient n ∈ N et ((i, j), λ) ∈ (Nn )2 × K, i 6= j. On note Uij (λ) = In + λMij où Mij = (δik δjl )kl est un élément
de la base canonique de Mn (K). On a det Uij (λ) = 1. Si A ∈ M(n, p), i 6= j et λ ∈ K, Uij (λ)A se déduit de A par
(li → li + λlj ). Si A ∈ M(m, n), et λ ∈ K, AUij se déduit de A par (ci → ci + λcj ).
10
Cas particulier : Propriété
Soient n, p ∈ N∗ et A, B ∈ M(n, p). Si B se déduit de A par des opérations élémentaires (permutation, affinité,
transvection), alors A et B ont même rang.
11
CAPES de Mathématiques Université de Cergy Pontoise
Résumé de cours d’algèbre linéaire Valérie Nachef
2001/2002 Alexandre Mizrahi
Théorème
Soient u , v des endomorphismes de E qui commutent. Alors
1. Tout-sous espace propre relativement à u est stable par v.
2. ker u et im u sont stables par v.
Polynômes d’endomorphismes
Soit u ∈ L(E). On définit l’application φu : K[X] → L(E), φu (P ) = P (u) C’est un morphisme de la K-algèbre
K[X] dans la K-algèbre L(E). im φu est une sous-algèbre commutative de L(E) appelée algèbre des polynômes de u
et notée K[u]. ker φu est un idéal de K[X] appelé idéal annulateur de u et noté Ju
Polynôme caractéristique
Soit u ∈ L(E) représenté par la matrice M ∈ Mn (K) dans une base arbitraire. On sait que λ est valeur propre
ssi u − λId est non inversible, c’est à dire ssi det(M − λId ) = 0. Ce dernier déterminant est un polynôme, appelé le
polynôme caractéristique de M et il est noté χM . On a donc :
α11 − λ α12 ... α1n
α21 α22 − λ ... α2n
χM (λ) = .
. .. .
.. .. ..
.
αn1 αn2 ... αnn − λ
12
Le polynôme caractéristique de la matrice qui représente u dans une base est indépendant du choix de la base. On
l’appelle polynôme caractéristique de u et on le note χu . Les valeurs propres de u sont les racines de χu . L’ordre de
multiplicité d’une racine λ de χu est dit multiplicité de la valeur propre λ et est noté m(λ). Un endomorphisme u ∈ L(E)
sur C a au moins une valeur propre.
Supposons E de dimension n. On a :
n
X
χu (X) = (−X)n + (−1)n−k γk X n−k
k=1
De plus :
1. γn = det u.
2. γ1 = tr M
3. γn−1 = tr M̂ où M̂ est la comatrice de M .
Qn
4. Si le polynôme caractéristique χu se factorise sous la forme i=1 (X − λi ), les λi n’étant pas nécessairement
distincts, on a : X
γk = λ i1 · · · λ i k
1≤i1 <···<in ≤n
Théorème
Soient u ∈ L(E) et E 0 un sous-espace de E stable par u. on note u0 la restriction de u à E 0 . Alors χu0 divise χu .
Théorème de Hamilton-Cayley
Soient u ∈ L(E), χu son polynôme caractéristique . Alors χu (u) = 0.
Théorème
Soient u un endomorphisme de E et λ une valeur propre de u de multiplicité m(λ). On a l’inégalité
1 ≤ dim Eλ ≤ m(λ)
Le sous-espace propre associé à une racine simple du polynôme caractéristique est de dimension 1.
13
Endomorphismes trigonalisables
1. Définition : Soit u ∈ L(E) où dim E = n. On dit que u est trigonalisable ssi il existe une base de E dans
laquelle u est représenté par une matrice triangulaire.
2. Théorème : u est trigonalisable ssi χu est scindé sur K.
Ceci est toujours réalisé si K = C.
croissante. On pose : F = ∪k Fk . Alors deux cas se présentent : soit la suite est strictement croissante (ce qui impose à
la suite (dim Fk ) d’être non bornée et donc à E d’être de dimension infinie), soit il existe un plus petit indice noté r à
partir duquel la suite est stationnaire. On a donc
{0} ⊂ F1 ⊂ · · · ⊂ Fr = Fr+1 = · · · = F
Dans le cas particulier d’un endomorphisme nilpotent d’indice de nilpotence q, on a Fq = F = E. Alors, on trouve une
base de trigonalisation de v de la façon suivante : on obtient une base de ker v. L’image par v des éléments de cette base
est le vecteur nul. Puis on complète cette base pour obtenir un base de ker v 2 et l’image par u des éléments de cette base
est alors dans ker v et ainsi de suite. De proche en proche, on construit une base de E dans laquelle la matrice de v est
triangulaire supérieure avec uniquement des 0 sur la diagonale. Un endomorphisme nilpotent est donc trigonalisable et
admet uniquement 0 comme valeur propre.
Sous-espaces caractéristiques
Soit u ∈ L(E) tel que χu est scindé sur K (toujours vrai si K = C). On pose
p
Y
χu = (X − λi )mi
i=1
On pose Fi = ker(u − λi )mi , on appelle ces SEV les sous espaces caractéristiques de u dim Fi = mi et on remarque
que u|Fi − λi Id est nilpotent.
Décomposition de Dunford
Soit u un endomorphisme trigonalisable d’un espace vectoriel de dimension finie. Il existe un unique couple (d, n)
tel que d soit diagonalisable, n soit nilpotent et dn = nd vérifiant u = n + d.
14
CAPES de Mathématiques Université de Cergy Pontoise
Résumé de cours d’algèbre linéaire Valérie Nachef
2001/2002 Alexandre Mizrahi
Espaces euclidiens
Définition - Exemples
Un espace euclidien est défini par la donnée :
1. D’un espace vectoriel sur R, E de dimension finie.
2. D’un produit scalaire (forme bilinéaire, symétrique, définie positive) sur E, souvent noté < .
Exemples
n
P
P 2 E = R , la forme (x, y) →
1. Sur l’espace xi yi est un produit scalaire dont la forme quadratique associée est
x → xi . Muni de ce produit scalaire, E est donc un espace euclidien.
R1
2. Soit C([0, 1], R) le R-espace vectoriel des applications continues de [0, 1] → R. L’application (f, g) → 0 f (t)g(t) dt
est une forme bilinéaire définie positive. C’est donc un produit scalaire qui fait de C([0, 1], R) un espace préhil-
bertien réel.
Isomorphisme Soit E est un espace euclidien, il existe un isomorphe canonique ψ de E vers son dual E ∗ , défini par
E → R
ψ(x) : . On peut remarquer que la notion d’orthogonalité est transportée ainsi de E dans E ∗ .
y 7→ < x, y >
Soit F un hyperplan de E (c’est à dire un SEV de dim n − 1), alors F ⊥ est une droite vectorielle de E engendrée
par un vecteur u, F = u⊥ , on dit que u est un vecteur normal à F .
15
Procédé d’orthonormalisation de Schmidt
Définition : On dit que des vecteurs (e1 , . . . ep ) de l’espace euclidien E forment un système orthonormal s’ils sont
deux à deux orthogonaux et si leur norme est égale à 1 ie si (ei |ej ) = δij
Tout système orthonormal d’un espace euclidien de dimension peut être complété en une base orthonormale de tout
l’espace.
Soit (v1 , · · · , vn ) une base quelconque de l’espace euclidien E. Il existe une base orthonormale (e1 , · · · , en ) unique
de E vérifiant les conditions suivantes :
1. ∀p (ep |vp ) > 0
2. ∀p V ect(e1 , · · · , ep ) = V ect(v1 , · · · , vp )
Projections
Soit E un espace euclidien de dimension n. On rappelle que la distance d’un point a ∈ E à une partie A de E
est le nombre positif défini par : d(a, A) = inf x∈A d(a, x). On dira que deux sous-espaces affines H et K de E sont
orthogonaux si leurs directions H0 et K0 sont orthogonales.
Théorème : Soient E un espace euclidien de dimension n et H un sous-espace affine de E. Quelque soit le point a
de E, il existe un unique point q(a) ∈ H tel que d(a, H) = d(a, q(a)). Ce point q(a) est appelé le projeté orthogonal
de a sur H, car c’est l’unique point b ∈ H tel b − a soit orthogonal à H. Enfin, l’application a → q(a) de E sur H est
une application affine, surjective, appelée projection orthogonale de E sur H.
On remarque que l’image réciproque de b par q est le sous-espace affine b+L0 où L0 est le supplémentaire orthogonal
H0⊥ de H.
Groupe orthogonal
Soit E un espace euclidien, . Les automorphismes φ de E tels que
∀x ∈ E, kφ(x)k = kxk
Il est donc équivalent de dire que l’automorphisme φ conserve le produit scalaire ou qu’il conserve la norme. Définition :
Le sous-groupe du groupe linéaire Gl(E) formé des automorphismes φ qui conservent la norme est appelé le groupe
orthogonal. On le note O(E) et ses éléments sont dits orthogonaux.
Soit e = (e1 , · · · , en ) une base orthonormale de E. Pour qu’un endomorphisme u ∈ L(E) soit un élément de O(E),
il faut et il suffit que sa matrice Mu dans e vérifie :
t
Mu Mu = I (∗)
Définition : Une matrice qui vérifie tM M = I est dite orthogonale, on note On (R) l’ensemble des matrices ortho-
gonales de Mn (R).
De la relation (*), on déduit : [det(Mu )]2 = 1. Donc l’application d : u → det u est un homomorphisme surjectif
de O(E) dans le sous-groupe G = {−1, 1} de K ∗ .
16
Définition : On appelle groupe spécial orthogonal et on note SO(E) le sous-groupe de O(E) formé des u ∈
O(E) tels que det(u) = 1. C’est le noyau de d c’est donc un sous-groupe distingué de O(E) et le groupe quotient
O(E)/SO(E) est isomorphe à G.
Groupe SO(n)
L’application M → det M est un homomorphisme de O(n) dans le groupe multiplicatif {−1, 1}. Il est surjectif : en
effet, la symétrie par rapport à l’hyperplan xn = 0 appartient à O(n) et a pour déterminant −1
Définition : Le sous-groupe des éléments de O(n) de déterminant +1 est appelé le groupe spécial orthogonal
d’ordre n et est noté SO(n)
Exemples :
1. O(1) est formé des matrices M d’ordre 1 telles que M t M = I1 , c’est à dire des éléments a ∈ R tel que a2 = 1.
O(1) est donc le groupe à deux éléments {−1, 1}. L’élément −1 représente la symétrie par rapport à l’origine, +1
représente l’identité. SO(1) est réduit à {1}
2. SO(2) est formé des matrices :
cos θ − sin θ
M=
sin θ cos θ
Changement de base
Soit (ei )1≤i≤n une base orthonormale de l’espace euclidien E. Pour qu’un endomorphisme φ de E soit un auto-
morphisme orthogonal, il faut et il suffit que les n vecteurs fi = φ(ei ) 1 ≤ 1 ≤ n forment une base orthonormale de
E
Soient B une base orthonormale de l’espace euclidien E, et B 0 une base de E. B 0 est orthonormale ssi la matrice de
passage de B 0 à B est orthogonale.
Orientation
Soit E un espace vectoriel de dimension n sur R. Étant donné deux bases ordonnées (e1 , · · · , en ) et (f1 , · · · , fn ).
On dit que la seconde a la même orientation que la première si la matrice de passage de la base (ei ) à la base (fi )
a un déterminant positif. On obtient une relation d’équivalence, qui a deux classes d’équivalences. Orienter l’espace,
c’est choisir une de ces classes, dont les éléments sont appelés bases directes. Si E a une structure euclidienne, on peut
se borner à considérer des bases orthonormales : deux bases orthonormales ont même orientation si le déterminant de
la matrice de passage est égal à +1. Donc les isométries qui conservent l’orientation de l’espace euclidien E sont les
isométries directes.
Wi = (−1)i+1 ∆i
où ∆i désigne le déterminant 2 × 2 obtenu en enlevant la ligne i à la matrice des composantes des Vk dans une base
orthonormale.
Le produit vectoriel est une fonction 2-linéaire alternée sur E.
Le produit mixte et produit vectoriel sont des exemples de quantités invariantes par SO(n) mais non par O(n) car
les transformations orthogonales de déterminant −1 changent le produit mixte et le produit vectoriel en leurs opposés.
17
Adjoint d’un endomorphisme
Soit E un espace euclidien, on note IE l’isomorphisme canonique de E sur son dual, qui envoie x ∈ E sur la forme
linéaire < x, . >
Proposition : Soient E un espace euclidien et u ∈ L(E). Il existe une unique application v : E → E qui vérifie :
Définitions - Propriétés
Une forme bilinéaire sur le K-espace vectoriel E est une application B : E × E → K, linéaire Pn par rapport
Pn à chacune
des variables. Si E est de dimension finie et si (e1 , · · · , en ) est une base de E, on a : B( i=1 λi ei , j=1 µj ej ) =
Pn Pn
i=1 j=1 λi µj bij où bij = B(ei , ej ). On voit que l’espace B(E) des formes bilinéaires sur E est engendré par
2
les n formes Bij définies par Bij (ei , ej ) = 1 et Bij (ek , el ) = 0 si (i, j) 6= (k, l). Ces formes étant linéairement
indépendantes, ceci montre que B(E) est de dimension n2 . Il en résulte que B(E) est isomorphe à l’espace des matrices
carrées d’ordre n : la matrice M = (bij ) définie par bij = B(ei , ej ) est appelée la matrice de B dans la base (e1 , · · · , en ).
Une forme bilinéaire B sur l’espace vectoriel E est dite symétrique si
∀x ∈ E ∀y ∈ E B(x, y) = B(y, x)
La forme B est symétrique ssi sa matrice dans toute base est symétrique.
18
Changement de base pour les formes bilinéaires
Soient (e1 , · · · , en ) et (f1 , · · · , fn ) deux bases de l’espace vectoriel E et P la matrice de passage de la première à la
seconde. On considère B une forme bilinéaire symétrique Pn sur E. On noteP M la matrice de B dans la base (e1 , · · · , en ) et
n
N la matrice de B dans la base (f1 , · · · , fn ). Si x = i=1 xi ei et y = j=1 yj ej , on a B(x, y) = t XM Y = t Y M X
où X et Y représentent les vecteurs colonnes obtenus avec les coordonnées de x et y. En appliquant aux vecteurs de
base, cette formule permet également d’obtenir la matrice M . Un calcul analogue avec les coordonnées de x et y dans
la base (f1 , · · · , fn ) montre que l’on a : N = t P M P .
Réduction
Soit E un espace euclidien, l’application qui a un endomorphisme auto-adjoint u associe la forme bilinéaire symé-
trique Bu définie par Bu (x, y) =< x, u(y) > est un isomorphisme d’espace vectoriel, on peut remarquer que u et Bu
ont même matrice dans les bases orthonormale.
D’après le théorème de réduction des endomorphismes symétriques, il existe donc une base orthonormale (e1 , . . . , en )
de (E, < , >) pour laquelle B(ei , ej ) = δi,j . Autrement dit une base orthonormale pour <, > et orthogonale pour B,
c’est ce que l’on utilise pour trouver une bon dans laquelle une conique donnée s’écrit sous sa forme réduite.
19