Vous êtes sur la page 1sur 19

CAPES de Mathématiques Université de Cergy Pontoise

Résumé de cours d’algèbre linéaire Valérie Nachef


2001/2002 Alexandre Mizrahi

Espaces vectoriels - Applications linéaires

Définition

Soit K un sous-corps de C (Par exemple Q, R, mais aussi Q( 2)). On appelle espace vectoriel sur K un ensemble
E muni d’une loi interne notée + et d’une loi externe notée . avec les propriétés suivantes :
1. (E, +) est un groupe abélien
2. La loi externe . vérifie
(a) ∀λ ∈ K ∀x ∈ E ∀y ∈ E λ.(x + y) = λ.x + λ.y
(b) ∀λ ∈ K ∀µ ∈ K ∀x ∈ E (λ + µ).x = λ.x + µ.x
(c) ∀λ ∈ K ∀µ ∈ K ∀x ∈ E (λµ).x = λ(µ.x)
(d) ∀x ∈ E 1.x = x
On a les propriétés suivantes : α.0 = 0, 0.x = 0, α.(−x) = −α.x = (−α).x

Applications linéaires
Soient E et F deux espaces vectoriels et u une application de E dans F . On dit que u est linéaire si u(x + y) =
u(x) + u(y) et u(λ.x) = λ.u(x)
On note L(E) l’ensembles des endomorphismes de E. C’est une algèbre pour les lois +, 0 .0 et ◦. On note GL(E) le
groupe des automorphimes de E muni de la loi ◦.

Sous-espaces vectoriels
Un ensemble E 0 ⊂ E non vide est un sous-espace vectoriel de E si E 0 est stable pour les lois + et ’.’. Si u : E → F
est une application linéaire alors E 0 ss-ev de E ⇒ u(E 0 ) ss-ev de F et F 0 ss-ev de F ⇒ u−1 (F 0 ) ss-ev de E. On a les
cas particuliers : imu = u(E) et ker u = u−1 (0F ) sont des sous-espaces vectoriels de F et E respectivement.
On appelle sous-espace vectoriel engendré par une partie X de E et on note vect(X) le plus petit sous-espace
vectoriel de E qui contient X. Si vect(X) = E, X est une partie génératrice de E. L’ensemble des combinaisons
linéaires d’une famille (xi ) d’éléments d’un espace vectoriel E est le sous-espace vectoriel engendré par la famille.

Somme directe d’une famille finie de sous-espaces vectoriels


Qn
Soit (Mi )1≤i≤n une famille finie de sous-espaces vectoriels
Pd’un espace vectoriel E. L’application Ψ : i=1 Mi →
n
E, (x1 , · · · , xn ) → x1 + · · · + xn est linéaire. La somme i=1 Mi qui est l’image de Ψ est dite directe ssi Ψ est
injective. On note alors la somme M1P ⊕ · · · ⊕ Mn .
n
Cette définition est équivalente à i=1 Mi est directe ssi
n
X
∀x ∈ F, ∃!(x1 , x2 , ...xn ) ∈ M1 × M2 × ... × Mn , x = xj
j=1

Pn Pi−1
On a le Théorème : La somme i=1 Mi est directe ssi ∀i ∈ {2, · · · , 0}, Mi ∩ j=1 Mj = {0}

Sous-espaces vectoriels supplémentaires


Soient M et N deux sous-espaces vectoriels de E. Les assertions suivantes sont équivalentes :
1. E = M ⊕ N
2. E = M + N et M ∩ N = {0}
3. ∀x ∈ E, ∃!(x1 , x2 ) ∈ M × N, x = x1 + x2
On dit que M et N sont deux sous-espaces supplémentaires de E.

1
Projecteur
Soit p ∈ L(E). On dit que p est un projecteur si p ◦ p = p.
On a le Théorème : Si p est un projecteur sur E alors E = im p ⊕ ker p.
Équivalence des notions de projections et de projecteurs

Partie libre - Partie génératrice


On appelle famille (ou suite) presque nulle d’éléments du corps K toute suite (αi )i∈I telle que J = {i ∈ I; αi 6=
0} est fini. On note K (I) l’ensemble des familles presque nulles indicéesP par I, d’éléments du corps K.
(xi )i∈I est une famille génératrice si ∀x ∈ E, ∃α ∈ K (I) , x = i∈I αi xi
(xi )i∈I est une famille libre si ∀α ∈ K (I) , i∈I αi xi = 0 ⇒ ∀i ∈ Iαi = 0
P

Une base est une famille libre et génératrice et on a : (xi )i∈I est une base ssi ∀x ∈ E, ∃!α ∈ K (I) x = i∈I αi xi
P
Soit e = (ei )i∈I une famille de vecteurs de E. Les assertions suivantes sont équivalentes.
1. e est une base de E.
2. e est une famille génératrice minimale pour l’inclusion.
3. e est une famille libre maximale pour l’inclusion.
Toute sous-famille d’une partie libre est une partie libre et toute sur-famille d’une partie génératrice est une partie
génératrice.
L’image par une surjection linéaire d’une famille génératrice est une famille génératrice. L’image par une injection
linéaire d’une famille libre est une famille libre.
L’image par un isomorphisme d’une base est une base.
L’image par une application linéaire u d’une famille génératrice est une famille génératrice de imu.
L’image d’une famille liée par une application linéaire est une famille liée.
On a le Théorème : Soient E et F deux espaces vectoriels, e = (ei )i∈I une base de E et f = (fi )i∈I une famille
d’éléments de F . Alors
∃!u ∈ L(E, F ), ∀i ∈ I, u(ei ) = fi
De plus
1. u est surjective ssi f est une famille génératrice de F .
2. u est injective ssi f est une famille libre.
3. u est bijective ssi f est une base de F .

Cas de la dimension finie


Un espace vectoriel est dit de dimension finie s’il possède une famille génératrice finie. Sinon, il est dit de dimension
infinie.
On a le théorème de la base incomplète Soient E un espace vectoriel, (ei )i∈I une famille libre de vecteurs de E et
(xj )j∈J une famille génératrice de E. Il existe une partie L de J telle que (ei )i∈I ∪ (xj )j∈L soit une base de E.
Tout espace vectoriel possède des bases.
Théorème : Soit E un espace vectoriel de dimension finie. Alors E possède des bases. Toutes les bases de E ont
même cardinal fini appelé la dimension de E et noté dim E
Soient E un espace vectoriel de dimension finie, l une famille libre, g une famille génératrice. Alors on peut com-
pléter l en une base de E en utilisant exclusivement des éléments de g.
Soit E un espace vectoriel de dimension infinie. Tout sous-espace F de E admet au moins un sous-espace supplé-
mentaire G et on a dim F + dim G = dim E
Soient E un espace vectoriel de dimension finie, F et G deux sous-espaces de E, alors
\
dim(F + G) = dim F + dim G − dim F G

Soient E et F deux espaces vectoriels de dimensions finies n et p respectivement, alors dim L(E, F ) = np.
Si u ∈ L(E, F ), on appelle rang de u la dimension de imu et on note rgu. On a alors le théorème :

dim ker u + rgu = dim E

de plus rgu ≤ inf(dim E, dim F ).


Si dim E = dim F = n et u ∈ L(E, F ), les assertions suivantes sont équivalentes :

2
1. u est injective.
2. u est surjective.
3. u est bijective.
4. rgu = n.

Dualité
Soit E un espace vectoriel sur K de dimension finie. On note E ∗ = L(E, K) l’espace des formes linéaires sur E. Il
est appelé l’espace dual de E. On a la propriété : dim E = dim E ∗ .
Un sous espace vectoriel est un hyperplan si il est le noyau d’une forme linéaire non nulle, ce qui revient à dire que
son noyau possède un supplémentaire de dimension 1, ou encore que sa dimension est dim E − 1
Soit B = (ei )i≤n une base de E, il existe une unique base B ∗ = (e∗i )i≤n de E ∗ appelée base duale de B telle que
∀i, j ≤ n, e∗i (ej ) = δij
Soit B 0 = (fi )i≤n une base de E ∗ , il existe une unique base B = (ei )i≤n de E telle que B 0 soit la base duale de B.
Pour une partie A ⊂ E, on définit A⊥ = {ϕ ∈ E ∗ ; ∀x ∈ A ϕ(x) = 0}. C’est un sous-espace-vectoriel de E ∗ , on
a E = {0}, A ⊂ B ⇒ B ⊥ ⊂ A⊥ .

On a les relations dim A⊥ + dim A = dim E.


On définit également pour A0 ⊂ E ∗ , A0> = {x ∈ E ; ∀ϕ ∈ A0 ϕ(x) = 0}. C’est un sous-espace vectoriel de E, on
a E = {0}. A0 ⊂ B 0 ⇒ B 0> ⇒ A0> .
∗>

On a les relations : dim A> + dim A = dim E.

3
CAPES de Mathématiques Université de Cergy Pontoise
Résumé de cours d’algèbre linéaire Valérie Nachef
2001/2002 Alexandre Mizrahi

Matrices

Définitions
Soit K un sous-corps de C. Une matrice à coefficients dans K est notée : A = (aij ) 1≤i≤p où p représente le nombre
1≤j≤q
de lignes et q le nombre de colonnes. On écrit A ∈ Mpq (K). Soient A et B deux matrices de Mnp (K).
On définit la matrice C = A + B où C = (cij ) avec cij = aij + bij , la matrice A0 = λA où A0 = (a0ij )
Pq
avec a0ij = λaij . Si A ∈ Mnp (K) et B ∈ Mpq (K), on définit la matrice P = AB par pij = k=1 aik bkj et
P ∈ Mnq (K).Mnn (K) que l’on note Mn (K) est une algèbre.
Pour A ∈ Mnp (K), on définit la matrice transposée de A par tA = M ∈ Mpn (K) avec mij = aji . On a la
propriété suivante : t(AB) = tB tA.
Soit A ∈ Mn (K). A est dite triangulaire supérieure si ∀(i, j) j < i ⇒ aij = 0 et triangulaire inférieure
si ∀(i, j) i < j ⇒ aij = 0. On dit que A est diagonale si i 6= j ⇒ aij = 0. Une matrice A ∈ M(K) est dite
symétrique si A = tA et antisymétrique si A = −tA.
On note Gln (K) le groupe des matrices inversibles. Mn (K) est un anneau non commutatif et non intègre.
Une matrice extraite de la matrice A est une matrice obtenue à partir de A en supprimant certaines lignes et certaines
colonnes .

Matrice d’une application linéaire


Pp de E dans F . Si (e1 , e2 , · · · , en )
Soient E et F deux espaces vectoriels de dimension finie et u une application linéaire
est une base de E et (f1 , f2 , · · · , fp ) est une base de F , on peut écrire u(ej ) = i=1 αij fi pour 1 ≤ j ≤ p. Alors
P la
matrice A = (αij ) 1≤i≤p est la matrice de u dans les bases Be = (e1 , · · · , en ) et Bf = (f1 , · · · , fp ). Si x = xi ei
P 1≤j≤n
alors u(x) = ij αij xj fi .
Si y = u(x), X la matrice colonne des coordonnées de x dans la base Be , Y la matrice colonne des coordonnées de
y dans la base Bf et M la matrice de u dans les bases Be et Bf , on a alors

Y = MX

On peut remarquer que Be et Bf étant fixées l’application qui à un élément u de L(E, F ) associe sa matrice dans les
bases Be et Bf et un morphisme d’espace vectoriel et d’anneau.

Trace d’une matrice


P
Soit A ∈ Mnp (K). La trace de A est par définition tr A = i aii . On a la propriété suivante pour tout couple de
matrices (A, B) tel que AB et BA soient définies : tr AB = tr BA.

Rang d’une matrice


Soit A ∈ Mnp (K). Le rang de A est le rang du système de ses vecteurs colonnes (c’est à dire le plus grand
nombre de vecteurs colonnes indépendants) ; si une application linéaire u a pour matrice M dans certaines bases alors
rg u = rg M . On a rg M = rg tM .
Propriété : Le rang de A est le plus grand entier s tel qu’il existe une matrice inversible extraite de A à s lignes et s
colonnes.

Changement de bases
Soient E un K-espace vectoriel, e = (e1 , · · · , en ) et e0 = (e01 , · · · , e0n ) deux basesPde E. On définit la matrice de
n
passage de e à e0 de la façon suivante : P = (pij ) où pij = he∗i , e0j i c’est à dire e0j = i=1 pij ei . C’est la matrice de
l’application
Pn identique de
Pla base e vers la base e. Les colonnes de P sont les coordonnées des e0i dans la base e. Si
0
n
x = i=1 ξi ei et x = j=0 ξj0 e0j , on a x = P x0 . Soient u ∈ L(E, F ), e et e0 deux bases de E, f et f 0 deux bases de
0

F . On note M la matrice de u exprimée dans les bases e et f et M 0 celle de u exprimée dans les bases e0 et f 0 . On note
également P la matrice de passage de e à e0 et Q la matrice de passage de f et f 0 . On a alors : M 0 = Q−1 M P .

4
Dans le cas d’un endomorphisme u, si P est la matrice de passage de e à e0 , M la matrice de u dans e et e, M 0 la
matrice de u dans e0 et e0 alors M 0 = P −1 M P .

Matrices équivalentes
Dans Mnp (K) on définit la relation ARB ssi il existe P ∈ GLn (K) et Q ∈ GLp (K) telles que B = QAP . C’est
une relation d’équivalence appelée équivalence des matrices A et B.
Théorème : Les conditions suivantes sont équivalentes
1. A et B sont équivalentes.
2. A et B ont même rang.

Matrices semblables
Dans Mn (K), on définit la relation ASB ssi il existe P ∈ GLn (K) telle que B = P −1 AP . C’est une relation
d’équivalence appelée la similitude des matrices carrées de taille n. Si ASB, on dit que les matrices A et B sont
semblables.
Théorème : Soient A et B deux matrices semblables. Alors
1. tA et tB sont semblables.
2. Pour tout m ∈ N, les matrices Am et B m sont semblables. C’est encore vrai pour m ∈ Z si A et B sont inversibles.
3. tr A = tr B

5
CAPES de Mathématiques Université de Cergy Pontoise
Résumé de cours d’algèbre linéaire Valérie Nachef
2001/2002 Alexandre Mizrahi

Systèmes linéaires

Soit K un sous-corps de C

Définitions
Soit (S) le système à n équations et m inconnues suivant :
 Pm  Pm

 j=1 a1j xj = b1 
 j=1 a1j xj = 0
(S) = .
.. .
. (S 0
) = .. ..
 Pm = . .P = .
m

a x = bn anj xj = 0
 
j=1 nj j j=1
Pm
On appelle ième ligne de (S) l’équation j=1 aij xj = bi .
On appelle système homogène associé à (S) le système (S 0 ). Matriciellement (S) peut s’écrire AX = B avec A ∈
Mnm (K), B ∈ Mn1 (K)

Opérations élémentaires sur les lignes


Il existe trois sortes d’opérations élémentaires :
1. Échanger deux lignes : Li ↔ Lj .
2. Multiplier une ligne par un scalaire non nul : Li ← αLi .
3. Ajouter à une ligne le multiple d’une autre : Li ← Li + λLj .
Proposition : Le système obtenu à partir de (S) à l’aide d’une opération élémentaire sur les lignes est équivalent à
(S) c’est à dire que les deux systèmes ont même ensemble de solutions.
Remarque : Matriciellement l’opération Li ↔ Lj revient à multiplier à gauche AX = B par la matrice de permu-
tation Mτij , l’opération Li ← αLi revient à multiplier à gauche AX = B par la matrice d’affinité Di (α), et l’opération
Li ← Li + λLj revient à multiplier à gauche AX = B par la matrice de transvection Uij (λ) avec par exemple :
   
1 0 0 0 ··· 0   1 0 λ 0 ··· 0
0 0 1 0 · · · 0 α 0 ··· 0 0 1 0 0 · · · 0
   
0 1 0 0 · · · 0 0 1 · · · 0  0 0 1 0 · · · 0
Mτ23 =  0 0 0 1 · · · 0  D1 (α) =  . . . U13 (λ) =  0 0 0 1
     
 .. .. .. ..  0

 ..

.. .  
 .. ..

..
.. .. ..
 . . . . 0 0 ··· 1  . . . .
0 0 0 ··· 0 1 0 0 ··· 0 1

Méthode du pivot de Gauss


C’est un algorithme qui permet d’utiliser de façon efficace les opérations élémentaires sur les lignes pour trouver un
système équivalent à (S) et triangulaire, c’est à dire (i > j =⇒ aij = 0)
Soit p < n, m supposons que Hp : ∀j < p, ∀i, i > j =⇒ aij = 0
– Si pour tous les i ≥ p on a aip = 0 le résultat est vrai jusqu’à p.
– Sinon en échangeant deux lignes , on obtient app 6= 0 et en faisant successivement les n − p − 1 opérations
aij
Li ← Li − app Lp pour i > p, on obtient un système équivalent qui vérifie Hp+1 .

Forme des solutions


Proposition : Les solutions S de (S 0 ) forment un sous espace vectoriel de K m . Sa dimension est dim ker A =
m − rg A.
Proposition : Si B ∈ im A, les solutions de (S) forment un sous espace affine de K m de direction S, on dit alors que
le système est compatible. Si B n’appartient pas à im A il n’y a pas de solution, on dit que le système est incompatible.
Proposition : Le système est compatible ssi rg (B ∪ (∪Ci )) = rg A où les Ci sont les colonnes de A.

6
Définition : On appelle système de Cramer un système pour lequel m = n = rg A. Dans ce cas il y a une unique
solution.
Proposition : Si le système est compatible et rg A = r le système est équivalent à un système ayant r lignes. Il existe
r colonnes de A indépendantes, on appelle inconnues principales les inconnues associées à ces colonnes et inconnues
secondaires les autres. En regardant les inconnues secondaires comme des paramètres, on se ramène à un système de
Cramer en les inconnues principales.
On remarquera qu’il y a en général plusieurs familles de colonnes indépendantes possibles et donc plusieurs familles
d’inconnues principales.

Utilisation des déterminants


Formules de Cramer Soit (S) un système de Cramer l’unique solution est définie par :

det Bi
xi =
det A
où Bi est la matrice A dans laquelle la ième colonne a été remplacée par B.
Théorème : Si rg A = r, il existe une matrice extraite de A à r lignes et r colonnes quitte à échanger des lignes
(opération sur les lignes) et des colonnes (renumérotation des inconnues) on peut supposer

a11 a12 ... a1r

a21 a22 ... a2r
.. 6= 0

.. .. ..
.
. . .

ar1 ar2 ... arr

Le système est compatible ssi


soit n = r
soit ∀s > r :
a11 a12 ... a1r b1

a21 a22 ... a2r b2

.. .. .. ..
=0

.
. . .
ar1 ar2 ... arr br

as1 as2 ... asr bs

7
CAPES de Mathématiques Université de Cergy Pontoise
Résumé de cours d’algèbre linéaire Valérie Nachef
2001/2002 Alexandre Mizrahi

Déterminants

Notion d’application p-linéaire


L’application f : E1 × E2 × · · · × Ep → F est p-linéaire si elle est linéaire par rapport à chacune des variables
lorsque les autres variables sont fixées. Si F = K, on a une forme p-linéaire. Lp (E1 × E2 × · · · × Ep ; F ) est un espace
vectoriel sur K.
Soit σ ∈ Sp une permutation, on note σ(f )(x1 , · · · , xp ) = f (xσ(1) , · · · , xσ(p) ). f est symétrique si ∀σ ∈
Sp , σ(f ) = f et f est antisymétrique si ∀σ ∈ Sp , σ(f ) = (σ)f où (σ) est la signature de la permutation σ. f
est alternée si elle associe le vecteur nul à tout p-uple de E p dont deux vecteurs sont égaux. On a la propriété suivante
f ∈ Lp (E, F ) est alternée ssi elle est antisymétrique.
On a la caractérisation suivante : f est symétrique (resp. antisymétrique) ssi pour toute transposition τ on a : τ (f ) = f
(resp. τ (f ) = −f ). P
Pour f ∈ Lp (E, F ), on définit S(f ) = σ∈Sp σ(f ) qui est symétrique. On note Sp (E; F ) le sous-espace vectoriel
P
des applications p-linéaire symétriques. On définit également A(f ) = σ∈Sp (σ)σ(f ) qui est antisymétrique. On note
Ap (E; F ) le sous-espace vectoriel des applications p-linéaire antisymétriques. Soit f ∈ Ap (E; F ). On ne change pas la
valeur prise par f sur un p-uple de E p en ajoutant à l’un des vecteurs une combinaison linéaire des autres. En particulier,
f prend la valeur 0 sur tout p-uple constituant un système lié.

Déterminants
Soit E un espace vectoriel de dimension finie n dont une base est donnée par e = (e1 , · · · , en ). Le dual de E noté E ∗
est également de dimension n. On note e∗ = (e∗1 , · · · , e∗n ) la base duale de e. Il existe une et une seule forme n-linéaire
alternée sur E prenant la valeur 1 sur la base e. On l’appelle déterminant et on la note dete . L’espace vectoriel An (E)
admet pour base (dete ) et tout f ∈ An (E) s’ecrit f = λ dete avec λ = f (e1 , · · · , en ). Le scalaire dete (x1 , · · · , xn )
est dit déterminant dans la base e des vecteurs (x1 , · · · , xn ). Il admet les deux expressions :
Qn
(σ) j=1 ξj,σ(j) ξj,σ(j) = he∗j , xσ(j) i (jième coordonnée de xσ(j) )
P
Pσ∈Sn Qn
σ∈Sn (σ) j=1 ξσ(j),j ξσ(j),j = he∗σ(j) , xj i

Si a est une autre base a = (a1 , · · · , an ) alors dete = λ deta avec λ = dete (a1 , · · · , an )
Un système de n vecteurs est libre ssi le déterminant du système dans la base e est non nul.

Déterminant d’un endomorphisme


Soit u ∈ L(E). Alors il existe un unique scalaire appelé det u tel que ∀f ∈ An (E), f (u(x1 ), · · · , u(xn )) =
det uf (x1 , · · · , xn ). On obtient det u = dete (u(e1 ), · · · , u(en ))
On a les propriétés suivantes :
– det Id = 1
– det(λu) = λn det u
– det tu = det u
– det(u ◦ v) = (det u)(det v)
– u est inversible ssi det u 6= 0 et alors det u−1 = (det u)−1

Déterminant d’une matrice carrée


Soit M = (α)ij une matrice carrée d’ordre n. Le déterminant de M est le déterminant du système des vecteurs
colonnes de la matrice. On a :
X Yn
det M = (σ) αj,σ(j)
σ∈Sn j=1
ou
X n
Y
det M = (σ) ασ(j),j
σ∈Sn j=1

8
Si on effectue sur le système de vecteurs colonnes d’une matrice une permutation σ, le déterminant est multiplié par
(σ). Le déterminant dépend linéairement de chacun des vecteurs colonnes. Le déterminant d’une matrice ne change pas
quand on ajoute à l’un des vecteurs colonnes une combinaison linéaire des autres vecteurs colonnes. Il est nul si l’un des
vecteurs colonnes est combinaison linéaire des autres vecteurs colonnes.
On obtient des énoncés identiques en remplaçant les colonnes par les lignes.

Théorème
Soit u un endomorphisme de E. On a det u = det M où M est une matrice de u dans une base quelconque. On
a également det I = 1, det(λM ) = λn det M , det(M N ) = (det M )(det N ) et M est inversible ssi det M 6= 0 et
det M −1 = (det M )−1

Calcul de déterminants
Soit  
A C
M=
0 B
M ∈ Mn (K) avec n = p + p, A ∈ Mp (K), B ∈ Mq (K), 0 ∈ M(q,p) (K), et C ∈ M(p,q) (K). Alors, det M =
(det A)(det B)
Plus généralement, soit M la matrice suivante
 
N11 N12 · · · N1m
 0 N22 · · · N2m 
M = .
 
. .. . . .. 
 . . . . 
0 0 · · · Nmm
Qm
Alors det M = i=1 det Nii
Dans le cas particulier d’une matrice triangulaire supérieure ou d’une matrice diagonale le déterminant est égal au
produit des éléments diagonaux.
Soit M = (αij ) une matrice carrée (n, n) (n > 0). On appelle mineur relatif à l’élément αij , le déterminant de la
matrice carrée (n − 1, n − 1), Mij déduite de M en supprimant la i-ème ligne et la j-ème colonne. On appelle cofacteur
de αij le scalaire α̂ij = (−1)i+j det Mij . Pn
On peut développer un déterminant
Pn par rapport à une colonne : ∀j ∈ Nn , det M = k=1 α̂kj Akj ou par rapport à
une ligne ∀i ∈ Nn , det M = k=1 α̂ik Aik .

Calcul de l’inverse d’une matrice


Pour calculer l’inverse d’un matrice la méthode du pivot de Gauss est très efficace, en effet on a pour des matrices
carrées M et N : ∀X, X 0 , (M X = X 0 ⇐⇒ X = N X 0 ) ssi M = N −1
Soit M = (αij ) une matrice carrée d’ordre n. La comatrice M̂ de M est la matrice (α̂ij ) où α̂ij est le cofacteur de
αij dans M .
On a le résultat : M tM̂ = tM̂ M = (det M )In . D’où si M est inversible M −1 = det1M tM̂

Rang d’une matrice


Soit M une matrice (n, p) et soit P une matrice carrée (s, s) extraite de la matrice M , tel que s < min(n, p). On
appelle matrice bordante de P dans M , toute matrice (s + 1, s + 1) extraite de M qui admet P pour matrice extraite .
P admet donc au plus (n − s)(p − s) matrices bordantes.
Théorème : Soient M une matrice de type (n, p), de rang r et P une sous-matrice carrée (s, s) inversible tel que
s < r. Alors il existe au moins une matrice inversible parmi les (n − s)(p − s) extraites de M bordantes de P .
Définition : Soit M une matrice non nulle. On appelle matrice principale de M , toute matrice carrée inversible
extraite de M dont l’ordre est égal au rang de M .
Théorème : Soit M une matrice non nulle. M est de rang r ssi il existe une matrice (r, r) inversible, extraite de M
et n’admettant pour matrice bordante dans M aucune matrice inversible.

9
CAPES de Mathématiques Université de Cergy Pontoise
Résumé de cours d’algèbre linéaire Valérie Nachef
2001/2002 Alexandre Mizrahi

Calcul matriciel

Calcul par bloc


Soient A1 , A2 ∈ M(n1 , p1 ), B1 , B2 ∈ M(n1 , p2 ), C1 , C2 ∈ M(n2 , p1 ), D1 , D2 ∈ M(n2 , p2 ), on peut alors
définir des matrices Mi ∈ M(n1 + n2 , p1 + p2 ) par bloc,
 
Ai Bi
Mi =
Ci Di

ainsi      
A1 B1 A2 B2 A1 + λA2 B1 + λB2
+λ =
C1 D1 C2 D2 C1 + λC2 D1 + λD2
De même si A3 ∈ M(p1 , p3 ), B3 ∈ M(p1 , p4 ), C3 ∈ M(p2 , p3 ), D3 ∈ M(p2 , p4 )
    
A1 B1 A3 B3 A1 A3 + B1 C3 A1 B3 + B1 D3
=
C1 D1 C3 D3 C1 A3 + D1 C3 C1 B3 + D1 D3
On remarque que si la taille des matrices permettent de faire les calculs précédents alors l’égalité est vrai.

Norme matricielle
On suppose dans cette partie et la suivante que K = R ou C. Mp (K) est un espace vectoriel, on dit qu’une norme
k.k sur Mp (K) est matricielle si ∀M, N ∈ Mp (K), kM N k ≤ kM kkN k. Si on a une norme k.k sur K n et que l’on
pose |||M ||| = sup{kM Xk|X ∈ K n etkXk = 1} alors |||.||| est une norme matricielle sur Mp (K), appelée norme
subordonnée.

Conditionnement
Soit k.k, |||.||| définies comme précédemment, le conditionnement d’une matrice inversible M est définie par cond(M )=|||M ||| |||M −
. Ceci permet de majorer l’erreur relative commise lors de la résolution d’un système linéaire dont les données de départ
sont entachées d’erreurs.

Matrices de permutation
Soient n ∈ N∗ et σ ∈ Sn . On note Mσ = (µkl ) 1≤k≤n où µkl = δkσ(l) . On alors det M = (σ) et Mσ−1 = tMσ .
1≤l≤n
Soit M = (αij ) 1≤i≤n ∈ M(n, p). On a Mσ .A = (βkl )(k,l)∈Nn ×Np où βkl = ασ−1 (k)l . En particulier, si σ est la
1≤j≤p
transposition qui échange i etj, Mσ A se déduit de A en échangeant les lignes d’indice i et j. On note (li ↔ lj ). De
même, si A ∈ M(p, n), AMσ se déduit de A en échangeant les colonnes d’indice i et j. On note (ci ↔ cj )

Matrices d’affinité
Soit (i, α) ∈ Nn ×k ∗ . On note Di (α) = diag (1, 1, · · · , α, 1, · · · ) où α se situe en i-ème position. Alors det Di (α) =
α. Si A ∈ M(n, p), Di (α)A se déduit de A en multipliant la i-ème ligne par α. On note (li → αli ). Si A ∈ M(p, n),
ADi (α) se déduit de A en multipliant la i-ème colonne par α. On note (ci → αci ).

Matrices de transvections
Soient n ∈ N et ((i, j), λ) ∈ (Nn )2 × K, i 6= j. On note Uij (λ) = In + λMij où Mij = (δik δjl )kl est un élément
de la base canonique de Mn (K). On a det Uij (λ) = 1. Si A ∈ M(n, p), i 6= j et λ ∈ K, Uij (λ)A se déduit de A par
(li → li + λlj ). Si A ∈ M(m, n), et λ ∈ K, AUij se déduit de A par (ci → ci + λcj ).

10
Cas particulier : Propriété
Soient n, p ∈ N∗ et A, B ∈ M(n, p). Si B se déduit de A par des opérations élémentaires (permutation, affinité,
transvection), alors A et B ont même rang.

Application aux matrices inversibles


On a la propriété suivante : Si A ∈ Gln (K), il existe un produit P de matrices de permutations, d’affinités et de
transvections tel que P A = In . Ceci donne une méthode pour calculer l’inverse d’une matrice.

Application au calcul du rang


On a la Proposition suivante : Soient n, p ∈ N∗ et M ∈ M(n, p) et de rang r. Alors
1. Il existe P ∈ Gln (K), Q ∈ Glp (K), produits de matrices de transvections, d’affinités et de permutations, tels que
P AQ soit de la forme  
T B
M=
0 0
avec T ∈ Glr (K) triangulaire supérieure, B ∈ M(r, p − r).
2. Il existe P ∈ Gln (K), Q ∈ Glp (K), produits de matrices de transvections, d’affinités et de permutations, tels que
P AQ soit de la forme  
Ir 0
M=
0 0
On a le corollaire : Soient n, p ∈ N∗ et A, B ∈ M(n, p). Alors A et B sont équivalentes si et seulement si on peut
passer de l’une à l’autre par une suite d’opérations élémentaires.

Application au calcul de déterminant


Lorsque n = p, une méthode semblable à la précédente permet de calculer le déterminant d’une matrice carrée.
Cependant, il faut faire attention car la permutations Mσ multiplie le déterminant par (σ) et l’affinité Di (α) multiplie
le déterminant par α.

Application aux systèmes linéaires


Soient M ∈ M(n, p) et B ∈ M(n, 1) et le système linéaire M X = B. Par opérations élémentaires, on le transforme
en système équivalent T X = B1 avec T ∈ M(n, p) triangulaire supérieure et B1 ∈ M(n, 1). La résolution de ce
dernier système (lorsqu’il est compatible), est alors facile de proche en proche.

Méthode du pivot de Gauss


Cette méthode est utilisée pour la transformation des matrices, déterminants, systèmes linéaires pour obtenir des
expressions plus simples. On peut supposer M = (aij ) non nulle et de première colonne non nulle. Soit α1 un coefficient
non nul de la première colonne de M (on dit que l’on choisit α1 pour pivot). En permutant des lignes lignes , on peut
amener α1 en première ligne et première colonne. Utilisant ensuite pour 2 ≤ i ≤ n des opérations Li → −α1−1 ai1 L1
on se ramène à une matrice de la forme :
 
α1 β12 ... β1p
 0 β22 ... β2p 
P.M =  .
 
.. .. . 
 .. . . .. 
0 βn2 ... βnp
On pose  
β22 ... β2p
M1 =  ... .. .. 

. . 
βn2 ... βnp
Si M1 = 0, on a terminé. Sinon, à permutation des colonnes près, on peut supposer que la première colonne de M1 est
non nulle. Recommençant l’opération, on parvient, de proche en proche à obtenir une matrice triangulaire supérieure. On
remarquera que lorsqu’on modifie avec la méthode du pivot de Gauss un système linéaire, une permutation des colonnes
revient à réindexer les inconnues.

11
CAPES de Mathématiques Université de Cergy Pontoise
Résumé de cours d’algèbre linéaire Valérie Nachef
2001/2002 Alexandre Mizrahi

Réduction des endomorphismes et des matrices carrées

Dans cette partie K = R ou C et E un K-espace vectoriel.

Théorème
Soient u , v des endomorphismes de E qui commutent. Alors
1. Tout-sous espace propre relativement à u est stable par v.
2. ker u et im u sont stables par v.

Polynômes d’endomorphismes
Soit u ∈ L(E). On définit l’application φu : K[X] → L(E), φu (P ) = P (u) C’est un morphisme de la K-algèbre
K[X] dans la K-algèbre L(E). im φu est une sous-algèbre commutative de L(E) appelée algèbre des polynômes de u
et notée K[u]. ker φu est un idéal de K[X] appelé idéal annulateur de u et noté Ju

Décomposition des noyaux


Théorème Soit u ∈ L(E), P1 , · · · , Pp des polynômes de K[X] premiers entre eux deux à deux et P le produit de
ces polynômes. On a alors : ker P (u) = ⊕pi=1 ker Pi (u)

Valeurs propres - Vecteurs propres


Soient E un espace vectoriel de dimension finie et u un endomorphisme de E. S’il existe λ ∈ K et x ∈ E − {0}
tels que u(x) = λx, on dit que λ est une valeur propre de u et que x est un vecteur propre de u associé à la valeur
propre λ. Le spectre de u noté Sp(u) est l’ensemble des valeurs propres de u. On note Eλ = ker(u − λId ). C’est le
sous-espace propre de u associé à λ. On a :
λ valeur propre ⇔ ker(u − λId ) 6= {0}
c’est à dire que λ est valeur propre ssi u − λId n’est pas injectif.
Soit P un polynôme tel que P (u) = 0, si λ est une valeur propre de u alors P (λ) = 0.

Somme directe de sous espaces propres


Soit u un endomorphisme de E et (λi )1≤i≤n une famille finie de valeurs propres de u, deux à deux distinctes. Alors
la somme des sous-espaces propres associés est directe.
Dans la suite on suppose que E est de dimension finie.

Définition : endomorphisme diagonalisable


Soit u ∈ L(E). Si la somme des sous-espaces propres ker(u − λId ) où λ ∈ Sp(u) (qui est directe) est égale à E,
on dit que l’endomorphisme u est diagonalisable.
Proposition : u est diagonalisable ssi il existe un polynôme annulateur scindé dont toutes les racines sont simples.

Polynôme caractéristique
Soit u ∈ L(E) représenté par la matrice M ∈ Mn (K) dans une base arbitraire. On sait que λ est valeur propre
ssi u − λId est non inversible, c’est à dire ssi det(M − λId ) = 0. Ce dernier déterminant est un polynôme, appelé le
polynôme caractéristique de M et il est noté χM . On a donc :

α11 − λ α12 ... α1n

α21 α22 − λ ... α2n
χM (λ) = .

. .. .
.. .. ..
.

αn1 αn2 ... αnn − λ

12
Le polynôme caractéristique de la matrice qui représente u dans une base est indépendant du choix de la base. On
l’appelle polynôme caractéristique de u et on le note χu . Les valeurs propres de u sont les racines de χu . L’ordre de
multiplicité d’une racine λ de χu est dit multiplicité de la valeur propre λ et est noté m(λ). Un endomorphisme u ∈ L(E)
sur C a au moins une valeur propre.
Supposons E de dimension n. On a :
n
X
χu (X) = (−X)n + (−1)n−k γk X n−k
k=1

De plus :
1. γn = det u.
2. γ1 = tr M
3. γn−1 = tr M̂ où M̂ est la comatrice de M .
Qn
4. Si le polynôme caractéristique χu se factorise sous la forme i=1 (X − λi ), les λi n’étant pas nécessairement
distincts, on a : X
γk = λ i1 · · · λ i k
1≤i1 <···<in ≤n

5. u et tu ont le même polynôme caractéristique.

Théorème
Soient u ∈ L(E) et E 0 un sous-espace de E stable par u. on note u0 la restriction de u à E 0 . Alors χu0 divise χu .

Théorème de Hamilton-Cayley
Soient u ∈ L(E), χu son polynôme caractéristique . Alors χu (u) = 0.

Théorème
Soient u un endomorphisme de E et λ une valeur propre de u de multiplicité m(λ). On a l’inégalité

1 ≤ dim Eλ ≤ m(λ)

Le sous-espace propre associé à une racine simple du polynôme caractéristique est de dimension 1.

Caractérisation des endomorphismes diagonalisables


On a le Théorème : Soit u ∈ L(E) où dim E = n. Les assertions suivantes sont équivalentes :
1. u est diagonalisable.
2. Il existe une base de E dans laquelle u est représenté par une matrice diagonale.
3. χu est scindé sur K et pour toute valeur propre de u, la multiplicité est égale à la dimension du sous-espace propre
associé.
On a le cas particulier : tout endomorphisme d’un espace vectoriel de dimension n qui admet n valeurs propres
distinctes est diagonalisable.

Puissance p-ième d’une matrice diagonalisable


Soit M ∈ Mn (K) une matrice diagonalisable. Alors, il existe une matrice P inversible telle que M = P DP −1
avec D diagonale et D = P −1 M P . Alors ∀q ∈ N∗ M q = P Dq P −1 et si D = diag (λ1 , · · · , λn ) alors Dq =
diag (λq1 , · · · λqn ). De plus, M et D sont semblables et elles sont inversibles ssi ∀i λi 6= 0 et dans ce cas, on a M −1 =
P D−1 P −1 .

13
Endomorphismes trigonalisables
1. Définition : Soit u ∈ L(E) où dim E = n. On dit que u est trigonalisable ssi il existe une base de E dans
laquelle u est représenté par une matrice triangulaire.
2. Théorème : u est trigonalisable ssi χu est scindé sur K.
Ceci est toujours réalisé si K = C.

Puissances d’un endomorphisme - Noyaux itérés


Soit v ∈ L(E). On définit les puissances de v par : v 0 = e, ∀k ∈ N∗ v k = v ◦ v k−1 . On a alors : v p ◦ v q =
v ◦ v p = v p+q et donc v k = v k−1 ◦ v. Posons F0 = ker e = {0} et pour k ∈ N∗ : Fk = ker v k . Alors la suite (Fk ) est
q

croissante. On pose : F = ∪k Fk . Alors deux cas se présentent : soit la suite est strictement croissante (ce qui impose à
la suite (dim Fk ) d’être non bornée et donc à E d’être de dimension infinie), soit il existe un plus petit indice noté r à
partir duquel la suite est stationnaire. On a donc

{0} ⊂ F1 ⊂ · · · ⊂ Fr = Fr+1 = · · · = F

Dans le cas particulier d’un endomorphisme nilpotent d’indice de nilpotence q, on a Fq = F = E. Alors, on trouve une
base de trigonalisation de v de la façon suivante : on obtient une base de ker v. L’image par v des éléments de cette base
est le vecteur nul. Puis on complète cette base pour obtenir un base de ker v 2 et l’image par u des éléments de cette base
est alors dans ker v et ainsi de suite. De proche en proche, on construit une base de E dans laquelle la matrice de v est
triangulaire supérieure avec uniquement des 0 sur la diagonale. Un endomorphisme nilpotent est donc trigonalisable et
admet uniquement 0 comme valeur propre.

Sous-espaces caractéristiques
Soit u ∈ L(E) tel que χu est scindé sur K (toujours vrai si K = C). On pose
p
Y
χu = (X − λi )mi
i=1

D’aprés le théorème de décomposition des noyaux et Hamilton-Cayley on a

E = ⊕pi=1 ker(u − λi )mi

On pose Fi = ker(u − λi )mi , on appelle ces SEV les sous espaces caractéristiques de u dim Fi = mi et on remarque
que u|Fi − λi Id est nilpotent.

Polynôme minimal (Hors programme)


Soit u ∈ L(E). Comme E est de dimension finie, le morphisme φu est non injectif (en effet les n2 + 1 endomor-
phismes uk 0 ≤ k ≤ n2 sont linéairement dépendants). Alors Ju 6= {0} et il existe un unique polynôme unitaire P tel
que Ju = (P ). On appelle ce polynôme polynôme minimal et on le note µu .
On a la Proposition : Soient u ∈ L(E) de polynôme minimal µu et E 0 un sous-espace vectoriel de E stable par u.
On note u’ la restriction de u à E 0 et µu0 son polynôme minimal. Alors µu0 divise µu .
On a les propriétés suivantes :
1. Pour P ∈ K[X], ker P (u) et im P (u) sont stables par u (en effet u et P (u) commutent).
2. ∀(P, λ, q) ∈ K[X] × K × N ker(u − λId )q ⊂ ker(P (u) − P (λ)e)q
3. λ ∈ Sp(u) ⇒ ∀P ∈ K[X] P (λ) ∈ Sp(P (u)). Le sous-espace propre de u associé à λ est inclus dans le
sous-espace propre de P (u) associé à P (λ).
4. Toute valeur propre de u est racine de tout polynôme de l’idéal annulateur de u et en particulier de µu .
5. Un endomorphisme d’un espace vectoriel E de dimension finie est diagonalisable ssi son polynôme minimal est
scindé sur K et n’a que des racines simples.

Décomposition de Dunford
Soit u un endomorphisme trigonalisable d’un espace vectoriel de dimension finie. Il existe un unique couple (d, n)
tel que d soit diagonalisable, n soit nilpotent et dn = nd vérifiant u = n + d.

14
CAPES de Mathématiques Université de Cergy Pontoise
Résumé de cours d’algèbre linéaire Valérie Nachef
2001/2002 Alexandre Mizrahi

Espaces euclidiens

Définition - Exemples
Un espace euclidien est défini par la donnée :
1. D’un espace vectoriel sur R, E de dimension finie.
2. D’un produit scalaire (forme bilinéaire, symétrique, définie positive) sur E, souvent noté < .
Exemples
n
P
P 2 E = R , la forme (x, y) →
1. Sur l’espace xi yi est un produit scalaire dont la forme quadratique associée est
x → xi . Muni de ce produit scalaire, E est donc un espace euclidien.
R1
2. Soit C([0, 1], R) le R-espace vectoriel des applications continues de [0, 1] → R. L’application (f, g) → 0 f (t)g(t) dt
est une forme bilinéaire définie positive. C’est donc un produit scalaire qui fait de C([0, 1], R) un espace préhil-
bertien réel.
Isomorphisme Soit E est un espace euclidien, il existe un isomorphe canonique ψ de E vers son dual E ∗ , défini par
E → R
ψ(x) : . On peut remarquer que la notion d’orthogonalité est transportée ainsi de E dans E ∗ .
y 7→ < x, y >

Métrique associée à un espace euclidien


1
Soit E un espace euclidien. Si on pose kxk = (< x, x >) 2 pour x ∈ E, alors la fonction k k est une norme sur E,
c’est-à-dire que l’on a :
1. ∀λ ∈ R ∀x ∈ E kλxk = |λ|kxk.
2. kxk = 0 ⇔ x = 0.
3. Inégalité triangulaire : ∀x ∀y ∈ E kx + yk ≤ kxk + kyk
k k est appelée la norme euclidienne associée au produit scalaire. On peut alors définir sur E une structure d’espace
métrique en posant d(x, y) = kx − yk.
La démonstration de ce résultat repose sur l’Inégalité de Cauchy-Schwarz :

< x, y >2 ≤ kxk2 kyk2

l’égalité étant réalisée ssi x et y sont colinéaires.

Sous-espaces d’un espace euclidien de dimension finie


Soit E un espace euclidien de dimension n. Si F est un sous-espace de E, on a
1. dim F + dim F ⊥ = n
2. (F ⊥ )⊥ = F
3. E = F ⊕ F ⊥
F ⊥ est appelé le supplémentaire orthogonal de F . Si x ∈ E est tel que x = y + z avec y ∈ F et z ∈ F ⊥ , alors
kxk2 = kyk2 + kzk2 qui est la forme générale du théorème de Pythagore. On peut étendre ce résultat par récurrence :
Soient E un espace euclidien de dimension n, et F1 , · · · , Fk des sous-espaces orthogonaux deux à deux tels que E soit
Pk
somme directe des Fi . Si x = i=1 xi est la décomposition de x sur les Fi , alors on a :
k
X
kxk2 = kxi k2
i=1

Soit F un hyperplan de E (c’est à dire un SEV de dim n − 1), alors F ⊥ est une droite vectorielle de E engendrée
par un vecteur u, F = u⊥ , on dit que u est un vecteur normal à F .

15
Procédé d’orthonormalisation de Schmidt
Définition : On dit que des vecteurs (e1 , . . . ep ) de l’espace euclidien E forment un système orthonormal s’ils sont
deux à deux orthogonaux et si leur norme est égale à 1 ie si (ei |ej ) = δij
Tout système orthonormal d’un espace euclidien de dimension peut être complété en une base orthonormale de tout
l’espace.
Soit (v1 , · · · , vn ) une base quelconque de l’espace euclidien E. Il existe une base orthonormale (e1 , · · · , en ) unique
de E vérifiant les conditions suivantes :
1. ∀p (ep |vp ) > 0
2. ∀p V ect(e1 , · · · , ep ) = V ect(v1 , · · · , vp )

Projections
Soit E un espace euclidien de dimension n. On rappelle que la distance d’un point a ∈ E à une partie A de E
est le nombre positif défini par : d(a, A) = inf x∈A d(a, x). On dira que deux sous-espaces affines H et K de E sont
orthogonaux si leurs directions H0 et K0 sont orthogonales.
Théorème : Soient E un espace euclidien de dimension n et H un sous-espace affine de E. Quelque soit le point a
de E, il existe un unique point q(a) ∈ H tel que d(a, H) = d(a, q(a)). Ce point q(a) est appelé le projeté orthogonal
de a sur H, car c’est l’unique point b ∈ H tel b − a soit orthogonal à H. Enfin, l’application a → q(a) de E sur H est
une application affine, surjective, appelée projection orthogonale de E sur H.
On remarque que l’image réciproque de b par q est le sous-espace affine b+L0 où L0 est le supplémentaire orthogonal
H0⊥ de H.

Symétrie par rapport à un sous-espace affine H de E


Définition : H désignant un sous-espace affine de E espace euclidien de dimension n et q la projection orthogonale
sur H, la symétrie par rapport à H est l’application a → sH (a) = 2q(a)−a. C’est une application affine. On remarque
que l’on a sH ◦ sH = idE et donc sH est bijective.
Soient a, b deux points distincts de E. On cherche l’ensemble des points x ∈ E tels que d(x, a) = d(x, b). Ceci
équivaut à
2(b − a).x = |b|2 − |a|2 (∗)
L’ensemble des x ∈ E vérifiant (*) est un hyperplan affine H, dont la direction est l’hyperplan vectoriel H0 d’équation
(b − a).x = 0. H0 est le supplémentaire orthogonal de la droite engendrée par le vecteur b − a. De plus, d’après (*), H
contient le point a+b
2 , c’est-à-dire le milieu de [a, b]
Définition : L’hyperplan affine H défini précédemment est appelé l’hyperplan médiateur du segment [a, b] C’est
l’ensemble des points équidistants de a et b.

Groupe orthogonal
Soit E un espace euclidien, . Les automorphismes φ de E tels que

∀x ∈ E ∀y ∈ E, < φ(x), φ(y) >=< x, y > (∗)

forment un groupe pour la loi de composition. De plus, (*) est équivalente à

∀x ∈ E, kφ(x)k = kxk

Il est donc équivalent de dire que l’automorphisme φ conserve le produit scalaire ou qu’il conserve la norme. Définition :
Le sous-groupe du groupe linéaire Gl(E) formé des automorphismes φ qui conservent la norme est appelé le groupe
orthogonal. On le note O(E) et ses éléments sont dits orthogonaux.
Soit e = (e1 , · · · , en ) une base orthonormale de E. Pour qu’un endomorphisme u ∈ L(E) soit un élément de O(E),
il faut et il suffit que sa matrice Mu dans e vérifie :
t
Mu Mu = I (∗)

Définition : Une matrice qui vérifie tM M = I est dite orthogonale, on note On (R) l’ensemble des matrices ortho-
gonales de Mn (R).
De la relation (*), on déduit : [det(Mu )]2 = 1. Donc l’application d : u → det u est un homomorphisme surjectif
de O(E) dans le sous-groupe G = {−1, 1} de K ∗ .

16
Définition : On appelle groupe spécial orthogonal et on note SO(E) le sous-groupe de O(E) formé des u ∈
O(E) tels que det(u) = 1. C’est le noyau de d c’est donc un sous-groupe distingué de O(E) et le groupe quotient
O(E)/SO(E) est isomorphe à G.

Groupe SO(n)
L’application M → det M est un homomorphisme de O(n) dans le groupe multiplicatif {−1, 1}. Il est surjectif : en
effet, la symétrie par rapport à l’hyperplan xn = 0 appartient à O(n) et a pour déterminant −1
Définition : Le sous-groupe des éléments de O(n) de déterminant +1 est appelé le groupe spécial orthogonal
d’ordre n et est noté SO(n)
Exemples :
1. O(1) est formé des matrices M d’ordre 1 telles que M t M = I1 , c’est à dire des éléments a ∈ R tel que a2 = 1.
O(1) est donc le groupe à deux éléments {−1, 1}. L’élément −1 représente la symétrie par rapport à l’origine, +1
représente l’identité. SO(1) est réduit à {1}
2. SO(2) est formé des matrices :  
cos θ − sin θ
M=
sin θ cos θ

Changement de base
Soit (ei )1≤i≤n une base orthonormale de l’espace euclidien E. Pour qu’un endomorphisme φ de E soit un auto-
morphisme orthogonal, il faut et il suffit que les n vecteurs fi = φ(ei ) 1 ≤ 1 ≤ n forment une base orthonormale de
E
Soient B une base orthonormale de l’espace euclidien E, et B 0 une base de E. B 0 est orthonormale ssi la matrice de
passage de B 0 à B est orthogonale.

Orientation
Soit E un espace vectoriel de dimension n sur R. Étant donné deux bases ordonnées (e1 , · · · , en ) et (f1 , · · · , fn ).
On dit que la seconde a la même orientation que la première si la matrice de passage de la base (ei ) à la base (fi )
a un déterminant positif. On obtient une relation d’équivalence, qui a deux classes d’équivalences. Orienter l’espace,
c’est choisir une de ces classes, dont les éléments sont appelés bases directes. Si E a une structure euclidienne, on peut
se borner à considérer des bases orthonormales : deux bases orthonormales ont même orientation si le déterminant de
la matrice de passage est égal à +1. Donc les isométries qui conservent l’orientation de l’espace euclidien E sont les
isométries directes.

Produit mixte et produit vectoriel en dimension 3


Le produit mixte de 3 vecteurs V1 , V2 , V3 de l’espace euclidien orienté E de dimension 3 , est le déterminant des
composantes vij des Vi dans une base orthonormale directe de E. Cette définition est indépendante du choix de la base
(mais dépend de son orientation). Il est noté [V1 , V2 , V3 ]. C’est une fonction 3-linéaire alternée sur E.
Étant donné 2 vecteurs V1 , V2 de l’espace euclidien orienté E, il existe un vecteur W unique tel que pour tout vecteur
V de E, on ait :
< W |V >= [V1 , V2 , V ]
Ce vecteur est appelé produit vectoriel des vecteurs V1 , V2 et est noté : V1 ∧ V2 . Il est remplacé par son opposé si on
change l’orientation de E.
Les composantes Wi du produit vectoriel W = V1 ∧ V2 sont données par

Wi = (−1)i+1 ∆i

où ∆i désigne le déterminant 2 × 2 obtenu en enlevant la ligne i à la matrice des composantes des Vk dans une base
orthonormale.
Le produit vectoriel est une fonction 2-linéaire alternée sur E.
Le produit mixte et produit vectoriel sont des exemples de quantités invariantes par SO(n) mais non par O(n) car
les transformations orthogonales de déterminant −1 changent le produit mixte et le produit vectoriel en leurs opposés.

17
Adjoint d’un endomorphisme
Soit E un espace euclidien, on note IE l’isomorphisme canonique de E sur son dual, qui envoie x ∈ E sur la forme
linéaire < x, . >
Proposition : Soient E un espace euclidien et u ∈ L(E). Il existe une unique application v : E → E qui vérifie :

∀(x, y) ∈ E 2 < u(x)|y >=< x|v(y) >

Cette application v est linéaire.


Définition : Soient E un espace euclidien et u ∈ L(E). L’unique application v définie ci-dessus s’appelle endomor-
phisme adjoint de u et se note u∗ .
Propriétés : Soit E un espace euclidien
1. ∀u ∈ L(E) (u∗ )∗ = u
2. ∀u ∈ L(E) ∀v ∈ L(E) (u ◦ v)∗ = v ∗ ◦ u∗
Théorème : Soit E un espace euclidien de dimension n. Soit e = (e1 , · · · , en ) une base orthonormale de E. Alors
M ate (u∗ ) = t(M ate (u))

Endomorphismes symétriques, antisymétriques


Définition : Soient E un espace euclidien et u ∈ L(E)
1. u est dit auto-adjoint ou symétrique si u = u∗
2. u est dit antisymétrique si u∗ = −u
Propriétés :
1. u est symétrique ⇔ ∀(x, y) ∈ E 2 < u(x), y >=< x, u(y) >
2
2. u est antisymétrique ⇔ ∀(x, y) ∈ E < u(x), y >= − < x, u(y) >
Théorème : Soient E un espace euclidien et u ∈ L(E). Les propriétés suivantes sont équivalentes :
1. u ∈ O(E)
2. u ◦ u∗ = IdE
3. u∗ ◦ u = IdE
4. u ∈ Gl(E) et u−1 = u∗

Diagonalisation des endomorphismes symétriques


Soient E un espace euclidien de dimension n et u un endomorphisme symétrique de E. Alors u est diagonalisable et
ses sous-espaces propres sont deux à deux orthogonaux. De façon équivalente, E admet une base orthonormale formée de
vecteurs propres de u. Le polynôme caractéristique de u est scindé Donc toute matrice symétrique M est diagonalisable.
De plus, il existe une matrice diagonale D et une matrice orthonormale directe Ω telles que : M = ΩDt Ω.

Définitions - Propriétés
Une forme bilinéaire sur le K-espace vectoriel E est une application B : E × E → K, linéaire Pn par rapport
Pn à chacune
des variables. Si E est de dimension finie et si (e1 , · · · , en ) est une base de E, on a : B( i=1 λi ei , j=1 µj ej ) =
Pn Pn
i=1 j=1 λi µj bij où bij = B(ei , ej ). On voit que l’espace B(E) des formes bilinéaires sur E est engendré par
2
les n formes Bij définies par Bij (ei , ej ) = 1 et Bij (ek , el ) = 0 si (i, j) 6= (k, l). Ces formes étant linéairement
indépendantes, ceci montre que B(E) est de dimension n2 . Il en résulte que B(E) est isomorphe à l’espace des matrices
carrées d’ordre n : la matrice M = (bij ) définie par bij = B(ei , ej ) est appelée la matrice de B dans la base (e1 , · · · , en ).
Une forme bilinéaire B sur l’espace vectoriel E est dite symétrique si

∀x ∈ E ∀y ∈ E B(x, y) = B(y, x)

La forme B est symétrique ssi sa matrice dans toute base est symétrique.

18
Changement de base pour les formes bilinéaires
Soient (e1 , · · · , en ) et (f1 , · · · , fn ) deux bases de l’espace vectoriel E et P la matrice de passage de la première à la
seconde. On considère B une forme bilinéaire symétrique Pn sur E. On noteP M la matrice de B dans la base (e1 , · · · , en ) et
n
N la matrice de B dans la base (f1 , · · · , fn ). Si x = i=1 xi ei et y = j=1 yj ej , on a B(x, y) = t XM Y = t Y M X
où X et Y représentent les vecteurs colonnes obtenus avec les coordonnées de x et y. En appliquant aux vecteurs de
base, cette formule permet également d’obtenir la matrice M . Un calcul analogue avec les coordonnées de x et y dans
la base (f1 , · · · , fn ) montre que l’on a : N = t P M P .

Réduction
Soit E un espace euclidien, l’application qui a un endomorphisme auto-adjoint u associe la forme bilinéaire symé-
trique Bu définie par Bu (x, y) =< x, u(y) > est un isomorphisme d’espace vectoriel, on peut remarquer que u et Bu
ont même matrice dans les bases orthonormale.
D’après le théorème de réduction des endomorphismes symétriques, il existe donc une base orthonormale (e1 , . . . , en )
de (E, < , >) pour laquelle B(ei , ej ) = δi,j . Autrement dit une base orthonormale pour <, > et orthogonale pour B,
c’est ce que l’on utilise pour trouver une bon dans laquelle une conique donnée s’écrit sous sa forme réduite.

19

Vous aimerez peut-être aussi