Vous êtes sur la page 1sur 13

UNIVERSITE MOHAMMED V DE RABAT

Faculté des Sciences - Département de Mathématiques


SMA--S3
Réduction des Endomorphismes

Réduction des
Endomorphismes
Partie I; Rappel et Compléments

Algèbre IV - M 17 -SMA, S3
FSR-2020-2021

(2020 - 2021)
Partie I : Rappel et Compléments
4
1 Somme et somme directe
5
1.1 Dé…nition et caractérisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2 Théorème du rang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6

2 Algèbre des endomorphismes d’un espace vectoriel 7


2.1 Dé…nitions et propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.2 Projecteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.3 Symétries . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8

3 Multilinéarité 10
3.1 Groupe Symétrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
3.2 Applications multilinéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
3.3 Application aux déterminants : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13

1
Chapitre 1
Somme et somme directe

Notation :
Dans toute la suite, n est un entier 1, K est un corps commutatif, E est un K-espace vectoriel
et les espaces vectoriels (e.v) considérés ci-dessous sont des K-e.v.

1.1 Dé…nition et caractérisation


Théorème et Dé…nition 1.1.1 Soient E1 ; :::; Em des sous-espaces vectoriels (s.e.v.) de E. L’en-
P
m
semble E1 + ::: + Em = Ei = fx1 + ::: + xm = 8i = 1; :::; m; xi 2 Ei g est un sous-espace vectoriel
i=1
de E appelé somme des sous-espaces vectoriels E1 ; :::; Em .
P
m
Dé…nition 1.1.2 Soient E1 ; :::; Em des s.e.v. de E. La somme Ei est dite une somme directe si
i=1
P
m
pour tout x 2 Ei , x s’écrit d’une manière unique sous la forme x = x1 + ::: + xm , où xi 2 Ei ;
i=1
8i = 1; :::; m:
P
m P
m L
m
Notation : Si la somme Ei est directe, on note Ei = Ei .
i=1 i=1 i=1
L
n
Exemple : Soit E un e.v. de dimension n et B = (e1 ; :::; en ) une base de E. Alors, E = Kei .
i=1

Théorème 1.1.3 Soient E1 ; :::; Em des sous-espaces vectoriels de E. Les propositions suivantes sont
équivalentes :
P
m
1) La somme Ei est une somme directe.
i=1
P
m
2) Si xi = 0, où xi 2 Ei pour tout i = 1; :::; m; alors xi = 0; 8i = 1; :::; m.
i=1 TP
3) Pour tout i = 1; :::; m; Ei Ej = f0g:
j6=i

Théorème 1.1.4 Soient E un e.v. de dimension n, E1 ; :::; Em des sous-espaces vectoriels de E de


dimension …nie et B1 ; :::; Bm des bases respectivement de E1 ; :::; Em .
P
m
La somme Ei est une somme directe si et seulement si la famille obtenue par concaténation
i=1
des bases B1 ; ::: et Bm est une famille libre de E.
L
m
De plus, si cette propriété est véri…ée, alors cette famille est une base de Ei :
i=1

Corollaire 1.1.5 Soient E un e.v. de dimension n et E1 ; :::; Em des sous-espaces vectoriels de E. Si


L
m P
m
E= Ei , alors dim E = dim Ei :
i=1 i=1

5
Dé…nition 1.1.6 Soient F et G deux s.e.v de E. On dit que F et G sont supplémentaires dans E si
E = F G (On dit aussi que G est un supplémentaire de F dans E).

Corollaire 1.1.7 Soient F et G deux s.e.v de E. E = F G si et seulement si E = F + G et


F \ G = f0g.

Théorème 1.1.8 Soient E un e.v. de dimension n et F un s.e.v. de E.


1) F admet un supplémentaire dans E.
2) Si G1 et G2 sont deux supplémentaires de F dans E, alors G1 et G2 sont des e.v. isomorphes.

Exemple : E = R3 , F = vect(e1 ; e2 ); G1 = V ect(e3 ); G2 = V ect(u), où e1 = (1; 0; 0);


e2 = (0; 1; 0); e3 = (0; 0; 1) et u = (1; 1; 1). Alors, on a E = F G1 = F G2 :

1.2 Théorème du rang


Théorème 1.2.1 (Théorème du rang) Soient E un e.v. de dimension …nie, F un e.v. et
f : E ! F une application linéaire.
1) Si G est un supplémentaire de ker f dans E, alors G et Im f sont isomorphes.
2) dim E = dim ker f + rgf:

Théorème 1.2.2 (Théorème de Grassmann) Soient F et G deux s.e.v. de E.


Si F + G est de dimension …nie, alors dim(F + G) = dim F + dim G dim(F \ G):

Exemple : E = R3 ; F = vect(v1 ; v2 ); G = vect(w1 ; w2 ); où v1 = (1; 0; 2); v2 = (1; 2; 2);


w1 = (1; 1; 0) et w2 = (0; 1; 1). Comme 2 dim(F + G) 3, alors 1 dim(F \ G) 2 et
ainsi dim(F \ G) = 1, en e¤et, si dim(F \ G) = 2, alors F \ G = F , car F \ G est un s.e.v de F et F
est aussi de dimension 2, et ainsi F G ce qui est faux (par exemple, v1 2 = G).
On peut aussi véri…er directement que u = (1; 3; 2) est une base de F \ G.

6
Chapitre 2

Algèbre des endomorphismes d’un


espace vectoriel

2.1 Dé…nitions et propriétés


Soit F un espace vectoriel. On note LK (E; F ), ou simplement L(E; F ), l’ensemble des applications
linéaires de E dans F. En particulier, si E = F , L(E; E) est noté L(E):
Si f; g 2 L(E; F ), on dé…nit f + g : E ! F , (f + g)(x) = f (x) + g(x); 8x 2 E. Alors,
f + g 2 L(E; F ):
Si 2 K et f 2 L(E; F ), on dé…nit :f : E ! F , ( :f )(x) = :f (x), 8x 2 E. Alors,
:f 2 L(E; F ):
Soit G un espace vectoriel. Si f 2 L(E; F ) et g 2 L(F; G), alors g f 2 L(E; G).

Proposition 2.1.1 Soit F un espace vectoriel.


1) (L(E; F ); +; :) est un espace vectoriel. Si de plus, E et F sont de dimensions …nies, alors
L(E; F ) est de dimension …nie et on a dim(L(E; F )) = dim E: dim F:
2) (L(E); +; ) est un anneau unitaire.

Dé…nition 2.1.2 Soit (E; +; :) un K-e.v muni d’une deuxième loi interne notée . On dit que
(E; +; :; ) est une K-algèbre si :
- (E; +; ) est un anneau unitaire.
- 8 2 K; 8x; y 2 E; :(x y) = ( :x) y = x ( :y):
* On dit que E est une K-algèbre commutative si est commutative.
* On dit que E est une K-algèbre intègre si l’anneau (E; +; )est intègre.

Exemples :
1) C est une R-algèbre commutative et intègre.
2) (K[X]; +; :; ) est une K-algèbre commutative et intègre.

Théorème et Dé…nition 2.1.3


1) (Mn (K); +; :; ) est une K-algèbre appelée l’algèbre des matrices carrées d’ordre n à coe¢ cients
dans K.
2) (L(E); +; :; ) est une K-Algèbre appelée l’algèbre des endomorphismes de E.

Remarque 2.1.4
1) Si n 2, alors Mn (K) est une K-algèbre non commutative et non intègre.
2) Soit E un K-e.v de dimension n. Si n 2, alors L(E) est une K-algèbre non commutative et
non intègre.

7
Proposition et Dé…nition 2.1.5
1) L’ensemble des automorphismes de E, noté GL(E) ou Aut(E), muni de , est un groupe appelé
groupe linéaire de l’espace vectoriel E.
2) L’ensemble des matrices carrées d’ordre n à coe¢ cients dans K inversibles, noté GL(n; K) ,
muni de la multiplication, est un groupe appelé groupe linéaire.

2.2 Projecteurs
Dé…nition 2.2.1 Soit p 2 L(E). On dit que p est un projecteur ou p est idempotent si p2 = p.

Remarque 2.2.2 Soit p 2 L(E). p est un projecteur si et seulement si la restriction de p à Im p est


égale à idIm p .

Exemples :
1) Soit p 2 L(R3 ) dé…ni par p(x; y; z) = (3x 2z; x + y + z; 3x 2z). Alors, p est un projecteur.
2) Soit p1 2 L(R3 ) dé…ni par p1 (x; y; z) = (x; y; 0) et p2 2 L(R3 ) dé…ni par p2 (x; y; z) = (0; y; z).
Alors, p1 et p2 sont des projecteurs tandis que p1 + p2 n’est pas un projecteur.

Proposition et Dé…nition 2.2.3 Soient F et G deux s.e.v. supplémentaires dans E. On appelle


projection sur F parallèlement à G l’endomorphisme pF de E dé…ni par pF (x) = u, avec x = u + v,
u 2 F et v 2 G.

Exemple : On a R2 = F G, où F = V ect(e1 ) et G = V ect(u); e1 = (1; 0) et u = (1; 1). Alors,


pF : R2 ! R2 ; (x; y) 7 ! (x y; 0) est la projection sur F parallèlement à G.

Théorème 2.2.4 Soit p 2 L(E).


1) Si F et G sont deux s.e.v. supplémentaires dans E et p est la projection sur F parallèlement à
G, alors p est un projecteur, Im p = F et ker p = G.
2) Si p est un projecteur, alors E = ker p Im p et p est la projection sur Im p parallèlement à
ker p.

Théorème 2.2.5 Soient E1 ; :::; Em des s.e.v. de E. Alors, les propositions suivantes sont équiva-
lentes :
L
m
1) E = Ei .
i=1
2) Il existe des projecteurs p1 ; :::; pm 2 L(E) avec Ei = Im pi ; 8i = 1; :::; m; et tels que p1 +:::+pm =
idE et pi pj = 0 si i 6= j:

Exemple : R2 = F G, où F = R:e1 , G = R:e2 et (e1 ; e2 ) est la base canonique de R2 . Alors,


pF (x; y) = (x; 0); pG (x; y) = (0; y) et on a pF + pG = id et pF pG = pG pF = 0:

2.3 Symétries
Dans cette section, on suppose que carK 6= 2.

Dé…nition 2.3.1 Soit s 2 L(E).On dit que s est une involution ou s est involutif si s2 = idE :

Remarque 2.3.2 Si s 2 L(E) est une involution, alors s 2 GL(E):

8
Exemples :
1) Soit s : R3 ! R3 ; (x; y; z) ! (x; y; z). Alors, s est une involution.
2) Soient s1 : R3 ! R3 ; s1 (x; y; z) = (x; y; z) et s2 : R3 ! R3 ; s2 (x; y; z) = ( x; y; z). Alors,
s1 et s2 sont deux involutions de R3 , mais s1 + s2 n’est pas une involution.

Proposition et Dé…nition 2.3.3 Soient F et G deux s.e.v. supplémentaires dans E. On appelle


symétrie d’axe F et de direction G, ou symétrie par rapport à F et parallèlement à G, l’endomorphisme
sF de E dé…ni par s(x) = u v, avec x = u + v 2 E, u 2 F et v 2 G.

Exemple : On a R3 = F G, où F = V ect(e1 ; e2 ), G = V ect(e3 ) et (e1 ; e2 ; e3 ) est la base


canoniqe de R3 . Alors, sF : R3 ! R3 ; (x; y; z) ! (x; y; z) est la symétrie d’axe F et de direction
G.

Théorème 2.3.4 Soit s 2 L(E).


1) Si F et G sont deux s.e.v. supplémentaires dans E et s est la symétrie d’axe F et de direction
G, alors s est une involution.
2) Si s est une involution, alors E = ker(s id) ker(s + id) et s est la symétrie d’axe ker(s id)
et de direction ker(s + id).

Théorème 2.3.5 Soient F et G deux s.e.v. supplémentaires dans E et s; p et q des endomorphismes


de E.
1) Si p (resp. q) est la projection sur F parallèlement à G (resp. la projection sur G parallèlement
à F), alors s = p q est la symétrie d’axe F et de direction G.
2) Si s est la symétrie d’axe F et de direction G, alors p = id+s id s
2 (resp. q = 2 ) est la projection
sur F parallèlement à G (resp. la projection sur G parallèlement à F).

9
Chapitre 3

Multilinéarité

3.1 Groupe Symétrique


Soient A = f1; :::; ng et Sn l’ensemble des bijections de A vers A.
On appelle permutation tout élément de Sn . La composition des applications est une loi de
composition interne sur Sn .

Théorème et Dé…nition 3.1.1 (Sn ; ) est un groupe d’ordre n! appelé groupe symétrique.

Notation :
1 2 3 ::: n
1) Si 2 Sn , on note = .
(1) (2) (3) ::: (n)
2) On note e l’identité de Sn :
3) Soient 1 ; 2 2 Sn . On note 1 2 = 1 2 et ainsi le groupe Sn est noté multiplicativement.
Exemples :
1 2 3
1) La permutation = 2 S3 est la permutation de f1; 2; 3g dé…nie par (1) =
2 1 3
2; (2) = 1 et (3) = 3:
1 2
2) S2 = fe; g:
2 1
1 2 3 1 2 3 1 2 3
3) Soient 1 = ; 2= 2 S3 . Alors, 1 2 = .
2 1 3 2 3 1 1 3 2

Remarque 3.1.2 Si n 3, alors Sn est un groupe non commutatif.

Dans le reste de cette section, On suppose que n 2.

Dé…nition 3.1.3 Soient i1 ; i2 :::; ik , où k 2, des éléments distincts de f1; :::; ng. La permutation
de Sn , notée = (i1 i2 :::ik ) et dé…nie par : (i1 ) = i2 ; (i2 ) = i3 ; :::; (ik 1 ) = ik ; (ik ) = i1 et
(j) = j pour tout j 2
= fi1 ; i2 :::; ik g,est appelée un cycle de longueur k (ou un k-cycle).
Un cycle = (ij) de longeur 2 est appelé une transposition et est notée = ij = (ij).

Exemples :
1) Dans S4 , le 3-cycle (234) est la permutation de S4 dé…nie par (1) = 1; (2) = 3; (3) = 4 et
(4) = 2:
2) Dans S4 , la transposition (12) est la permutation de S4 dé…nie par (1) = 2; (2) = 1; (3) = 3
et (4) = 4:
3) S3 = fe; (12); (13); (23); (123); (132)g:
4) Soit le k-cycle = (i1 i2 :::ik ) 2 Sn , alors 1 = (i i
k k 1 :::i2 i1 ).
5) Si = (ij) 2 Sn , alors 1 = :

10
Dé…nition 3.1.4 Dans Sn , deux cycles c1 = (i1 i2 :::ik ) et c2 = (j1 j2 :::jm ) sont dits disjoints si
fi1 ; i2 ; :::; ik g et fj1 ; j2 ; :::; jm g sont disjoints.

Théorème 3.1.5 Dans Sn , toute permutation se décompose en un produit de transpositions.

Dé…nition 3.1.6 Soient 2 Sn et i; j 2 f1; :::; ng tels que i < j. On dit que (i; j) est une inversion
de si (j) < (i):

Notation : Soit 2 Sn . On note I( ) le nombre des inversions de .

Dé…nition 3.1.7 On appelle signature de le nombre ( 1)I( ) noté ( ) = ( 1)I( ) .

Dé…nition 3.1.8 Soit 2 Sn . On dit que une permutation paire (resp. impaire) si ( ) = 1 (resp.
( ) = 1).

Exemples :
1 2 3 4 5 6
1) On considère la permutation = 2 S6 . Alors, = (26)(34).
1 6 4 3 5 2
2) On considère le k-cycle c = (i1 i2 :::ik ) 2 Sn . Alors, c = (i1 i2 )(i2 i3 ):::(ik 1 ik ) = (i1 ik )(i1 ik 1 ):::(i1 i2 ):
1 2 3 4 5 6
3) On considère la permutation = 2 S6 : (2; 3) est une inversion de ,
1 6 4 3 5 2
I( ) = 8, ( ) = 1 et ainsi est une permutation paire.

Proposition 3.1.9 Toute transposition est une permutation impaire.


Q (j) (i)
Proposition 3.1.10 Soit 2 Sn . Alors, ( ) = j i :
1 i<j n

(3 2)(4 2)(1 2)(4 3)(1 3)(1 4)


Exemple : Soit = (1234) 2 S4 , alors ( ) = (2 1)(3 1)(4 1)(3 2)(4 2)(4 3) = 1 et ainsi est
impaire.

Proposition 3.1.11 L’application : Sn ! f 1; 1g, 7 ! ( ) est un homomorphisme de groupes


et ainsi ker est un sous-groupe de Sn .

Dé…nition 3.1.12 Le sous groupe ker de Sn , noté An , est appelé le groupe alterné.

Remarque 3.1.13
1) Si 2 Sn , alors ( 1) = ( ):
2) jAn j = n!
2:

Proposition 3.1.14 Soit 2 Sn . Si = 1 ::: N est une décomposition de en produit de transpo-


sitions i , alors ( ) = ( 1)N :

Exemples :
1 2 3 4 5 6
1) Soit = 2 S6 , alors = (12)(23)(45) et ainsi ( ) = 1:
2 3 1 5 4 6
2) A3 = fe; (123); (132)g:

11
3.2 Applications multilinéaires
Soit p 2 N :

Dé…nition 3.2.1 Soient E1 ; :::; Ep ; F des e.v. et ' : E1 ::: Ep ! F une application. On dit que
' est une application p-linéaire, ou multilinéaire, si ' est linéaire par rapport à chaque variable, i.e.,
8i = 1; :::; p et 8(x1 ; :::; xi 1 ; xi+1 ; :::; xp ) 2 E1 ::: Ei 1 Ei+1 ::: Ep …xés, l’application
'i : Ei ! F; x 7 ! '(x1 ; :::; xi 1 ; x; xi+1 ; :::; xp ) est linéaire.
Si de plus F = K, on dit que ' est une forme p-linéaire.

Remarque 3.2.2
1) Une d’application 1-linéaire n’est autre qu’une application linéaire. Une forme 1-linéaire est
appelée une forme linéaire.
2) Une application (resp. une forme) 2-linéaire est appelée application bilinéaire (resp. forme
bilinéaire).
3) Une application (resp. une forme) 3-linéaire est appelée application trilinéaire (resp. forme
trilinéaire).
4) Soient E1 ; :::; Ep ; F des e.v. et ' : E1 ::: Ep ! F une application p-linéaire.
Si (x1 ; :::; xi 1 ; xi+1 ; :::; xp ) 2 E1 ::: Ei 1 Ei+1 ::: Ep , alors '(x1 ; :::; xi 1 ; 0Ei ; xi+1 ; :::; xp ) = 0F .

Exemples :
1) L’application ' : K p ! K; (x1 ; :::; xp ) 7 ! x1 ::::xp est une forme p-linéaire.
2) L’application ' : Mm;n (K) Mn;p (K) ! Mm;p (K); (A; B) 7 ! A:B est une application
bilinéaire.
Pn
3) L’application ' : K n Kn ! K; (X; Y ) 7 ! xi yi , avec X = (x1 ; :::; xn );
i=1
Y = (y1 ; :::; yn ) 2 K n , est une forme bilinéaire.

Proposition 3.2.3 Soient E1 ; :::; Ep et F des e.v. L’ensemble des applications p-linéaires de
E1 ::: Ep dans F , noté Lp (E1 ::: Ep ; F ) et muni de la somme et de la multiplication par
un scalaire déduites de la somme et de la multiplication par un scalaire dans les Ei , est un K-e.v.

Notation : Si E1 = ::: = Ep = E, alors Lp (E1 ::: Ep ; F ) est noté Lp (E p ; F ) ou simplement


Lp (E; F ).

Dé…nition 3.2.4 Soient F un e.v. et ' 2 Lp (E; F ). On dit que ' est alternée si '(x1 ; :::; xp ) = 0
chaque fois qu’il existe i; j distincts tels que xi = xj :

Proposition 3.2.5 Soient F un e.v. et ' 2 Lp (E; F ).


1) Si ' est alternée et i 6= j, alors '(x1 ; :::; xi ; :::; xj ; :::xp ) = '(x1 ; :::; xj ; :::; xi ; :::xp ):
2) Si K est de caractéristique 6= 2, en particulier si K = R ou C, et ' est telle que
'(x1 ; :::; xi ; :::; xj ; :::xp ) = '(x1 ; :::; xj ; :::; xi ; :::xp ) avec i 6= j, alors ' est alternée.

Proposition 3.2.6 Soient F un e.v. et ' 2 Lp (E; F ) alternée, alors 8 2 Sp ; 8(x1 ; :::; xp ) 2 E p ;
'(x (1) ; :::; x (p) ) = ( )'(x1 ; :::; xp ):

Proposition 3.2.7 Soient (x1 ; :::; xp ) 2 E p ; F un e.v.et ' 2 Lp (E; F ).


1) Si ' est alternée, alors '(x1 ; :::; xp ) reste inchangée si on ajoute à un vecteur xi une combi-
naison linéaire des autres vecteurs xj tels que j 6= i.
2) Si ' est alternée et (x1 ; :::; xp ) est liée, alors '(x1 ; :::; xp ) = 0:

12
3.3 Application aux déterminants :
Soit A = (aij )1 i;j n 2 Mn (K). On rappelle qu’en utilisant une récurrence sur n, on dé…nit det A
de la manière suivante :
* Si n = 1, i.e. A = (a), on pose det(A) = a:
Pn
* Si n > 1, on pose det(A) = ( 1)1+j a1j det A1j , où Aij est la matrice obtenue à partir de A
j=1
en rayant la ieme j eme
ligne et la colonne.
Soient E un e.v de dimension n, B = (e1 ; :::; en ) une base de E, (u1 ; :::; un ) une famille de n vecteurs
de E et M(u1 ; :::; un ; B) = A = (aij ) 2 Mn (K) la matrice de la famille (u1 ; :::; un ) relativement à
la base B. On rappelle que detB (u1 ; :::; un ) = det(A) et ainsi si A 2 Mn (K), alors det A est le
déterminant de ses vecteurs colonnes dans la base canonique de K n :
On rappelle aussi que si A = (C1 ; :::; Cn ), où C1 ; :::; Cn sont les vecteurs colonnes de A dans la
base canonique de K n , alors
1) Si Cj = Cj1 + Cj2 , alors det(A) = det(C1 ; :::; Cj1 + Cj2 ; :::; Cn ) = det(C1 ; :::; Cj1 ; :::; Cn ) +
det(C1 ; :::; Cj2 ; :::; Cn ):
2) Si 2 K, alors det(C1 ; :::; Cj ; :::; Cn ) = det(C1 ; :::; Cn ):
3) Si Cj = Ck avec j 6= k, i.e. deux colonnes de A sont égales, alors det(A) = 0:
4) det(In ) = 1:

Dé…nition 3.3.1 Soient E un e.v de dimension n, B une base de E et B : E n ! K; (x1 ; :::; xn ) 7 !


B (x1 ; :::; xn ) une application. On dit que B est un déterminant dans la base B si :
1) B est une forme n-linéaire alternée.
2) B (B) = 1:

Théorème 3.3.2 (Existence) Soient E un e.v de dimension n et B une base de E. l’application


detB : E n ! K; (x1 ; :::; xn ) 7 ! detB (x1 ; :::; xn ) est un déterminant.

Théorème 3.3.3 (Unicité) Soient E un e.v de dimension n et B une base de E. SiPl’application B :


E n ! K; (x1 ; :::; xn ) 7 ! B (x1 ; :::; xn ) est un déterminant, alors B (x1 ; :::; xn ) = ( )a (1)1 :::a (n)n ,
2Sn
n
X
avec pour tout j = 1; :::; n; xj = aij ei .
i=1

Corollaire 3.3.4 Soient E un e.v de dimension n, B = (e1 ; :::; en ) une base de E et x1 ; :::; xn des vec-
n
X P
teurs de E tels que pour tout j = 1; :::; n; xj = aij ei . Alors, detB (x1 ; :::; xn ) = ( )a (1)1 :::a (n)n :
i=1 2Sn

P
Corollaire 3.3.5 Soit A = (aij )1 i;j n 2 Mn (K). Alors, det(A) = ( )a (1)1 :::a (n)n :
2Sn

Théorème 3.3.6 Soit A 2 Mn (K). Alors, det(t A) = det(A):

13
Université Mohammed V de Rabat 2020-2021
Faculté des Sciences M17 - SMA -
Département de Mathématiques S3-Algèbre IV

Série 1
Compléments : Sommes directes et déterminants

Dans tout cette série et sauf mention contraire le symbole K désignera le corps R ou C.

Exercice 1: Soit K un corps commutatif de caractéristique Carct(K) 6= 2. On désigne par Sn (K)


(resp. An (K)) le sous ensemble des matrices symétriques (resp. antisymétriques) de l’espace des
matrices carrées d’ordre n à coefficients dans K, Mn (L
K). Montrer que Sn (K) et An (K) sont des sous-
espaces vectoriels de Mn (K) et que Mn (K) = Sn (K) An (K).

Exercice 1: Soit E un K-espace vectoriel de dimension dimK ( E) ≥ 2.


que si Ei ; i = 1, 2, · · · , m, est une colletion de m sous-espace vectoriel de E telle que la
(1) Vérifier L
somme im=1 Ei est directe, alors Ei ∩ Ej = {0} pour tout i 6= j.
(2) Montrer par un contre example que l’implication inverse est fausse si m > 2.

Exercice 3: Soit E un K espace vectoriel de dimension finie ou non.


(1) Montrer que toute forme linéaire ϕ sur E non-identiquement nulle est surjective.
(2) Soit H = ker( ϕ) un hyperplan de E i.e., un sous-espace vectoriel H de E pour lequel il existe une
forme linéaire non nulle ϕ telle que H = ker( ϕ).
(a) Soit a un vecteur de E n’appartenant pas à H. Montrer que pour tout x ∈ E, il existe
λ ∈ K tel que ϕ( x − λa) = 0. En déduire que E = H ⊕ Vect( a).
(b) On suppose que F est un sous-espace vectoriel de E contenant H. Montrer F = H ou
F = E.
(c) On suppose dans cette question que E est dimension finie n ≥ 1. Soit F un sous-espace
vectoriel de E, distinct de E. Montrer que F peut s’écrire comme une intersection d’un
nombre fini d’hyperplans.

Exercice 4: Calculer les déterminants suivants



x a b x a a a a
1 1 1 a b c
a x x b a b b b
a b c ; ; c a b ; ,
b x x a a b c c

b+c a+c a+b b c a
x b a x a b c d



1 1 1


1 cos(θ ) cos(2θ )

cos( ϕ) cos(φ) cos(ψ) ; cos(θ ) cos(2θ ) cos(3θ ) .

sin( ϕ) sin(φ) sin(ψ) cos(2θ ) cos(3θ ) cos(4θ )

Exercice 5 (Déterminant de Vandermonde): Montrer que

1 x1 x12 · · · x1n−1


1 x2 x22 · · · x2n−1


Vn ( x1 , · · · , xn ) = = ∏ ( x i − x j ).

.. .. .. . . ..

. . . . . 1≤ j < i ≤ n

1 x n x n · · · x n −1
2 n
2

Exercice 6: Soit P( X ) = X n + an−1 X n−1 + · · · + a1 X + a0 un polynôme unitaire de K[ X ]. On appelle


matrice de Frobenius associée (ou encore matrice compagnon) de P la matrice définie par:
 
0 0 · · · 0 − a0
 1 0 · · · 0 − a1 
 
 0 1 · · · 0 − a2 
CP =   ∈ Mn ( K ) .
 .. . . .. . ..
. ..

 . . . 
0 · · · 0 1 − a n −1
Calculer det( XIn − CP ).

Exercice 7 (Déterminant par blocs):


(1) Soient A ∈ Mm (K), B ∈ Mm,n (K) et D ∈ Mn (K). Montrer que
 
A B
det = det( A) det( D ).
0 D
En déduire que pour A, B ∈ Mn (R), on a
   
A −B A −B
det = det( A − B) det( A + B) et det = |det( A + iB)|2 .
B A B A
(2) Soient A, B, C, D ∈ Mn (K) et supposons que D est inversible et que les matrices C et D com-
mutent. Montrer que  
A B
det = det( AD − BC ).
C D

Exercice 8 (La comatrice et le déterminant): On appelle comatrice d’une matrice A ∈ Mn (K) la


matrice C ( A) = (cij )1≤i,j≤n des cofacteurs de A définie par:
cij := (−1)i+ j det( Ai,j ).
Ai,j étant la matrice obtenue à partir de A en éliminant la ième ligne et la jème colonne. Montrer que
toute matrice A ∈ Mn (K) vérifie
Aṫ C ( A) = t C ( A) Ȧ = det( A) In .

Vous aimerez peut-être aussi