Vous êtes sur la page 1sur 93

Université de Franche-Comté

Laboratoire Mathématiques de Besançon

L2 - Licence de Mathématiques
Année 2020 - 2021

Polynômes et algèbre linéaire

Responsable de cours pour l’année 2020/2021


Hassan Oukhaba
Sommaire

1 Rappels sur les espaces vectoriels 3


1.1 Espaces Vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3 Applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.4 Parties génératrices, parties libres, bases . . . . . . . . . . . . . . . . 6
1.5 Lien avec les applications linéaires . . . . . . . . . . . . . . . . . . . . 8
1.6 matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.7 Matrices d’une application linéaire . . . . . . . . . . . . . . . . . . . 10
1.8 Symétries et projecteurs . . . . . . . . . . . . . . . . . . . . . . . . . 12

2 Polynômes 15
2.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.2 Division euclidienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.3 Idéaux et pgcd de polynômes . . . . . . . . . . . . . . . . . . . . . . 19
2.4 Polynômes premiers entre eux et polynômes irréductibles . . . . . . . 21
2.5 Racines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.6 Polynômes irréductibles de C[X] et R[X] . . . . . . . . . . . . . . . . 29
2.7 Fractions rationnelles . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.8 Décomposition en éléments simples d’une fraction rationnelle . . . . . 31
2.9 Décomposition en éléments simples dans le cas K = C ou K = R . . 34

3 Formes linéaires et dualité 37


3.1 Formes linéaires, dual d’un espace vectoriel . . . . . . . . . . . . . . . 37
3.2 Bidual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.3 Orthogonalité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.4 Hyperplans et formes linéaires . . . . . . . . . . . . . . . . . . . . . . 44
3.5 Équations d’un sous-espace vectoriel . . . . . . . . . . . . . . . . . . 45
3.6 Transposée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.7 Interprétation matricielle de la transposition . . . . . . . . . . . . . . 48

1
2 SOMMAIRE

4 Déterminant 51
4.1 Introduction au groupe symétrique . . . . . . . . . . . . . . . . . . . 51
4.2 Formes p-linéaires et formes alternées . . . . . . . . . . . . . . . . . . 54
4.3 Déterminants : définitions et premières propriétés . . . . . . . . . . . 58
4.4 Déterminant d’un endomorphisme . . . . . . . . . . . . . . . . . . . . 62
4.5 Déterminant d’une matrice carrée . . . . . . . . . . . . . . . . . . . . 63
4.6 Calcul du déterminant . . . . . . . . . . . . . . . . . . . . . . . . . . 64
4.7 Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68

5 Exercices 75
5.1 Familles libres, familles génératrices, bases . . . . . . . . . . . . . . . 75
5.2 Noyaux et images d’applications linéaires . . . . . . . . . . . . . . . . 76
5.3 Matrices d’applications linéaires . . . . . . . . . . . . . . . . . . . . . 76
5.4 Somme d’espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . 77
5.5 Projections, symétries . . . . . . . . . . . . . . . . . . . . . . . . . . 77
5.6 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
5.7 Division euclidienne, divisibilité, PGCD, Algorithme d’Euclide . . . . 78
5.8 Racines, formule de Taylor, multiplicité . . . . . . . . . . . . . . . . . 80
5.9 Polynômes irréductibles . . . . . . . . . . . . . . . . . . . . . . . . . 81
5.10 Formes linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
5.11 Bases duales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
5.12 Orthogonalité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
5.13 Application transposée . . . . . . . . . . . . . . . . . . . . . . . . . . 87
5.14 Calcul de déterminants . . . . . . . . . . . . . . . . . . . . . . . . . . 89
5.15 Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
Chapitre 1

Rappels sur les espaces vectoriels

L’étudiant doit connaı̂tre les notions suivantes d’algèbre linéaire : espace vecto-
riel, sous-espace vectoriel, famille libre, famille génératrice, base, application linéaire,
matrice, etc. Dans ce chapitre rudimentaire, nous donnons quelques rappels élémentaires
de ces notions.

Dans toute la suite, sauf mention du contraire, K est un corps et dans la plupart
des cas, on aura K = Q, R ou C.

1.1 Espaces Vectoriels


Définition 1.1. Un espace vectoriel E sur le corps K est un ensemble E muni
d’une opération interne :
E × E −→ E
(x, y) 7−→ x + y
et d’une opération externe :

K × E −→ E
(λ, x) 7−→ λx

vérifiant les huit propriétés suivantes :


(A1 ) pour tout x, y, z dans E, (x + y) + z = x + (y + z) (associativité) ;
(A2 ) pour tout x, y, dans E, x + y = y + x (commutativité) ;
(A3 ) il existe un élément noté 0E (ou simplement 0) dans E avec x+0 = 0+x = x
pour tout x dans E (élément neutre) ;
(A4 ) pour tout x dans E, il existe un élément −x dans E avec x + (−x) =
(−x) + x = 0 (opposé de x) ;
(A5 ) pour tout x dans E, 1x = x ;

3
4 Rappels sur les espaces vectoriels

(A6 ) pour tout λ, µ dans K et pour tout x dans E, (λ + µ)x = λx + µx (distri-


butivité) ;
(A7 ) pour tout λ dans K et pour tout x, y dans E, λ(x + y) = λx + µy (distri-
butivité) ;
(A8 ) pour tout λ, µ dans K et pour tout x dans E, (λµ)x = λ(µx).
On démontre aisément que le neutre 0 et l’opposé d’un élément sont uniques. On
écrit x − y au lieu de x + −y.
Exemples :
- Le corps K est un espace vectoriel sur lui-même.
- Le corps C est un espace vectoriel sur R.
- Pour n ∈ N∗ , K n muni de l’addition des vecteurs et de la multiplication des
scalaires est un espace vectoriel.
- L’ensemble des applications de R dans R muni des deux opérations f + g : x 7→
f (x) + g(x) et λf : x 7→ λf (x) est un espace vectoriel sur R. On le note F(R, R).

La proposition suivante est une conséquence immédiate des propriétés d’un espace
vectoriel.
Proposition 1.2. Soit E un K-espace vectoriel. Pour tout λ, µ dans K et pour tout
x, y dans E, on a :

λ(x − y) = λx − λy ;
(λ − µ)x = λx − µx ;
λ(−x) = (−λ)x = −λx ;
(−1)x = −x ;
λx = 0 si et seulement si λ = 0 ou x = 0.

1.2 Sous-espaces vectoriels


Définition 1.3. Soit E un K-espace vectoriel. Une partie F ⊂ E non vide est un
sous-espace vectoriel de E si F est un espace vectoriel sur K pour les opérations
induites par celles de E.
Proposition 1.4. Soit E un K-espace vectoriel. Une partie F ⊂ E non vide est un
sous-espace vectoriel de E si et seulement si pour tout λ, µ dans K et tout x, y dans
F , on a λx + µy ∈ F .
En particulier, si F est un espace vectoriel alors 0 ∈ F .
Exemples :
Applications linéaires 5

- Si E est un K-espace vectoriel, {0} et E sont des sous-espaces vectoriels (appelés


sous-espaces vectoriels triviaux).
- L’ensemble K × {0} est un sous-espace vectoriel de K 2 .
- Le sous-ensemble de fonctions continues de R dans R est un sous-espace vectoriel
de F(R, R).
Proposition 1.5. Soit E un K-espace vectoriel. Soient F1 et F2 deux sous-espaces
vectoriels alors

F1 + F2 = {x1 + x2 : x1 ∈ F1 , x2 ∈ F2 } et F1 ∩ F2

sont des sous-espaces vectoriels de E. De plus, F1 + F2 est le plus petit sous-espace


vectoriel (pour l’inclusion) qui contient F1 ∪ F2 .
Il n’est pas vrai en général que F1 ∪ F2 est un sous-espace vectoriel. En fait,
F1 ∪ F2 est un sous-espace vectoriel de E si et seulement si F1 ⊂ F2 ou F2 ⊂ F1 .
On étend la proposition précédente à la somme d’un nombre fini quelconque de
sous-espaces vectoriels et à l’intersection d’une famille quelconque de sous-espaces
vectoriels.
Proposition 1.6. Soit E un espace vectoriel et soient F1 , F2 deux sous-espaces
vectoriel de E. Les assertions suivantes sont équivalentes :
- pour tout x dans E, il existe x1 ∈ F1 et x2 ∈ F2 uniques tels que x = x1 + x2 ;
- on a E = F1 + F2 et F1 ∩ F2 = {0}.
Définition 1.7. Dans les conditions de la proposition précédente, on dit que F1 et
F2 sont supplémentaires et on note

E = F1 ⊕ F2 .

Exemples :
- Dans R2 , on pose F1 = R × {0} et F2 = {0} × R. On a R2 = F1 ⊕ F2 .
- On a C = R ⊕ iR.
- Dans F(R, R), on pose Fp (R, R) le sous-espace vectoriel des fonctions paires et
Fi (R, R) celui des fonctions impaires. On a F(R, R) = Fp (R, R) ⊕ Fi (R, R).

1.3 Applications linéaires


Définition 1.8. Soient E et F deux K-espaces vectoriels. Une application f : E →
F est appelée application linéaire si pour tout λ, µ dans K et tout x, y dans E, on
a f (λx + µy) = λf (x) + µf (y).
6 Rappels sur les espaces vectoriels

Une telle application s’appelle un morphisme d’espaces vectoriels. L’ensemble des


applications linéaires de E dans F se note L(E, F ), c’est un K-espace vectoriel
(comme sous-espace vectoriel des applications de E dans F ).
On remarque également que pour f ∈ L(E, F ), on a f (0E ) = f (0F ) (égalité que l’on
peut écrire sans confusion f (0) = 0).
Soit f ∈ L(E, F ), si f est bijective alors on dit que f est un isomorphisme de E dans
F . On remarque alors que l’application réciproque f −1 : F → E est un isomorphisme
de F dans E (i.e. f −1 est aussi une application linéaire).
On écrit L(E) au lieu de L(E, E). Si f ∈ L(E) est bijective, on dit que f est un
automorphisme de E. Le sous-ensemble de L(E) des automorphismes de E se note
GL(E) et est appelé groupe linéaire de E.

Définition 1.9. Soient E et F deux K-espaces vectoriels et soit f ∈ L(E, F ). On


appelle noyau de f l’ensemble

ker f = {x ∈ E : f (x) = 0} ⊂ E.

On appelle image de f , l’ensemble Imf = {f (x) : x ∈ E} ⊂ F .

Il est facile de vérifier que le noyau de f est un sous-espace vectoriel de E et que


l’image de f est un sous-espace vectoriel de F .

Proposition 1.10. Soient E et F deux K-espaces vectoriels et soit f ∈ L(E, F ).


Alors f est injective si et seulement si ker f = {0} et f est surjective si et seulement
si Imf = F .

1.4 Parties génératrices, parties libres, bases


Définition 1.11. Soit E un K-espace vectoriel et soit (xi )1≤i≤p une famille de
vecteurs de E. Une combinaison linéaires des (xi )1≤i≤p est un vecteur de E de la
forme
p
X
λ i xi
i=1

où les (λi )1≤i≤p sont des scalaires (i.e ; λi ∈ K).

Si (xi )1≤i≤p une famille de vecteurs de E alors l’ensemble des combinaisons linéaires
des (xi )1≤i≤p : ( p )
X
F = λi xi : λi ∈ K pour tout 1 ≤ i ≤ p
i=1
Parties génératrices, parties libres, bases 7

est un sous-espace vectoriel de E. C’est le plus petit sous-espace vectoriel (pour


l’inclusion) qui contient tous les vecteurs (xi )1≤i≤p . On dit F est le sous-espace
vectoriel engendré par les (xi )1≤i≤p ou que (xi )1≤i≤p est une famille génératrice de
F . On note F = h(xi )1≤i≤p i.
Définition 1.12. Soit E un espace vectoriel. On dit que la famille (xi )1≤i≤p est
génératrice si E est engendré par les (xi )1≤i≤p . De plus si E est engendré par une
famille finie de vecteurs, on dit que E est de dimension finie.
Définition 1.13. Soit E un espace vectoriel. Une famille finie (xi )1≤i≤p de E est
dite libre si pour tout λi ∈ K, 1 ≤ i ≤ p on a
p
X
λi xi = 0 ⇒ λi = 0 pour tout 1 ≤ i ≤ p.
i=1

Une famille non libre est dite liée.


Définition 1.14. Soit E un espace vectoriel. Une famille finie (xi )1≤i≤p de E est
Cela signifie aussi que pour tout x ∈ E,
une base de E si elle est libre et génératrice.P
il existe des (λi )1≤i≤p uniques tels que x = pi=1 λi xi .
Exemple : Prenons E = K n et posons e1 = (1, 0, · · · , 0), e2 = (0, 1, 0, · · · , 0), · · · ,
en = (0, 0, · · · , 1). Alors (e1 , e2 , · · · , en ) est une base : elle s’appelle la base canonique
de K n .

Si E est un espace vectoriel de dimension finie, on montre que E possède des bases
et que toutes les bases de E ont le même cardinal.
Définition 1.15. Soit E un espace vectoriel de dimension finie, on appelle dimen-
sion de E le cardinal d’une de ses bases, on la note dim E.
Si (xi )1≤i≤p est une famille finie de E, on appelle rang des (xi )1≤i≤p la dimension du
sous-espace vectoriel engendré par les (xi )1≤i≤p . On note le note rg(xi )1≤i≤p .
On a le théorème suivant :
Théorème 1.16 (De la base incomplète). Soit E un espace vectoriel de dimension
finie. Soient L une famille libre de E et G une partie génératrice de E, alors il existe
H ⊂ G tel que B = H ∪ L soit une base de E.
Proposition 1.17. Soit E un espace vectoriel et soit (xi )1≤i≤n est une famille
génératrice de E. Les assertions suivantes sont équivalentes :
- la famille (xi )1≤i≤n est une base de E ;
- la famille (xi )1≤i≤n est libre ;
- on a dim E = rg(xi )1≤i≤n = n.
8 Rappels sur les espaces vectoriels

Les propriétés précédentes permettent de démontrer les propositions suivantes :


- Soit E un espace vectoriel de dimension n. Toute famille d’au moins n + 1 vecteurs
est liée. Toute famille libre possède au plus n vecteurs. Toute famille génératrice
possède au moins n vecteurs. Une famille libre (resp. génératrice) de n vecteurs est
une base de E.
- Un K-espace vectoriel de dimension n est isomorphe à K n . Deux K-espaces vec-
toriels sont isomorphes si et seulement si ils ont la même dimension.
- Si F est un sous-espace vectoriel d’un espace vectoriel E de dimension n alors
dim F ≤ n et on a a dim F = n si et seulement F = E.
- Si E = F1 ⊕ F2 est un espace vectoriel de dimension finie alors dim E = dim F1 +
dim F2 .
- Si E et F sont deux espaces vectoriels de dimension finie alors L(E, F ) est de
dimension finie et dim L(E, F ) = dim E × dim F .

Soit E un K-espace vectoriel de dimension n et soit B = (x1 , x2 , · · · , xn ) une base


de E. Pour x ∈ E, il existe alors un unique vecteur (λ1 , λ2 , · · · , λn ) ∈ K n tel que
n
X
x= λi xi .
i=1

Définition 1.18. Avec les notations précédentes, on dit que (λ1 , λ2 , · · · , λn ) ∈ K n


sont les coordonnées de x dans la base B.
Remarque : On fera particulièrement attention à ne pas confondre un vecteur de
K n avec ses coordonnées (qui dépendent de la base choisie). Plus précisément, soit
x=P (λ1 , λ2 , · · · , λn ) ∈ K n alors si (e1 , e2 , · · · , en ) est la base canonique de K n on a
x = ni=1 λi ei et (λ1 , λ2 , · · · , λn ) sont les coordonnées de x dans la base canonique ;
elles coı̈ncident avec les composantes du vecteur v. Ce n’est pas le cas dans les autres
bases de K n . Par exemple, prenons dans K 2 :

f1 = (1, 1) et f2 = (1, −1)

alors (f1 , f2 ) est une base de K 2 et le vecteur x = f1 + f2 a pour coordonnées (1, 1)


dans cette base. D’un autre côté, x = (2, 0) et (2, 0) sont les composantes de x.

1.5 Lien avec les applications linéaires


Théorème 1.19 (Du rang). Soient E, F deux K-espaces vectoriels et f ∈ L(E, F ).
On suppose que E est de dimension finie alors

dim E = dim ker f + dim Imf.


matrices 9

On note rg f = dim Imf .

Corollaire 1.20. Soient E, F deux K-espaces vectoriels de même dimension et


f ∈ L(E, F ). Les assertions suivantes sont équivalentes :
- l’application f est bijective ;
- l’application f est injective ;
- l’application f est surjective ;
- on a rg f = dim E ;
- l’image par f d’une base de E est une base de F .

1.6 matrices
Définition 1.21. Soient n, p ∈ N∗ . Un tableau d’éléments de K de n lignes et p
colonne est appelée une matrice à n lignes et p colonnes. Si M est une telle matrice
et si mi,j est l’élément de M situé à la i-ième ligne et p-ième colonne et on écrit

M = (mi,j )1≤i≤n .
1≤j≤p

On note Mn,p (K) l’ensemble des matrices à n lignes et p colonnes d’éléments de


K. Cet ensemble est naturellement un K-espace vectoriel pour les opérations d’ad-
dition des matrices et la multiplication par un scalaire λ ∈ K (composante par
composante). On note Ek,` ∈ Mn,p (K) la matrice définie par

ek,` = 1
Ek,` = (ei,j )1≤i≤n avec .
1≤j≤p ei,j = 0 si (i, j) 6= (k, `)

Alors (Ei,j )1≤i≤n,1≤j≤p est une base de Mn,p (K), appelée base canonique. Il vient
alors dim Mn,p (K) = np.

Dès que les nombres des lignes et des colonnes sont compatibles, on dispose aussi
du produit matriciel :

Mn,p (K) × Mp,k (K) → Mn,k (K)


(A, B) 7→ AB.

Il n’est en général pas commutatif, c’est-à-dire que en général AB 6= BA.

Définition 1.22. Soit M ∈ Mn,p (K). On appelle rang de M le rang du sous-espace


vectoriel de K n engendré par les vecteurs colonnes de M . Il est noté rg M .

On note Mn (K) = Mn,n (K) et on désigne par In ∈ Mn (K) la matrice identité de


taille n.
10 Rappels sur les espaces vectoriels

Définition 1.23. Soit M ∈ Mn (K). Elle est dite inversible s’il existe M 0 ∈ Mn (K)
telle que M M 0 = M 0 M = In (l’une des deux conditions M M 0 = In ou M 0 M = In
suffit). Dans ce cas, la matrice M 0 est unique, appelée inverse de M et on la note
M −1 .
Si M et N sont deux matrices inversibles de Mn (K), M N est inversible et
(M N )−1 = N −1 M −1 . L’ensemble des matrices inversibles de Mn (K) se note GLn (K)
(pour groupe linéaire). On remarque qu’en général la matrice M + N n’est pas in-
versible.
Proposition 1.24. Soit M ∈ Mn (K). On a équivalence entre :
- la matrice M est inversible ;
- on a rg M = n ;
- les vecteurs colonnes de M forment une base (ou une famille libre ou une
famille génératrice) de K n .

1.7 Matrices d’une application linéaire


Définition 1.25 (Matrice d’une application linéaire relativement à des bases). Soit
f ∈ L(E, F ) avec dim E = p et dim F = n. Soient B = (e1 , · · · , ep ) une base de
E et B 0 = (f1 , · · · , fn ) une base de F . La matrice de f dans les bases B et B 0
est la matrice M = M atB,B 0 (f ) ∈ Mn,p (K) dont les colonnes sont données par les
coordonnées de f (v1 ), . . . , f (vp ) dans la base B 0 .
P
Cette notion permet de représenter l’application linéaire f . Écrivons x = i λi e i
0
P
dans la base B et f (x) = j µj fj dans la base B . Alors on a
   
µ1 λ1
 ..   .. 
 .  = M  . .
µn λp

La donnée de la matrice M suffit pour retrouver la valeur prise par f en n’importe


quel vecteur. On passe en revue quelques propriétés des matrices d’applications
linéaires, en gardant les notations précédentes.
Proposition 1.26. Soient E et F deux K-espaces vectoriels de dimension finie.
- Si M = M atB,B 0 (f ) avec f ∈ L(E, F ), alors rg f = rg M .
- Soient f ∈ L(E, F ) et g ∈ L(F, G) et BE , BF et BG des bases de E, F et G
respectivement. Alors

M atBE ,BG (g ◦ f ) = M atBF ,BG (g)M atBE ,BF (f ).


Matrices d’une application linéaire 11

- Soit f ∈ L(E, F ) avec dim E = dim F = n. Alors f est un isomorphisme si


et seulement si la matrice de f dans n’importe quelles bases de E et F est
inversible.
Soient B, C des bases de E et B 0 , C 0 des bases de F . Soit f ∈ L(E, F ). On
note M atB,B 0 (f ) la matrice de f dans B et B 0 (dans les  anciennes bases ) et
M atC,C 0 (f ) la matrice de f dans C et C 0 (dans les  nouvelles bases ). Soit P
la matrice de passage de B à C : celle dont les colonnes sont les coordonnées des
vecteurs de la nouvelle base C dans l’ancienne base B. La matrice P est inversible.
De même on note Q la matrice de passage de B 0 à C 0 .
Théorème 1.27 (Changement de base). On a

M atC,C 0 (f ) = Q−1 M atB,B 0 (f )P.

Dans le cas particulier où f est un endomorphisme de E, B = B 0 (ancienne base),


C = C 0 (nouvelle base) et P la matrice de passage de B à C alors

M atC (f ) = P −1 M atB (f )P,

où on a noté M atC (f ) (resp. M atB (f )) au lieu de M atC,C (f ) (resp. M atB,B (f )).
Cela permet de donner les définitions suivantes.
Définition 1.28. Deux matrices M, N ∈ Mn,p (K) sont équivalentes si il existe deux
matrices inversibles P ∈ GLp (K) et Q ∈ GLn (K) telles que N = Q−1 M P .
Autrement dit, deux matrices sont équivalentes si et seulement si elles représentent la
même application linéaire dans des bases différentes. Être équivalente est une relation
d’équivalence de Mn,p (K). La méthode du pivot de Gauss permet de caractériser les
classes d’équivalence pour cette relation. En effet :
Théorème 1.29. Une matrice M ∈ Mn,p (K) est de rang r si et seulement si elle
est équivalente à la matrice définie par blocks suivante :
 
Ir 0
.
0 0

Définition 1.30. Deux matrices M, N ∈ Mn (K) sont semblables si il existe une


matrice inversible P ∈ GLn (K) telle que N = P −1 M P .
Autrement dit, deux matrices sont semblables si et seulement si elles représentent
le même endomorphisme dans des bases différentes. Être semblable est une relation
d’équivalence de Mn (K). L’étude des classes d’équivalence pour cette relation fait
partie du domaine de la réduction des endomorphismes et sera traitée au prochain
semestre.
12 Rappels sur les espaces vectoriels

1.8 Symétries et projecteurs


Définition 1.31. Soit E = F1 ⊕ F2 une décomposition du K-espace vectoriel E en
somme directe. L’application linéaire
s: E = F1 ⊕ F2 −→ E
x = x1 + x2 7−→ x1 − x2

s’appelle la symétrie (linéaire) par rapport à F1 parallèlement à F2 .


Soit s une symétrie comme dans la définition ci-dessus alors on a s ◦ s = idE et s est
donc une application bijective (sa fonction réciproque étant s elle-même). De plus,
pour x ∈ E, on a s(x) = x si et seulement si x ∈ F1 .

F2

x2 x

0 F1
x1
−x2 s(x)

Figure 1.1 – Symétrie par rapport à F1 parallèlement à F2

Proposition 1.32. Soit s ∈ L(E) avec s2 = idE alors s est la symétrie par rapport
ker(s − idE ) parallèlement à ker(s + idE ).
Démonstration. On remarque que x ∈ ker(s − idE ) si et seulement si s(x) = x et
que x ∈ ker(s + idE ) si et seulement s(x) = −x. Il faut vérifier tout d’abord que
ker(s − idE ) et ker(s + idE ) sont deux sous-espaces vectoriels supplémentaires, en
effet pour tout x ∈ E, on a
x + s(x) x − s(x)
x= +
2 2
x+s(x) x−s(x)
avec x1 = 2
∈ ker(s − idE ) et x2 = 2
∈ ker(s + idE ). Cela montre que

E = ker(s − idE ) + ker(s + idE ).


Symétries et projecteurs 13

Le théorème du rang assure que la somme directe (ou encore x ∈ ker(s−idE )∩ker(s+
idE ) vérifie que s(x) = x = −x donc x = 0 et l’intersection est réduite à l’élément
neutre de E). Enfin, avec l’écriture de x précédente, on a bien que s(x) = x1 − x2
d’où le résultat.
Remarque : de façon générale, une application f : X → X telle que f 2 = idX
s’appelle une involution de l’ensemble X. Une involution est une bijection.
Proposition 1.33. Soit s ∈ L(E) une involution. Il existe une base B, de E telle
que la matrice de s dans la base B soit donnée par la matrice par block suivante :
 
Ip 0
M atB (s) =
0 −Iq

où p = dim ker(s − idE ) et q = dim ker(s + idE ).


Démonstration. Il suffit de prendre B = (e1 , · · · , ep , f1 , · · · , fq ) où (e1 , · · · , ep ) est
une base de ker(s − idE ) et (f1 , · · · , fq ) est une base de ker(s + idE ).
Définition 1.34. Soit E = F1 ⊕ F2 une décomposition du K-espace vectoriel E en
somme directe. L’application linéaire

p: E = F1 ⊕ F2 −→ E
x = x1 + x2 7−→ x1

s’appelle la projection (linéaire) sur F1 parallèlement à F2 .


Soit p une projection comme dans la définition ci-dessus alors on a p ◦ p = p. De
plus, pour x ∈ E, on a p(x) = x si et seulement si x ∈ F1 et p(x) = 0 si et seulement
si x ∈ F2 .
Proposition 1.35. Soit p ∈ L(E) avec p2 = p alors p est la projection sur Im(p) =
ker(p − idE ) parallèlement à ker(p).
Démonstration. On montre tout d’abord que Im(p) = ker(p − idE ). Soit x ∈ Im(p)
alors il existe y ∈ E tel que x = p(y). On a alors p(x) = p2 (y) = p(y) = x et
x ∈ ker(p − idE ). Réciproquement, si x ∈ ker(p − idE ) alors p(x) = x et x ∈ Im(p).
Ensuite, on a E = Im(p) ⊕ ker(p). En effet, l’intersection est réduite à l’élément
neutre : soit x ∈ Im(p) ∩ ker(p) alors d’une part p(x) = x et d’autre part p(x) = 0
donc x = 0. Le théorème du rang assure que l’on a bien E = Im(p) ⊕ ker(p) (ou
encore, on peut écrire x = p(x)+x−p(x) avec p(x) ∈ Im(p) et x−p(x) ∈ ker(p)).
Remarque : de façon générale, une application f : X → X telle que f 2 = f s’ap-
pelle un projecteur.
14 Rappels sur les espaces vectoriels

Proposition 1.36. Soit p ∈ L(E) un projecteur. Il existe une base B, de E telle


que la matrice de p dans la base B soit donnée par la matrice par block suivante :
 
Ir 0
M atB (s) =
0 0s

où r = dim ker(p − idE ) et s = dim ker(p).

Théorème 1.37. Soit p ∈ L(E). Les assertions suivantes sont équivalentes :


(i) l’application p est un projecteur ;
(ii) l’application s = 2p − idE est une symétrie.

Démonstration. Si p est un projecteur alors s ◦ s = (2p − idE ) ◦ (2p − idE ) =


4p2 − 4p + idE = idE car p2 = p. Réciproquement si s est une symétrie alors en
écrivant p = 21 (s + idE ) on a p ◦ p = 14 (s2 + 2s + idE ) = 21 (s + idE ) car s2 = idE d’où
p2 = p et le résultat.

F2

x2 x

0 F1
p(x) = x1
−x2 s(x)

Figure 1.2 – Symétrie et projection associées


Chapitre 2

Polynômes

La notion de polynôme a déjà été vue et utilisée les années précédentes. Dans ce
chapitre, il s’agit de formaliser les définitions. La lettre K désigne un corps commu-
tatifs (typiquement K = Q, R ou C).

2.1 Définitions
Définition 2.1. On appelle polynôme à coefficients dans K à une indéterminée une
suite d’élément de K P = (a0 , a1 , · · · , an , · · · ) telle que tous les éléments ai sont nuls
à partir d’un certain rang (cela revient au même de demander qu’il n’y ait qu’un
nombre fini de i ≥ 0 avec ai 6= 0).
On dit que les ai sont les coefficients de P . On note K[X] l’ensemble des polynômes
à une indéterminée à coefficients dans K.
M
D’un point de vue plus formel, on pourrait écrire K[X] = K.
n∈N

Théorème 2.2. On munit K[X] des opérations suivantes. Soient P = (a0 , a1 , · · · ),


Q = (b0 , b1 , · · · ) et λ ∈ K, on pose

P + Q = (a0 + b0 , a1 + b1 , · · · ) (addition) ;
λP = (λa0 , λa1 , · · · ) (multiplication par un scalaire) ;
Xn
P Q = (d0 , d1 , · · · ) avec dn = ak bn−k (multiplication).
k=0

Alors K[X] munit de l’addition et la multiplication par un scalaire est un espace


vectoriel sur K. La multiplication des polynômes est commutative, associative et
distributive par rapport à l’addition.

15
16 Polynômes

Démonstration. On vérifie aisément que (K[X], +, ·) satisfait les huit axiomes d’un
espace vectoriel. L’élément neutre est 0 = (0, 0, · · · ) et l’opposé du polynôme P est
−P = (−a0 , −a1 , · · · ). La multiplication des polynômes est commutative, en effet
n
X X n
X
ak bn−k = ai b j = an−k bk .
k=0 i,j∈N k=0
i+j=n

Elle est aussi associative. En effet, soient P = (a0 , a1 , · · · ), Q = (b0 , b1 , · · · ) et R =


(c0 , c1 , · · · ) trois polynômes, il s’agit de montrer que (P Q)R = P (QR). On a
X X X X
(P Q)R = (e0 , e1 , · · · ) avec en = d i cj = ak b l c j = ak bl cj .
i+j=n i+j=n k+l=i k+l+j=n

De la même façon, on a X
P (QR) = aj b k c l .
j+k+l=n

On vérifie facilement la distributivité : P (Q + R) = P Q + P R.


On a donc que K[X] est un espace vectoriel. On pose E0 = (1, 0, 0, · · · ), E1 =
(0, 1, 0, · · · ), · · · En = (0, · · · , 1, 0 · · · ) où le 1 est placé en (n + 1)-ième position. Il
est facile de vérifier que (En )n∈N) est une base de K[X] qui est donc un K-espace
vectoriel de dimension infinie. Ainsi, tout polynôme P ∈ K[X] s’écrit de façon
unique X
P = ak Ek
k≥0

où les ak ∈ K sont tous nuls à partir d’un certain rang.


Proposition 2.3. Pour n ≥ 1, on a E1n = En (pour la multiplication des po-
lynômes).
Démonstration. On démontre la proposition par récurrence. Pour n = 1, c’est trivial.
Si on a E1k = Ek alors E1k+1 = E1 E1k = E1 Ek . La définition de la multiplication entre
deux polynômes donne E1 Ek = Ek+1 .
Ainsi, en posant X = E1 et en convenant que E10 = E0 , tout polynôme P s’écrit
de façon unique X
P = ak X k .
k≥0

On peut également identifier K dans K[X] en  confondant  α ∈ K avec le


polynôme αE0 . On remarque que si P est un polynôme, αP peut être vu soit comme
la multiplication par un scalaire soit comme le produit de deux polynômes.
Définitions 17

Définition 2.4. Soit P = a0 + a1 X + · · · + an X n ∈ K[X] avec an 6= 0. On dit que


P est de degré n et on note deg P = n. Ainsi, deg P est les plus grand entier n ∈ N
tel que an 6= 0. Le coefficient an est le coefficient dominant de P et si an = 1, on dit
que P est unitaire. Le terme ak X k s’appelle le monôme de degré k de P .
Remarques :
- Par convention, le degré du polynôme nul est −∞.
- Lorsque deg P = 0, on a P = a0 avec a0 6= 0. On dit que le polynôme P est
constant.
- Lorsque deg P = 0, on a P = aX + b avec a 6= 0. On dit que P est linéaire.
Proposition 2.5. On :
- pour P, Q ∈ K[X], deg(P + Q) ≤ max{deg P, deg Q} et si deg P 6= deg Q
alors deg(P + Q) = max{deg P, deg Q} ;
- pour P, Q ∈ K[X], deg(P Q) = deg P + deg Q.
Démonstration. Le premier point est évident. Notons que l’on peut avoir deg(P +
Q) < max{deg P, degPQ} lorsque les coefficients
P` dominants s’annulent. Pour la mul-
k k
tiplication, si P = k=0 nak X et Q = k=0 bk X avec an 6= 0 et b` 6= 0 (i.e.
deg P = n et deg Q = `) alors le monôme de plus haut degré de P Q est an b` X n+`
et deg P Q = n + `.
Remarque : les règles ci-dessus sous-entendent que l’on fait les calculs dans N ∪
{−∞} avec la convention n + −∞ = −∞ pour tout n ∈ N ∪ {−∞}. Les propriétés
sur le degré permettent de démontrer la proposition suivante.
Proposition 2.6. Soient P et Q deux polynômes de K[X], alors :
- si P Q = 0 alors P = 0 ou Q = 0 ;
- si P Q = 1 alors deg P = deg Q = 1.
Démonstration. Pour le premier point, on note que si P Q = 0 alors deg P Q = −∞
donc deg P + deg Q = −∞ et deg P = −∞ ou deg Q = −∞. Pour le deuxième
point, on note que si P Q = 1 alors deg P Q = 0 et ainsi deg P = deg Q = 0.
Remarques :
- Le premier point de la proposition affirme que l’anneau K[X] est intègre.
- Pour P, Q et R trois polynômes avec R 6= 0, on a P R = QR si et seulement
si P = Q. En effet, si P R = QR on a (P − Q)R = 0 et donc P − Q = 0 ou
R = 0, comme R 6= 0, on en déduit que P = Q. On ne peut pas diviser l’expression
P R = QR par R puisque l’inverse de R n’est pas un polynôme en général.
Proposition 2.7. Soit n ∈ N, l’ensemble des polynômes de K[X] de degré ≤ n est
un sous-espace vectoriel de K[X] (considéré comme espace vectoriel) de dimension
n + 1. Une base est donnée par (1, X, · · · , X n ).
18 Polynômes

Démonstration.
Pn Un polynôme P est de degré ≤ n si et seulement si il est de la forme
k
P = k=0 ak X .

Remarque : Le sous-espace vectoriel des polynômes de degré ≤ n se note Kn [X].

2.2 Division euclidienne


Théorème 2.8. Soient A et B deux polynômes de K[X] avec B 6= 0 alors il existe
un unique couple de polynômes (Q, R) avec deg R < deg B tel que

A = BQ + R.

Le polynôme Q (resp. R) s’appelle le quotient (resp. le reste) de la division eucli-


dienne de A par B.

Démonstration. Pour l’existence, on considère l’ensemble E = {deg(A − BP ) : P ∈


K[X]}. Cet ensemble est non-vide et est un sous-ensemble de N ∪ {−∞} ; il possède
donc un élément minimal, r. Soit Q un polynôme tel que deg(A − BQ) est minimal.
Alors deg(A − BQ) < deg B. En effet, sinon on pose an X n (resp. b` X ` ) le monôme
de plus haut degré de A − BQ (resp. B) et le polynôme (A − BQ) − abn` X n−` B est de
degré < deg A − BQ) ce qui contredit la minimalité de r. On a donc A = BQ + R
avec R = A − QB de degré < deg B.
Pour l’unicité : soient (Q1 , R1 ) et (Q2 , R2 ) deux couples de polynômes avec deg R1 <
deg B, deg R2 < deg B et A = BQ1 +R1 = BQ2 +R2 . Il vient B(Q1 −Q2 ) = R2 −R1
et

deg B+deg(Q1 −Q2 ) = deg B(Q1 −Q2 ) = deg(R1 +R2 ) ≤ max{deg R1 , R2 } < deg B,

On a donc forcément deg(Q1 − Q2 ) = −∞, i.e. Q1 = Q2 et R1 = R2 .

Remarques :
- on dit alors que K[X] est un anneau euclidien (Z est également un anneau euclidien
avec sa division euclidienne classique) ;
- en td, nous reverrons des méthodes pour calculer le quotient et le reste d’une
division euclidienne ;
- lorsque deg A < deg B, la division euclidienne est donnée par A = B · 0 + A.

Définition 2.9. Soient A et B deux polynômes de K[X]. On dit que B divise A si


il existe un polynôme Q ∈ P [X] tel que A = BQ. Dans ce cas, on note B | A.
Idéaux et pgcd de polynômes 19

Remarque :
- Avec la définition précédente, on a 0 divise 0 (i.e. le polynôme nul divise le polynôme
nul) et plus généralement tout polynôme divise le polynôme nul ;
- Un polynôme constant non-nul divise tous les les polynômes.
- Si B est un polynôme non-nul alors B divise A si et seulement si le reste de la
division euclidienne de A par B est le polynôme nul.
- Le polynôme X + i divise le polynôme X 2 + 1 dans C[X] mais pas dans R[X].

2.3 Idéaux et pgcd de polynômes


Définition 2.10. Un idéal I de K[X] est un ensemble non-vide qui vérifie :
- pour tout P, Q ∈ I, P + Q ∈ I ;
- pour tout P ∈ I et tout Q ∈ K[X], P Q ∈ I.

Remarque :
- En particulier, un idéal I de K[X] est un sous-espace vectoriel de K[X].
- On remarque que pour un idéal I de K[X], on a I = K[X] si et seulement si il
existe un polynôme constant non-nul dans I.

Théorème 2.11. Les idéaux I de K[X] sont de la forme I = P K[X] où P ∈ K[X]
i.e. un idéal I est constitué de l’ensemble des multiples de P .

Démonstration. Un sous-ensemble de la forme P K[X] est clairement un idéal de


K[X]. Réciproquement, soit I un idéal de K[X]. Si I = {0} alors I = 0K[X] sinon
soit P un polynôme non-nul de I de degré minimal, on note d = deg P . Montrons
que I = P K[X]. Il est clair que P K[X] ⊂ I par la deuxième propriété définissant
un idéal. Réciproquement, soit A ∈ I, la division euclidienne de A par P donne
A = P Q + R avec deg R < d. Puisque A ∈ I et que P ∈ I, on a A − P Q ∈ I donc
R ∈ I et par minimalité de d, in vient R = 0 donc A ∈ P K[X].

Proposition 2.12. Soient I = AK[X] et J = BK[X] deux idéaux de K[X] alors


AK[X] ⊂ BK[X] si et seulement si B divise A.

Démonstration. C’est évident.

En particulier, on remarque que AK[X] = BK[X] si et seulement si A | B et B | A


si et seulement si il existe λ ∈ K ∗ tel que A = λB. Dans ce cas on dit que les
polynômes A et B sont associés.
On en déduit que si I est un idéal non nul de K[X], il existe un unique polynôme
unitaire A tel que I = AK[X].
20 Polynômes

Définition 2.13. Soient A et B deux polynômes de K[X] alors AK[X] + BK[X]


est un idéal de K[X], il existe donc un polynôme D ∈ K[X] tel que

AK[X] + BK[X] = DK[X].

Un tel polynôme est appelé plus grand diviseur commun de A et B, il est défini à
multiplication par une constante non-nulle près, on note D = pgcd(A, B).

Proposition 2.14. Soient A, B et Q trois polynômes de K[X]. ON a pgcd(A, B) =


pgcd(B, A − BQ).

Démonstration. Il suffit de noter que BK[X] + (A − BQ)K[X] = AK[X] + BK[X],


d’où le résultat.
Remarque : La proposition précédente permet de calculer le pgcd de deux po-
lynômes par divisions euclidiennes successives : il s’agit de l’algorithme d’Euclide
qui sera vu en td.

Proposition 2.15. Soient A et B deux polynômes de K[X] et soit D ∈ K[X] alors


D est un pgcd de A et B si et seulement si les deux propositions suivantes sont
vérifiées :
- le polynôme D divise A et B ;
- si D0 ∈ K[X] divise A et B alors D0 divise D.

Démonstration. Si D = pgcd(A, B). Alors AK[X]+BK[X] = DK[X] donc AK[X] ⊂


DK[X] et D divise A, de même D divise B. Soit D0 ∈ K[X] tel que D0 divise A et B
alors AK[X] ⊂ D0 K[X] et BK[X] ⊂ D0 K[X] donc DK[X] = AK[X] + BK[X] ⊂
D0 K[X] et D0 | D.
Réciproquement, supposons que D vérifie les deux propriétés de la proposition. Par le
premier point, on a AK[X] ⊂ DK[X] et BK[X] ⊂ DK[X] donc pgcd(A, B)K[X] =
AK[X] + BK[X] ⊂ DK[X] et D divise pgcd(A, B). D’autre part, pgcd(A, B) divise
A et B donc par le deuxième point on a pgcd(A, B) divise D. On en déduit que D
et pgcd(A, B) sont associés et que D est un pgcd de A et B.

Théorème 2.16. Soient A et B deux polynômes de K[X], il existe deux polynômes


U et V tels que
AU + BV = pgcd(A, B)

Démonstration. C’est immédiat par la définition du pgcd.


Remarques :
- le calcul des polynômes U et V peut se faire grâce à l’algorithme d’Euclide étendu.
Il serra vu en td.
Polynômes premiers entre eux et polynômes irréductibles 21

- La réciproque du théorème précédent est fausse en général. Si AU + BV = D


alors D n’est pas forcément un pgcd de A et B. Cependant D est un multiple de
pgcd(A, B).

On étend sans mal la définition pour plus de trois polynômes :

pgcd(A1 , A2 , · · · , An ) = pgcd(pgcd(A1 , A2 ), A3 , · · · , An ),

ou bien, de façon équivalente :

A1 K[X] + A2 K[X] + · · · An K[X] = pgcd(A1 , A2 , · · · , An )K[X].

Si D = pgcd(A1 , A2 , · · · , An ) alors D divise chacun des Ai et si D0 divise Ai pour


tout i alors D0 divise D.

Proposition 2.17. Soient A1 , A2 , · · · , An des polynômes de K[X] et D = pgcd(A1 , A2 , · · · , An )


alors il existe U1 , U2 , · · · , Un ∈ K[X] tels que

A1 U1 + A2 U2 + · · · + An Un = D.

On peut faire une étude similaire pour le ppcm de deux polynômes.

Définition 2.18. Soient A et B deux polynômes de K[X] alors AK[X] ∩ BK[X]


est un idéal de K[X], il existe donc un polynôme P ∈ K[X] tel que

AK[X] ∩ BK[X] = P K[X].

Un tel polynôme est appelé plus petit multiple commun de A et B, il est défini à
multiplication par une constante non-nulle près, on note P = ppcm(A, B).

Proposition 2.19. Soient A et B deux polynômes de K[X] et soit P ∈ K[X] alors


P est un ppcm de A et B si et seulement si les deux propositions suivantes sont
vérifiées :
- le polynôme P est un multiple de A et B ;
- si P 0 ∈ K[X] est un multiple de A et B alors P 0 est un multiple de P .

Démonstration. Similaire à celle de la Proposition 2.15

2.4 Polynômes premiers entre eux et polynômes


irréductibles
Définition 2.20. Soient A et B deux polynômes de K[X], on dit que A et B sont
premiers entre eux si pgcd(A, B) = 1.
22 Polynômes

Théorème 2.21 (de Bezout). Deux polynômes A et B de K[X] sont premiers entre
eux si et seulement si il existe U, V ∈ K[X] tels que
AU + BV = 1
Démonstration. Si A et B sont premiers entre eux alors 1 = pgcd(A, B) et le
Théorème 2.16 permet de conclure. Réciproquement, si 1 = AU + BV alors on
a pgcd(A, B) | 1 or 1 | pgcd(A, B) donc 1 et pgcd(A, B) sont associés d’où le
résultat.
Corollaire 2.22. Soient A et B deux polynômes de K[X] et supposons que D =
pgcd(A, B) est non-nul( i.e. A et B ne sont pas tous les deux nuls) alors A/D et
B/D sont premiers entre eux.
Démonstration. Il suffit de diviser la relation AU + BV = D par D.
Lemme 2.23 (de Gauss). Soient A, B et C trois polynômes de K[X] tels que A
divise BC et A est premier avec B alors A divise C.
Démonstration. Puisque A et B sont premiers entre eux, il existe U et V tels que
AU + BV = 1 donc ACU + BCV = C or, A divise ACU et par hypothèse A divise
BCV donc A divise C.
Corollaire 2.24. Soient A, B et C trois polynômes de K[X] avec A et B premiers
entre eux. Si A et B divise C alors AB divise C.
Démonstration. On a par hypothèse C = AQ pour un certain polynôme Q. Or, B
divise C = AQ et B est premier avec A donc B divise Q et Q = BQ0 pour une
certain polynôme Q0 . Il vient C = ABQ0 et AB divise C.
Définition 2.25. Un polynôme P ∈ K[X] est irréductible dans K[X] s’il est non-
constant et si ses seuls diviseurs dans K[X] sont les polynômes constants et les
polynômes associés à P , i.e. si P = AB entraı̂ne que A ou B est un polynôme
constant.
Un polynôme P n’est pas irréductible si et seulement si on peut écrire P = AB
avec deg A ≥ 1 et deg B ≥ 1.
Proposition 2.26. Un polynôme de degré 1 est irréductible. Un polynôme de degré
2 ou 3 est irréductible si et seulement si il n’est divisible par aucun polynôme de
degré 1.
Démonstration. La première assertion est immédiate. Montrons la deuxième asser-
tion pour un polynôme P . Si P est irréductible, il n’est pas divisible par un polynôme
de degré 1. Réciproquement, si P n’est pas irréductible alors on peut écrire P = AB
avec deg A, deg B ≥ 1. Comme deg P = deg A + deg B, l’hypothèse que deg P = 2
ou 3 entraı̂ne que A ou B est de degré 1.
Polynômes premiers entre eux et polynômes irréductibles 23

Remarques :
- Un polynôme de degré 4 peut être divisible
√ par deux polynômes
√ de degré 2. Par
exemple dans R[X], X 4 + 1 = (X 2 + 2X + 1)(X 2 − 2X + 1) et X 4 + 1 n’est
divisible par aucun polynôme de degré 1.
- La notion d’irréductibilité dépend du corps K dans lequel on se place. Le polynôme
X 2 + 1 est irréductible dans R[X] mais pas dans C[X] : X 2 + 1 = (X − i)(X + i).

Proposition 2.27. Soient A et P deux polynômes de K[X] avec P irréductible, si


P ne divise pas A alors A et P sont premiers entre eux.

Démonstration. Soit D = pgcd(A, P ). Alors D est un diviseur de P . Si D est associé


à P alors P divise A ce qui est contraire à l’hypothèse. On a donc que D est un
polynôme constant et A et P sont premiers entre eux.

Proposition 2.28. Soit A un polynôme de K[X] de degré ≥ 1 alors A est divisible


par un polynôme irréductible.

Démonstration. On procède par récurrence sur le degré de A. Si deg A = 1 alors A


est irréductible est A divise A. Soit A un polynôme de degré n. Si A est irréductible
alors A est divisible un polynôme irréductible, à savoir A lui-même. Sinon, A = BC
avec deg B ≥ 1 et deg C ≥ 1, on a donc 1 ≤ deg B, deg C < n et par hypothèse de
récurrence B est divisible par un polynôme irréductible donc A aussi.

Lemme 2.29. d’Euclide Soient A, B deux polynômes de K[X] et P un polynôme


irréductible de K[X] alors si P divise AB on a P divise A ou B.

Démonstration. On suppose que P divise AB. Si P ne divise pas A alors il est


premier avec A et le lemme de Gauss entraı̂ne que P divise B.

Théorème 2.30. Soit A ∈ K[X] un polynôme de degré ≥ 1. Il existe c ∈ K ? ,


P1 , P2 , · · · , Pr , r polynômes irréductibles unitaires et deux à deux distincts et il existe
α1 , α2 , · · · , αr , r entiers naturels non nuls tels que
r
Y
A=c Piαi .
i=1

De plus, cette décomposition est unique à l’ordre des facteurs irréductibles près.

Démonstration. On démontre l’existence et l’unicité par récurrence sur le degré de


A. Si A est irréductible alors on écrit A = c( 1c A) où c est le coefficient dominant de
A. Cette écriture en produit d’irréductible est unique car 1c A est le seul polynôme
irréductible unitaire divisant A. Si A n’est pas irréductible alors il est divisible par
24 Polynômes

A
un polynôme irréductible (unitaire) P . Par récurrence, P
s’écrit de façon unique
comme un produit d’irréductibles
r
A Y
=c Piαi
P i=1

0 0α0 Q0 0α0
et donc A = cP ri=1 Piαi . Si A = c0 i = 1r Pi i alors P divise le produit c0 ri=1 Pi i
Q Q
et donc P divise l’un des Pi0 et P est l’un des Pi0 . Quitte à réordonner les fac-
0 Q0 0α0
teurs, on peut supposer que P = P10 et A = c0 P P αi −1 ri=2 Pi i . Par unicité de la
décomposition de PA , on en déduit que c = c0 , r = r0 puis que l’ensemble des couples
(Pi , αi ) pour 1 ≤ i ≤ r et égal à l’ensemble des couples (Pi0 , αi0 ) pour 1 ≤ i ≤ r.
Remarques :
- La décomposition du théorème précédent s’appelle la décomposition en produit
d’irréductible. On dit alors que K[X] est anneau factoriel.
- Quitte à autoriser des exposants nuls dans la décomposition en irréductibles, on
peut écrire pour tout polynôme A :
Y
A=c P vP (A)
P unitaire

où le produit sur l’ensemble des polynômes irréductibles unitaires de K[X] et où
vP (A) ∈ N. Dans ce produit, les vP (A) sont tous nuls sauf pour un nombre fini de
polynômes irréductibles.
Définition 2.31. Avec les notations précédentes, le nombre vP (A) s’appelle la va-
luation de A en P . Le nombre vP (A) est caractérisé par le fait que P vP (A) divise P
et que P vP (A)+1 ne divise pas P .
Corollaire 2.32. Soient A et B deux polynômes de K[X], on a
Y
pgcd(A, B) = P min {vP (A),vP (B)} .
P unitaire

2.5 Racines
Définition 2.33. Soit P = nk=0 ak X k un polynôme de K[X] et soit x ∈ K, on
P
définit l’élément P (x) ∈ K par
n
X
P (x) = ak x k .
k=0

L’application P̃ : K → K, x 7→ P (x) s’appelle fonction polynôme associée à P .


Racines 25

Remarque : Il ne faut pas confondre le polynôme avec la fonction polynôme


associée. Le premier est une expression algébrique et la deuxième est une fonction
(avec espace de départ, d’arrivée). Le polynôme détermine la fonction polynôme
associée mais la réciproque est fausse en général : il existe des corps dans lesquels
des polynômes non-nuls dont les fonctions polynômes associées sont identiquement
nulles (K = Z/pZ où p est un nombre premier et P = X p − X).

Proposition 2.34. Soient P, Q deux polynômes. On a


- pour tout x ∈ K, (P + Q)(x) = P (x) + Q(x) ;
- pour tout x ∈ K, (PQ)(x) = P(x)Q(x).

Démonstration. C’est une conséquence immédiate des définitions de la somme et du


produit de deux polynômes.

Définition 2.35. Soit P ∈ K[X] un polynôme et c ∈ K. On dit que c est une racine
de P si P (c) = 0

Proposition 2.36. Soit P ∈ K[X] un polynôme et c ∈ K. Alors c est une racine


de P si et seulement si le polynôme X − c divise P .

Démonstration. On effectue la division euclidienne de P par X−c : P = (X−c)Q+R


avec deg R < 1. Le polynôme R est un polynôme constant. On a alors P (c) = R(c)
et c est une racine de P si et seulement si R(c) = 0 si et seulement si R = 0.

Remarques :
- Un polynôme de degré 1 a toujours une racine.
- Un polynôme irréductible de degré ≥ 2 n’a jamais de racine. En particulier, la
Proposition 2.26 peut se reformuler en disant qu’un polynôme de degré ≤ 3 est
irréductible si et seulement si il n’a pas de racine.
- Dire c est une racine de P non-nul revient à dire que le polynômes (X − c) apparaı̂t
dans la décomposition en produit d’irréductibles.

Définition 2.37. La multiplicité de la racine c de P ∈ K[X] est la valuation de P


en X − c. En d’autres termes, la multiplicité de la racine c de P est le plus grand
entier k ∈ N tel que (X − c)k divise P . On dit que c est une racine d’ordre k de P .

Remarques :
- la multiplicité de c de P est nulle si et seulement si c n’est pas une racine de P ;
- la racine c est dite simple (resp. double, resp. triple) si sa multiplicité est égale à
1 (resp. 2, resp. 3) ;
- l’élément 1 est racine double de X 2 + 2X + 1 (ou racine d’ordre 2).
- si P est le polynôme nul alors c est une racine deP d’ordre infini.
26 Polynômes

Proposition 2.38. Soit P un polynôme non-nul de K[X] alors P possède au plus


deg P racines comptées avec multiplicité (i.e. si c est une racine d’ordre k, alors c
est comptée k fois).

Démonstration. Soit (ci )i∈I les racines distinctes de P et (ki )i∈I leur multiplicité
(donc ki ≥ 1 pour tout i ∈ I). Alors (X − ci )ki divise P . De plus, les polynômes
(X − ci )ki sont deux à deux premiers entre eux donc
Y
(X − ci )ki
i∈I

P
divise P . Il vient i∈I ki ≤ deg P . Comme ki ≥ 1, il vient que I est fini et le
résultat.

Remarque : en particulier, la proposition suivante entraı̂ne que si un polynôme P


admet strictement plus de deg P racines (avec multiplicité) alors P est le polynôme
nul.

Corollaire 2.39. Soient P, Q deux polynômes de K[X]. Si K est infini alors P = Q


si et seulement si P̃ = Q̃.

Démonstration. Il s’agit juste de montrer que si P̃ = Q̃ alors P = Q. Or, si P̃ = Q̃


alors le polynôme P − Q possède une infinité de racine donc P = Q.
Pn
Définition 2.40. Soit P = k=0 ak X k un polynôme de K[X]. On définit le po-
lynôme dérivée de P par
n
X
P0 = kak X k−1 .
k=1

Pour i ≥ 0, on note P ( i) le i-ème dérivé du polynôme P : il est défini par récurrence


par :

(i) P si i = 0
P = i−1 0 .
(P ) si i ≥ 1

Proposition 2.41. On a
- pour tout P, Q ∈ K[X], (P + Q)0 = P 0 + Q0 ;
- pour tout P, Q ∈ K[X], (P Q)0 = P 0 Q + Q0 P .

Démonstration. SeulP
le deuxième point mérite unePexplication. Si on écrit P =
k k k
P P
k≥0 ak X et Q = k≥0 bk X alors on a P Q = k≥0 i+j=k ai bj X et il vient
Racines 27

(P Q)0 = ai bj X k−1 = ai bj X k . D’un autre côté


P P P P
k≥1 k i+j=k k≥0 (k − 1) i+j=k−1
! !
X X
0 0 k
P Q + PQ = (k − 1)ak−1 X Q+P (k − 1)bk−1 X k
k≥0 k≥0
X X X X
= (i − 1)ai−1 bj X k + ai (j − 1)bj−1 X k
k≥0 i+j=k, i≥1 k≥0 i+j=k, j≥1
X X X X
= i 0 ai 0 b j X k + ai j 0 b j 0 X k
k≥0 i0 +j=k−1 k≥0 i+j 0 =k−1
X X
= (i + j)ai bj X k
k≥0 i+j=k−1
X X
= (k − 1) ai b j X k
k≥0 i+j=k−1

d’où le résultat.
La formule sur le produit se généralise par récurrence par
n  
(n)
X n
(P Q) = P (k) Q(n−k) ,
k=0
k

où nk = n!
est le coefficient binomial et on obtient aussi (P ` )0 = nP 0 P `−1 pour

k!(n−k)!
` ∈ N.
Théorème 2.42 (Formule de Taylor). On suppose que K est de caractéristique
nulle (en particulier si K = Q, R, C). Si P est un polynôme de degré ≤ n on a pour
tout c ∈ K :
n
X P (k) (c)
P = (X − c)k .
k=0
k!

Démonstration. On pose P0 = 1, P1 = X − c, · · · , Pn = (X − c)n . La famille à


n + 1 éléments (P0 , P1 , · · · , Pn ) est libre (car deg Pi = i) et engendre donc l’espace
vectoriel de dimension n+1 des polynômes de degré au plus n, c’est donc une Pnbase de
cet espace vectoriel et il existe des (λi )0≤i≤n , λi ∈ K uniques tels que P = i=0 λi Pi .
Pour 1 ≤ k ≤ n, on a
Xn
(k) (k)
P = λ i Pi .
i=0

Or Pi0 = iPi−1 et par récurrence :


i
 
(k) i(i − 1) · · · (i − k + 1)Pi−k = k
k!Pi−k si k ≤ i
Pi = .
0 si k > i
28 Polynômes

D’où
n  
(k)
X i
P = λi k!Pi−k
i=0
k
n−1  
X i
= λi k!Pi−k + λk k!P0
i=0
k
n−1  
X i
= (X − c) λi k!(X − c)i−k−1 + λk k!P0
i=0
k

En évaluant la dernière égalité en c, il vient P (k) (c) = λk k! d’où la valeur de λk .


Théorème 2.43. On supposons que K est de caractéristique nulle (en particulier
si K = Q, R, C). Si P est un polynôme non nul, alors c ∈ K est une racine d’ordre
k de P si et seulement si
P (c) = P 0 (c) = · · · = P (k−1) (c) = 0

.
P (k) (c) 6= 0

Démonstration. Si c est une racine d’ordre k alors P = (X − c)k Q avec Q(c) 6= 0.


Pour 0 ≤ ` ≤ k, on a, en reprenant les notations de la preuve du Théorème 2.42 :
`   `   
(`) k (`)
X ` (i) (`−i)
X ` k
P = ((X − c) Q) = Pk Q = i!(X − c)k−i Q(`−i)
i=0
i i=0
i i

Donc si ` < k, on a P (`) (c) = 0 et si k = ` on a P (k) (c) = k!Q(c) 6= 0.


Réciproquement, si on a

P (c) = P 0 (c) = · · · = P (k−1) (c) = 0



,
P (k) (c) 6= 0

alors la formule de Taylor donne


X P (i) (c) X P (i) (c)
P = (X − c)i = (X − c)k (X − c)i−k ,
i≥k
i! i≥k
i!

avec P (k) (c) 6= 0. On en déduit que (X − c)k divise P et que

P X P (i) (c)
= (X − c)i−k
(X − c)k i≥k
i!

et (X − c) ne divise pas P/(X − c)k .


Polynômes irréductibles de C[X] et R[X] 29

2.6 Polynômes irréductibles de C[X] et R[X]


Nous commençons cette partie par le théorème fondamental suivant qui sera
démontré en M1.

Théorème 2.44 (de d’Alembert-Gauss). Le corps C est algébriquement clos i.e.


tout polynôme non constant de C[X] admet au moins une racine.

Corollaire 2.45. Les polynômes irréductibles de C[X] sont les polynômes de degré 1.

Démonstration. On sait déjà que les polynômes de degré 1 sont irréductibles. Réci-
proquement, soit P un polynôme irréductible. Par le théorème précédent, il admet
une racine c ∈ C et donc X − c divise P . Comme P est irréductible, P et X − c sont
associés et deg P = 1.
Remarque : on en déduit que les polynômes irréductibles unitaires de C[X] sont
les polynômes de la forme X − c, c ∈ C et que ces polynômes sont deux à deux non
associés. Ainsi la décomposition d’un polynôme P non-nul en produit d’irréductible
est de la forme : r
Y
P = a (X − ci )ki ,
i=1
Pr
où les ki ≥ 1 sont les ordres des racines ci de P . On a i=1 ki = deg P .

Traitons maintenant le cas de R[X].

Proposition 2.46. Soient P ∈ R[X] et c ∈ C alors c est une racine de P si et


seulement si c̄ est une racine de P .

Démonstration. On écrit P = nk=0 ak X k avec ak ∈ R. On a P (c) = nk=0 ak ck si


P P

et seulement si P (c) = nk=0 ak ck = 0. Or comme ak ∈ R, on a P (c) = nk=0 ak ck ,


P P
d’où le résultat.

Corollaire 2.47. Les polynômes irréductibles de R[X] sont les polynômes de degré
1 et les polynômes de degré 2 sans racine dans R.

Démonstration. On sait déjà que les polynômes de degré et les polynômes de degré
2 sans racine sont irréductibles. Réciproquement, soit P un polynôme de R[X]. Si
P possède une racine c ∈ R alors X − c divise P et P est associé à X − c et
est de degré 1. Sinon, soit c ∈ C une racine de P alors c̄ est une autre racine de
P (dans C[X]). Les polynômes X − c et X − c̄ divisent P et sont premiers entre
eux donc (X − c)(X − c̄) divise P . Or, (X − c)(X − c̄) = X 2 − 2<e(c)X + |c|2
est un polynôme à coefficient réels. Dans C[X], la division euclidienne de P par
X 2 − 2<e(c)X + |c|2 donne P = (X 2 − 2<e(c)X + |c|2 )QC . Dans R[X] la division
30 Polynômes

euclidienne de P par X 2 −2<e(c)X +|c|2 donne P = (X 2 −2<e(c)X +|c|2 )QR +RR .


Par unicité du quotient et du reste de la division euclidienne, on a QC = QR et
RR = 0 donc (X 2 − 2<e(c)X + |c|2 ) divise P dans R[X]. Comme P est irréductible,
P et (X 2 − 2<e(c)X + |c|2 ) sont associés et P est un polynôme de degré 2 sans
racine.
Remarque : un polynôme aX 2 + bX + c de R[X] n’a pas de racine si et seulement
si son discriminant b2 − 4ac est strictement négatif. Ainsi, les polynômes unitaires
irréductibles de R[X] sont les polynômes de la forme X − c, c ∈ R et les polynômes
de la forme X 2 +bX +c, b, c ∈ R avec b2 −4c < 0. On en déduit que la décomposition
d’un polynôme P en produit d’irréductibles est de la forme :
r
Y s
Y
P =a (X − ci )ki (X 2 + bj X + cj )`j
i=1 j=1

où les ki sont les ordres des racines ci de P dans R et les `j sont les valuations de P
en (X 2 + bj X + cj ).

2.7 Fractions rationnelles


Proposition 2.48. La relation (A1 , B1 )R(A2 , B2 ) si A1 B2 = A2 B1 est une relation
d’équivalence sur l’ensemble K[X] × (K[X] \ {0}).
Démonstration. La relation est clairement reflexive et symétrique. Montrons qu’elle
est transitive. On suppose que (A1 , B1 )R(A2 , B2 ) et que (A2 , B2 )R(A3 , B3 ). On
alors A1 B2 = A2 B1 et A2 B3 = A3 B2 . Il vient A1 B2 B3 = A2 B1 B3 = B1 A3 B2 .
Or comme B2 6= 0 et que K[X] est intègre, l’égalité précédente donne A1 B3 = A3 B1
et (A1 , B1 )R(A3 , B3 ).
Définition 2.49. La classe de (A, B) pour la relation d’équivalence R est une frac-
A
tion rationnelle, on la note B . L’ensemble des fractions rationnelles se note K(X).
A
Proposition 2.50. Il existe dans B ∈ K(X) un unique représentant (A0 , B0 ) tel
que A0 et B0 sont premiers entre eux et B0 unitaire. On appelle ce couple (A0 , B0 )
A A0
la forme réduite de B (par abus de notation, on dit aussi que B0
est la forme réduite
A
de B ).
Démonstration. Pour l’existence, soit D = pgcd(A, B) et on pose A = DA0 , B =
DB0 et on suppose (quitte à remplacer D par un de ses polynômes associés) que B0
A
est unitaire. On a alors (A0 , B0 ) ∈ B avec A0 , B0 premiers entre eux.
A
Pour l’unicité, si (A1 , B1 ) est une autre forme réduite de B alors (A1 , B1 )R(A0 , B0 )
et A1 B0 = B1 A0 . Il vient B0 divise B1 A0 et comme A0 et B0 sont premiers entre
Décomposition en éléments simples d’une fraction rationnelle 31

eux, B0 divise B1 . Il existe un polynôme D non nul tel que B1 = DB0 , puisque B1
et B0 sont unitaires, le polynôme D l’est aussi. Il vient alors A1 = DA0 et D divise
A1 et B1 donc D est un polynôme constant unitaire donc D = 1 et A1 = A0 et
B1 = B0 .
A0
Remarque : la preuve de la proposition précédente montre que si B 0
est la forme
réduite d’une rationnelle R ∈ Q(X) alors R = {(CA0 , CB0 ) : C ∈ K[X]}.

Théorème 2.51. L’application K[X] → K(X), P 7→ P1 est une injection. On écrit


simplement P au lieu de P1 . On définit sur K[X] les opérations internes suivantes :

+:  × K(X)
K(X)  −→ K(X)
A1 A2 A1 A2 A1 B2 +A2 B1
,
B1 B2
7−→ B1
+ B2
= B1 B2

·:  × K(X)
K(X)  −→ K(X)
A1 A2 A1 A2 A1 A2
,
B1 B2
7−→ B1
· B2
= B1 B2
.

Ces opérations sont bien définies (le résultat ne dépend pas des représentants choisis
dans les classes d’équivalence) et munissent K(X) d’une structure de corps. En
particulier, 0 = 01 est le neutre pour la loi +, 1 = 11 est le neutre pour la loi · et tout
A A −1
=B

élément B non nul de K(X) (i.e. A 6= 0) possède un inverse pour · : B A
.

Démonstration. La première assertion résulte de la proposition précédente. Mon-


trons que l’addition est bien définie. On suppose que (A1 , B1 )R(A∗1 , B1∗ ) et que
(A2 , B2 )R(A∗2 , B2∗ ). Alors (A1 B2 + A2 B1 , B1 B2 )R(A∗1 B2∗ + A∗2 B1∗ , B1∗ B2∗ ), en effet
(A1 B2 + A2 B1 )B1∗ B2∗ = A1 B1∗ B2 B2∗ + A2 B2∗ B1 B1∗ = A∗1 B1 B2 B2∗ + A∗2 B2 B1 B1∗ =
B1 B2 (A∗1 B2∗ + A∗2 B1∗ ) d’où le résultat. On montre de façon similaire que la mul-
tiplication est bien définie. Les propriétés de commutativité, d’associativité et de
distributivité découlent de celles dans K[X].

2.8 Décomposition en éléments simples d’une frac-


tion rationnelle
A
∈ K(X) une fraction rationnelle et B = ri=1 Piαi
Q
Proposition 2.52. Soient B
la décomposition de B en produit d’irréductibles, alors il existe un unique élément
(Q0 , Q1 , · · · , Qr ) ∈ K[X]r+1 avec deg Qi < deg(Piαi ) tel que
r
A X Qi Q1 Qr
= Q0 + αi = Q0 + α1 + · · · + αr
.
B i=1
P i P 1 P r
32 Polynômes

Démonstration. Pour l’unicité, si on a


Q1 Qr ∗ Q∗1 Q∗r
Q0 + α1 + . . . + = Q 0 + α + . . . + dans K(X)
P1 Prαr P1 1 Prαr
avec deg Qi , deg Q∗i < deg Piαi alors on a
r r
!
α
Y X Y
(Q0 − Q∗0 ) Piαi = (Qi − Q∗i ) Pj j dans K[X]
i=1 i=1 j6=i

Comme Qi et Q∗i sont de degré < deg Piαi , il vient


r
X r
X
deg(Q0 − Q∗0 ) + αi deg Pi < αi deg Pi
i=1 i=1

α
et Q0 = Q∗0 . On a alors ri=1 (Qi −Q∗i ) j6=i Pj j = 0. Soit k ∈ {1, . . . , r}, le polynôme
P Q
α
Pkαk divise chaque terme de (Qi − Q∗i ) j6=i Pj j donc Pkαk divise aussi
P Q
1≤i≤r,i6 = k
α α
(Qk − Q∗k ) j6=k Pj j . Comme il est premier avec j6=k Pj j , il divise Qk − Q∗k . Or,
Q Q
deg(Qk − Q∗k ) < deg Pkαk donc Qk = Q∗k .
Pour l’existence, on pose Rk = ri=1 Piαi pour k = 1, · · · , r. Alors les polynômes
Q
i6=k
R1 , R2 , · · · Rr sont premiers entre eux, i.e. pgcd(R1 , R2 , · · · , Rr ) = 1, en effet si un
polynôme P irréductible divise R1 alors P = Pj pour un certain 2 ≤ j ≤ r mais
alors P ne divise pas Rj . Ainsi, par la Proposition 2.17, il existe des polynômes
U1 , U2 , · · · , Ur tels que

1 = R1 U1 + R2 U2 + · · · + Rr Ur ,

et on a
A AU1 R1 AU2 R2 AUr Rr
= Qr αi + Q r αi + · · · + Q r αi .
B i=1 Pi i=1 Pi i=1 Pi
α
En remarquant que Rj / ri=1 Piαi = Pj j , il vient :
Q

A AU1 AU2 AUr


= α1 + α2 + · · · + αr
B P1 P2 Pr
αj α
Pour 1 ≤ j ≤ r, la division euclidienne de AUj par Pj donne AUj = Pj j Sj + Qj
α
avec deg Qj < deg Pj j , d’où

A Q1 Q2 Qr
= S1 + S2 + · · · + Sr + α1 + α2 + · · · + αr
B P1 P2 Pr
et on conclut en posant Q0 = S1 + S2 + · · · + Sr .
Décomposition en éléments simples d’une fraction rationnelle 33

Proposition 2.53. Soient P un polynôme irréductible, α ∈ N∗ et soit Q un po-


lynôme avec deg Q < deg P α alors il existe un unique (R1 , R2 , · · · , Rα ) ∈ K[X]α
avec deg Ri < deg P tel que
Q R1 R2 Rα
α
= + 2 + ··· + α.
P P P P
Démonstration. Pour l’unicité, il suffit de montrer que si βi=1 PRii = 0 où deg Ri <
P
Pβ Ri Pβ β−i
deg P alors Rβ = 0. Or, si i=1 P i = 0 alors i=1 Ri P = 0. Or P divise
Pβ−1 β−i
i=1 Ri P donc P divise Rβ . Comme deg Rβ < deg P , il vient Rβ = 0.
On démontre l’existence par récurrence sur α ∈ N. Il suffit d’écrire
Q Q0 P + R1 Q0 R1
= = α + α+1
P α+1 P α+1 P P
où on a effectué la division euclidienne de Q par P : Q = P Q0 + R1 avec deg R1 <
deg P . On utilise alors l’hypothèse de recurrence sur PQα0 puisque deg Q0 < deg P α
(sinon deg Q ≥ deg P α+1 ).
Les deux propositions précédentes permettent de montrer le théorème suivant :
A
∈ K(X) une fraction rationnelle et B = ri=1 Piαi la
Q
Théorème 2.54. Soient B
décomposition de B en produit d’irréductibles. Il existe un unique polynôme E et
une unique famille de polynômes (Ri,j ) 1≤i≤r avec deg Ri,j < deg Pi tels que
1≤j≤αi

ri α
A XX Ri,j
=E+ j .
B i=1 j=1
P i

A
Définition 2.55. Avec les notations du Théorème 2.54, on dit que l’écriture de B
sous la forme
r X αi
A X Ri,j
=E+
B i=1 j=1
Pij
A
avec deg Ri,j < deg Pi est la décomposition de B en éléments simples. Le polynôme
A A
E s’appelle la partie entière de B et le la fraction rationelle B − E s’appelle la partie
polaire.
A
Si de plus la fraction B réduite alors pour tout c ∈ K tel que B(c) 6= 0, le nombre
A(c) A
B(c)
est la spécialisation (ou l’évaluation) de B en c.
A
Un zéro de la fraction réduite B est un élément c ∈ K tel que A(c) = 0 (et donc
B(c) 6= 0). L’ordre d’un zéro est sa multiplicité en tant que racine de A.
A
Un pôle de la fraction réduite B est un élément c ∈ K tel que B(c) = 0 (et donc
A(c) 6= 0). L’ordre du pôle est sa multiplicité en tant que racine de B.
34 Polynômes

A
On remarque que la partie entière de B est le quotient de la division euclidienne
A
de A par B. L’obtention de la partie polaire de B peut se faire grâce à plusieurs
techniques (substitution, calcul de limite, division suivant les puissances croissantes,
etc.) dont quelques unes sont explicitées maintenant.

2.9 Décomposition en éléments simples dans le


cas K = C ou K = R
Les irréductibles de C[X] sont les polynômes de degré 1. Ainsi, on a :
A
Théorème 2.56. Soit B ∈ C(X) une fraction rationnelle donnée par sa forme
réduite (i.e. pgcd(A, B) = 1 et B est unitaire). Soit c1 , · · · , c` les racines de B
dans C et r1 , · · · , r` leurs ordres de multiplicité, alors il existe un unique polynôme
E ∈ C[X] et une famille unique de nombres complexes (zi,j ) 1≤i≤` tels que
1≤j≤ri

i` r
A XX zi,j
=E+ j
.
B i=1 j=1
(X − c i )

La partie entière E est le quotient de la division euclidienne de A par B.


Pour calculer le coefficient zi,ri , on remarque que l’on a
A
(X − ci )ri = (X − ci )ri E + zi,ri + (X − ci )R,
B
où R est une fraction rationnelle n’admettant pas ci comme pôle. On peut donc
évaluer cette dernière égalité en X = ci et on obtient
A(ci )
zi,ri = Q r
.
1≤j≤` (ci − cj ) j
j6=i

On peut calculer les zi,j de proche en proche avec la même technique. Par exemple,
pour calculer zi,ri −1 , on remarque que
A bi,ri

B (X − ci )ri
est une fraction rationnelle ayant ci comme pôle d’ordre au plus ri − 1.
Une méthode efficace est l’utilisation de la division suivant les puissances croissantes.
Si A et B sont deux polynômes tels que B(0) 6= 0 alors pour tout s ∈ N il existe des
polynômes Q et S uniques avec deg Q ≤ s tels que

A = BQ + X s+1 S
Décomposition en éléments simples dans le cas K = C ou K = R 35

A
Soit B
une fraction rationnelle avec

A P
= , avec Q(a) 6= 0
B (x − a)r Q
A(Y +a)
Le changement de variable X ↔ Y + a donne B(Y +a)
= Y Pr Q(Y
(Y +a)
+a)
. On effectue la
division de P (Y + a) par Q(Y + a) à l’ordre r − 1 suivant les puissances croissantes,
on obtient :

P (Y + a) = Q(Y + a)(b1 Y r−1 + b2 Y r−2 + · · · + br−1 Y + br ) + Y r S(Y )

et il vient
P (Y + a) br b2 b1 S(Y )
r
= r + ··· + 2 + + .
Y Q(Y + a) Y Y Y Q(Y + a)
On a donc
A br b1 S(X − a)
= r
+ ··· + + ,
B (X − a) (X − a) Q(X)
1
on a obtenu la partie polaire en (X−a)r
de la fraction rationnelle.
Il existe d’autres méthodes et astuces (identification, substitution de valeur numériques
à X, utilisation des propriétés de parité, etc.).
36 Polynômes
Chapitre 3

Formes linéaires et dualité

Soit K un corps commutatif (dans la plupart des cas, nous pouvons considérer
K = R ou C) et soit E un K-espace vectoriel.

3.1 Formes linéaires, dual d’un espace vectoriel


Définition 3.1. Une forme linéaire sur E est une application linéaire de E dans
K, c’est-à-dire un élément de L(E, K).

Remarques :
- Soit n ∈ N∗ , pour 1 ≤ i ≤ n, l’application

Kn −→ K
(x1 , . . . , xn ) 7−→ xi

est une forme linéaire sur K n , appelée i-ème forme coordonnée.


- L’application
K3 −→ K
(x1 , x2 , x3 ) 7−→ x1 + 2x2 − 3x3
est une forme linéaire sur K 3 .
- Soit A = (aij )1≤i≤n,1≤j≤n ∈ Mn (K) une matrice à coefficients dans PK, la trace
de A est la somme des coefficients diagonaux de A, on note tr(A) = ni=1 aii ∈ K.
Elle vérifie tr(A + λB) = tr(A) + λ tr(B) pour tout A, B et λ ∈ K. L’application
tr : Mn (K) → K, A 7→ tr(A) est une forme linéaire sur Mn (K).
- Soit c ∈ K. L’évaluation des polynômes en c, c’est-à-dire l’application

K[X] −→ K
P 7−→ P (c)

37
38 Formes linéaires et dualité

est une forme linéaire sur K[X].


- L’intégration des polynômes réels sur un intervalle

R[X] −→ R
Rb
P 7−→ a P (t)dt

est une forme linéaire sur R[X].

On remarque qu’une forme linéaire de E est soit nulle soit surjective.

Définition 3.2. L’ensemble des formes linéaires sur E est noté E ∗ et appelé le dual
de E. C’est un K-espace vectoriel et E ∗ = L(E, K).

Attention à ne pas confondre E ∗ et E − {0}.

Proposition 3.3. Si E est de dimension finie alors l’espace vectoriel E ∗ est de


dimension finie et dim E = dim E ∗ .

Démonstration. C’est un cas particulier de la formule dim L(E, F ) = dim E. dim F


(on rappelle que dim K = 1).

Rappelons la définition du symbole de Kronecker, δi,j . On pose :


(
0 si i 6= j
δi,j =
1 si i = j.

Dans la suite (et sauf mention du contraire) les espaces vectoriels considérés sont
des espaces vectoriels de dimension finie. On note n = dim E.

Définition 3.4. Soit (v1 , . . . , vn ) une base de E. Pour tout i ∈ {1, . . . , n}, on note
vi∗ : E → K la forme linéaire sur E définie par :

vi∗ (vj ) = δi,j (1 ≤ j ≤ n).

La famille (v1∗ , . . . , vn∗ ) est une base de E ∗ , appelée la base duale de (v1 , . . . , vn ).

La valeur de la P forme linéaire vi∗ en n’importe quel vecteur de E s’obtient par


linéarité : si v = nj=1 λj vj alors
n
X n
X
vi∗ (v) = λj vi∗ (vj ) = λj δi,j = λi δi,i = λi
j=1 j=1

Il s’agit de la i-ème coordonnée de v dans la base (v1 , . . . , vn ).


Formes linéaires, dual d’un espace vectoriel 39

Démonstration. Vérifions que (v1∗ , . . . , vn∗ ) est bien une base de E ∗ . Elle est constituée
de n = dim E = dim E ∗ vecteurs,
P donc il suffit de prouver qu’elle est libre. S’il existe
λ1 , . . . , λn dans K tels que nk=1 λk vk∗ = 0 (la forme linéaire nulle) alors on a en
évaluant en vi pour tout i ∈ {1, . . . , n} :
n
X
0= λk vk∗ (vi ) = λi
k=1

d’où le résultat.
Exemple : la base duale de la base canonique de K n
Soit e1 = (1, 0, . . . , 0), . . . , en = (0, . . . , 0, 1) la base canonique de K n . Le i-ème
vecteur de sa base duale (e∗1 , . . . , e∗n ) est :
e∗i : Kn −→ K
(x1 , . . . , xn ) 7−→ xi
et est appelé la i-ème forme coordonnée. En écrivant x = x1 e1 +. . .+xn en , on trouve
e∗i (x) = e∗i (xi ei ) = xi . Ainsi, par exemple, la forme linéaire :
φ: K3 −→ K
(x1 , x2 , x3 ) 7−→ x1 + 2x2 − 3x3
s’écrit φ = e∗1 + 2e∗2 − 3e∗3 dans cette base duale.
Proposition 3.5 (Base duale et coordonnées dans une base). Soient B = (v1 , . . . , vn )
une base de E et B ∗ = (v1∗ , . . . , vn∗ ) sa base duale de E ∗ .
- Soit x ∈ E, les coordonnées de x dans B sont (vi∗ (x))1≤i≤n c’est-à-dire
n
X
x= vi∗ (x)vi .
i=1

- Soit φ ∈ E , les coordonnées de φ dans B ∗ sont (φ(vi ))1≤i≤n c’est-à-dire


n
X
φ= φ(vi )vi∗ .
i=1

Démonstration. La première assertion a été


Pndémontrée juste après la définition de

base duale. Pour la seconde, écrivons φ = i=1 µi vi dans la base B ∗ avec µ1 , . . . , µn
dans K. L’évaluation en vk donne φ(vk ) = µk δk,k = µk pour tout k ∈ {1, . . . , n}.
Corollaire
Pn 3.6. Soit φ : K n → K une forme linéaire sur K n , alors φ s’écrit φ =

i=1 φ(ei )ei dans la base des formes coordonnées.

Remarque : Le choix d’une base B = (v1 , . . . , vn ) de E définit donc un isomor-


phisme entre E et E ∗ :

Pn E −→ P E∗
n ∗
i=1 λi vi 7−→ i=1 λi vi
40 Formes linéaires et dualité

3.2 Bidual
Puisque E ∗ est un espace vectoriel, nous pouvons répéter la construction et
prendre son dual. L’objet de cette partie est de voir qu’on retombe essentiellement
sur E.
Définition 3.7. Soit φ une forme linéaire sur E et soit x ∈ E, on note hφ, xi = φ(x)
et on l’appelle crochet de dualité.
On peut vérifier que les applications
E −→ K E ∗ −→ K
et
x 7−→ hφ, xi φ 7→ hφ, xi
sont des formes linéaires sur E et E ∗ , respectivement.
Lemme 3.8 (Propriétés du crochet). On a
- soit φ ∈ E ∗ alors φ = 0 si et seulement si pour tout x ∈ E, hφ, xi = 0 ;
- soit x ∈ E alors x = 0 si et seulement si pour tout φ ∈ E ∗ , hφ, xi = 0.
Démonstration. Soit φ ∈ E ∗ . Par définition, tout x ∈ E vérifie φ(x) = 0 si et
seulement si φ est l’application linéaire nulle c’est-à-dire φ = 0.
Pour le second point, donnons une preuve utilisant la finitude de la dimension. Si
x = 0, il est clair que tout φ ∈ E ∗ vérifie hφ, xi = φ(x) = 0. Réciproquement, si
pour tout φ ∈ E ∗ on a hφ, xi = φ(x) = 0, prenons une base quelconque (v1 , . . . , vn )
de E et sa base duale (v1∗ , . . . , vn∗ ) de E ∗ . En particulier on a vi∗ (x) = 0 pour tout i.
Or vi∗ (x) est la i-ème coordonnée de x dans la base (v1 , . . . , vn ). Comme v a toutes
ses coordonnées nulles dans cette base, il est nul.
Définition 3.9. Le bidual de E est l’espace vectoriel (E ∗ )∗ , aussi noté E ∗∗ .
D’après la proposition 3.3, on a dim E = dim E ∗∗ .
Proposition 3.10. L’application suivante :
ι : E −→ E ∗∗ = L(E ∗ , K)
x 7−→ (φ 7→ hφ, xi).
est un isomorphisme entre E et E ∗∗ .
Démonstration. Pour x, y dans E et λ ∈ K, on a pour tout φ ∈ E ∗ :

ι(x + λy)(φ) = hφ, x + λyi = hφ, xi + λhφ, yi = ι(x)(φ) + λι(y)(φ).

Donc ι(x + λy) = ι(x) + λι(y) et ι : E → E ∗∗ est linéaire. Elle est injective par le
lemme 3.8. Comme dim E = dim E ∗∗ , c’est un isomorphisme.
Orthogonalité 41

Cet isomorphisme est canonique : il ne dépend pas du choix d’une base, contraire-
ment à E ' E ∗ vu plus tôt. Si E est de dimension infinie, on peut montrer que
l’application ι est injective mais n’est jamais surjective.

Corollaire 3.11 (Base antéduale). Soit (f1 , . . . , fn ) une base de E ∗ , il existe une
unique base (v1 , . . . , vn ) de E telle que (f1 , . . . , fn ) est la base duale de (v1 , . . . , vn ).
On l’appelle la base antéduale (ou préduale) de (f1 , . . . , fn ).

Démonstration. Pour l’existence, considérons la base duale (f1∗ , . . . , fn∗ ) de E ∗∗ . Par


l’isomorphisme ι de la proposition 3.10, il existe une base (v1 , . . . , vn ) de E telle que
ι(vi ) = fi∗ pour tout i, c’est-à-dire fi∗ = (φ 7→ φ(vi )). On a donc fi (vj ) = fj∗ (fi ) =
δi,j . L’unicité de la base duale entraı̂ne vi∗ = fi pour tout i.
Pour l’unicité, soient (v1 , . . . , vn ) et (w1 , . . . , wn ) des bases de E ayant (f1 , . . . , fn )
pour base duale. Pour tout k ∈ {1, . . . , n}, en écrivant wk dans la première base, on
a:
X n X n X n n
X
wk = λi vi = vi∗ (wk )vi = fi (wk )vi = δi,k vi = vk .
i=1 i=1 i=1 i=1

Ce qui termine la preuve.

3.3 Orthogonalité
Définition 3.12. Soit F un sous-espace vectoriel de E. L’orthogonal de F dans E ∗ ,
noté F ⊥ , est l’ensemble des formes linéaires sur E qui sont nulles sur F :

F ⊥ = {φ ∈ E ∗ : ∀x ∈ F, φ(x) = 0}.

Soit G un sous-espace vectoriel de E ∗ . L’orthogonal de G dans E, noté G0 , est


l’ensemble des vecteurs de E qui annulent toutes les formes linéaires de G :

G0 = {v ∈ E : ∀φ ∈ G, φ(v) = 0}

On vérifie à la main que F ⊥ est un sous-espace vectoriel de E ∗ . Quant à G0 , c’est


un sous-espace vectoriel comme intersection de sous-espaces vectoriels, en effet
\
G0 = ker(φ).
φ∈E ∗

Exemples :
- on a {0}⊥ = E ∗ et {0}0 = E ;
- on a E ⊥ = {0} et (E ∗ )0 = {0} (cela provient du lemme 3.8).
42 Formes linéaires et dualité

Si A est une partie génératrice de F , on démontre aisément que

F ⊥ = {φ ∈ E ∗ : ∀x ∈ A, φ(x) = 0}.

De même, si B est une partie génératrice de G alors

G0 = {x ∈ E : ∀φ ∈ B, φ(x) = 0}.

Ces propriétés sont utiles pour écrire l’orthogonal d’un sous-espace.

Exemple : soit e1 = (1, 0, . . . , 0) ∈ K n . Déterminons l’orthogonal de F = Vect(e1 ) :

F ⊥ = {φ ∈ E ∗ : ∀x ∈ F, φ(x) = 0} = {φ ∈ E ∗ : φ(e1 ) = 0} ⊂ (K n )∗ .

Or toute forme linéaire φ ∈ E ∗ s’écrit dans la base duale (e∗1 , . . . , e∗n ) :

φ = λ1 e∗1 + λ2 e∗2 + . . . + λn e∗n

avec λ1 , . . . , λn dans K et λi = φ(ei ). La condition φ(e1 ) = 0 équivaut à λ1 = 0.


Donc F ⊥ = Vect(e∗2 , . . . , e∗n ).

Proposition 3.13. Soit φ ∈ E ∗ alors (Vect(φ))0 = ker φ.

Démonstration. En effet

(Vect(φ))0 = {x ∈ E : ∀f ∈ Vect(φ), f (x) = 0} = {x ∈ E : φ(x) = 0} = ker φ,

d’où le résultat.

Proposition 3.14. Soient F1 , F2 des sous-espaces vectoriels de E et G1 , G2 des


sous-espaces vectoriels de E ∗ , on a

F1 ⊂ F2 =⇒ F2⊥ ⊂ F1⊥
G1 ⊂ G2 =⇒ G02 ⊂ G01 .

Démonstration. Immédiat à partir des définitions des orthogonaux.

Proposition 3.15. Soient F un sous-espace vectoriel de E et G un sous-espace


vectoriel de E ∗ . On a :
- d’une part dim F + dim F ⊥ = dim E et dim G + dim G0 = dim E ∗ (= dim E) ;
- et d’autre part (F ⊥ )0 = F et (G0 )⊥ = G.
Orthogonalité 43

Démonstration. Notons r = dim F et soit (v1 , . . . , vr ) une base de F . Le théorème


de la base incomplète fournit une baseP(v1 , . . . , vn ) de E et on note (v1∗ , . . . , vn∗ ) sa
n ∗ ⊥
base duale. Une forme linéaire f = i=1 λi vi (avec λi = f (vi )) est dans F si
et seulement si pour tout i ∈ {1, . . . , r}, f (vi ) = 0, si et seulement si pour tout
i ∈ {1, . . . , r}, λi = 0. On a donc F ⊥ = Vect(vr+1

, . . . , vn∗ ) et comme les vecteurs de
cette famille sont libres, dim F ⊥ = n − r.
Notons r = dim G et soit (f1 , . . . , fr ) une base de G. Le théorème de la base in-
complète fournit une base (f1 , . . . , fn ) de E ∗ . Soit (v1 , . . . , vn ) sa base antéduale.
On a G = Vect(f1 , . . . , fr ) = Vect(v1∗ , . . . , vr∗ ). En procédant comme dans le point
précédent, on trouve G0 = Vect(vr+1 , . . . , vn ) d’où l’égalité annoncée.
Pour la première égalité du deuxième point, soit x ∈ F . Pour tout φ ∈ F ⊥ on a
φ(x) = 0, donc x ∈ (F ⊥ )0 et F ⊂ (F ⊥ )0 . De plus, on a dim F + dim F ⊥ = n et
dim(F ⊥ ) + dim(F ⊥ )0 = n. On en déduit dim F = dim(F ⊥ )0 d’où F = (F ⊥ )0 . (En
fait, le résultat est vrai si E n’est pas de dimension finie mais pour simplifier, nous
avons donné une preuve utilisant la finitude de la dimension.). La dernière égalité
se démontre de la même manière.

Remarque : lorsque E n’est pas de dimension finie, on a encore (F ⊥ )0 = F mais


en général seulement une inclusion G ⊂ (G0 )⊥ .

Proposition 3.16. Soient F1 , F2 des sous-espaces vectoriels de E et G1 , G2 des


sous-espaces vectoriels de E ∗ . On a

(F1 + F2 )⊥ = F1⊥ ∩ F2⊥ ;


F1⊥ + F2⊥ = (F1 ∩ F2 )⊥ ;
(G1 + G2 )0 = G01 ∩ G02 ;
(G1 ∩ G2 )0 = G01 + G02 .

Démonstration. Pour le premier point, on a F1 ⊂ F1 + F2 donc (F1 + F2 )⊥ ⊂ F1⊥ .


De même (F1 + F2 )⊥ ⊂ F2⊥ . D’où (F1 + F2 )⊥ ⊂ F1⊥ ∩ F2⊥ . Réciproquement, soit
φ ∈ F1⊥ ∩ F2⊥ . Prenons z quelconque dans F1 + F2 . Il existe x ∈ F1 et x0 ∈ F2 tels
que z = x + x0 . Alors φ(z) = φ(x) + φ(x0 ) = 0 + 0 = 0 d’où φ ∈ (F1 + F2 )⊥ . On a
prouvé F1⊥ ∩ F2⊥ ⊂ (F1 + F2 )⊥ d’où (F1 + F2 )⊥ = F1⊥ ∩ F2⊥ .
Pour le deuxième point, on a l’inclusion F1⊥ + F2⊥ ⊂ (F1 ∩ F2 )⊥ . Pour montrer
l’égalité de ces espaces vectoriels, il reste à voir qu’ils ont même dimension. D’après
44 Formes linéaires et dualité

la proposition 3.15, on a :

dim(F1⊥ + F2⊥ ) = dim F1⊥ + dim F2⊥ − dim(F1⊥ ∩ F2⊥ )


= dim F1⊥ + dim F2⊥ − dim(F1 + F2 )⊥
= (n − dim F1 ) + (n − dim F2 ) − (n − dim(F1 + F2 ))
= n − dim F1 − dim F2 + dim(F1 + F2 )
= n − dim(F1 ∩ F2 ) = dim(F1 ∩ F2 )⊥ .

(En fait, la relation est valable si E n’est pas de dimension finie mais pour simplifier,
nous avons donné une démonstration utilisant la finitude de la dimension.)
Le troisième et quatrième point se démontrent de manière similaire.

Remarque : lorsque E n’est pas de dimension finie, les trois premières formules de
la proposition restent valables. En général, on a simplement une inclusion : G01 +G02 ⊂
(G1 ∩ G2 )0 .

3.4 Hyperplans et formes linéaires


Définition 3.17. Un hyperplan de E est un sous-espace vectoriel H de E tel que
dim H = dim(E) − 1. Par la proposition 3.15, cela revient à dire que dim H ⊥ = 1.

Exemples :
- Les hyperplans de K 2 sont les sous-espaces de dimension 1 c’est-à-dire les droites
(i.e. engendrés par un vecteur v non nul).
- Les hyperplans de K 3 sont les sous-espaces de dimension 2 c’est-à-dire les plans
(i.e. engendrés par deux vecteurs non nuls et non colinéaires). Une droite de K 3
n’est pas un hyperplan de K 3 .

Proposition 3.18. Un sous-espace vectoriel F est un hyperplan de E si et seulement


s’il existe une forme linéaire non nulle φ ∈ E ∗ telle que F = ker φ.

Démonstration. Dire que F est un hyperplan signifie dim F ⊥ = 1 c’est-à-dire qu’il


existe φ ∈ E ∗ , φ 6= 0 telle que F ⊥ = Vect(φ) et donc F = (Vect(φ))0 = ker φ.

Définition 3.19. Une équation d’un hyperplan H est une forme linéaire φ ∈ E ∗
non nulle telle que H = ker φ (elle existe par la proposition ci-dessus). Par abus de
notation on écrit l’équation φ = 0.

Exemple : le sous-ensemble {(x, y, z) | x + y + z = 0} de R3 est l’hyperplan


d’équation φ = 0 où φ(x, y, z) = x + y + z.
Équations d’un sous-espace vectoriel 45

Plus généralement, tout plan H de R3 admet une équation de la forme :

ax + by + cz = 0.

Si φ = ae∗1 + be∗2 + ce∗3 est une forme linéaire non nulle sur R3 telle que H = ker φ
(i.e. H ⊥ = Vect(φ)).
Lemme 3.20. Si ψ = 0 est une autre équation de l’hyperplan H alors il existe
λ ∈ K ∗ tel que ψ = λφ.
Démonstration. Par la preuve de la proposition 3.18, une équation de H est simple-
ment un élément non nul de l’orthogonal H ⊥ , qui est de dimension 1.

3.5 Équations d’un sous-espace vectoriel


Notons n = dim E.
Théorème 3.21. Soit F un sous-espace de E de dimension r ∈ {1, . . . , n − 1}. Soit
(f1 , . . . , fn−r ) une base de F ⊥ . Alors on a ;

F = {v ∈ E | f1 (v) = 0, . . . , fn−r (v) = 0}

et (f1 = 0, . . . , fn−r = 0) est un système d’équations de F . Autrement dit, tout


sous-espace vectoriel distinct de {0} et de E est l’intersection d’un nombre fini d’hy-
perplans. Ce nombre peut être pris égal à n − dim F .
Démonstration. On a F ⊥ = Vect(f1 , . . . , fn−r ) d’où par la proposition 3.15,

F = (F ⊥ )0 = (Vect(f1 , . . . , fn−r ))0 = {v ∈ E | ∀i ∈ {1, . . . , n − r}, fi (v) = 0}.

C’est l’intersection des noyaux des fi (pour 1 ≤ i ≤ n − r), et chacun de ses noyaux
est l’hyperplan d’équation fi = 0.
Remarque : la preuve précédente utilise seulement le fait que (f1 , . . . , fn−r ) en-
gendre F ⊥ . Si c’est une base, le système d’équations obtenu pour F est de plus
minimal.

Exemples :
- si dim F = r = n − 1, alors le sous-espace est un hyperplan et on retrouve avec ce
théorème la proposition 3.18.
- dans R3 , toute droite est l’intersection de deux plans.
Exemple : calcul d’un système d’équations de F et d’une base de F ⊥ .
Soit F le sous-espace vectoriel de E = R4 engendré par les deux vecteurs a =
46 Formes linéaires et dualité

(1, 0, 1, −1) et b = (−1, 2, 0, 1). Cherchons une base de F ⊥ et un système d’équations


de F .
Première méthode : cherchons une base de F ⊥ , exprimée dans la base ∗ ∗
P4 (e1 , · ·∗ · , e4 )
4
des formes coordonnées de R . Toute forme linéaire s’écrit φ = i=1 αi ei avec
αi = φ(ei ). On a :
(
φ(a) = φ(e1 + e3 − e4 ) = φ(e1 ) + φ(e3 ) − φ(e4 ) = α1 + α3 − α4 = 0
φ ∈ F⊥ ⇔
φ(b) = φ(−e1 + 2e2 + e4 ) = −φ(e1 ) + 2φ(e2 ) + φ(e4 ) = −α1 + 2α2 + α4 = 0.
(
α3 = −2α2

α4 = α1 − 2α2 .
⇔ φ = α1 e∗1 + α2 e∗2 − 2α2 e∗3 + (α1 − 2α2 )e∗4 = α1 (e∗1 + e∗4 ) + α2 (e∗2 − 2e∗3 − 2e∗4 )

pour α1 , α2 réels. Donc F ⊥ est engendré par {e∗1 + e∗4 , e∗2 − 2e∗3 − 2e∗4 }, et cette famille
est même une base de F ⊥ (ces deux formes linéaires n’étant pas liées). On en déduit
un système d’équations de F :
(
x1 + x 4 = 0
x2 − 2x3 − 2x4 = 0.

Deuxième méthode : un vecteur v = (x1 , x2 , x3 , x4 ) ∈ R4 appartient à F =


Vect(a, b) si et seulement si rg(a, b, v) = rg(a, b) (= 2 ici) (démonstration de ce
résultat laissée en exercice). Appliquons la méthode du pivot à la matrice de colonnes
les vecteurs a, b, v exprimés dans la base canonique :
   
1 −1 x1 1 −1 x1
0 2 x2   −→ 0 2 x2 

0 1 x3 − x1  (L3 → L3 − L1 , L4 → L4 + L1 )
 
1 0 x3 
−1 1 x4 0 0 x1 + x4
 
1 −1 x1
0 1 1 1 1
x
2 2

−→  0 0 x3 − x1 − 1 x2  (L2 → 2 L2 , L3 → L3 − 2 L2 )

2
0 0 x1 + x4
x1 + 12 x2
 
1 0
0 1 1
x
2 2

−→  0 0 x3 − x1 − x2  (L1 → L1 + L2 ).
1

2
0 0 x 1 + x4

Cette matrice est de rang 2 si et seulement si : x3 − x1 − 21 x2 = 0 et x1 + x4 = 0.


Ces deux équations forment donc un système d’équations de F . Pour en déduire
Transposée 47

une base de F ⊥ , on constate que d’après le système d’équations trouvé pour F , les
formes linéaires e∗3 − e∗1 − 21 e∗2 et e∗1 + e∗4 sont nulles sur F , donc appartiennent à F ⊥ .
Par ailleurs, elles forment une famille libre. Comme dim F ⊥ = 4 − dim F = 2, on en
déduit que {e∗3 − e∗1 − 12 e∗2 , e∗1 + e∗4 } est une base de F ⊥ .

3.6 Transposée
Soient E, F, G des espaces vectoriels de dimension finie. Rappelons que L(E, F )
est l’espace vectoriel des applications linéaires de E dans F .

Définition 3.22. Soit u ∈ L(E, F ). La transposée de u est l’application linéaire


t
u : F ∗ −→ E ∗
φ 7−→ φ ◦ u

Cela correspond au diagramme suivant :

E
u / F
t u(φ)=φ◦u
~ φ
K

Proposition 3.23. On a les propriétés suivantes :


- si u ∈ L(E, F ) et v ∈ L(F, G) alors t (v ◦ u) = t u ◦ t v ;
- si idE (resp. idE ∗ ) désigne l’identité sur E (resp. sur E ∗ ) alors t (idE ) = idE ∗ ;
- si u ∈ L(E, F ) est un isomorphisme alors t u est un isomorphisme et
(t u)−1 = t (u−1 ).

Démonstration. Pour le premier point, soit φ ∈ G∗ alors on a


t
(v ◦ u)(φ) = φ ◦ (v ◦ u) = (φ ◦ v) ◦ u = t v(φ) ◦ u = t u(t v(φ)) = (t u ◦ t v)(φ).

Donc t (v ◦ u) = t u ◦ t v.
Pour le deuxième point, pour tout φ ∈ E ∗ on a

(t idE )(φ) = φ ◦ idE = φ,

d’où t (idE ) = idE ∗ .


Enfin pour le dernier point, soit u−1 l’isomorphisme réciproque (u ◦ u−1 = idF et
u−1 ◦u = idE ). D’après les deux propriétés précédentes, on a t u◦ t (u−1 ) = t (u−1 ◦u) =
t
idE = idE ∗ et t (u−1 ) ◦ t u = t (u ◦ u−1 ) = t idF = idF ∗ , ce qu’il fallait montrer.
48 Formes linéaires et dualité

Théorème 3.24. Soit u ∈ L(E, F ), alors on a

ker(t u) = (Im u)⊥ et Im(t u) = (ker u)⊥

et de plus, rg u = rg t u.
Démonstration. La première égalité découle des définitions :

φ ∈ ker(t u) ⇔ φ ◦ u = 0 ⇔ Im u ⊂ ker φ ⇔ φ ∈ (Im u)⊥ .

Pour la seconde, prenons φ ∈ Im(t u). Il existe donc ψ ∈ F ∗ avec φ = ψ ◦ u. Pour


tout x ∈ ker u, on a φ(x) = ψ(u(x)) = 0. Donc φ ∈ (ker u)⊥ d’où Im(t u) ⊂ (ker u)⊥ .
De plus, en appliquant la proposition 3.15 et le théorème du rang à u et t u, on a

dim(ker u)⊥ = dim E − dim ker u = dim Im u


= dim F ∗ − dim(Im u)⊥ = dim F ∗ − dim ker(t u) = dim Im (t u).

On conclut alors par un argument de dimension.


Corollaire 3.25. Si u : E → F est une application linéaire alors u et t u ont même
rang.
Démonstration. L’égalité dim Im u = dim Im (t u) se lit dans la preuve du théorème
précédent.

3.7 Interprétation matricielle de la transposition


Les notations de cette partie sont :
− l’espace vectoriel E est de dimension p, BE = (e1 , . . . , ep ) est une base de E
et BE ∗ = (e∗1 , . . . , e∗p ) est la base duale de E ∗ ;
− l’espace vectoriel F est de dimension n, BF = (f1 , . . . , fn ) est une base de F
et BF ∗ = (f1∗ , . . . , fn∗ ) est la base duale de F ∗ ;
− l’application u : E → F est un endomorphisme.
Définition 3.26. Soit A = (ai,j )1≤i≤n ∈ Mn,p (K). On appelle transposée de A la
1≤j≤p
matrice t A = (aj,i )1≤j≤p ∈ Mp,n (K).
1≤i≤n

Proposition 3.27. Soit


M = (ai,j )1≤i≤n
1≤j≤p

la matrice de u dans les bases (BE , BF ) alors la matrice de t u dans les bases
(BF ∗ , BE ∗ ) est
t
M = (aj,i )1≤j≤p .
1≤i≤n
Interprétation matricielle de la transposition 49

Démonstration. Pour tout k ∈ {1, . . . , p} on a u(ek ) = ni=1 ai,k fi . Pour exprimer


P
la matrice de t u dans les bases (BF ∗ , BE ∗ ), calculons t u(fj∗ ) pour tout j. Pour k ∈
{1, . . . , p} on trouve
n
X
t
u(fj∗ )(ek ) = (fj∗ ◦ u)(ek ) = fj∗ ( ai,k fi ) = aj,k
i=1

De plus ( pi=1 aj,i e∗i )(ek ) = aj,k . Donc t u(fj∗ ) et pi=1 aj,i e∗i coı̈ncident sur la base B
P P
et sont égaux.
Exemple : on a
t
   
1 2 3 1 4 3
4 5 6 = 2 5 8.
7 8 9 7 6 9

Proposition 3.28. On a les propriétés suivantes :


- pour tout A ∈ Mn,p (K), t (t A) = A ;
- Pour tout A, B ∈ Mn,p (K) et λ ∈ K, t (A + λB) = t A + λt B ;
- Pour tout A ∈ Mn,k (K) et B ∈ Mk,p (K), t (AB) = t B t A ;
- si In désigne la matrice identité de taille n × n, t In = In ;
- si A ∈ GLn (K) (i.e. A inversible) alors t A est inversible et t (A−1 ) = (t A)−1 ;
- Pour tout A ∈ Mn,p (K), on a rg(A) = rg(t A).

Démonstration. Cela provient des propriétés de la transposée d’un endomorphisme.

Remarque : comme rg(A) = rg(t A), on peut utiliser indifféremment des opérations
élémentaires sur les lignes ou sur les colonnes de A pour calculer son rang lors de la
méthode du pivot.

Proposition 3.29 (Matrice de changement de base duale). Soient B1 et B2 deux


bases de E, de bases duales B1∗ et B2∗ . Notons P la matrice de passage de B1 à B2 .
Alors la matrice de passage de B1∗ à B2∗ est t (P −1 ) = t (P −1 ).

Démonstration. La matrice P n’est autre que celle de l’application idE dans les bases
(B1 , B2 ). Par les propositions 3.27 et 3.23, t P est la matrice de t (idE ) = idE ∗ dans
(B2∗ , B1∗ ). Donc (t P )−1 est la matrice de idE ∗ dans (B1∗ , B2∗ ), c’est-à-dire la matrice
de passage de B1∗ à B2∗ .
Exemple : calcul de la base duale d’une base (v1 , . . . , vn ) de K n .
Notons P la matrice de passage de (e1 , . . . , en ) (base canonique de K n ) à (v1 , . . . , vn ).
50 Formes linéaires et dualité

D’après la proposition, la matrice de passage de (e∗1 , . . . , e∗n ) est (t P )−1 . Autrement


dit, les coordonnées de v1∗ , . . . , vn∗ dans (e∗1 , . . . , e∗n ) sont fournies par les colonnes de
(t P )−1 . Connaissant P , on peut calculer cette matrice avec l’algorithme du pivot,
par exemple.
Chapitre 4

Déterminant

4.1 Introduction au groupe symétrique


Soit n un entier ≥ 2.

Définition 4.1. Une permutation de l’ensemble {1, . . . , n} est une bijection de


{1, . . . , n} dans lui-même. Le groupe symétrique, noté Sn , est l’ensemble des permu-
tations de {1, . . . , n}.

Une permutation σ de {1, . . . , n} est donc déterminée par ses valeurs σ(1), . . . , σ(n),
qui doivent être toutes distinctes, et égales à l’ordre près à 1, 2, . . . , n. On l’écrit
conventionnellement la permutation sous forme d’un tableau :
 
1 2 ··· n
σ=
σ(1) σ(2) · · · σ(n)

Exemples : La permutation identité est


 
1 2 ··· n
id =
1 2 ··· n

On a    
1 2 1 2
S2 = = id, .
1 2 2 1
Une permutation de S3 est par exemple
 
1 2 3
.
2 3 1

51
52 Déterminant

Lemme 4.2. L’ensemble Sn possède n! éléments.

Démonstration. Il y a n choix pour σ(1) ∈ {1, . . . , n}. Comme σ est injective, σ(2) 6=
σ(1) et il reste (n − 1) choix possibles pour σ(2). Par récurrence immédiate on voit
que pour tout i de {1, . . . , n}, on a σ(i) ∈ {1, . . . , n}\{σ(1), . . . , σ(i − 1)} donc
(n − i + 1) choix possibles pour σ(i). Donc ]Sn = n(n − 1) · · · 1 = n!.

Proposition 4.3. Le groupe symétrique Sn muni de la composition est bien un


groupe, d’élément neutre id. Autrement dit :
- si σ, σ 0 ∈ Sn alors σ ◦ σ 0 ∈ Sn ; - si σ, σ 0 , σ 00 ∈ Sn alors σ ◦ (σ 0 ◦ σ 00 ) = (σ ◦ σ 0 ) ◦ σ 00
(associativité de la loi ◦) ;
- si σ ∈ Sn alors id ◦ σ = σ ◦ id = σ (id est le neutre pour la loi ◦) ;
- si σ ∈ Sn alors il existe ρ = σ −1 ∈ Sn tel que σ ◦ ρ = id = ρ ◦ σ (tout élément
admet un inverse).

Démonstration. Ce sont des propriétés bien connues de la composition des applica-


tions et des bijections. La permutation σ étant bijective, elle possède une bijection
réciproque σ −1 .

Afin d’alléger les notations, on écrit σσ 0 au lieu de σ ◦ σ 0 (on parlera de produit


au lieu de composition).

Définition 4.4. Soient i 6= j dans {1, . . . , n}. La transposition de i et j, notée Tij


ou encore (ij), est la permutation de {1, . . . , n} qui échange i et j et laisse invariants
tous les autres. On a donc :

Tij (i) = j, Tij (j) = i, Tij (p) = p si p ∈


/ {i, j}.

Noter que Tij = Tji = Tij−1 .


Exemples : Dans S4 , la transposition T13 est
 
1 2 3 4
(13) = .
3 2 1 4

Les éléments de S3 sont les six permutations :


       
1 2 3 1 2 3 1 2 3 1 2 3
id = , (23) = , (12) = , (13) = ,
1 2 3 1 3 2 2 1 3 3 2 1
   
1 2 3 1 2 3
, .
2 3 1 3 1 2

parmi lesquelles trois sont des transpositions.


Introduction au groupe symétrique 53

Remarques :
- Il faut prendre garde au sens de calcul lors de l’évaluation d’une composée. Par
exemple,
T12 T23 (1) = T12 (T23 (1)) = T12 (1) = 2.
-Le groupe Sn n’est pas commutatif si n ≥ 3 (car (12)(23) 6= (23)(12)).
Une permutation n’est pas toujours une transposition mais peut néanmoins s’écrire
comme produit de transpositions.
Théorème 4.5. Pour toute permutation σ ∈ Sn , il existe un entier s ≥ 1 et des
transpositions τ1 , . . . , τs de Sn tels que σ = τ1 · · · τs .
Démonstration. Montrons que pour tout p ∈ {0, . . . , n}, une permutation de Sn qui
laisse invariant au moins p éléments de {1, . . . , n} est un produit de transpositions.
On procède par récurrence descendante sur p.
Pour p = n, une telle permutation ne peut être que l’identité, qui s’écrit aussi
Tij Tij .
Supposons la propriété vérifiée pour toute permutation laissant invariant au
moins p éléments de {1, . . . , n}. Montrons qu’il en est de même pour celles qui
en laissent au moins p − 1 invariants. Soit σ une telle permutation (on peut la sup-
poser distincte de id). Il existe alors j tel que σ(j) = k 6= j. En posant ψ = Tjk σ,
on a ψ(i) = i pour les p − 1 éléments invariants par σ et de plus ψ(j) = Tjk (k) = j.
Donc ψ laisse invariants au moins p éléments. Par hypothèse de récurrence, c’est
un produit de transpositions. En composant ψ à gauche par Tjk , on en déduit que
σ = Tjk ψ est aussi produit de transpositions.
Exemple : Dans S6 , on peut vérifier que la permutation
 
1 2 3 4 5 6
σ=
2 3 4 1 6 5
s’écrit σ = (12)(23)(34)(56) = (56)(23)(34)(41).
Définition 4.6. Soit σ une permutation de Sn . On dit que i et j présentent une
inversion dans σ lorsque i < j et σ(i) > σ(j). Soit I(σ) le nombre total d’inversions
que présente σ. La signature de σ est le nombre ε(σ) = (−1)I(σ) .
Exemples : ε(id) = 1, ε(T12 ) = −1 et
 
1 2 3
ε( ) = (−1)(−1) = 1.
2 3 1
Proposition 4.7. On a
Y σ(i) − σ(j)
ε(σ) = .
1≤i<j≤n
i−j
54 Déterminant

Q Q
Démonstration. Notons V = 1≤i<j≤n (i−j) et on pose Vσ = 1≤i<j≤n (σ(i)−σ(j)).
Le produit de l’énoncé est donc


P = ∈ Q.
V
Par bijectivité de σ, V et Vσ sont les mêmes au signe près. Cela montre que P est
en fait dans {−1, +1}. De plus pour chaque paire (i, j) avec i < j, le terme σ(i)−σ(j)
i−j
a un signe négatif s’il y a une inversion, positif sinon. Donc le signe de P est bien
celui de (−1)I(σ) = ε(σ). On conclut que P = ε(σ).

Théorème 4.8.
- Pour σ, σ 0 dans Sn on a ε(σσ 0 ) = ε(σ)ε(σ 0 ) (on dit que ε est un morphisme de
groupes de Sn dans C∗ ).
- Pour toute transposition τ , on a ε(τ ) = −1 et pour tout produit de s transpositions
τ1 , . . . , τs , on a ε(τ1 . . . τs ) = (−1)s .

Ainsi il y a plusieurs façons d’écrire une permutation comme produit de transpo-


sitions mais la parité du nombre de transpositions nécessaires est toujours la même.

Démonstration. Pour le premier point, par la preuve de la proposition 4.7, dont on


reprend les notations, on a Vσ = ε(σ)V pour toute permutation σ. Soient maintenant
σ et σ 0 ∈ Sn . On a d’une part :
Y
Vσσ0 = ((σσ 0 )(i) − (σσ 0 (j))) = (Vσ0 )σ = ε(σ)Vσ0 = ε(σ)ε(σ 0 )V
1≤i<j≤n

et d’autre part Vσσ0 = ε(σσ 0 )V d’où le résultat par comparaison.


La deuxième affirmation se déduit de la première, car la signature est un morphisme.
Montrons que toute transposition T = Tij est de signature −1. Il suffit de remarquer
que l’on a (i, j) = (1, i)(2, j)(1, 2)(1, i)(2, j) et que donc ε(Tij ) = ε((1, 2)). Or, dans
la transposition (12), il n’y a qu’une seule inversion d’où ε((1, 2)) = −1.

Exemple : Pour σ = (12)(23)(34)(56) dans S6 , la signature de σ est (−1)4 = 1.

4.2 Formes p-linéaires et formes alternées


Soient E un K-espace vectoriel de dimension finie et p un entier > 0. On rappelle
que E p désigne l’espace vectoriel produit E × · · · × E .
| {z }
p fois
Formes p-linéaires et formes alternées 55

Définition 4.9. Une forme p-linéaire sur E est une application f : E p → K telle que
pour tout i ∈ {1, . . . , p} et pour tout (x1 , . . . , xi−1 , xi+1 , . . . , xp ) ∈ E p−1 l’application
partielle
fi : E −→ K
x 7−→ f (x1 , . . . , xi−1 , x, xi+1 , . . . , xp )
est une forme linéaire sur E (autrement dit, lorsqu’on fixe (p − 1) variables, les
applications de E dans K obtenues sont linéaires).
L’ensemble des formes p-linéaires sur E constitue un K-espace vectoriel noté Lp (E)
(démonstration laissée au lecteur).
Exemples :
• (p = 1) Ce sont simplement les formes linéaires sur E :

L1 (E) = L(E, K) = E ∗ .

• (p = 2) Par définition, une forme 2-linéaire (on dit bilinéaire) f : E × E → K


vérifie, pour tous x, y, x1 , x2 , y1 , y2 ∈ E et λ ∈ K :

f (x1 + λx2 , y) = f (x1 , y) + λf (x2 , y)


f (x, y1 + λy2 ) = f (x, y1 ) + λf (x, y2 ).

• Un exemple de forme bilinéaire sur Rn est le produit scalaire usuel sur Rn :


Rn × Rn −→ R
Pn
((a1 , . . . , an ), (b1 , . . . , bn )) 7−→ i=1 ai bi .

• Si f1 et f2 sont deux formes linéaires sur Rn , l’application


Rn × Rn −→ R
((a1 , . . . , an ), (b1 , . . . , bn )) 7−→ f1 (a1 , . . . , an )f2 (b1 , . . . , bn )
est bilinéaire sur Rn . Par exemple :
R3 × R3 −→ R
((a1 , a2 , a3 ), (b1 , b2 , b3 )) 7−→ (a1 + a2 − 2a3 )(3b1 − b3 )

est une forme bilinéaire sur R3 . Plus généralement le produit de p formes linéaires
sur E définit une forme p-linéaire sur E.
Remarque : Il ne faut pas confondre forme p-linéaire et forme linéaire sur E p . En
effet une forme bilinéaire f vérifie :

f ((x, y) + (x0 , y 0 )) = f (x + x0 , y + y 0 ) = f (x, y) + f (x, y 0 ) + f (x0 , y) + f (x0 , y 0 )

qui n’a aucune raison d’être égal à f (x, y) + f (x0 , y 0 ) (donc f n’est pas linéaire).
56 Déterminant

Proposition 4.10. On a dim Lp (E) = (dim E)p .


Démonstration. Montrons-le pour les formes bilinéaires (l’argument se généralise
aisément pour p ≥ 2). Soient (e1 , . . . , en ) une base de E et (e∗1 , . . . , e∗n ) sa base duale
de E ∗ . Pour tous i, j dans {1, . . . , n} posons :

fi,j : E × E −→ K
(x, y) 7−→ e∗i (x)e∗j (y).

C’est une forme bilinéaire sur E. De plus, toute forme bilinéaire f : E × E → K


s’écrit n Xn
X
f= f (ei , ej )fi,j .
i=1 j=1

En effet on a i,j f (ei , ej )fi,j (ea , eb ) = i,j f (ei , ej )e∗i (ea )e∗j (eb ) = f (ea , eb ). Les deux
P P
expressions coı̈ncident sur les (ea , eb ) pour a, b ∈ {1, . . . , n}, qui forment une base
de E × E. Par bilinéarité elles coı̈ncident sur E × E d’où la formule annoncée. Ainsi
les fi,j engendrent
P l’espace vectoriel L2 (E). Il reste à voir que leur famille est libre.
Supposons Pi,j λi,j fi,j = 0 pourP λi,j dans K. En évaluant en (ek , el ) ∈ E × E, on
trouve 0 = i,j λi,j fi,j (ek , el ) = i,j λi,j e∗i (ek )e∗j (el ) = λk,l pour tout (k, l). Donc la
famille est libre et une base de L2 (E).
Exemple : Notons (e1 , e2 , e3 ) la base canonique de R3 et (e∗1 , e∗2 , e∗3 ) sa base duale
(formes coordonnées). D’après la démonstration, les neuf formes bilinéaires fi,j :
R3 × R3 → R, (x, y) 7→ e∗i (x)e∗j (y) constituent une base de L2 (R3 ).

On pose n = dim E.
Définition 4.11. Une forme p-linéaire f sur E est alternée si elle est nulle en
tout élément de E p ayant deux composantes égales : si xi = xj avec i 6= j alors
f (x1 , . . . , xp ) = 0.
Les formes p-linéaires alternées sur E constituent un sous-espace vectoriel de Lp (E)
noté Λp (E) (démonstration laissée au lecteur).
Exemple : l’application

f: C2 × C2 −→ C
((a, b), (c, d)) 7−→ ad − bc

est une forme bilinéaire alternée sur C2 . En effet, les deux applications C2 → C
obtenues en fixant (a, b) puis (c, d) sont linéaires et f ((a, b), (a, b)) = ab − ab = 0.

L’existence d’une forme p-linéaire alternée non nulle sur E est un énoncé non trivial,
qui est au coeur de la théorie du déterminant et fera l’objet de la prochaine section.
Formes p-linéaires et formes alternées 57

Proposition 4.12 (Propriétés des formes p-linéaires alternées). Soient f ∈ Λp (E)


et (x1 , . . . , xp ) ∈ E p . On a :
- la valeur f (x1 , . . . , xp ) n’est pas modifiée si on ajoute à une composante xi une
combinaison linéaire des autres composantes x1 , . . . , xi−1 , xi+1 , . . . , xp ;
- si (x1 , . . . , xp ) est une famille liée de vecteurs de E alors f (x1 , . . . , xp ) = 0.

Démonstration. Pour le premier point, pour λj ∈ K (j 6= i) on a par p-linéarité :


X X
f (x1 , . . . , xi + λj xj , . . . , xp ) = f (x1 , . . . , xp ) + λj f (x1 , . . . , xj , . . . , xp ).
j6=i j6=i
|{z}
| {z } en i
en i

Or f (x1 , . . . , xj , . . . , xp ) est nul car deux composantes sont les mêmes et f est
|{z}
en i P
alternée. Donc f (x1 , . . . , xi + j6=i λj xj , . . . , xp ) = f (x1 , . . . , xp ).
Pour le deuxième point, supposons (x1 , . . . , xp ) liée. L’un des vecteurs, disons xi ,
est combinaison
P linéaire des autres : il existe P une famille de scalaires (λj )j6=i tels
que xi = j6=i λj xj . Alors f (x1 , . . . , xp ) = j6=i λj f (x1 , . . . , xj , . . . , xp ) = 0 par
|{z}
en i
alternance de f .

Corollaire 4.13. Si p > dim E alors Λp (E) = {0}.

Démonstration. Si p > dim E, toute famille de p vecteurs dans E est forcément liée.
Par la proposition 4.12, toute forme p-linéaire alternée est donc identiquement nulle
sur E p .

Rappelons que Sp désigne le groupe symétrique formé des bijections de {1, . . . , p}


sur lui-même. La signature d’une permutation σ est notée ε(σ).

Proposition 4.14 (Formes alternées et formes antisymétriques). Soit f une forme


p-linéaire alternée sur E. Pour toute permutation σ ∈ Sp on a :

∀(x1 , . . . , xp ) ∈ E p , f (xσ(1) , . . . , xσ(p) ) = ε(σ)f (x1 , . . . , xp ) dans K.

(f est dite antisymétrique).

Démonstration. Commençons par prouver la propriété pour les transpositions de Sp


puis utilisons le fait que toute permutation est produit de transpositions (théorème 4.5).
58 Déterminant

Par p-linéarité et alternance de f , on a :

0 =f (x1 , . . . , xi + xj , . . . , xi + xj , . . . , xp )
| {z } | {z }
en i en j

=f (x1 , . . . , xi , . . . , xj , . . . , xp ) + f (x1 , . . . , xi , . . . , xi , . . . , xp )
+ f (x1 , . . . , xj , . . . , xj , . . . , xp ) + f (x1 , . . . , xj , . . . , xi , . . . , xp )
=f (x1 , . . . , xi , . . . , xj , . . . , xp ) + f (x1 , . . . , xj , . . . , xi , . . . , xp )
=f (x1 , . . . , xi , . . . , xj , . . . , xp ) + f (xτ (1) , . . . , xτ (i) , . . . , xτ (j) , . . . , xτ (p) )

où τ = (ij). Donc f (xτ (1) , . . . , xτ (p) ) = −f (x1 , . . . , xp ) = ε(τ )f (x1 , . . . , xp ).


Soit σ une permutation quelconque de Sp . D’après le théorème 4.5, σ est un pro-
duit de transpositions τ1 · · · τs . La relation d’antisymétrie étant vérifiée par chaque
transposition, on a :

f (xσ(1) , . . . , xσ(p) ) = f (x(τ1 ···τr )(1) , . . . , x(τ1 ···τs )(p) ) = −f (x(τ1 ···τs−1 )(1) , . . . , x(τ1 ···τs−1 )(p) )
= +f (x(τ1 ···τs−2 )(1) , . . . , x(τ1 ···τs−2 )(p) ) = · · · = (−1)s f (x1 , . . . , xp ).

Or (−1)s est la signature de σ (théorème 4.8) donc la formule est démontrée.

4.3 Déterminants : définitions et premières pro-


priétés
La construction du déterminant passe par l’étude des formes n-linéaires alternées
sur un espace de dimension n.
Exemple : (n = 2)
Considérons la base canonique (e1 , e2 ) de K 2 et f ∈ Λ2 (K 2 ). Écrivons x = ae1 + be2
et y = ce1 + de2 . Par bilinéarité, alternance et antisymétrie de f , on a :

f (x, y) = f (ae1 + be2 , ce1 + de2 ) = acf (e1 , e1 ) + adf (e1 , e2 ) + bcf (e2 , e1 ) + bdf (e2 , e2 )
= adf (e1 , e2 ) + bcf (e2 , e1 ) = (ad − bc)f (e1 , e2 ).

Donc f est déterminée par sa valeur f (e1 , e2 ).

Théorème 4.15 (Théorème–Définition). Soit E un espace vectoriel de dimension n


sur K et soit B = (e1 , . . . , en ) une base de E. L’espace Λn (E) est un espace vectoriel
de dimension 1 et il existe une unique f ∈ Λn (E) telle que f (e1 , e2 , · · · , en ) = 1. On
note detB cette forme alternée.
Déterminants : définitions et premières propriétés 59

Démonstration. Dans la base B, écrivons xj = ni=1 ai,j ei pour tout j ∈ {1, . . . , n}.
P
Soit f ∈ Λn (E). En développant comme dans l’exemple pour n = 2 on trouve :
n n
!
X X
f (x1 , . . . , xn ) = f ai,1 ei , · · · , ai,n ei
i=1 i=1
X X
= ··· f (ai1 ,1 ei1 , · · · , ain ,n ein )
1≤i1 ≤n 1≤in ≤n
X X
= ··· ai1 ,1 · · · ain ,n f (ei1 , · · · , ein )
1≤i1 ≤n 1≤in ≤n
X
= ai1 ,1 · · · ain ,n f (ei1 , · · · , ein )
1≤i1 ,i2 ,··· ,in ≤n

Comme f est alternée beaucoup des nn termes de la somme précédente sont nuls.
En effet, si ij = ij 0 avec j 6= j 0 alors f (ei1 , · · · , ein ) = 0. Ainsi, la somme porte sur
les 1 ≤ i1 , i2 , · · · , in ≤ n qui ne contiennent pas de répétition, en d’autres termes la
somme porte sur les 1 ≤ i1 , i2 , · · · , in ≤ n qui forment une permutation de {1, 2, · · · , n}.
Il vient donc
X
f (x1 , . . . , xn ) = aσ(1),1 · · · aσ(n),n f (eσ(1) , · · · , eσ(n) ).
σ∈Sn

Par la proposition 4.14 (antisymétrie de f ), on a aussi :


!
X
f (x1 , . . . , xn ) = ε(σ)aσ(1),1 · · · aσ(n),n f (e1 , . . . , en ) (4.3.1)
σ∈Sn

Donc f est déterminée de façon unique par sa valeur f (e1 , . . . , en ) ∈ K. Pour toute
autre forme n-linéaire alternée g sur E, il existe λ ∈ K tel que g(e1 , . . . , en ) =
λf (e1 , . . . , en ) et alors g = λf . Cela prouve dim Λn (E) ≤ 1.
On pose X
∆(x1 , . . . , xn ) = ε(σ)aσ(1),1 · · · aσ(n),n .
σ∈Sn

Montrons que ∆ est une forme n-linéaire alternée qui vérifie ∆(e1 , . . . , en ) = 1. Elle
sera donc non nulle, ce qui prouvera dim Λn (E) = 1 et le théorème.
L’application ∆ est une forme linéaire en chacune des variables : chaque terme
aσ(1),1 · · · aσ(n),n = e∗σ(1) (x1 ) · · · e∗σ(n) (xn ) est linéaire en chacun des x1 , . . . , xn .
Montrons que ∆ est alternée. Soient i1 6= i2 deux entiers de {1, 2, · · · , n} tels que
xi1 = xi2 . On considère la transposition τ ∈ Sn qui échange i1 et i2 . Si on désigne par
An le sous-ensemble des permutations de Sn dont la signature est +1 (An s’appelle
60 Déterminant

le groupe alterné) alors An et An τ forment une partition de Sn . En effet la signature


d’un élément de An est +1 alors que la signature d’un élément de An τ est −1. De plus,
ces deux sous-ensembles sont de cardinaux n!/2 (l’application An → Sn \An : σ 7→ στ
est une bijection). On a donc
X X
∆(x1 , . . . , xn ) = ε(σ)aσ(1),1 · · · aσ(n),n + ε(σ 0 )aσ0 (1),1 · · · aσ0 (n),n
σ∈An σ 0 ∈An τ
X X
= aσ(1),1 · · · aσ(n),n − aσ0 (1),1 · · · aσ0 (n),n
σ∈An σ 0 ∈An τ
X X
= aσ(1),1 · · · aσ(n),n − aστ (1),1 · · · aστ (n),n
σ∈An σ∈Sn
X 
= aσ(1),1 · · · aσ(n),n − aστ (1),1 · · · aστ (n),n .
σ∈An

Pour le terme entre parenthèse dans le membre de droite :


- si i ∈ {1, 2, · · · , n} \ {i1 , i2 }, on a στ (i) = σ(i) ;
- si i = i1 , on a στ (i1 ) = σ(i2 ) ;
- et enfin, si i = i1 , on a στ (i2 ) = σ(i1 ).
Pour tout i 6= i1 et i 6= i2 , on a donc aστ (k),k = aσ(k),k . D’autre part, on a aστ (i1 ),i1 =
aσ(i2 ),i1 = aσ(i2 ),i2 car les coordonnées de xi1 et xi2 sont les mêmes. De même,
aστ (i2 ),i2 = aσ(i1 ),i2 = aσ(i1 ),i1 . On conclut que tous les termes

aσ(1),1 · · · aσ(n),n − aστ (1),1 · · · aστ (n),n

sont nuls et que ∆(x1 , . . . , xn ) = 0. Ainsi ∆ est alternée. Enfin, on a


X
∆(e1 , · · · , en ) = ε(σ)e∗σ(1) (e1 ) · · · e∗σ(n) (en )
σ∈Sn

Les termes dans la somme sont tous nuls sauf pour σ = id{1,2,··· ,n} et on a bien
∆(e1 , · · · , en ) = e∗1 (e1 ) · · · e∗n (en ) = 1. On termine la preuve en posant detB = ∆.

Remarques : il existe donc des formes n-linéaires alternées non nulles sur E de
dimension n. L’espace Λn (E) étant de dimension 1, deux telles formes n-linéaires
alternées sont toujours proportionnelles. D’autre part, la démonstration du théorème
précédent montre que :
1- pour tout (x1 , . . . , xn ) ∈ E n on a

X n
Y
detB (x1 , . . . , xn ) = ε(σ) aσ(j),j
σ∈Sn j=1
Déterminants : définitions et premières propriétés 61

où xj = ni=1 ai,j ei est écrit dans la base B.


P
2- pour toute forme f ∈ Λn (E) on a

f (x1 , . . . , xn ) = detB (x1 , . . . , xn )f (e1 , . . . , en ), (4.3.2)

pour tout (x1 , . . . , xn ) ∈ E n .

Proposition 4.16 (Déterminant dans une base et famille liée). Soit B une base de
E et soit (x1 , . . . , xn ) une famille de vecteurs de E. Alors cette famille est liée si et
seulement si detB (x1 , . . . , xn ) = 0.

Démonstration. (⇒) Si la famille est liée, comme detB est une forme n-linéaire
alternée, on a detB (x1 , . . . , xn ) = 0 d’après la proposition 4.12.
(⇐) Raisonnons par contraposée. Supposons que la famille X = (x1 , . . . , xn ) est
libre dans E. Elle possède n vecteurs dans E de dimension n, donc c’est une base
de E. D’après le théorème 4.15, il existe λ ∈ K ∗ tel que detX = λ detB . Donc
1 = detX (x1 , . . . , xn ) = λ detB (x1 , . . . , xn ) donc detB (x1 , . . . , xn ) 6= 0.

Définition 4.17. Soit E un espace vectoriel de dimension n sur K et soit B =


(e1 , · · · , en ) une base de E. Pour (x1 , x2 , · · · , xn ) ∈ E n , on appelle déterminant de
la famille (x1 , · · · , xn ) relativement à la base B la valeur en (x1 , · · · , xn ) de l’unique
forme detB ∈ Λn (E) qui vaut 1 sur la base B. On le note detB (x1 , · · · , xn ) (ou
det(x1 , · · · , xn ) s’il n’y a pas d’ambiguité).

Remarque : si on écrit
X
xj = ai,j ei
1≤i≤n

dans la base B, on a
X
detB (x1 , · · · , xn ) = ε(σ)aσ(1),1 · · · aσ(n),n .
σ∈Sn

On note aussi

a1,1 · · · a1,j · · · a1,n


.. .. ..
. . .
detB (x1 , · · · , xn ) = ai,1 · · · ai,j ··· ai,n .
.. .. ..
. . .
an,1 an,j an,n
62 Déterminant

4.4 Déterminant d’un endomorphisme


Soit u : E → E un endomorphisme. L’application

ϕ: Λn (E) −→ Λn (E)
f 7−→ ϕ(f ) : (x1 , · · · , xn ) 7→ f (u(x1 ), · · · , u(xn ))

est une application linéaire (on vérifie que (x1 , · · · , xn ) 7→ f (u(x1 ), · · · , u(xn )) est
n-linéaire alternée). Comme Λn (E) est un espace vectoriel de dimension 1, f et ϕ(f )
sont colinéaires et il existe un scalaire λu ∈ K tel que ϕ(f ) = λu f i.e. pour tout
(x1 , · · · , xn ) ∈ E n on a

f (u(x1 ), · · · , u(xn )) = λu f (x1 , · · · , xn ).

Définition 4.18. Soit u ∈ L(E). Si B = (e1 , . . . , en ) est une base de E, le scalaire

detB (u(e1 ), . . . , u(en )) ∈ K

est indépendant du choix de B. On l’appelle déterminant de u et on le note det u.

En effet, vérifions que ce scalaire ne dépend pas du choix de la base B. Par la


discussion précédente, il existe λu ∈ K (indépendant de B) tel que, pour toute base
B = (e1 , . . . , en ) on a pour f = detB :

detB (u(e1 ), . . . , u(en )) = λu detB (e1 , . . . , en ) = λu

par le théorème 4.15.

Proposition 4.19 (Propriétés du déterminant d’un endomorphisme). On a les pro-


priétés suivantes :
— soit idE : E → E l’identité sur E alors det idE = 1 ;
— soient u, v ∈ L(E), alors det(u ◦ v) = det u det v(= det v det u) ;
— soit u ∈ L(E) alors u est un isomorphisme si et seulement si det u 6= 0. Dans
ce cas, det(u−1 ) = 1/(det u).

Démonstration. Fixons une base B = (e1 , . . . , en ) de E. Tout d’abord, on a det id =


detB (id(e1 ), . . . , id(en )) = detB (e1 , . . . , en ) = 1. Pour le deuxième point, l’application

En −→ K
(x1 , . . . , xn ) 7−→ detB (u(x1 ), . . . , u(xn ))

est n-linéaire alternée. Par (4.3.2) on a

detB (u(x1 ), . . . , u(xn )) = detB (u(e1 ), . . . , u(en )) detB (x1 , . . . , xn )


Déterminant d’une matrice carrée 63

pour tout (x1 , . . . , xn ). En évaluant en les xi = v(ei ), on obtient

detB (u ◦ v) = detB (u(e1 ), . . . , u(en )) detB (v(e1 ), . . . , v(en )) = det u det v.

Enfin, si u est inversible, u−1 existe dans L(E) et on a

1 = det id = det(u ◦ u−1 ) = det u det(u−1 ).

Inversement si det u = detB (u(e1 ), . . . , u(en )) 6= 0 alors la famille (u(e1 ), . . . , u(en ))


est libre par la proposition 4.16. Elle a n vecteurs donc c’est une base de E. Ainsi
u, qui envoie la base B sur une base de E, est un isomorphisme.

4.5 Déterminant d’une matrice carrée


Définition 4.20. Soit A = (ai,j )1≤i,j≤n une matrice carrée de taille n × n, le
déterminant de A est
X
det(A) = ε(σ)aσ(1),1 · · · aσ(n),n .
σ∈Sn

Par les discussions précédentes, le déterminant de A est le déterminant par rap-


port à la base canonique de la famille des n vecteurs de K n constituée des vecteurs
de K n dont les coordonnées dans la base canonique sont les colonnes de la matrice.
On a alors
a1,1 · · · a1,j · · · a1,n
.. .. ..
. . .
det(A) = ai,1 · · · ai,j ··· ai,n .
.. .. ..
. . .
an,1 an,j an,n
De même, si u est un endomorphisme de E et si A = M atB (f ) alors det(A) = det(u).
On remarque, encore une fois, que le résultat ne dépend pas de la base choisie puisque
si P est la matrice de passage de la base B à B 0 alors

det(M atB0 (f )) = det(P −1 AP ) = det(P )−1 det(A) det(P ) = det(A) = det(M atB (f )).

Proposition 4.21. Soient A et B deux matrices deux matrices n × n. On a

det(t A) = det(A);
det(AB) = det(A) det(B);
det(A−1 ) = det(A)−1 (pour A est inversible).
64 Déterminant

Démonstration. La deuxième et troisième égalités découlent de la proposition 4.19.


Pour la première, si A = (ai,j ), on note que pour tout σ 0 ∈ Sn on a
aσ(1),1 · · · aσ(n),n = aσ(σ0 (1)),σ0 (1) · · · aσ(σ0 (n)),σ0 (n)
car σ 0 est une bijection. En prenant σ 0 = σ −1 , il vient en remarquant que ε(σ) =
ε(σ −1 ) :
X
det(A) = ε(σ)aσ(1),1 · · · aσ(n),n
σ∈Sn
X
= ε(σ)aσ(σ−1 (1)),σ−1 (1) · · · aσ(σ−1 (n)),σ−1 (n)
σ∈Sn
X
= ε(σ −1 )a1,σ−1 (1) · · · an,σ−1 (n)
σ∈Sn
X
= ε(σ)a1,σ(1) · · · an,σ(n) = det(t A).
σ∈Sn

Remarque : on déduit de l’égalité det(t A) = det(A) que si u : E → E est un


endomorphisme, alors det(u) = det(t u) où t u : E ∗ → E ∗ est l’endomorphisme adjoint
de u.

4.6 Calcul du déterminant


Proposition 4.22. On a
a b
= ad − bc.
c d
Si  
a1,1 a1,2 a1,3
A =  a2,1 a2,2 a2,3  ,
a3,1 a3,2 a3,3
alors on a
det(A) = a1,1 a2,2 a3,3 +a2,1 a3,2 a1,3 +a3,1 a1,2 a2,3 −a2,1 a1,2 a3,3 −a3,1 a2,2 a1,3 −a1,1 a3,2 a2,3 .
Démonstration. La première égalité a déjà été vue. Le groupe S2 possède 2 éléments :
l’identité, permutation paire, qui donne le terme ab et la transposition (1, 2), impaire
qui donne le terme −bc.
Pour la deuxième,
   le groupe  S3 possède 6 éléments. Trois permutation paires : id,
1 2 3 1 2 3
et qui donnent les trois premiers termes et trois transpo-
2 3 1 3 1 2
sitions (impaires) : (1, 2), (1, 3) et (2, 3) qui donnent les trois derniers termes.
Calcul du déterminant 65

Proposition 4.23. Soit A une matrice n × n dont on note les colonnes sous la
formes (C1 , C2 , · · · , Cn ) et les lignes (L1 , · · · , Ln ). On a :
— le déterminant de A est nul dès qu’une colonne (ou une ligne) est nulle, dès
que les colonnes sont dépendantes ou dès que les lignes sont dépendantes ;
— tout permutation σ sur les colonnes (resp. lignes) de A échange det(A) en
ε(σ) det(A) ;
— pour toute famille (λk )1≤k≤n de scalaires,
n
X
det(C1 , · · · , λi Ci , · · · , Cn ) = λi det(C1 , · · · , Ci , · · · , Cn ) ;
k=1

— pour toute famille (λk )1≤k≤n de scalaires,


n
X
det(L1 , · · · , λi Li , · · · , Ln ) = λi det(L1 , · · · , Li , · · · , Ln ).
k=1

Démonstration. Toutes ces propriétés découlent du fait que le déterminant est une
forme n-linéaire alternée de vecteurs colonnes (ou lignes).

Proposition 4.24. Si T = (ti,j )1≤i,j≤n est une matrice triangulaire supérieure (i.e.
ti,j = 0 dès que i > j) alors det(T ) = t1,1 t2,2 · · · tn,n .

Démonstration. En effet, on a
X
det(T ) = ε(σ)tσ(1),1 · · · tσ(n),n .
σ∈Sn

Pour σ ∈ Sn , le terme tσ(1),1 · · · tσ(n),n est nul si il existe i ∈ {1, · · · , n} tel que σ(i) < i
car T est triangulaire supérieure. Ainsi, la somme porte sur les permutations σ ∈ Sn
telles que pour tout i ∈ {1, · · · , n} on a σ(i) ≥ i. Soit σ une telle permutation, on a
n
X n
X n
X
σ(i) − i = σ(i) − i = 0.
i=1 i=1 i=1

Comme σ(i) ≤ i pour tout i, on en déduit que σ(i) − i = 0 pour tout i et que σ est
l’identité. D’où le résultat.
Remarque : les 2 propositions précédentes permettent de calculer des déterminants
en effectuant une sorte de pivot de Gauss sur les lignes et les colonnes. Par exemple :

1 0 0 1 0 0 1 0 0
2 4 −1 = 0 4 −1 = 0 1 −1 = 1.
(L2 →L2 −2L1 ) (C2 →C2 +3C3 )
0 −3 1 0 −3 1 0 0 1
66 Déterminant

Proposition 4.25. Pour A ∈ Mp (K), C ∈ Mq (K), p + q = n et B ∈ Mp,q (K) on a


 
A B
det = det A det C
0 C

Démonstration. Fixons d’abord les matrices B et C. En notant (A1 , · · · , Ap ) les


colonnes de A, l’application

K p × · · · × K p −→ K  
A B
(A1 , . . . , Ap ) 7−→ det
0 C

est une forme p-linéaire alternée sur K p (on le vérifie aisément). Elle est donc pro-
portionnelle à (A1 , . . . , Ap ) 7→ det A et par le théorème 4.15 on a
   
A B Ip B
∀A ∈ Mp (K) det = det det A.
0 C 0 C

De même, ennotant (C1 , · · · , Cq ) les colonnes de C, l’application (C1 , . . . , Cq ) 7→


Ip B
det est une forme q-linéaire alternée des vecteurs lignes de C. Donc
0 C
   
Ip B Ip B
∀C ∈ Mq (K) det = det det C = det C
0 C 0 Iq
 
Ip B
car est triangulaire supérieure d’éléments diagonaux égaux à 1.
0 Iq
Exemples : On a :

1 2 3
4 5
0 4 5 = det(1) = 1 × (−2) = −2.
6 7
0 6 7

On a :
1 2 3 4
5 6 7 8 1 2 9 10
= = (1.6 − 5.2)(9.12 − 11.10) = (−4)(−2) = 8.
0 0 9 10 5 6 11 12
0 0 11 12

Notation. Soit A ∈ Mn (K). On note A cij la matrice de Mn−1 (K) extraite de A en


supprimant la i-ème ligne et la j-ème colonne.
Calcul du déterminant 67

Définition 4.26. Soit A ∈ Mn (K). Le mineur (en position (i, j) de A) est le


déterminant de la matrice A
cij , noté ∆ij . Le cofacteur (en position (i, j)) est cij =
(−1)i+j ∆ij .
 
1 2 3
Exemples de mineurs et cofacteurs de A = 4 5 6 :
7 8 9

1 3
∆22 = = −12, c22 = (−1)4 (−12) = −12.
7 9
1 2
∆23 = = −6, c23 = (−1)5 (−6) = 6.
7 8

Proposition 4.27. Soient A = (aij )i,j ∈ Mn (K) et i, j dans {1, . . . , n}, on a les
formules suivantes :
— développement par rapport à la i-ème ligne :
n
X
det A = aij cij ;
j=1

— développement par rapport à la j-ème colonne :


n
X
det A = aij cij .
i=1

Démonstration. Notons A1 , . . . , An les colonnes de A. Prouvons d’abord

cij = det(A1 , . . . , Aj−1 , ei , Aj+1 , . . . , An ) (4.6.1)

où ei = (0, . . . , 0, 1, 0, . . . , 0) est le i-ème vecteur de la base canonique de K n Posons


B = (A1 , . . . , Aj−1 , ei , Aj+1 , . . . , An ). On met ei en première position en permutant
successivement cette colonne avec Aj , . . . , A1 :

det B = (−1)j−1 det(ei , A1 , . . . , Aj−1 , Aj+1 , . . . , An ).

De même, on place la i-ème ligne en première position par permutation de lignes :

1 ∗
 
j−1 i−1
det B = (−1) (−1) det .
0 A
cij

Ce déterminant par blocs vaut (−1)i+j det A


cij = (−1)i+j ∆ij = cij , ce qui prouve (4.6.1).
68 Déterminant

Pn
Par ailleurs, on a Aj = i=1 aij ei donc par linéarité du déterminant par rapport
à la j-ème colonne :
n
X n
X
det A = aij det(A1 , . . . , Aj−1 , ei , Aj+1 , . . . , An ) = aij cij .
i=1 i=1

Pour les lignes on procède de même.

Ce résultat permet de ramener le calcul d’un déterminant de taille n à celui d’au


plus n déterminants de taille (n − 1). C’est particulièrement intéressant à mettre en
œuvre lorsque la matrice contient beaucoup de coefficients nuls sur une ligne ou une
colonne (on aurait alors intérêt à développer par rapport à cette ligne ou colonne).

Exemple : on pose  
1 −1 2
A = 2 0 1  .
3 1 3
Développons par rapport à la deuxième colonne :

2 1 1 2
det A = (−1)c12 + 0 + 1c32 = −(−1)3 ∆12 + (−1)5 ∆32 = − = 6.
3 3 2 1

Le calcul peut se simplifier en faisant apparaı̂tre au préalable un 0 supplémentaire


dans la colonne (cf. pivot de Gauss) :

4 0 5
4 5
det A = 2 0 1 = 1(−1)5 ∆32 = − = 6.
L1 →L1 +L3 2 1
3 1 3

4.7 Applications
Inverse d’une matrice

Définition 4.28. Soit A = (aij )1≤i,j≤n ∈ Mn (K). La comatrice de A est la matrice


(cij )1≤i,j≤n des cofacteurs de A. On la note A
e ou Com(A).

Exemple : si  
a b
A=
c d
alors  
d −c
A
e= .
−b a
Applications 69

Théorème 4.29. Pour toute matrice carrée A ∈ Mn (K) on a

A(t A)
e = (t A)A
e = (det A)In .

En particulier si det A 6= 0, la matrice A est inversible et d’inverse A−1 = det1 A t A.


e

Démonstration. Posons B = A(t A) e = (bik )1≤i,k≤n . On a bik = Pn aij djk où djk est
j=1
t e
le coefficient en (j, k) de A, c’est-à-dire le coefficient en (k, j) de A.
e Ainsi on a :
n
X
bik = aij ckj .
j=1
Pn
Si k = i alors bii = j=1 aij cij = det A (développement par rapport à la i-ème
ligne). Si k 6= i, le développement par rapport à la k-ème ligne dit que bik est le
déterminant de la matrice obtenue à partir de A en remplaçant la k-ème ligne par
la i-ème. Elle possède deux lignes égales donc bik = 0. Ainsi B = (det A)In . En
procédant de même avec les colonnes on trouve (t A)A e = (det A)In .

Exemple : si ad − bc 6= 0 alors
 −1  
a b 1 d −b
=
c d ad − bc −c a
Il s’agit d’une formule à retenir.

La formule A−1 = det1 A t A


e présente un intérêt théorique. Dans la pratique, elle n’est
pas toujours efficace pour calculer la matrice inverse (on pourra parfois lui préférer
la méthode du pivot).

Formules de Cramer
Soient A ∈ GLn (K) (matrice inversible) et B ∈ K n . On considère le système linéaire
carré (autant d’équations que d’inconnues) AX = B pour X ∈ K n . Comme A est
inversible, il possède une unique solution :
 
x1
 .. 
X =  .  = A−1 B.
xn

Les formules de Cramer expriment cette solution en fonction de A et du second


membre B, à l’aide de déterminants et sans recours à l’inverse.
70 Déterminant

Proposition 4.30. Avec les notations précédentes, l’unique solution est donnée
par :
1
∀j ∈ {1 . . . , n} xj = det(A1 , . . . , Aj−1 , B, Aj+1 , . . . , An )
det A
((A1 , . . . , Aj−1 , B, Aj+1 , . . . , An ) est la matrice obtenue en remplaçant la j-ème co-
lonne de A par B).
Démonstration. De AX = B on tire B = ni=1 xi Ai d’où par linéarité du déterminant
P
par rapport à la j-ème colonne :
n
X
δ := det(A1 , . . . , Aj−1 , B, Aj+1 , . . . , An ) = xi det(A1 , . . . , Aj−1 , Ai , Aj+1 , . . . , An )
i=1

Si i 6= j, la matrice du membre de droite a deux colonnes égales donc son déterminant


est nul. D’où
δ = xj det(A1 , . . . , Aj−1 , Aj , Aj+1 , . . . , An ) = xj det A.

Cette formule présente elle aussi un intérêt théorique. Pour être appliquée en pra-
tique, elle suppose de calculer n+1 déterminants de taille n. Pour résoudre le système
AX = B, on pourra lui préférer la méthode du pivot dans certaines circonstances.

Calcul du rang
Définition 4.31. Soit A ∈ Mn,p (K) une matrice non nécessairement carrée. On
généralise la notion de mineur en appelant mineur de A d’ordre s tout déterminant
d’une matrice carrée de taille s × s obtenue en supprimant des lignes et des colonnes
de A.
Exemple : on pose  
1 2 3 4
A = 5 6 7 8  .
9 10 11 12
Ses mineurs d’ordre 1 sont 1, 2, . . . , 12. Voici des exemples de mineurs d’ordre 2 :
1 2 2 4 5 8
, , .
5 6 10 12 9 12
Les mineurs d’ordre 3 de A sont :
1 2 3 2 3 4 1 3 4 1 2 4
5 6 7 , 6 7 8 , 5 7 8 , 5 5 8 .
9 10 11 10 11 12 9 11 12 9 10 12
Applications 71

Théorème 4.32. Soit A ∈ Mn,p (K). Le rang de A est égal à l’ordre maximal d’un
mineur non nul de A. Autrement dit, le rang de A est l’entier 0 ≤ r ≤ min(n, p) tel
qu’il existe un mineur non nul d’ordre r et que tout mineur d’ordre r + 1 est nul.
Démonstration. Notons s l’ordre maximal d’un mineur non nul de A et r = rg A.
Notons aussi Aj ∈ K n (resp. Bj ∈ K α ) la j-ème colonne de A (resp. de B).
Prouvons r ≥ s. Soit B une matrice carrée d’ordre α extraite de A. Il s’agit de
montrer : α > r ⇒ det B = 0. Notons I (resp. J) l’ensemble des indices des lignes
(resp. des colonnes) qui crée B par extraction de A (I et J sont de cardinal α).
Comme
P α > r, la famille {Aj | j ∈ J} est liée : il existe des λj non tous
P nuls tels que
j∈J λj Aj = 0. En extrayant les lignes d’indices dans I, on obtient j∈J λj Bj = 0.
Les colonnes de B étant liées, le déterminant de B est nul.
Enfin montrons que A possède un mineur non nul d’ordre r (cela prouvera r =
s). Comme r = rg A, de la matrice A on peut extraire r colonnes linéairement
indépendantes. Appelons A0 ∈ Mn,r (K) la sous-matrice ainsi extraite de A. Elle
est de rang r. Maintenant la matrice t (A0 ) ∈ Mr,p (K) est aussi de rang r : on
peut donc extraire une sous-matrice de A0 en sélectionnant r colonnes linéairement
indépendantes (c’est-à-dire r lignes linéairement indépendantes de A0 ). Ces deux
opérations reviennent à extraire de A une sous-matrice B ∈ Mr,r (K) dont les lignes
et les colonnes sont linéairement indépendantes. Donc det B 6= 0 et comme c’est un
mineur d’ordre r de A, l’affirmation est démontrée.
Pour appliquer le théorème, plutôt que de calculer tous les mineurs de A, on
procède de la façon suivante. On commence par ceux d’ordre le plus grand possible
c’est-à-dire min(n, p). Si l’un est non nul, cela veut dire que A est de rang min(n, p).
Sinon, on regarde les mineurs d’ordre (min(n, p) − 1)... et ainsi de suite. L’ordre du
premier mineur non nul trouvé est le rang A.
Exemple : on pose  
1 1 0 1
A= 1  0 −1 2  .
0 1 1 −1
Les mineurs extraits de A sont d’ordre ≤ 3. Calculons ses mineurs d’ordre 3 :
1 1 0 1 0 −1
1 0 −1 = 1 0 −1 = 0
L1 →L1 −L3
0 1 1 0 1 1

1 1 1 1 0 2
1 0 2 = 1 0 2 =0
L1 →L1 −L3
0 1 −1 0 1 −1
72 Déterminant

1 0 1 1 1 −1
0 −1 2 = 0 −1 2 = 0
L1 →L1 −L2
1 1 −1 1 1 −1

1 0 1 0 1 −1
1 −1 2 = 1 −1 2 = 0
L1 →L1 −L2
0 1 −1 0 1 −1

Comme ils sont tous nuls, rg A ≤ 2. Maintenant le mineur d’ordre 2 :

1 1
= −1
1 0

est non nul. Donc rg A = 2.

La mise en pratique de ce théorème nécessite le calcul de plusieurs déterminants. La


méthode du pivot peut s’avérer plus efficace pour calculer le rang.

Polynômes caractéristiques et diagonalisation


Définition 4.33. Soit E un K-espace vectoriel de dimension et u : E → E une
application linéaire. Pour λ ∈ K, on dit que λ est valeur propre de u s’il existe
x ∈ E non-nul, tel que u(x) = λx. Dans ce cas, on dit x est un vecteur propre pour
la valeur propre λ.
Exemple : on considère l’endomorphisme u de R3 dans R3 dont la matrice dans la
base canonique (e1 , e2 , e3 ) est :
 
6 −8 −4
A =  2 −2 −2  .
1 −2 1

On pose f1 = 4e1 + 2e2 + e3 , f2 = 2e1 + e2 et f3 = e1 + e3 . On voit facilement que


B 0 = (f1 , f2 , f3 ) est une base de R3 . De plus, u(f1 ) = f1 , u(f2 ) = 2f2 et u(f3 ) = 2f3 .
Ainsi, f1 est un vecteur propre pour la valeur propre 1 et f2 , f3 sont deux vecteurs
propres pour la valeur propre 2. La matrice de u dans la base B 0 est
 
1 0 0
A0 =  0 2 0  .
0 0 2

Définition 4.34. Soit E un K-espace vectoriel de dimension et u : E → E une


application linéaire. On dit que u est diagonalisable si il existe une base de E formée
de vecteur propre de u.
Applications 73

Autrement dit u est diagonalisable s’il existe une base B telle que la matrice de u
dans B est une matrice diagonale.

Définition 4.35. Soit E un K-espace vectoriel de dimension et u : E → E une


application linéaire. Le polynôme caractéristique de u est le déterminant

χu (X) = det(XidE − u).

Exemple : on considère l’endomorphisme u de R3 dans R3 dont la matrice dans la


base canonique (e1 , e2 , e3 ) est :
 
6 −8 −4
A =  2 −2 −2  .
1 −2 1

Le polynôme caractéristique de u est

X −6 8 4
χu (X) = −2 X +2 2 = X 3 − 5X 2 + 8X − 4.
−1 2 X −1

Proposition 4.36. Soit E un K-espace vectoriel de dimension et u : E → E une


application linéaire. Les valeurs de u sont les racines du polynôme caractéristique.

Démonstration. Le nombre λ ∈ K est une valeur propre de u si et seulement si


ker(λidE − u) possède un vecteur non-nul donc si et seulement si λidE − u n’est pas
injective si et seulement si det(λidE − u) = 0.
Exemple : pour l’exemple précédent on a X 3 − 5X 2 + 8X − 4 = (X − 1)(X − 2)2
et le valeur propre sont 1 et 2.

Définition 4.37. Avec les notations ci-dessus et pour λ une valeur propre de E, le
sous-espace Eλ = ker(λidE − u) est appelé sous-espace propre de u pour la valeur
propre λ.

Proposition 4.38. Soit E un K-espace vectoriel de dimension et u : E → E une


application linéaire, on a :
- pour λ ∈ K, Eλ 6= {0} si et seulement si λ est une valeur propre de u ;
- pour λ, µ ∈ K, si λ 6= µ, on a Eλ ∩ Eµ = {0} ;
- l’endomorphisme u est diagonalisable si et seulement si

E = Eλ1 ⊕ Eλ2 ⊕ · · · ⊕ Eλk ,

où λ1 , λ2 , · · · , λk sont les valeurs propres de u.


74 Déterminant
Chapitre 5

Exercices

Voici une liste d’exercices sur les différents chapitres traı̂tés dans ce cours. Il
est fort souhaitable que l’étudiant fasse sensiblement plus d’exercices que ce qui est
proposé ci-dessous.

Feuille de TD n◦1 : Rappels


d’algèbre linéaire

5.1 Familles libres, familles génératrices, bases


Exercice 5.1. Déterminer si les familles suivantes sont libres dans l’espace vectoriel
E donné :
1. E = R3 , u = (1, 1, 1), v = (1, 0, 1), w = (2, −1, 1).
2. E = R3 , u = (1, 2, 3), v = (1, −4, 2), w = (3, 0, 8).
3. E = A(R, R), f (x) = cos x, g(x) = sin x.
4. E = A(R, R), f (x) = (shx)2 , g(x) = (chx)2 , h(x) = 3.
     
1 1 1 0 1 1
5. E = M2 (R), A = , B= , C= .
1 1 0 1 0 0
Exercice 5.2. Déterminer le rang des familles suivantes et, le cas échéant, donner
une relation de liaison entre ces vecteurs :
1. {(1, 3, 1), (1, 3, 0), (0, 3, 1)}.

75
76 Exercices

2. {(1, −1, 2), (2, 5, −3), (1, −8, 9), (−3, 10, −13)}.
3. {(1, 1, −2, −1), (2, 3, −2, −3), (1, 4, 4, −4), (1, 1, −1, 0)}.
4. {(1, 1, 1, 1), (2, 0, 1, −1), (5, 2, 1, 0), (−12, 1, 6, 5)}.
Exercice 5.3. Soit n ≥ 0 un entier naturel et P0 , . . . , Pn une famille de polynômes
de R[X] telle que pour tout i, deg Pi = i (une telle famille est dite échelonnée en
degré). Montrer que {P0 , . . . , Pn } est une base de Rn [X], le R-espace vectoriel des
polynômes de degré ≤ n.

5.2 Noyaux et images d’applications linéaires


Exercice 5.4. Soient les applications linéaires g : R3 → R2 , (x, y, z) 7→ (x − y +
2z, 2x − z) et h : R3 → R3 , (x, y, z) 7→ (x − y + 2z, 2x − z, 4x + 2y − 7z). Déterminer
les noyaux et les images de g et h, puis en donner une base.
Exercice 5.5. Soient E un espace vectoriel de dimension finie et f une application
linéaire de E dans E.
1. Montrer que
Kerf et Imf sont supplémentaires dans E ⇔ Kerf ∩ Imf = {0} ⇔ Kerf +
Imf = E.
2. Soit g l’application linéaire de R4 dans R4 définie par g(e1 ) = −2e1 −
3e4 , g(e2 ) = 10e1 + 2e2 − 6e3 + 8e4 , g(e3 ) = 3e1 + e2 − 3e3 + e4 , g(e4 ) =
5e1 + e2 − 3e3 + 4e4 , où (e1 , e2 , e3 , e4 ) est la base canonique de R4 . Les sous-
espaces vectoriels Kerg et Img de R4 sont-ils supplémentaires ?

5.3 Matrices d’applications linéaires


Exercice 5.6. Soit B = (v1 , v2 , v3 ) une base de R3 . On note T l’endomorphisme de
R3 déterminé par T (v1 ) = T (v3 ) = v3 et T (v2 ) = −v1 + v2 + v3 .
1. Écrire la matrice A = M atB,B (T ). Déterminer Ker T .
2. On pose f1 = v1 − v3 , f2 = v1 − v2 , f3 = −v1 + v2 + v3 .
(a) Calculer v1 , v2 , v3 en fonction de f1 , f2 , f3 .
(b) Montrer que C = (f1 , f2 , f3 ) est une base de R3 .
3. Exprimer T (f1 ), T (f2 ), T (f3 ) en fonction de f1 , f2 , f3 . Écrire B = M atC,C (T )
et reconnaı̂treT . 
1 1 −1
4. On pose P =  0 −1 1  . Vérifier que P est inversible et calculer P −1 .
−1 0 1
Quelle relation lie A, B, P et P −1 ?
Somme d’espaces vectoriels 77

Exercice 5.7. Soient f : M2 (R) → R et g : M2 (R) → M2 (R) les applications


définies par  
2x + t x + y + t
f (M ) = x + t et g(M ) = pour toute matrice M =
  x+ z + t −2x − t
x y 1 1
∈ M2 (R). Posons U = .
z t 1 −2
1. Trouver une base de Ker f .
2. Calculer g(M ) − M lorsque M ∈ Ker f . En déduire l’inclusion Ker f ⊂ Im g.
3. Calculer g(U ). En déduire que l’on a Ker f = Im g et que U est une base de
Ker g.
4. Montrer que les sous-espaces vectoriels Ker g et Ker f de M2 (R) sont
supplémentaires.
5. Soit (V, W, T ) une base de Ker f . Écrire la matrice de g dans la base (U, V, W, T ).

5.4 Somme d’espaces vectoriels


(x, y, z) ∈ R3 /x + y + z = 0

Exercice 5.8. Soient P = et
D = (x, y, z) ∈ R /x + y = 0, x − y + z = 0 deux sous-espaces vectoriels de R3 .
3


Déterminer une base de P et une base de D. Les sous-espaces P et D sont-ils


supplémentaires ?
Exercice 5.9. Soit E = D(R, R) l’espace vectoriel des fonctions dérivables sur R,
soient F = {f ∈ E; f (0) = f 0 (0) = 0} et G = {x 7→ ax + b; (a, b) ∈ R2 } . Montrer
que F et G sont deux sous-espaces vectoriels supplémentaires de E.

5.5 Projections, symétries


Exercice 5.10. Soit F = {(x, y, z) ∈ R3 , x−y+3z = 0} et G le sous-espace vectoriel
de R3 engendré par (−1, −3, 0). Soit u1 = (0, 3, 1), u2 = (1, 4, 1), u3 = (−1, −3, 0).
1. Montrer que F et G sont supplémentaires dans R3 et que (u1 , u2 ) est une
base de F .
2. Écrire la matrice de la projection f sur F parallèlement à G relativement à
la base (u1 , u2 , u3 ).
3. En déduire la matrice de f dans la base canonique.
 
3 −2 4
Exercice 5.11. Montrer que  0 1 0  ∈ M3 (R) est la matrice d’une symétrie
−2 2 −3
3
de R , qu’on précisera.
78 Exercices

Feuille de TD no2 : Polynômes

5.6 Généralités
Exercice 5.12.
Dire, pour chacun des objets suivants, s’il appartient à C[X], R[X], Q[X] :
     
2 9 2 0 1 2 3 1 2 1
(a) 3X + 1 (b) 5 X + 25X + 7π (c) X + X+
√ 1 0 1 0 1 9
(d) X + X1 (e) X + 2
(f ) (2X 3 + X + 2)m pour m ∈ N (g) (X 2 + 2)m − (X + 2)n pour m, n ∈ N.

Donner les degrés des deux derniers polynômes.


Exercice 5.13. Montrer que la famille (1, X + 1, X 2 + X + 1, X 3 + X 2 + X + 1) est
une base de l’espace vectoriel R3 [X].
Exercice 5.14. Soit f : R3 [X] → R3 [X] définie par f (P (X)) = P 0 (X).
1. Montrer que f est linéaire de R3 [X] dans R3 [X].
2. Déterminer le noyau et l’image de f .
3. Donner la matrice de f dans la base (1, X, X 2 , X 3 ) (base canonique de R3 [X]).
Exercice 5.15. Soit P ∈ R[X]. Déterminer le degré du polynôme P (X + 1) − P (X)
en fonction du degré de P.

5.7 Division euclidienne, divisibilité, PGCD, Al-


gorithme d’Euclide
Exercice 5.16. Effectuer la division euclidienne de A par B dans les cas suivants :
1. A(X) = 2X 3 + X + 1 et B(X) = 3X + 1 ;
2. A(X) = X 4 − 1 et B(X) = X 2 − 1 ;
3. A(X) = X 2 + 1 et B(X) = X 3 − 1 ;
4. A(X) = iX 4 + 4X 2 + 5 et B(X) = 2X 2 + 2X − 4.
Exercice 5.17. Déterminer le reste de la division euclidienne de X 50 par X 2 −3X +2
dans R[X].
Division euclidienne, divisibilité, PGCD, Algorithme d’Euclide 79

Exercice 5.18. Sans effectuer la division euclidienne, déterminer si le polynôme


A(X) = 3X 3 − 11X 2 + 12X − 4 est divisible par B(X) = (X − 1)(X − 2). Si c’est
le cas, déterminer le quotient de A par B.

Exercice 5.19. Soit P ∈ R[X]. On suppose que le reste de la division euclidienne


de P par (X − 1) est égal à 6 et que celui de la division de P par (X − 2) est égal
à 8. Déterminer le reste de la division euclidienne de P par (X − 1)(X − 2).

Exercice 5.20. On considère le polynôme P (X) = 2X 5 − X 4 − 2X 3 − 5X − 4 de


R[X].
1. Effectuer la division euclidienne de P par X 2 − 2X − 1.

2. En déduire la valeur de P en 1 + 2.

Exercice 5.21.
1. Déterminer dans chacun des cas suivant pgcd(A, B) :
(a) A(X) = X 5 + X 4 + 2X 3 − 2X + 3 et B(X) = X 4 + 3X 3 + 7X 2 + 8X + 6.
(b) A(X) = X 4 + X + 1 et B(X) = X 3 + 1 :
(c) A(X) = X 3 − X et B(X) = 2X 4 − 4X 2 + 2X ;
(d) A(X) = X 3 + 3X + 1 et B(X) = 2X 4 + 3X 3 + X + 1.
2. Supposons que A divise B. Que vaut alors pgcd(A, B) ?
3. En déduire le pgcd(A, B), avec A(X) = X 4 + 2X 2 + 1 et B(X) = X 2 + 1.

Exercice 5.22.
1. Soient P (X) = X 3 + 2X + 1 et Q(X) = X 4 + X 2 + X − 2. Montrer que
pgcd(P, Q) = 1.
2. Déterminer des polynômes U, V tels que U P + V Q = 1.
3
3. Mêmes questions avec P (X) = (X 2 − X + 1) et Q(X) = (2X 2 + X + 4).
2
Exercice 5.23. * (Polynômes de Fibonacci)
Soit (Pn ) la suite de K[X] définie par

P0 = 0, P1 = 1 et ∀ n ∈ N, Pn+2 = XPn+1 − Pn .
2
1. Montrer que ∀ n ∈ N, Pn+1 = 1 + Pn Pn+2 .
2. En déduire que ∀ n ∈ N, pgcd(Pn , Pn+1 ) = 1.
3. Établir que pour tout m ∈ N, n ∈ N \ {0} on a Pm+n = Pn Pm+1 − Pn−1 Pm .
4. Déduire de 2 et 3 que pour tout m ∈ N, n ∈ N \ {0} on a pgcd(Pm+n , Pn ) =
pgcd(Pn , Pm ).
80 Exercices

5.8 Racines, formule de Taylor, multiplicité


Exercice 5.24.
1. Déterminer les racines dans C, R et Q des polynômes suivants :

(a) Q1 (X) = X 3 + X 2 + X (b) Q2 (X) = X 2 + 2 (c) Q3 (X) = X 2 − 2


(d) Q4 (X) = X 6 + 1 (e) Q5 (X) = X m − 1 pour tout entier m.

2. Déterminer les racines dans C des polynômes suivants :

(a) P1 (X) = X 3 + 2X 2 − 4X + 1 (b) P2 (X) = iX 2 + iX − 9 + 7i


(c) P3 (X) = X 3 − (10 + 2i)X 2 − 5X + 20iX + 50 sachant qu’il a une racine réelle.

Exercice 5.25. Soit P un polynôme unitaire de degré n ∈ N∗ et ayant tous ses


coefficients dans Z. Montrer que si P admet une racine dans Z alors celle-ci divise
P (0).

Exercice 5.26. Les polynômes X 6 + X 4 et X 25 − X + 1 ont-ils une racine commune


sur C ? En déduire qu’ils sont premiers entre eux.

Exercice 5.27. Montrer que le polynôme P (X) = X 5 + 2X 4 + X 3 + 6X 2 + 5X − 6


est divisible par X 2 − X + 3. Factoriser le quotient, puis en déduire les racines de
P.

Exercice 5.28. Montrer que pour tout entier n ≥ 1 le polynôme P (X) = nX n+2 −
(n + 2)X n+1 + (n + 2)X − n de R[X] admet 1 comme racine, avec multiplicité 3.

Exercice 5.29. (Polynômes interpolateurs de Lagrange)


Soit (a0 , ...an ) une famille d’éléments que K deux à deux distincts. Considérons
l’application g : Kn [X] → Kn+1 définie par P (X) 7→ (P (a0 ), . . . , P (an )).
1. Montrer que g est linéaire et déterminer son noyau.
2. Montrer que g est un isomorphisme.
3. Pour tout i ∈ {0, 1, ..., n} on pose
Q
0≤j≤n,j6=i (X − aj )
Li (X) = Q ·
0≤j≤n,j6=i (ai − aj )

Que vaut Li (aj ) ? Que vaut g(Li (X)) ? Que peut-on dire de (L0 (X), . . . , Ln (X)) ?
4. En déduire que pour tout P ∈ K[X] de degré ≤ n on a P (X) = ni=0 P (ai )Li (X).
P
Polynômes irréductibles 81

5.9 Polynômes irréductibles


Exercice 5.30. Factoriser les polynômes suivants en produit de polynômes irréductibles
de Q[X], R[X], C[X] :
1. X 3 + X − 2 dans Q[X], R[X], C[X] ;
2. X 4 + 2X 2 + 1 dans Q[X], R[X], C[X] ;
3. X 5 +4X 4 +9X 3 +13X 2 +10X +3 dans Q[X], R[X], C[X] (on pourra chercher
une racine évidente et calculer sa multiplicité) ;
4. X 6 + 1 dans Q[X], R[X], C[X].
Factoriser X m −1 pour tout entier m en produit de polynômes irréductibles de R[X],
C[X].

Exercice 5.31.
1. Factoriser X 4 + X 2 + 1 et X 4 − X 2 + 1 en produit de polynômes irréductibles
et unitaires de C[X] puis de R[X].
2. Montrer que le polynôme X 4 + X 3 + X 2 + X + 1 n’a pas de racine réelle.
Factoriser ce polynôme en produits de facteurs irréductibles et unitaires de
C[X] puis de R[X].

Exercice 5.32. * Soit P ∈ R[X] tel que pour tout x ∈ R, P (x) ≥ 0.


1. Montrer que P est de la forme
n m
Y Y s
P (X) = λ (X − αi )ri (X − λi )(X − λi ) i
i=1 i=1

avec λ ≥ 0, αi ∈ R, ri des entiers pairs, si des entiers quelconques et λi ∈ C\R.


2. Montrer que P (X) = CC où C ∈ C[X] et C est son polynôme conjugué.
3. En écrivant C = A + iB avec A et B deux polynômes réels, montrer qu’il
existe deux polynômes A, B ∈ R[X] tels que P (X) = A(X)2 + B(X)2 .
4. Conclure.
82 Exercices

Feuille de TD n◦3 : Fractions


rationnelles

Exercice 5.33. Donner la forme de la décomposition en éléments simples de cha-


cune des fractions rationnelles suivantes (on ne calculera pas les valeurs des coeffi-
cients) :
1 dans R(X) et dans C(X) ;
1. dans R(X) ;
X(X + 1)
X +1
2X + 1 5. dans R(X) ;
2. dans Q(X) ; X3 + X5
(X − 1)3
1 X −1
3. 2 dans R(X) ; 6. dans R(X) ;
X (X + 1)(X + 2) X2 + 2X − 3
1 −1
4. Pour n ≥ 1, 7. dans R(X).
(X + X + 1)n (X 2 + 2)
2
X3 +X +1

1
Exercice 5.34. Calculer la décomposition en éléments simples dans R(X) de .
X(X + 1)

X 1
En déduire la valeur de la série .
n=1
n(n + 1)

Exercice 5.35. Calculer la décomposition en éléments simples de chacune des frac-


tions rationnelles suivantes :
1 X −1
1. dans R(X) ; 4. dans Q(X), R(X) puis
X 2 (X + 1)(X + 2) X4 − 4
X C(X) ;
2. 4 dans R(X) ; 2X + 1
X + X2 + 1 5. dans Q(X) ;
X −1 (X − 1)3
3. 3 dans Q(X), R(X)
X + X2 + X X +1
puis C(X) ; 6. 3 dans R(X).
X + X5

Exercice 5.36. Soit E = R3 [X] le R-espace vectoriel des polynômes de R[X] de


degré ≤ 3. Étant donné P (X) ∈ E, considérons la fraction rationnelle :
P (X)
F (X) = .
X 2 (X− 1)2
Polynômes irréductibles 83

1. Donner la forme de la décomposition en éléments simples de F (X) dans R(X)


(sans calculer les coefficients).
2. En déduire des expressions pour P (X), P (0) et P (1) en fonction des coeffi-
cients de la décomposition. Même chose avec P 0 (X), P 0 (0) et P 0 (1).
3. En déduire que pour tout quadruplet de nombres réels x1 , x2 , x3 , x4 , il existe
un unique polynôme P ∈ E vérifiant :

P (0) = x1 , P 0 (0) = x2 , P (1) = x3 , P 0 (1) = x4 .


84 Exercices

Feuille de TD n◦4 : Dualité

5.10 Formes linéaires


Exercice 5.37. 1. Soit E le R-espace vectoriel des fonctions dérivables de R
dans R. Soit a ∈ R. Montrer que f 7→ f 0 (a) est une forme linéaire sur E.
2. Soit F le R-espace vectoriel des fonctions continues de [0, 1] dans R. Soit
f ∈ FR . Montrer que
1
g 7→ 0 f (t)g(t)dt est une forme linéaire sur F .
3. Montrer que l’application trace A 7→ Tr(A) est une forme linéaire sur Mn (K).
Montrer que Tr(AB) = Tr(BA) pour tous A, B dans Mn (K).

Exercice 5.38. Soient f1 , f2 , f3 les formes linéaires sur R3 définies par :


f1 (x, y, z) = x + y + z, f2 (x, y, z) = x − y, f3 (x, y, z) = z.

1. Exprimer f1 , f2 , f3 dans la base des formes coordonnées (e∗1 , e∗2 , e∗3 ).


2. Montrer que (f1 , f2 , f3 ) est une base de (R3 )∗ .
3. Exprimer les formes linéaires suivantes dans la base (f1 , f2 , f3 ) : g(x, y, z) = y,
h(x, y, z) = 2x − 6y + 3z.

Exercice 5.39. Soit E = R2 [X]. On considère les formes linéaires sur E :


Z 1
f : P 7→ P (0), g : P 7→ P (1), ϕ : P 7→ P (t)dt.
0

Montrer que (f, g, φ) est une base de E .

5.11 Bases duales


Exercice 5.40. 1. On note E = C en tant que C-espace vectoriel. Quelle est
la dimension de E ∗ ? Donner une base de E ∗ .
2. On note F = C en tant que R-espace vectoriel. Quelle est la dimension de
F ∗ ? Quelle est la base duale de la base (1, i) de F ?

Exercice 5.41. Montrer que les familles de vecteurs suivantes forment une base de
R3 , puis déterminer leur base duale en fonction des formes coordonnées (e∗1 , e∗2 , e∗3 ).
Orthogonalité 85

1. u1 = (1, −1, 1), u2 = (1, 0, 1), u3 = (0, 2, −1).


2. u1 = (2, 1, −1), u2 = (1, 1, −1), u3 = (1, 2, −1).
Exercice 5.42. 1. Déterminer la base duale de la base canonique (1, X, . . . , X n )
de Rn [X].
2. En déduire la formule de Taylor polynomiale : pour tout P (X) ∈ Rn [X], on
n
X P (i) (0) i
a P (X) = X.
i=0
i!

Exercice 5.43. On considère les formes linéaires suivantes sur K 3 (où K désigne
un corps) :

f1 (x, y, z) = x + y − z, f2 (x, y, z) = x − y + z, f3 (x, y, z) = x + y + z.

1. Montrer que (f1 , f2 , f3 ) est une base de (K 3 )∗ .


2. Déterminer la base antéduale de (f1 , f2 , f3 ).

5.12 Orthogonalité
Exercice 5.44. Donner la dimension et une base de F et F ⊥ , dans R3 et (R3 )∗
respectivement :
1. F = ((1 , (2 . . . , (( ) 1, 2, 3), (4, 5, 6))
2. F = ((1 , (2 . . . , (( ) 3, −3, 1), (−3, 6, 0), (6, 3, 5)
3. F = {(x, y, z) : x = 0}
4. F = {(x, y, z) : x − 3y + 2z = 0, 2x − y + z = 0, x − 8y + 5z = 0}
Exercice 5.45. Donner la dimension et une base de G et G0 , dans (R3 )∗ et R3
respectivement :
1. G = ((1 , (2 . . . , (f ) ) où f (x, y, z) = x − 2y + z
2. G = ((1 , (2 . . . , (e ) ∗1 − e∗2 + 3e∗3 , 2e∗1 − e∗2 + 5e∗3 , 3e∗1 + 7e∗3 )
Exercice 5.46. 1. Déterminer un système d’équations du sous-espace vectoriel
de R4 engendré par les vecteurs (1, 1, 1, 1) et (−1, 1, −1, 1).
2. Même question pour le sous-espace engendré par (2, 1, 0, 3).
Exercice 5.47. Soit E = R3 muni de sa base canonique (e1 , e2 , e3 ).
1. Posons u1 = (2, 1, 1), u2 = (5, 3, 2), u3 = (4, 3, 1) et F = ((1 , (2 . . . , (u ) 1 , u2 , u3 ).
(a) Déterminer une base de F et montrer que F est un hyperplan de E.
(b) Donner une base de F ⊥ . En déduire un système d’équations de F .
86 Exercices

2. Soit ϕ : E → R l’application (x, y, z) 7→ x + y − 7z.


(a) Démontrer que ϕ est une forme linéaire.
(b) Soit G = (( 1 , 2 . . . , ϕ ) )0 . Que vaut dim G ?
(c) Donner un système d’équations de G puis une base de G.
3. Déterminer une base de F ∩ G. Que peut-on en déduire sur F + G ? Et sur
(F + G)⊥ ?

Exercice 5.48. Soient E = Rn [X] et x0 , . . . , xn dans R. On note fi la forme linéaire


fi : P 7→ P (xi ) pour i ∈ {0, . . . , n}.
1. Montrer que (f0 , . . . , fn ) est une base de E ∗ si et seulement si les réels
x0 , . . . , xn sont distincts deux à deux (on pourra déterminer (((1 , (2 . . . , (f ) 0 , . . . , fn ))0
puis calculer sa dimension).
2. On suppose les réels x0 , . . . , xn distincts deux à deux. Déterminer la base
antéduale de (f0 , . . . , fn ).
3. Soient f : [0, 1] → R une application continue et x0 , . . . , xn réels distincts
deux à deux. Sans les calculer, montrer qu’il existe des réels λ0 , . . . , λn tels
que pour tout P ∈ E :
Z 1 n
X
f (x)P (x)dx = λi P (xi ).
0 i=0

Exercice 5.49. Soit E le K-espace vectoriel Mn (K). Soit Ei,j la matrice de E dont
tous les coefficients sont nuls, sauf celui situé à la i-ème, j-ème colonne qui vaut 1.

On rappelle que (Ei,j )1≤i,j≤n est une base de E ; on note (Ei,j )1≤i,j≤n sa base duale.
Pour tout A ∈ E on considère la forme linéaire :
φA : E −→ K
M 7−→ Tr(AM ).

1. Montrer Ei,j Ek,l = δj,k Ei,l . En déduire φEi,j = Ej,i .
2. Montrer que l’application suivante est linéaire et un isomorphisme :

φ : E −→ E ∗
A 7−→ φA .

3. Soit f ∈ E ∗ telle que pour tous M, N de E on ait f (M N ) = f (N M ).


Montrer :

∀i 6= j f (Ei,j ) = 0
∀i, j f (Ei,i ) = f (Ej,j ).
Application transposée 87

4. En utilisant les questions précédentes, montrer que les formes linéaires f ∈ E ∗


vérifiant :
∀(M, N ) ∈ E × E, f (M N ) = f (N M )
sont les λTr pour λ ∈ K ∗ .
Exercice 5.50. Soient f0 , · · · , fn des formes linéaires sur espace vectoriel E, de
dimension n.
1. Montrer que f0 ∈ ((1 , (2 . . . , (f ) 1 , · · · , fn ) =⇒ ni=1 Ker fi ⊂ Ker f0 .
T

2. Montrer que ni=1 Ker fi ⊂ Ker f0 =⇒ f0 ∈ ((1 , (2 . . . , (f ) 1 , · · · , fn ) (on


T
pourra considérer les orthogonaux).
Exercice 5.51. * (cas de la dimension infinie) Soit E = R[X]. Pour tout k ∈ N on
définit fk : R[X] → R par f (P ) = ak si P (X) = a0 + a1 X + · · · + ap X p .
1. Vérifier que fk est linéaire. Montrer que (fk )k∈N est une famille libre de E ∗ .
2. On pose Hk = Kerfk . Montrer que E = Hk ⊕ RX k pour tout k ∈ N.
3. Soit G = ((1 , (2 . . . , (f ) k : k ∈ N). Soit f définie sur E par f (P ) = P (1).
Montrer que f ∈ E ∗ mais f ∈ / G. Cela montre que G est un sous-espace strict

de E .
4. Étudier G0 puis (G0 )⊥ . Conclure que G ( (G0 )⊥ .

5.13 Application transposée


Exercice 5.52. Dans E = R3 on considère les vecteurs

u1 = (5/3, 4/3, 2), u2 = (−1/3, 1/3, −1), u3 = (−1/3, −2/3, 0).

et F = ((1 , (2 . . . , (u ) 1 , u2 , u3 ). Soit f : E → E l’application linéaire définie par


f (e1 ) = u1 ,f (e2 ) = u2 et f (e3 ) = u3 (où (e1 , e2 , e3 ) désigne la base canonique de E).
1. Déterminer une base de F puis une base de F ⊥ .
2. Calculer f (x, y, z) en fonction de x, y, z. À l’aide de la définition de la trans-
posée, calculer (t f )(2e∗1 − e∗2 − e∗3 ). Retrouver ce résultat à l’aide de la ques-
tion 1.
3. Donner la matrice de t f dans la base duale (e∗1 , e∗2 , e∗3 ) de la base canonique.
Exercice 5.53. Soient E = R2 [X] et D : E → E la dérivation des polynômes.
1. Justifier pourquoi on peut parler de t D. Calculer la matrice de t D dans la
base duale de (1, X, X 2 ).
R1
2. Montrer que f1 : P 7→ 0 P (t)dt, f2 : P 7→ P (1) et f3 : P 7→ P 0 (1) forment
une base de E ∗ . Calculer la matrice de t D dans cette base.
88 Exercices

Exercice 5.54. Soit F un sous-espace vectoriel de E stable par un endomorphisme


f (c’est-à-dire f (F ) ⊂ F ). Montrer que F ⊥ est stable par t f (c’est-à-dire t f (F ⊥ ) ⊂
F ⊥ ).
Calcul de déterminants 89

Feuille de TD n◦5 : Déterminant

5.14 Calcul de déterminants


Exercice 5.55. Calculer les déterminants :
1 1 1 1 1 2 −2 1 2
1 1 1 , 0 2 −1 , 2 3 −2 .
1 1 1 0 0 3 −1 0 1

Même question pour :

a c + id a−1 1 tan x −1
, , .
c − id b a3 a2 + a + 1 1 tan x

Calculer les déterminants suivants sous forme factorisée en fonction des réels a et b :
2a a + b a 2ab a + b a2
a + b 2a b , ab + b2 2a ab .
a b 0 ab b 0

1 1 1 1 1 2 3 4
1 2 2 2 2 3 4 1
Exercice 5.56. Calculer les déterminants : , . Pour tous
1 2 3 3 3 4 1 2
1 2 3 4 4 1 2 3
a 1 0 2
0 b 0 3
a, b, c, d complexes, calculer le déterminant .
4 5 c 6
0 0 0 d
Exercice 5.57. On considère le polynôme suivant :

1 x x 2 x3
1 1 1 1
P (x) = .
1 2 3 4
1 4 9 16

1- Exprimer P 0 (x), P 00 (x) et P 000 (x) à l’aide de déterminants.


2- Montrer que P (x) est divisible par (x − 1)3 .
90 Exercices

Exercice 5.58. Sachant que les nombres 119, 153 et 289 sont tous divisibles par 17,
1 1 9
montrer sans le calculer que le déterminant 1 5 3 est divisible par 17.
2 8 9
Exercice 5.59. Considérons l’application suivante :
φ : R2 [x] −→ R2 [x]
R x+1
P 7−→ x P (t)dt.
1. Montrer que φ est un endomorphisme de R2 [x].
2. Calculer son déterminant.
3. Est-ce que φ est un isomorphisme ?
Exercice 5.60. Soit A ∈ Mn (K) une matrice carrée de taille n.
1. Exprimer le déterminant de −A en fonction du déterminant de A.
2. Supposons A antisymétrique c’est-à-dire t A = −A. Montrer que si A est de
taille n impaire alors A n’est pas inversible.
Exercice 5.61. (Déterminant de Vandermonde) Soient a1 , . . . , an dans K. On considère
le déterminant suivant :
 
1 1 ··· 1
 a1
 a2 · · · an  
2
V (a1 , · · · , an ) = det  a1
 a22 · · · a2n .
 .. .. .. 
 . . . 
n−1 n−1 n−1
a1 a2 · · · an

1. Montrer que V (a1 , · · · , an−1 , X) est un polynôme de K[X].


2. Étudier les racines de ce polynôme. En déduire la valeur de V (a1 , . . . , an ) en
fonction de a1 , . . . , an .

5.15 Applications
Exercice 5.62. Avec un déterminant, préciser si les systèmes de vecteurs suivants
sont libres ou liés dans C3 :
1. u = (1, 2, 3), v = (4, 5, 6), w = (2, 1, 0).
2. u = (1, 1, −1), v = (1, 2, 0), w = (−1, 3, 2).
 
1 0 a
Exercice 5.63. Soient a ∈ R et A = 0 a 1 ∈ M3 (R).
a 1 0
Applications 91

1. Calculer le déterminant de A. Déterminer les valeurs de a pour lesquelles la


matrice est inversible.
2. Calculer A−1 lorsque A est inversible.

Exercice 5.64. Résoudre le système suivant par les formules de Cramer :



 2x − y + z = 0

x − 2y − z = 3

3 x + y + 2 z = 1.

Exercice 5.65. Résoudre le système suivant suivant les valeurs de a ∈ R :



 x + ay + a2 z = 0
a2 x + y + az = 0
ax + a2 y + z = 0.

Exercice 5.66. À l’aide du déterminant, calculer le rang des matrices suivantes :


 
1 2 −2  
4
 0 3 
 1 2 −4 −2 −1
−1 −3 2  , −1 1 −2 −1 −5 .
 
 2 −1 1  1 1 −2 −1 1
4 7 4

Exercice 5.67. Suivant la valeur du paramètre m, calculer le rang de la matrice :


 
m 0 1 2m
 1 m 0 0 
 0 2m + 2 m 1  .
 

m 0 0 m

Vous aimerez peut-être aussi