Vous êtes sur la page 1sur 61

Philippe Lebacque

POLYNÔMES ET ALGÈBRE
LINÉAIRE
Philippe Lebacque
E-mail : philippe.lebacque@univ-fcomte.fr
POLYNÔMES ET ALGÈBRE LINÉAIRE

Philippe Lebacque
NOTATIONS 5

Notations
Dans toute la suite, on adoptera les notations suivantes :
K désigera le corps R, C ou Q.
K[X] l'ensemble des polynômes à coecients dans K.
Si P ∈ K[X] et k ∈ N, P k désigne le polynôme P k = P · · P} (P 0 = 1).
| ·{z
k fois
Si aucune confusion n'est à craindre, on notera la suite (an )n∈N par (an ).
CHAPITRE 1

POLYNÔMES

Nous recommandons au lecteur de comparer les résultats arithmétiques avec ceux


connus pour Z.
K = R, C, Q.

1.1. L'Algèbre K[X]


1.1.1. Dénition formelle. 
Dénition 1.1.  Un polynôme P à coecients dans K est la donnée d'une suite
(ai )i∈N d'élements de K nulle à partir d'un certain rang :
P = (ai )i∈N , ∀i ∈ N ai ∈ K et ∃n0 , ∀i ≥ n0 ai = 0.
On notera alors K[X] l'ensemble des polynômes à coecients dans K. On désignera
par 0 le polynôme (0, . . . , 0, . . . ) et par 1 le polynôme (1, 0, . . . , 0, . . . ).

Remarque: Si P = (a ) et Q = (bi )i∈N sont deux polynômes, on a : P = Q si et


i i∈N
seulement si ai = bi pour tout i ∈ N.

Dénition 1.2.  Degré d'un polynôme


Pour P = (an )n∈N ∈ K[X], on pose
(
−∞ si P = 0
deg P =
max{i ∈ N, ai 6= 0} si P 6= 0.
Si P 6= 0, adeg P s'appelle le coecient dominant. P est dit unitaire si adeg P = 1.

a0 s'appelle le coecient constant.


L'ensemble K[X] peut être muni de deux lois internes + et ×. Si P = (ai )i∈N et
Q = (bi )i∈N sont deux polynômes de K[X], alors on dénit l'addition par
P + Q = (ai + bi )i∈N
8 CHAPITRE 1. POLYNÔMES

et la multiplication par :
i i
!
P × Q = (ci )i∈N , avec ci =
X X
ak bi−k = ai−k bi .
k=0 k=0

On vérie (exercice) que la somme et le produit de deux polynômes est bien un poly-
nôme. Par abus, on notera P Q le polynôme P × Q.
Proposition 1.3.  i. deg(P + Q) ≤ max(deg P, deg Q), avec égalité si deg P 6=
deg Q.
ii. deg(P × Q) = deg P + deg Q.
Proposition 1.4.  (K[X], +, ×) est un anneau commutatif intègre d'élément neutre
0 pour + et 1 pour ×.
Démonstration : (Idées, à compléter par le lecteur consciencieux) Comme (K, +) est
un groupe commutatif, on vérie aisément que (K[X], +) est un groupe commutatif,
c'est à dire que : pour tous P = (an ), Q, R ∈ K[X],
 + est associative : P + (Q + R) = (P + Q) + R,
 0 est élément neutre P + 0 = 0 + P = P,
 (existence d'un opposé) si (−P ) := (−an ), on a P + (−P ) = (−P ) + P = 0, et
 + est commutative : P + Q = Q + P.
On vérie en revenant aux dénitions que × satisfait, pour tous P = (ai ), Q = (bi ), R ∈
K[X], à :
 × est associative : P × (Q × R) = (P × Q) × R,
 1 est élément neutre : P × 1 = 1 × P = P
 × est commutative : P × Q = Q × P,
 P × (Q + R) = P × Q + P × R.
 (intégrité) Si P Q = 0 alors (P = 0 ou Q = 0). En eet, si P 6= 0 et Q 6= 0, P Q =
(c0 , . . . , cdeg P +deg Q , 0, . . . ) avec cdeg P +deg Q = adeg P bdeg Q 6= 0, donc P × Q 6= 0.

Remarque: Si P Q = P R et P 6= 0, alors Q = R. En eet, dans ce cas P (Q−R) = 0
et donc Q − R = 0.
Si λ ∈ K et P = (an ) ∈ K[X], on pose
λ · P = ( λan )
|{z}
mult.
dans K
K[X] est alors également muni d'une loi de composition externe · dénie par :
K × K[X] → K[X]
(λ, P ) 7→ λ · P.
Proposition 1.5.  (K[X], +, ×, ·) est une K -algèbre.
1.1. L'ALGÈBRE K[X] 9

Démonstration :(Idée, laissée au lecteur consciencieux)


La loi externe satisfait, pour tous λ, µ ∈ K, P, Q ∈ K[X], à :
 (distributivité) λ · (P + Q) = λ · P + λ · Q,
 (λ + µ) · P = λ · P + µ · P,
 λ · (µ · P ) = (λµ) · P,
 1K · P = P ((K[X], +, ·) est alors un K -espace vectoriel),
 λ · (P × Q) = (λ · P ) × Q = P × (λ · Q) ((K[X], +, ×, ·) est alors une K -algèbre).


Dénition 1.6.  Un polynôme P tel que deg P ≤ 0 est appelé polynôme constant.
On note K0 [X] l'ensemble des polynômes constants.

K0 [X] s'identie à K via le morphisme d'anneaux (de corps) :


φ:K → K0 [X]
a 7→ (a, 0, . . . ).
(φ(a + b) = φ(a) + φ(b), φ(ab) = φ(a) × φ(b), φ(1) = 1). Il permet de voir la loi externe
comme la multiplication : a · P = φ(a) × P. Du fait de cette identication, on notera
plus tard par abus λP = λ · P.

1.1.2. Écriture canonique.  Posons X = (0, 1, 0, . . . ) = (δn,1 )n∈N . Ce polynôme


s'appelle l'indéterminée. Pour tout i ∈ N, on voit que X i = (δn,i )n∈N .
Dénition-Proposition 1.7.  i. Pour tout n ∈ N, dénissons
Kn [X] = {P ∈ K[X], deg P ≤ n}
l'ensemble des polynômes de degré ≤ n. Alors (X 0 , X 1 , . . . , X n ) forme une base de
l'espace vectoriel Kn [X]. En particulier, dim Kn [X] = n + 1.
ii. La famille (X 0 , X 1 , . . . , X n , . . . ) forme une base de l'espace vectoriel K[X].
Démonstration : claire, elle est aussi laissée au lecteur. 
Par la suite, on écrira toujours un polynôme P ∈ K[X] sous forme canonique,
n
X
P = an X n .
k=0

Sauf mention du contraire, dans le cas où P n'est pas le polynôme nul, on supposera
que n = deg P.
Remarque: On aurait également pu denir une algèbre de polynômes de la façon
suivante. Soit K une K -algèbre. K est une algèbre de polynômes sur K s'il existe un
élément X ∈ K tel que la famille (X n )n∈N est une base de K vue comme K espace
vectoriel.
10 CHAPITRE 1. POLYNÔMES

1.1.3. Division dans K[X]. 


Dénition 1.8.  Soient A, B ∈ K[X]. On dit que B divise A si et seulement si il
existe Q ∈ K[X] tel que A = BQ. Si B 6= 0, alors Q est unique (par intégrité) et est
A
appelé quotient de A par B. Il est noté .

Remarque:
B

 Tout polynôme divise 0 et 1 divise tout polynôme.


 deg A = deg B + deg Q. Donc si B 6= 0, deg Q ≤ deg A.
 Si P B divise P A et si P 6= 0, alors B divise A.
Terminologie : Si B divise A, on dit que A est un multiple de B. L'ensemble des
multiples de B est BK[X] = {BQ, Q ∈ K[X]}. C'est un idéal
de K[X] (sous-groupe
+ stabilité par ×).
Dénition 1.9.  On dit que deux polynômes A et B sont associés si il existe un
scalaire λ ∈ K tel que B = λA.

C'est une relation d'équivalence. Tout polynôme non nul est associé à un unique
polynôme unitaire, appelé le normalisé.
Proposition 1.10.  Si A divise B et B divise A alors A et B sont associés.
Démonstration : On a B = AP et A = BQ donc B = (P Q)B. Si B = 0, A = 0 et donc
A et B sont associés. Si B =
6 0, P Q = 1 donc deg P = deg Q = 0. Ainsi A et B sont
associés. 
Remarque: La relation de divisibilité dans K[X] est reexive, transitive et pseudo-
antisymétrique (antisymétrique à association près).

1.2. Division euclidienne, principalité et PGCD


1.2.1. Division euclidienne. 
Théorème 1.11.  Soit B un polynôme de K[X] non nul. Pour tout A ∈ K[X], il
existe un unique couple (Q, R) de polynômes tels que
(
A = BQ + R
deg R < deg B
Q et R sont appelés le quotient et le reste de la division euclidienne de A par B.
Remarque:
 En termes savants, on dit que K[X] est un anneau euclidien.
 si deg A < deg B, Q = 0 et R = A.
 si deg A ≥ deg B, deg Q = deg A − deg B (car deg B + deg Q = deg BQ =
deg(A − R) = deg A)
1.2. DIVISION EUCLIDIENNE, PRINCIPALITÉ ET PGCD 11

Démonstration : (unicité) On suppose que A = BQ1 + R1 = BQ2 + R2 , avec deg R1 <


deg B et deg R2 < deg B. On a B(Q1 − Q2 ) = R2 − R1 . On a deg(R2 − R1 ) ≤
max(R1 , R2 ) < deg B, d'où deg B + deg(Q1 − Q2 ) < deg B, d'où Q1 − Q2 = 0, et
R1 = R2 .
(existence) Par récurrence forte sur n = deg A.

 Si n < deg B, (Q, R) = (0, A) convient.


 Supposons n ≥ deg B, et supposons la propriété vraie
Pn jusqu'au rang nP− 1, c'est à
dire pour tout polynôme de Kn−1 [X]. Posons A = k=0 ak X et B = pk=0 bk X k ,
k

avec bp 6= 0. On considère le polynôme (de degré n) X n−p B. On cherche λ tel que


A∗ = A − λX n−p B soit de degré ≤ n − 1 pour lui appliquer ensuite l'HR. On prend
a
alors λ = n . On applique alors l'HR de récurrence à A∗ : Il existe Q∗ et R tels
bp
que A∗ = BQ∗ + R, avec deg R < deg B. D'où
A = A∗ + λX n−p B = B(λX n−p + Q∗ ) + R,
| {z }
Q

et on a montré le résultat.

Exemple: A = X + 2X 3 − 3X − 2 et B = X 3 + X + 1. Alors Q = X 2 + 1 et
5

R = −2X − 4X − 3. Pour faire ce calcul, ou bien on pose la division (comme à


2

l'école maternelle), ou bien on procède par identication.


A → X5 +2X 3 −3X −2 X 3 + X + 1 ← B
∗ 2
A =A−X B → X3 −X 2
−3X −2 X 2 + 1 ← Q
A∗ − B → −2X 2 −4X −3 ← R

Remarque: Soient A, B ∈ Q[X], B 6= 0. Supposons qu'il existe Q, R ∈ R[X] tels


que A = BQ + R avec deg R < deg B. Alors Q, R ∈ Q[X]. En eet, on applique la
division euclidienne dans Q[X]. Il existe Q0 , R0 ∈ Q[X] tels que A = BQ∗ + R∗ , avec
deg R∗ < deg B. Cette égalité est aussi valable dans R[X]. Par unicité de la division
euclidienne dans R[X], on a Q = Q∗ , et R = R∗ .

1.2.2. Principalité et plus grand commun diviseur (PGCD). 


Dénition 1.12.  Soit (A, +, ×) un anneau commutatif. Un sous-groupe (I, +) de
(A, +) tel que ∀a ∈ A, ∀g ∈ I, a × g ∈ I est appelé un idéal de A.
Proposition 1.13.  Soit (A, +, ×) un anneau commutatif. Pour tout a ∈ A, (a) =
aA = {a × b, b ∈ A} est un idéal de A. Un tel idéal est appelé idéal principal.
Démonstration : Immédiat. 
Dénition 1.14.  On appelle anneau principal un anneau commutatif intègre A
où tout idéal est principal.
12 CHAPITRE 1. POLYNÔMES

Théorème 1.15.  K[X] est un anneau principal.


Démonstration : On sait déjà que K[X] est intègre. Montrons que tout idéal est prin-
cipal. Soit I 6= {0} un idéal de K[X]. Soit B ∈ I \ {0} tel que deg B soit minimal
({deg Q, Q ∈ I \ {0}} ⊂ N est une partie non vide de N et admet donc un plus petit
élément). Soit A ∈ I. On eectue la division euclidienne de A par B. Il existe Q et R
tels que A = BQ + R et deg R < deg B. Comme I est un idéal, BQ ∈ I, et comme
I est un sous-groupe, R = A − BQ ∈ I. Par minimalité de deg B, on a R = 0. Ainsi
A ∈ BK[X]. Réciproquement BK[X] ⊂ I. On a ainsi démontré le théorème. 
Remarque: Soient A, B ∈ K[X]. (A) = (B) si et seulement A et B sont associés.
En eet, si (A) = (B) si et seulement si A divise B et B divise A.
Remarque: C'est la même preuve que celle démontrant que les sous-groupes de
(Z, +) sont monogènes.
Exemple: Z est un anneau principal (adapter la preuve avec | · | à la place de deg .
Remarque: Soient A, B ∈ K[X]. L'ensemble
(A, B) = AK[X] + BK[X] = {AP + BQ, P ∈ K[X], Q ∈ K[X]}
est un idéal de K[X]. Il existe donc D tel que (A, B) = (D). Si (A, B) = (D) = (D∗ ),
D divise D∗ et D∗ divise D alors D et D∗ sont associés. Pour dénir le PGCD de
deux polynômes, on choisit un élément particulier dans la classe d'association de D.
Mais tout autre choix serait convenable d'un point de vue arithmétique.
Dénition 1.16.  Soient A, B ∈ K[X] non tous les deux nuls. L'unique polynôme
unitaire D tel que (A, B) = (D) s'appelle PGCD de A et B. Il est noté P GCD(A, B)
ou A ∧ B. Dans le cas où A = B = 0 on pose P GCD(0, 0) = 0.
Proposition 1.17.  Soient A, B ∈ K[X], B 6= 0, et D = A∧B. Alors D est l'unique
polynôme unitaire vériant
i. D divise A et B.
ii. si Q divise A et B , alors Q divise D.
Le résultat reste vrai (sauf  unitaire ) si A = B = 0, mais il est trivial.
Démonstration :Montrons que D vérie i et ii.
i. A ∈ (A, B) = (D) donc D divise A. de même D divise B.
ii. Q divise A donc A ∈ (Q). De même B ∈ (Q). Alors (A, B) ⊂ (Q) d'après les
propriétés des idéaux. On a alors D ∈ (A, B) ⊂ (Q). Donc Q divise D.
(unicité) Soit D∗ un polynôme unitaire vériant i et ii. Alors, D∗ divise A et B (d'après
i pour D∗ ) donc divise D (d'après ii pour D). De même D divise A et B (d'après i
pour D) donc D|D∗ (d'après ii pour D0 ). Comme D et D∗ sont tous deux unitaires,
D = D∗ . 
C'est pourquoi on l'appelle P GCD.
1.2. DIVISION EUCLIDIENNE, PRINCIPALITÉ ET PGCD 13

On voit d'ailleurs que i et ii caractérise le P GCD et A et B (si D, D∗ satisfont i et


ii, D|D∗ et D∗ |D. Si de plus ils sont unitaires, ils sont égaux.
Remarque: On peut dénir le P P CM de deux polynôme A et B comme générateur
de l'idéal AK[X] ∩ BK[X]. On a alors, si A et B sont non nuls, P P CM (A, B) =
AB
. C'est le plus petit commun multiple de A et B.
P GCD(A, B)

1.2.3. Algorithme d'Euclide.  On va donner une méthode pour calculer D =


A ∧ B. On suppose pour simplier que deg A ≥ deg B. On dénit deux suites (Ri ) et
(Qi ) ainsi : R0 = A, R1 = B, et, pour tout n ≥ 1,
i. si Rn 6= 0, Rn+1 est le reste de la division euclidienne de Rn−1 par Rn et Qn en est
le quotient : Rn−1 = Rn Qn + Rn+1 avec deg Rn+1 < deg Rn .
ii. Si Rn = 0, Rn+1 = 0 et Qn = 0.
Comme la suite (deg Rn )n≥1 est strictement décroissante tant que Rn 6= 0, il existe n0
tel que deg Rn0 < 0, et donc tel que Rn0 = 0. Soit N le plus petit entier tel que RN = 0.
Proposition 1.18.  (D) = (RN −1 ) = (A, B).
Démonstration : On montre que pour tout n < N, (Rn−1 , Rn ) = (Rn , Rn+1 ). En
eet, pour tout n < N, on a Rn−1 = Rn Qn + Rn+1 . Donc Rn−1 ∈ (Rn , Rn+1 ) et
Rn+1 ∈ (Rn−1 , Rn ). On en déduit l'égalité. Par récurrence immédiate, (D) = (A, B) =
(R0 , R1 ) = · · · = (RN −1 , RN ) = (RN −1 ). 
On peut ainsi calculer D par divisions euclidiennes successives.
Exemple: Calcul de
P GCD(X 5 + 2X 3 − 3X − 2, X 3 + X + 1) = P GCD(X 3 + X + 1, X 2 + 4X + 3)
= P GCD(X 2 + 4X + 3, 14X + 13)
 
43 · 13
= P GCD 14X + 13, 3 − =1
142
car  1 = (X 2 + 4X + 3)(X − 4) + 14X + 13 et X 2 + 4X + 3 = (14X +
X3 + X +
X 43 43 · 13
13) + 2 +3− .
14 14 142

1.2.4. Polynômes premiers entre eux. 


Dénition 1.19.  On dit que A et B sont premiers entre eux si A ∧ B = 1 c'est à
dire si 1 est le seul diviseur commun à A et B (à association près).
Proposition 1.20.  (Bezout) A et B sont premiers entre eux si et seulement si il
existe U et V tels que AU + BV = 1. On dit que (U, V ) est un couple de Bezout associé
à A et B.
14 CHAPITRE 1. POLYNÔMES

Démonstration : (⇒) A ∧ B = 1 donc (A, B) = (1) donc 1 ∈ AK[X] + BK[X] donc il


existe U, V tel que AU + BV = 1.
(⇐) On a alors 1 = AU + BV ∈ (A, B). Par minimalité du degré du polynôme 1,
1 = A ∧ B. 
Remarque: Si D = A ∧ B, il existe U, V tels que AU + BV = D.
A B
Corollaire 1.21.  Soit A et B non nuls. Posons D = A ∧ B. Alors et sont
D D
premiers entre eux.
A B A
Démonstration : Il existe U, V tels que AU + BV = D, donc U + V = 1 donc
D D D
B
et sont premiers entre eux. 
D
Proposition 1.22.  Si A est premier avec B et C alors A est premier avec BC.
Démonstration : Il existe (U1 , V1 ) et (U2 , V2 ) tels que AU1 + BV1 = 1 et AU2 + CV2 = 1.
On a alors
1 = (AU1 + BV1 )(AU2 + BV2 ) = A(U1 AU2 + U1 CV2 + BV1 U2 ) + BC(V1 V2 ).
D'où le résultat. 
Théorème 1.23.  (Gauss). Si A divise BC et si A est premier avec B, alors A
divise C.
Démonstration : A divise BC donc il existe Q tel que AQ = BC. A est premier avec
B donc il existe U, V tels que AU + BV = 1. Alors AU C + AQV = C. Donc A divise
C. 
Corollaire 1.24.  Soient A, B tels que A ∧ B = 1. Si A divise C et B divise C
alors AB divise C.
Démonstration : A divise C donc il existe Q tel que AQ = C. B divise C = AQ et
B premier avec A donc (Gauss) B divise Q. Il existe alors P tel que Q = BP. D'où
C = ABP et AB divise C. 

1.3. Factorisation
Dénition 1.25.  Un polynôme irréductible est un polynôme P non constant dont
les seuls diviseurs sont 1, P et leurs associés.

Exemple: Tout polynôme de degré 1 est irréductible : si deg A = 1 et A = U V


deg A = deg U + deg V donc l'un des deux a degré 0. L'autre est alors associé à A.
1.3. FACTORISATION 15

Remarque: Dans un anneau, un élément irréductible a est un élément non inversible


vériant : si a = bc, alors b ou c est inversible. Dans K[X], les éléments inversibles
sont les polynômes constants non nuls.

Lemme 1.26.  Soit P irréductible.


i. Soit A ∈ K[X]. Si P ne divise pas A alors A ∧ P = 1.
ii. Si P |A1 · · · An alors il existe i tel que P |Ai .
Démonstration du lemme:
i. Soit D = A ∧ P. Alors D|A et D|P. Donc ou bien D = 1, ou bien il existe λ ∈ K ∗ ,
λD = P. Si D 6= 1, λD = P et donc P divise A.
ii. Supposons que P ne divise aucun des Ai . Alors P est premier à chacun des Ai donc
avec Ai , ce qui est absurde.
Q

Lemme 1.27.  Soit A ∈ K[X], deg A ≥ 1. Alors, il existe un polynôme P irréduc-


tible divisant A.

Démonstration : Soit S = {deg U ; U |A et deg U ≥ 1}. S est non vide car A ∈ S. Soit
m = min S et P tel que deg P = m. Si P n'est pas irréductible, il existe U, V tels que
P = U V et deg U ≥ 1, deg V ≥ 1. Ainsi 1 ≤ deg U < m. Mais pourtant U |P |A, ce qui
est absurde. Ainsi P est irréductible. 

Théorème 1.28.  Soit A ∈ K[X] tel que deg A ≥ 1.


i. Il existe des polynômes irréductibles unitaires Pi tels que A = a Pi , où a est le
Q
coecient dominant de A.
ii. L'écriture est unique à l'ordre des termes près : si A = a
Qr
Pi = a sj=1 Qj
Q
i=1
alors r = s et il existe une bijection φ : {1, . . . , r} → {1, . . . s}, tel que pour tout
i ∈ {1, . . . , r}, Pi = Qφ(i) .

Démonstration :
i. (Existence) Par récurrence forte sur n = deg A.
 n = 1 : A = a1 X + a0 . On écrit A = a1 (X + aa10 )
 (≤ n) ⇒ n + 1. Soit n ∈ N et A de degré n + 1. D'après le lemme 1.27, il existe
P irréductible unitaire divisant A. On écrit A = P A∗ avec deg A∗ ≤ n. Si
deg A∗ = 0 (A∗ = a) il n'y a rien à démontrer. Sinon on applique l'hypothèse
de récurrence à A∗ . Il existe alors des polynômes Pi irréductibles unitaires tels
que A∗ = a Pi , où a est le coecient dominant de A∗ . Comme a est aussi Q le
Q
coecient dominant de A car P unitaire, on en déduit le résultat :A = aP Pi .
ii. (Unicité) On le fait par récurrence forte sur n = deg A.
16 CHAPITRE 1. POLYNÔMES

 n = 1 :A = a1 X+ a0 . On écrit de manière unique sous la forme souhaitée :


a0
A = a1 X + .
a1
r s
 (≤ n) ⇒ n + 1. Supposons que A = a Qj . Alors P1 divise A
Y Y
Pi = a
i=1 i=1
donc (d'après le lemme 1.26) il existe i tel que P1 |Qj ⇔ P1 = Qj . Si r = 1
(resp. s = 1) alors s = 1 (resp. r = 1) et l'unicité est claire. Sinon, on applique
A A
alors l'hypothèse de récurrence à = . L'unicité de l'écriture implique que
P1 Qj
s − 1 = r − 1 et qu'il existe φ∗ : {2, . . . , s} → {1, . . . , s} \ {j} tel que Pi = Qφ(i) .
On étend alors φ∗ à une permutation de {1, . . . , s} en posant φ(1) = j.

Corollaire 1.29.  Soit A ∈ K[X] tel que deg A ≥ 1 de coecient dominant a. Il
existe une unique famille de polynômes irréductibles
Q unitaires Pi deux à deux premiers
entre eux et des entiers αi ≥ 1 tels que A = a Piαi et cette écriture est unique à
permutation près.
Démonstration : On regroupe les termes égaux dans la décomposition de A. 
Remarque: K[X] est alors un anneau factoriel.
Exemple: Si K = R le polynôme√X − 2 se√ décompose en produit de facteurs
2

irréductibles ainsi : X − 2 = (X + 2)(X − 2).


2

Si K = Q, ce polynôme est irréductible. Sinon, on pourrait écrire X 2 − 2 √


= (X −
a)(X − b) a, b ∈ Q. On verrait alors que a + b = 0 et ab = −2. Ainsi a = ± 2 ∈
/ Q.
C'est impossible.
Proposition 1.30.  Soient A et B deux polynômes de K[X] de degré ≥ 1.QSoient
P1 , . . . , Pn les polynômes irréductibles unitaires divisant A ou B. On écrit A = a ni=1 Piαi ,
B = b ni=1 Piβi , αi , βi ≥ 0. Alors
Q
n
Y min(αi ,βi )
A∧B = Pi .
i=1
n
Démonstration : Soit D = . On a clairement D|A et D|B. Soit Q divisant
Y min(αi ,βi )
Pi
i=1
A et B. Si P est un polynôme irréductible
Q unitaire divisant Q, P divise A donc il existe
i tel que P = Pi . On écrit alors Q = q ni=1 Piγi . Q divise A donc, pour tout i, γi ≤ αi .
De même γi ≤ βi pour tout i. D'où pour tout i, γi ≤ min(αi , βi ) d'où Q divise D. D
est ainsi le PGCD de A et B. 
Remarque: Lorsque l'on n'a pas de division euclidienne mais seulement une telle
décomposition en produit d'irréductibles, on dénit le pgcd comme cela.
1.4. RACINES 17

1.4. Racines
1.4.1. Fonction polynôme et racines.  A tout polynôme P = X a X
n
k
k ∈ K[X]
k=0
on associe la fonction
Pe : K → K
X n
x 7→ ak x k .
|k=0{z }
somme d'élé-
ments de K
On la note par abus P (x).
φ : K[X] → F(K, K)
L'application est un morphisme de K -algèbres : P
g Q=
P 7→ Pe
PeQ,
e 1]
K[X] = 1, λP = λP , P + Q = P + Q.
e ^
Remarque: Il faut bien
e f e e
distinguer la fonction polynôme du polynôme. Si K est
inni (voir plus loin), P détermine P (φ injective), mais ce n'est pas le cas si K n'est
e
pas inni.
Dénition 1.31.  Un élément a ∈ K est appelée racine de P si P (a) = 0 (c'est à
dire si Pe(a) = 0).
Proposition 1.32.  i. Le polynôme P est divisible par X − a si et seulement si a
est une racine de P.
ii. Soit P ∈ K[X]. Supposons deg P ≤ n et que P admette n + 1 racines distinctes.
Alors P = 0.
Un polynôme de degré n a donc au plus n racines distinctes. On utilise souvent cet
argument, il est à bien connaître. Par exemple, si P, Q ∈ R[X] satisfont P (cos θ) =
Q(cos θ) pour tout θ ∈ R, alors P − Q est le polynôme nul.
Démonstration :
i. Soit a ∈ K. On eectue la division euclidienne de P par X − a : P = (X − a)Q + R,
avec deg R ≤ 0. R est alors une constante. P (a) = 0 si et seulement si R = R(a) = 0
si et seulement si X − a|P.
ii. Soient P un polynôme de degré ≤ n, a0 , . . . an des racines distinctes de P. Alors X −
a0 , . . . , X − an sont deux à deux premiers entre eux. En eet, ils sont irréductibles,
unitaires et distincts. D'après le corollaire 1.24, on a (X − a0 ) . . . (X − an )|P. C'est
absurde sauf si P = 0 car on aurait alors deg(X − a0 ) . . . (X − an ) = n + 1.

Corollaire 1.33.  K inni. Soient P, Q ∈ K[X]. Alors P = Q si et seulement si
les applications polynômes P et Q associées à P et Q sont identiques sur K.
18 CHAPITRE 1. POLYNÔMES

Démonstration : Le sens direct est trivial. Supposons alors que Pe = Q.


e Alors tout
élément de K est racine de du polynôme P − Q. Comme K est inni, P − Q = 0. 
Proposition 1.34.  Polynômes d'interpolation de Lagrange. Soient a1 , . . . , an ∈
K distincts. Soient y1 , . . . , yn ∈ K. Alors il existe un unique polynôme P de degré
≤ n − 1 tel que :
pour tout i ∈ {1, . . . , n} P (ai ) = yi .
Terminologie : P est appelé le polynôme d'interpolation de Lagrange associé aux
points (ai , yi ).
Démonstration : (unicité) Supposons que P et Q conviennent. Alors, pour tout i ∈
{1, . . . , n}, (P − Q)(ai ) = 0. Comme deg(P − Q) ≤ n − 1, et comme les ai sont
distincts, P − Q est nul, c'est à dire P = Q.
(existence) Posons pour tout i ∈ {1, . . . , n}
Y
Si = (X − ak ) = (X − a1 ) · · · (X − ai−1 )(X − ai+1 ) · · · (X − an ).
1≤k≤n
k6=i

On a, pour tout i deg Si ≤ n − 1 et pour tout k 6= i, Si (ak ) = 0 tandis que Si (ai ) 6= 0.


n
Si (X)
Posons alors P (X) = . P est de degré ≤ n − 1 comme combinaison linéaire
X
yi
i=1
S i (a i )
de polynômes de degré ≤ n − 1, et on a, pour tout k ∈ {1, . . . , n},
n
X Si (ak ) Sk (ak )
P (ak ) = = yk = yk .
i=1
Si (ai ) Sk (ak )
On peut aussi considérer l'application linéaire φ : Kn−1 [X] → K n , P 7→ (P (ai ))i .
Elle est injective car un polynôme non
 nul de Kn−1 [X] a au plus n − 1 racines et donc
Si (X)
bijective par le théorème du rang. est alors l'image réciproque de la base
Si (ai )
canonique de K n par φ. 

1.4.2. Dérivation. 
1.4.2.1. Dénition et propriété. 
n
Dénition 1.35. 
X
Soit P = ak X k . On pose
k=0
n
X n−1
X
0 k−1
P = kak X = (k + 1)ak+1 X k .
k=1 k=0

P est appelé polynôme dérivé de P.


0

Proposition 1.36.  Pour tout P ∈ K[X], deg P 0 ≤ deg P − 1. Plus généralement,


si deg P ≥ 1, alors deg P 0 = deg P − 1. Si P est constant, P 0 = 0.
1.4. RACINES 19

Démonstration : C'est évident. 


Remarquons que K = Q, R ou C est crucial ici.
Proposition 1.37.  L'application D : K[X] → K[X], P 7→ P 0 est linéaire. Son
noyau ker D = K0 [X]. Pour tout n ≥ 1, D(Kn [X]) = Kn−1 [X].

Démonstration : D'après la proposition précédente, P


D(Kn [X]) ⊂ Kn−1 [X]. Si Q =
∈ Kn−1 [X] alors Q = P avec P = ∈ Kn [X]. Donc
Pn−1 k 0 n−1 bk k+1
k=0 bk X k=0 k+1 X
Kn−1 [X] ⊂ D(Kn [X]). 

Dénition 1.38.  On pose P (0) = P et pour tout n ≥ 1, P (n) = P (n−1) 0 .




Proposition 1.39.  i. (P Q)0 = P 0 Q + P Q0 .


ii. Formule de Leibniz :
k
X
(k)
(P Q) = Cki P (i) Q(k−i) .
i=0

Démonstration : Soient P = ai X i et Q = bi X i .
P P

n
! n
!
i. On a P Q = X n , d'où (P Q)0 = ai bn−i X n−1 . On a
X X X X
ai bn−i n
n i=0 n≥1 i=0
n
! n
!
X n−1 et P Q0 = X n−1 , d'où le
X X X X
P 0Q = iai bn−i ai (n − i)bn−i
n≥1 i=0 n≥1 i=0
résultat.
ii. On prouve le résultat par récurrence (cf les formules de dérivation au lycée une fois
connu i).


Théorème 1.40.  Formule de Taylor. Soit P ∈ Kn [X]. Alors pour tout a ∈ K,


n
X P (k) (a)
P (X + a) = X k.
k=0
k!

Démonstration : On le montre pour P = X n et on conlura par linéarité. Soit Pn = X n .


On a
n
X
n
Pn (X + a) = (X + a) = Cnk an−k X k
k=0
(k) n−k
Pn (a) n(n − 1) · · · (n − k + 1)a
et = = Cnk an−k , c'est à dire que la formule de
k! k!
Taylor est vériée pour tout élément de la base {1, X, . . . , X n , . . .}. Soit Q ∈ K[X]. On
20 CHAPITRE 1. POLYNÔMES

n
écrit Q = ak Pk (X). On a
X

k=0
n n k (i) n n (i)
X X X P (a) i
X X P (a)
Q(X + a) = ak Pk (X + a) = ak k
X = ak k
Xi
k=0 k=0 i=0
i! k=0 i=0
i!
n n n
X 1 i X (i)
X Q(i) (a) i
= X ak Pk (a) = X.
i=0
i! k=0 i=0
i!

n
P (i) (0) i
Corollaire 1.41. 
X
En particulier, si P ∈ Kn [X], P (X) = X.
i=0
i!

Démonstration : Prendre a = 0. 

1.4.3. Multiplicité d'une racine. 


Dénition 1.42.  Soit P ∈ K[X], P 6= 0, et a ∈ K une racine de P. On appelle
ordre de multiplicité de a comme racine de P l'entier α = max{k ∈ N, (X − a)k |P }
(α existe car cet ensemble est ni (majoré par deg P ) et non vide). On dira que a est
racine simple de P si a est une racine de P d'ordre de multiplicité égal à 1.
Théorème 1.43.  Soit P 6= 0. Pour que l'ordre de multiplicité de a comme racine
de P soit égal à α ≥ 1, il faut et il sut que
 P (a) = P 0 (a) = · · · = P (α−1) (a) = 0,
 P (α) (a) 6= 0.
Démonstration : (⇒) Si a est une racine de multiplicité α de P, alors P = (X − a)α Q,
où Q(a) 6= 0 car (X − a) ne divise pas Q. D'après la formule de Leibniz, pour tout
n ≤ α,
n
X
(n)
P (X) = Cnk α(α − 1) . . . (α − n + 1)(X − a)α−n Q(n−k) (X).
k=0

Si n < α tous les termes de la somme sont nuls en a. Si n = α, ils sont tous nuls en a
sauf le terme correspondant à k = n, et on a P (n) (a) = n!Q(a) 6= 0.
(⇐) Réciproquement on écrit la formule de Taylor : on a
deg P deg P
X P (k) (a) X P (k) (a)
k
P (X) = P (X − a + a) = (X − a) = (X − a)k = (X − a)α · S,
k=0
k! k=α
k!
deg P −α
X P (k+α) (a) P (α) (a)
où S = (X − a)k vérie S(a) = 6= 0. 
k=0
(k + α)! α!
1.5. DÉCOMPOSITION DANS C[X] ET DANS R[X] 21

Corollaire 1.44.  a est racine simple de P 6= 0 si et seulement si P (a) = 0 et


P 0 (a) 6= 0.

1.4.4. Relations coecients-racines.  Soit P =


n
ai X i , an 6= 0. Supposons
X

k=0
n
que P = an (X − αi ). On développe cette expression. On a alors
Y

k=1
n
!
X X
P = an (−1)k αi1 . . . αik X n−k .
k=0 1≤i1 <i2 <···<ik ≤n

On en déduit la proposition suivante :


Proposition 1.45.  Avec les notations précédentes, on a :
n
Y a 0
 αi = (−1)n , (terme constant)
i=1
an
n−1
X an−1
 αi = − , (terme de degré n − 1)
i=1
an
X an−k
 plus généralement, αi1 . . . αik = (−1)k .
1≤i <i <···<i ≤n
an

Exemple: (X − α)(X − β) = X
1 2 k

2
+ aX + b, avec b = αβ et a = −(α + β).

1.5. Décomposition dans C[X] et dans R[X]


1.5.1. Décomposition dans C[X]. 
Dénition 1.46.  Si tous les polynômes irréductibles unitaires intervenant dans la
décomposition de A ∈ K[X] sont degré 1, on dira que A est scindé. Si de plus, ils sont
tous distincts, on dit que A est scindé à racine simples.
Théorème 1.47.  Théorème de D'Alembert-Gauss. Soit P ∈ C[X] de degré
≥ 1. Alors P admet une racine. Autrement dit, tout polynôme de C[X] est scindé.
Un corps qui a cette propriété s'appelle un corps algébriquement clos. On va donc
démontrer que C est algébriquement clos.
Démonstration : Il existe de nombreuses preuves de ce résultat (analyse complexes, th
des corps, intégrales à paramètres etc). Nous proposons une preuve très élémentaire
(non exigible). Soit P ∈ C[X] unitaire de degré ≥ 1. On écrit P = X m + a1 X n−1 +
· · · + am . On a m ≥ 1. On pose a0 = 1.
Montrons d'abord que z 7→ |P (z)| est continue : pour tout z ∈ C, pour toute suite
de nombres complèxes (zn ) → z, |P (zn )| → |P (z)|. Soit ε > 0, z ∈ C et soit une suite
22 CHAPITRE 1. POLYNÔMES

(zn ) → z. Il existe n0 , pour tout n ≥ n0 , |zn − z| ≤ ε. |zn | est borné donc il existe
A > 0 tel que pour tout n, |zn | ≤ A et |z| ≤ A. Pour tout n ≥ n0 ,

||P (zn )| − |P (z)|| ≤ |P (zn ) − P (z)| ≤ |am−1 ||zn − z| + |am−2 ||zn2 − z 2 | + · · · + |a0 ||znm − z m |
m−1
!
X
≤ |zn − z| |am−1 | + |am−2 |(|zn | + |z|) + · · · + |a0 | |zn |k |z|m−1−k
k=0
m−1

≤ ε |am−1 | + 2A|am−2 | + · · · + mA |a0 |
| {z }
indépendant de n

On a donc le résultat.
Montrons ensuite qu'il existe z0 tel que P (z0 ) = inf P (z).
z∈C
 a1 am 
On écrit P (z) = z 1 + + · · · + m . D'où
m
z z
 
|a1 | |am |
|P (z)| ≥ |z|m
1− − · · · − m → +∞, lorsque |z| → +∞.
|z| |z|

Il existe donc M > 0 tel que, pour tout z ∈ C tel que |z| ≥ M, |P (z)| > |P (0)|. On
considère alors l'ensemble {|P (z)|, |z| ≤ M }. C'est un ensemble non vide et minoré
par 0, il admet donc une borne inférieure α ≥ 0. Il existe donc une suite (zn = xn + iyn )
d'éléments de K = {z ∈ C, |z| ≤ M } telle que limn→+∞ |P (zn )| = α. La suite (xn ) est
bornée (par M ), donc on peut en extraire une sous-suite convergente (xσ(n) ). La suite
(yσ(n) ) est bornée par M donc on peut en extraire une sous-suite convergente (yτ (n) ). La
suite (xτ (n) ) est également convergente comme sous suite d'une suite convergente. On
considère alors la suite (zτ (n) ) = (xτ (n) + iyτ (n) ). Elle est convergente vers un complexe
z0 et vérie, pour tout n, |zτ (n) | ≤ M donc z0 ∈ K. Enn, lim |P (zτ (n) )| = α, et,
n→+∞
comme |P | est continue |P (z0 )| = α. z0 vérie alors P (z0 ) = inf P (z).
z∈C
[En fait, on a redémontré que toute fonction continue sur un fermé borné de R2 est
bornée et atteint ses bornes]
Montrons que P (z0 ) = 0. Supposons par l'absurde que P (z0 ) 6= 0. On considère alors
m
P (z0 + X) X
Q(X) = = bi X i
P (z0 ) i=0

et on va montrer qu'on peut trouver z tel que |Q(z)| < 1 (absurde car z0 = inf z∈C P (z)).
On considère k = min{1 ≤ i ≤ n, bi 6= 0}. Ce minimum existe bien puisqu'on a
supposé deg P ≥ 1. Comme b0 = 1, on peut écrire Q(z) = 1 + bk z k (1 + φ(z)), où
m−k
bi+k i
z et donc où |φ(z)| → 0 si z → 0. On prend alors r > 0 tel que
X
φ(z) =
i=1
bk
|φ(z)| ≤ 21 pour tout z tel que |z| < r. On pose bk = |bk |eiθ , θ ∈ R. On considère
1.5. DÉCOMPOSITION DANS C[X] ET DANS R[X] 23

, ρ ∈]0, r[ tel que ρk < On a alors


θ+π
1
z = ρei k
|bk |
.

Q(z) = 1 − |bk |ρk (1 + φ(z)),


d'où |Q(z)| ≤ 1 − |bk |ρk +|bk |ρk |φ(z)| ≤ (1−|bk |ρk )+ 21 |bk |ρk < 1. On a donc l'existence

d'une racine de P.
[En fait, on a redémontré le fait qu'une fonction holomorphe n'a pas d'extremum
local] 

Corollaire 1.48.  Les polynômes de degré 1 sont les seuls polynômes irréductibles
de C[X].

Démonstration : Soit P irréductible. P admet une racine α donc X − α divise P et par


conséquent P et X − α sont associés, donc deg P = 1. La réciproque étant évidente,
on a le résultat. 
Remarque: En pratique on écrit P = λ i=1 (X − zi )mi avec z1 , . . . , zr deux à deux
Qr
distinctes.

1.5.2. Décomposition dans R[X].  Soit P =


Pn
i=0 ai X i ∈ C[X], on dénit le
conjugué P = n
ai X i .
P
k=0

Proposition 1.49.  P →
7 P est un isomorphisme d'anneaux de C[X] dans lui-
même. On a, pour tout P ∈ C[X] P = P.

Démonstration : Le résultat est un corollaire du fait que la conjuguaison dans C est un


morphisme d'anneaux qui vérie pour toutPz ∈ C, z = z. On Pvérie que la conjugaison
est une morphisme d'anneaux. Soit P = ai X et Q = bi X deux polynômes de
i i

C[X]. On voitX
que :
 P +Q=
X
ai + b i X i = ai + bi X i = P + Q,
 1 = 1,
k k
 PQ =
XX XX
k
ai bk−i X = ai bk−i X k = P Q.
k i=0 k i=0

C'est de plus un isomorphisme car c'est une involution : P =


X X
ai X i = ai X i =
ai X i (c'est un morphisme qui est son propre inverse).
X


n
Corollaire 1.50. 
Y
Soient a, α1 , . . . , αn ∈ C et P = a (X − αi ). Alors P =
i=1
n
Y
a (X − αi ).
i=1
24 CHAPITRE 1. POLYNÔMES

Démonstration : On montre le résultat par récurrence sur deg P. Si deg


!P ≤ 0, P =
n−1
a ∈ C et P = a. Supposons deg P = n ≥ 1. Alors P = a (X − αi (X − αn ) et
Y

i=1
n−1
!
d'après la proposition P = (X − αi ) (X − αn ). D'après l'hypothèse de récur-
Y
a
i=1
n−1
!
rence appliquée à (X − αi ) , on a :
Y
a
i=1

n−1
!
Y
P = a (X − αi ) (X − αn ).
i=1


Remarque:
 Soit P ∈ C[X]. Alors P ∈ R[X] ⇔ P = P.
 P (z) = P (z). Ainsi z est racine de P si et seulement si z est racine de P .
Avant d'établir le théorème, nous allons montrer le lemme suivant qui détermine les
polynômes irréductibles de degré 2 de R[X].
Lemme 1.51.  Soient a, b, c ∈ R, tels que a 6= 0. P = aX 2 + bX + c est irréductible
si et seulement si ∆ = b2 − 4ac < 0.

Démonstration du lemme: Un polynôme de degré égal à 2 est irréductible si et seule-


ment si il n'a pas de racine. En eet, s'il a une racine α, X − α divise P et P n'est donc
pas irréductible. Reciproquement, si P n'est pas irréductible, il existe un polynôme
unitaire X − a de degré 1 le divisant et ainsi P admet a comme racine. Il est alors bien
connu qu'un trinôme aX 2 + bX + c a une racine si et seulement si son discriminant est
positif ou nul. 

Théorème 1.52.  Soit P ∈ R[X] de coecient dominant a. Alors il existe α1 , . . . , αr ∈


Y r Ys
R et β1 , . . . , βs ∈ C \ R tels que P = a (X − αi ) X 2 − (β + β)X + ββ soit la

i=1 i=1
décomposition de P en produit d'irréductibles dans R[X].

Démonstration : On remarque d'abord que le polynôme X 2 − (β + β)X + ββ =


X 2 − 2<(β) + |β|2 ∈ R[X] est irréductible si β ∈ C \ R. En eet, ∆ = (β + β)2 − 4ββ =
(β − β)2 = −4=(β)2 < 0 car β ∈ / R. Ainsi, si P se décompose comme produit
r s
X 2 − (β + β)X + ββ , c'est nécessairement sa décomposition
Y Y 
P = a (X − αi )
i=1 i=1
en produit d'irréductibles de R[X].
1.6. FRACTIONS RATIONNELLES 25

Montrons à présent par récurrence forte sur n = deg P que tout polynôme P de
degré n se décompose ainsi. Pour n = 0 c'est évident. Supposons que n ≥ 1. Si P
admet une racine réelle α, on applique l'hypothèse de récurrence à X−α
P
et on obtient
une décomposition de P sous la forme voulue. Sinon, on choisit une racine β de P dans
C (elle est non réelle). Il existe Q ∈ C[X] tel que P = (X − β)Q. Mais alors, comme
P ∈ R[X],
(X − β)Q = P = P = (X − β)Q.
β 6= β donc X − β et X − β sont premiers entre eux. Ainsi X − β divise (X − β)Q
donc divise Q. On peut alors écrire P = (X − β)(X − β) S où S ∈ C[X]. C'est la
| {z }
∈R[X]
division euclidienne de P par (X − β)(X − β) dans C[X]. Montrons que S ∈ R[X]. On
eectue la division eclidienne de P par (X −β)(X −β) dans R[X]. Il existe un couple de
polynômes (Q∗ , R∗ ) ∈ R[X]2 vériant deg R∗ ≤ 1 et P = Q∗ (X − β)(X − β) + R∗ . C'est
aussi vrai dans C[X]. Par unicité de la division euclidienne dans C[X], on a Q∗ = S et
R∗ = 0. On en déduit que S ∈ R[X]. On aurait également pu appliquer la conjugaison
complexe, pour voir que S = S̄. On applique alors l'hypothèse de récurrence à S, et on
obtient une décomposition pour P sous la forme voulue. 
Exemple: Décomposition de P = X + 1 dans R[X]. On cherche les racines dans
4

C : z = −1. On écrit z = ρe . En prenant le module, on voit que ρ4 = | − 1| = 1


4 iθ

donc ρ = 1. On a ei4θ = eiπ , d'où θ ∈ { π4 + k π2 , k = 0, . . . , 3}. On voit qu'on a quatre


racines distinctes données par ±e−i 4 , ±ei 4 . On obtient donc
π π

π π π π
X 4 + 1 = (X − e−i 4 )(X + e−i 4 )(X − ei 4 )(X + ei 4 ).
Reste à grouper les termes pour obtenir la décomposition dans R[X] :
π π π π √ √
X 4 +1 = (X −e−i 4 )(X −ei 4 )(X +e−i 4 )(X +ei 4 ) = (X 2 − 2X +1)(X 2 + 2X +1).
On pouvait aussi
√ obtenir plus astucieusement la factorisation en voyant que X +1 =
4

(X 2 + 1)2 − ( 2X)2 .
Montrons enn que X 4 + 1 est irréductible dans Q[X]. P n'a pas de racine dans
R puisque x4 ≥ 0 si x ∈ R. On en déduit que si P n'est pas irréductible, alors P
est produit de deux polynômes de degré 2 unitaires. Posons P = U V, avec U, V
irréductibles unitaires de degré 2 de Q[X]. Mais U et V sont aussi irréductibles
dans R[X] puisqu'ils n'ont pas non plus de racines réelles.
√ Ainsi, par unicité de la
décomposition
√ dans R[X], on en déduit que U = X ± 2X + 1. C'est absurde car
2

2∈
/ Q.

1.6. Fractions rationnelles


1.6.1. Corps de fractions.  On note K[X] ∗
l'ensemble K[X] \ {0}. Comme on le
fait pour construire Q à partir de Z × Z , on considère sur l'ensemble K[X] × K[X]∗

la relation suivante : (A1 , B1 ) ∼ (A2 , B2 ) ⇔ A1 B2 = A2 B1 .


26 CHAPITRE 1. POLYNÔMES

Proposition 1.53.  ∼ dénit une relation d'équivalence sur K[X] × K[X]∗ , c'est à
dire une relation
 réexive ((A, B) ∼ (A, B)),
 symétrique (si (A1 , B1 ) ∼ (A2 , B2 ), alors (A2 , B2 ) ∼ (A1 , B1 )),
 transitive (si (A1 , B1 ) ∼ (A2 , B2 ), et (A2 , B2 ) ∼ (A3 , B3 ), alors (A1 , B1 ) ∼ (A3 , B3 )).
Démonstration : Seule la transitivité n'est pas évidente. Si (A1 , B1 ) ∼ (A2 , B2 ), et
(A2 , B2 ) ∼ (A3 , B3 ), on a A1 B2 = A2 B1 et A2 B3 = A3 B2 d'où A1 B2 B3 = A2 B1 B3 =
B1 A3 B2 . Comme K[X] est intègre et B3 6= 0, on a A1 B3 = A3 B1 , et donc (A1 , B1 ) ∼
(A3 , B3 )). 
Dénition 1.54.  L'ensemble quotient (K[X] × K[X]∗ )/ ∼ s'appelle le corps des
A
fractions de l'anneau K[X]. On le note K(X). Une fraction rationnelle A/B ou est
B
la classe d'équivalence de K(X) de représentant (A, B).

Remarque: Cette construction est un cas particulier de la construction des anneaux


de fractions.

1.6.2. Le corps K(X).A  K[X] peut être vu commme sous-ensemble de K(X) par
l'application ι : A 7→ . C'est en eet une application injective : ι(A) = ι(B) ⇔
1
(A, 1) ∼ (B, 1) ⇔ A = B. On veut prolonger les opérations internes de K[X] à K(X).
On dénit l'addition de la façon suivante.
A1 A2 A1 B2 + A2 B1
+ := .
B1 B2 B1 B2
Remarquons d'abord que B1 B2 6= 0 car K[X] est intègre. Il faut ensuite montrer que
l'addition est bien dénie, c'est à dire indépendante du choix du représentant A/B de
la classe d'équivalence. Soient (A∗1 , B1∗ ) ∼ (A1 , B1 ) et (A∗2 , B2∗ ) ∼ (A2 , B2 ). Montrons
que (A1 B2 + A2 B1 , B1 B2 ) ∼ (A∗1 B2∗ + A∗2 B1∗ , B1∗ B2∗ ). On a en eet
B1∗ B2∗ (A1 B2 + A2 B1 ) = B2∗ B1 A∗1 B2 + B1∗ B2 A∗2 B1 = B1 B2 (B2∗ A∗1 + A∗2 B1∗ ).
On dénit la multiplication de la façon suivante :
A1 A2 A1 A2
× := .
B1 B2 B1 B2
Montrons de même qu'elle est bien dénie. Soient (A∗1 , B1∗ ) ∼ (A1 , B1 ) et (A∗2 , B2∗ ) ∼
(A2 , B2 ). Comme on a B1∗ B2∗ A1 A2 = B1 A∗1 B2 A∗2 , on en déduit (A1 A2 , B1 B2 ) ∼ (A∗1 A∗2 , B1∗ B2∗ ).
A
Proposition 1.55.  (K(X), +, ×) est un corps, et ι : K[X] → K(X), A 7→ est
1
un morphisme d'anneaux injectif.
Démonstration : (K(X), +) est un groupe commutatif d'élément neutre 01 . En eet,
1.6. FRACTIONS RATIONNELLES 27

 
A1 A2 A3 A1 B2 B3 + A2 B1 B2 + A3 B1 B2 A1
 + est associative : + + = = +
  B1 B2 B3 B1 B2 B3 B1
A2 A3
+ ,
B2 B3
A1 A2 A1 B2 + A2 B1 A2 A1
 + est commutative : + = = + ,
B1 B2 B1 B2 B2 B1
A 0 A
 + admet 01 comme neutre : + = ,
B 1 B
A −A
 tout élément admet un opposé : + = 0.
B B
(K(X), +, ×) est un anneau
 commutatif
 de neutre 11 . En eet
: 
A1 A2 A3 A1 A2 A3 A1 A2 A3
 × est associative : × × = = × × ,
B1 B2 B3 B1 B2 B3 B1 B2 B3
A A AA A A
 × est commutative : 1 × 2 = 1 2 = 2 × 1 ,
B1 B2 B1 B2 B2 B1
A 1 A
 × admet 11 comme neutre : × = ,
B 1 B
 × est distributive par rapport à + :
 
A1 A2 A3 A1 A2 B3 + A3 B2 A1 A2 B3 + A1 A3 B2
× + = × =
B1 B2 B3 B1 B2 B3 B1 B2 B3
A1 A2 B1 B3 + A1 A3 B1 B2 A1 A2 A1 A3
= 2
= +
B1 B2 B3 B1 B2 B1 B3
A1 A2 A1 A3
= × + × .
B1 B2 B1 B3
Enn, si BA 6= 01 c'est à dire que A 6= 0, BA est inversible d'inverse BA : BA BA = AB
AB
= 11
puisque AB = AB. (K(X), +, ×) est donc un corps.
ι est un morphisme d'anneaux, puisque A1 + B1 = A+B 1
, A1 × B1 = AB
1
et ι(1) = 11 . 
A présent, on identiera K[X] et le sous-anneau ι(K[X]) de K(X).

1.6.3. Écriture irréductible. 


Proposition 1.56.  Soit R ∈ K(X). Alors il existe un unique couple (A, B) ∈
A
K[X] × K[X]∗ tel que R = , A ∧ B = 1 et B unitaire.
B
A
Démonstration : (existence) Soit (A, B) tels que R = . Posons D = A ∧ B. D 6= 0
B
puisque B 6= 0. Écrivons A1 D = A, B1 D = B. On a alors R = BA11 D D
= BA1
1
. Quitte à
diviser A1 et B1 par le coecient dominant de B1 , on peut supposer B1 unitaire.
(unicité) Supposons que R = BA11 = BA22 avec B1 , B2 unitaires vériant A1 ∧ B1 = 1,
A2 ∧ B2 = 1. On a A1 B2 = B1 A2 . Comme B2 ∧ A2 = 1 et B2 |B1 A2 on voit que B2 |B1 .
28 CHAPITRE 1. POLYNÔMES

De même B1 |B2 donc les deux polynômes sont associés. Comme ils sont unitaires, ils
sont égaux. On a donc B1 A1 = B1 A2 , et comme B1 6= 0, A1 = A2 . 

1.6.4. Spécialisation.  Soit a ∈ K et R = ∈ K(X) une fraction sous forme


A
B
irréductible telle que B(a) 6= 0. Pour tout (A , B ) tel que R = BA∗ et B ∗ (a) 6= 0, on

∗ ∗
A∗ (a)
a l'égalité des éléments de K B(a)
A(a)
= B ∗ (a) . On en déduit que l'élément R(a) := B(a)
A(a)

de K est indépendant du représentant choisi pour R dont le dénominateur ne s'annule


pas en a. C'est la valeur de la fraction R en a.
On peut également choisir l'autre point de vue. On xe a ∈ K, et on considère les
fractions dont on peut dénir la valeur en a. Soit l'ensemble
A
Oa = {R ∈ K(X) | ∃(A, B), R = , B(a) 6= 0.}
B
des fractions régulières en a.

Proposition 1.57.  Oa est un sous-anneau de (K(X), +, ×).

Démonstration : 0 = 0
1
et 1 = 1
1
sont bien dans Oa . De plus, si
∈ Oa avec A C
,
B D
A C AD + BC A C AC
B(a) 6= 0 et D(a) 6= 0, −A
B
∈ Oa , + = ∈ Oa et × = ∈ Oa
B D BD B D BD
car B(a)D(a) 6= 0. 

Proposition 1.58.  L'application d'évaluation en a φa : Oa → K, R = A


B
7→ A(a)
B(a)
(B(a) 6= 0) dénit un morphisme d'anneaux.

Démonstration : Cette application est bien dénie d'après le début du paragraphe (in-
dépendant du représentant de la fraction R). C'est clairement un morphisme d'anneaux
car l'évaluation des polynômes l'est. 
Exemple: On peut évaluer la fraction en 1 mais pas en −1.
X 3 −1
X 2 −1

Remarque: Soit m l'idéal ker φ . Comme 1 ∈/ m , m 6= O . On peut voir facilement


a a a a a
que tout élément BA ∈ Oa \ ma (B(a) 6= 0) est inversible, d'inverse B
A
∈ Oa , puisque
A(a) 6= 0. On dit alors que Oa est un anneau local.

1.6.5. DécompositionYen éléments simples.  Soit


r
A
B
∈ K(X), A ∧ B = 1, B

unitaire. On écrit B = Piαi , αi > 0, Pi irréductible unitaire.


i=1

Dénition 1.59.  On appelle pôles de A


B
de multiplicité αi le polynôme Pi . Pi est
dit simple si αi = 1.
1.6. FRACTIONS RATIONNELLES 29

Théorème 1.60.  i. Avec les notations précédentes, il existe un unique (Q0 , . . . , Qr ) ∈


K[X]r+1 tel que
A Q0 Q1 Qr
= + α1 + · · · + αr ,
B 1 P1 Pr
et deg Qi < αi deg Pi pour tout i ∈ {1, . . . , r}.
ii. Soit Q

∈ K(X), avec P irréductible, tel que deg Q < α deg P. Il existe un unique
(Q1 , . . . , Qα ) ∈ K[X]α tel que
A Q1 Qα
= + ··· + α,
B P P
et deg Qi < deg P pour tout i ∈ {1, . . . , α}.
Démonstration : (1) (existence) On montre le résultat suivant par récurrence sur r :
r
pour tout B ∈ K[X] tel que B = Piαi , où les Pi sont des polynômes irréductibles
Y

i=1
unitaires distincts et les αi sont strictement positifs, pour tout A ∈ K[X], l'assertion
du théorème est vraie.
r = 0 est évident : A1 = A1 . r = 1 est le cas où B = P α . La division euclidienne de A
par B donne alors directement le résultat :
A BQ + R Q R
= = + .
B B 1 B
r+1
Supposons r > 0 et que le résultat est connu au rang r. Soit B = Piαi , avec Pi
Y

i=1
unitaires irréductibles distincts et αi > 0. Soit A ∈ K[X]. Pr+1
αr+1
est premier avec
r r
donc, par Bezout, il existe U, V ∈ K[X] tels que U = 1. On
Y Y α
Piαi Piαi + V Pr+1
r+1

i=1 i=1
a donc Qr α
A AU i=1 Piαi + AV Pr+1
r+1
AU AV
= = Qr αi + αr+1 .
B B i=1 Pi Pr+1
On applique alors l'hypothèse de récurrence au premier terme et le cas r = 1 pour le
second pour obtenir le résultat.
(unicité) On suppose que (Q0 , . . . , Qr ) et (Q∗0 , . . . , Q∗r ) conviennent. On a alors
r r
X Qi ∗
X Q∗i
Q0 + αi = Q0 + .
i=1
Pi i=1
Piαi
On a alors r r
αj
Y X Y
(Q∗0 − Q0 ) Piαi = (Qi − Q∗i ) Pj
i=1 i=1 j6=i
(on rappelle que l'application canonique ι : K[X]
P → K(X) est injective). On voit que le
terme de gauche a pour degré deg(Q0 −Q∗0 )+ αi deg Pi tandis que le second a un degré
30 CHAPITRE 1. POLYNÔMES

αi deg Pi d'après les conditions portant sur le degré des QX


i . On a donc Y Q0 = Q∗0 .
P
<
Soit k ∈ {1, . . . , r}. Comme Pk divise chacun des termes de
αk
(Qi − Q∗i ) Pj j , il
α

i6=k j6=i

divise aussi Comme il est premier avec il divise (Qk − Q∗k ).


Y Y
(Qk − Q∗k ) Pkαk . Pkαk ,
j6=k j6=k
Comme deg(Qk − Q∗k ) < deg Pkαk , on en déduit que Qk = Q∗k . D'où l'unicité.
(2) (existence) Soit P ∈ K[X] irréductible unitaire. On montre par récurrence sur α que
pour tout α, pour tout Q ∈ K[X] avec deg Q < α deg P, PQα a la forme annoncée dans le
théorème. Le cas α = 0 est évident. On suppose α ≥ 0 et que l'hypothèse de récurrence
est vraie pour α. Soit Q ∈ K[X], deg Q < (α + 1) deg P. On eectue la division
euclidienne de Q par P. On a Q = Q0 P + R avec deg R < deg P et deg Q0 < α deg P.
Q Q R
On a alors α+1 = α0 + α+1 . On applique l'hypothèse de récurrence à PQα0 et on
P P P
obtient le résultat.
(unicité) On suppose de même que (Q1 , . . . , Qα ) et (Q1 , . . . , Q∗α ) conviennent. On a
alors α X Qi − Q∗
i
= 0.
i=1
Pi
Par conséquent, on a
α
X
(Qi − Q∗i )P α−i = 0.
i=1
α−1
Comme P divise (Qi −Q∗i )P α−i , P divise (Qα −Q∗α ). Comme deg(Qα −Q∗α ) < deg P,
X

i=1
Qα = Q∗α . On divise alors l'expression par P (P 6= 0 et K[X] intègre) et on montre de
même que Qα−1 = Q∗α−1 . Par récurrence descendante immédiate, on voit ensuite que
pour tout i, Qi = Q∗i . 
Remarque: Autrement dit, la famille {X , n ∈ N} ∪ { n Xk
P`
, P irréductible, k <
deg P, ` ∈ N } forme une base de K(X). Si K est indénombrable, alors cette base

est indénombrable ( X−a


1
, a ∈ K est dans cette base). K(X) est donc beaucoup plus
gros que K[X] qui admet une base dénombrable.
CHAPITRE 2

DUALITÉ

Soit E un K -espace vectoriel de dimension nie.

2.1. Dual d'un espace vectoriel


Dénition 2.1.  On appelle dual de E, et on note E ∗ l'espace vectoriel des appli-
cations K linéaires de E dans K :
E ∗ = {f : E → K, f linéaire } = L(E, K).
Les éléments de E ∗ s'appellent formes linéaires.
Proposition 2.2.  E ∗ est un K espace vectoriel.
Démonstration : Clair (c'est un sous-espace vectoriel de l'espace des applications de E
dans K). 
Exemple: K n
→ K, (x1 , . . . , xn ) 7→ x1 est une forme linéaire.
Notation : Si φ est une forme linéaire et x ∈ E, on note < φ, x >:= φ(x).
Dénition-Proposition 2.3.  Soit (e1 , . . . , en ) une base de E. Pour tout i, on note
e∗i la forme linéaire sur E dénie par e∗i (ej ) = δij pour tout j, où δij vaut 0 si i 6= j, 1
sinon. Alors la famille (e∗1 , . . . , e∗n ) forme une base de E ∗ . (e∗1 , . . . , e∗n ) s'appelle la base
duale de (e1 , . . . , en ).
Démonstration : C'est une famille génératrice puisqu'on peut écrire, pour tout φ ∈ E ∗ ,
φ = i=1 φ(ei )e∗i (onPvérie que les deux membres coincident
P ∗ sur la base (e1 , . . . , en ).
Pn
Elle est libre, car si λi ei = 0, on a, pour tout k, 0 = λi ei (ek ) = λk .


Remarque:
i. On a dim E ∗ = n.
n
ii. Pour tout x ∈ E, x =
X
e∗i (x)ei .
i=1
32 CHAPITRE 2. DUALITÉ

2.2. Bidual
Dénition 2.4.  On appelle bidual, et on note E ∗∗ , l'espace vectoriel (E ∗ )∗ .
Lemme 2.5.  dim E ∗∗ = dim E.

Démonstration du lemme: Immédiat. 

Proposition 2.6.  Le crochet de dualité a les propriétés suivantes :


i. Pour tout φ ∈ E ∗ , x 7→< φ, x > est linéaire.
ii. Pour tout x ∈ E, δx : E ∗ → K, φ 7→< φ, x > est K -linéaire. On a donc δx ∈ E ∗∗ .
iii. φ ∈ E ∗ est nulle si et seulement si ∀x ∈ E < φ, x >= 0.
iv. Un élément x ∈ E est nulm si et seulement si ∀φ ∈ E ∗ < φ, x >= 0.

Démonstration : i., ii. et iii. sont évidentes.


iv. Si x = 0, il est clair que pour tout φ ∈ E ∗ , < φ, x >= 0. On suppose que x 6= 0. On
peut compléter x en une base (x, x2 , . . . , xn ) de E. On considère alors x∗ ∈ E ∗ . On a
< x∗ , x >= 1 6= 0. 
Remarque: <, > est une forme bilinéaire sur E ∗
× E.

Corollaire 2.7.  L'application


i : E → E ∗∗
x 7→ δx : φ 7→< φ, x >
est linéaire et injective. Elle induit donc un isomorphisme E ' E ∗∗ .

Remarque: Cet isomorphisme est canonique : il ne dépend pas du choix d'une base,
contrairement à E ' E ∗ .
Démonstration : La proposition montre que x 7→ δx est linéaire et injective. Comme on
a dim E = dim E ∗∗ , i est un isomorphisme (théorème du rang). 

2.3. Orthogonalité
Dénition-Proposition 2.8.  Soit F un sev de E. On appelle orthogonal de F
dans E ∗ , et on note F ⊥ , l'ensemble des formes linéaires de E ∗ qui sont nulles sur F :
F ⊥ = {φ ∈ E ∗ | ∀x ∈ F φ(x) = 0}.
C'est un sev de E ∗ .

Démonstration : F ⊥ est clairement un sev de E ∗ vu sa dénition. 


Remarque: Si A ⊂ E, {φ ∈ E ∗
| ∀x ∈ A φ(x) = 0} =< A >⊥ .
2.3. ORTHOGONALITÉ 33

Dénition-Proposition 2.9.  Soit G un sev de E ∗ . On appelle orthogonal de G


dans E, et on note G , l'intersection des noyaux des éléments de G :
0

G0 = {x ∈ E | ∀φ ∈ G φ(x) = 0}.
C'est un sev de E.
Démonstration : C'est un sev de E comme intersection de sev de E. 
On a les propriétés importantes suivantes :
Proposition 2.10.  Soit F et F 0 deux sev de E, et G un sev de E ∗ . Alors
i. (F ⊂ F 0 ) ⇒ (F 0⊥ ⊂ F ⊥ )
ii. (F + F 0 )⊥ = F ⊥ ∩ F 0⊥
iii. F ⊥ + F 0⊥ = (F ∩ F 0 )⊥
iv. (F ⊥ )0 = F
v. G ⊂ (G0 )⊥
Démonstration :
i. Clair d'après la dénition.
ii. F ⊂ F + F 0 donc (F + F 0 )⊥ ⊂ F ⊥ . De même (F + F 0 )⊥ ⊂ F 0⊥ . D'où (F + F 0 )⊥ ⊂
F ⊥ ∩ F 0⊥ . Réciproquement, soit φ ∈ F ⊥ ∩ F 0⊥ . Soit z ∈ F + F 0 . Il existe x ∈ F et
x0 ∈ F 0 tel que z = x + x0 . Alors φ(z) = φ(x) + φ(x0 ) = 0 + 0 = 0.
iii. F ∩ F 0 ⊂ F, F 0 donc F ⊥ , F 0⊥ ⊂ (F ∩ F 0 )⊥ et donc F ⊥ + F 0⊥ ⊂ (F ∩ F 0 )⊥ .
Réciproquement, soit φ ∈ (F ∩ F 0 )⊥ . On choisit une base (e1 , . . . , ek ) de F ∩ F 0 , que
l'on complète par (f1 , . . . , fr ) en une base de F et par (f10 , . . . , fs0 ) en une base de F 0 .
(e1 , . . . , ek , f1 , . . . , fr , f10 , . . . , fs0 ) est une base de F +F 0 . [En eet, elle est génératrice
car (e1 , . . . , ek , f1 , . . . , fr ) est une famille génératrice de F, P et (e1 ,P
0
. . . , ek , f1P , . . . , fr0 )
est une famille Pgénératice P de F . Elle
0
P est 0libre puisque si λi ei + µi fi + τi fi =
0

0, alors on a λi eiP + µi f i = − P τi fi , donc les membres de droites et de gauche


sont dans F. Ainsi τi fi0 = 0, puis µi fi = 0 et λi ei = 0. Comme les familles
P
sont libres, on conclut que tous les coecients sont nuls.] On complète cette base
(e1 , . . . , ek , f1 , . . . , fr , f10 , . . . , fs0 , g1 , . . . , gm ) en une base de E. On dénit alors φ0
par φ0 (ei ) = φ(ei )(= 0 car φ ∈ (F ∩ F 0 )⊥ ) φ0 (fi ) = φ(fi ), φ0 (fi0 ) = 0, φ0 (gi ) = 0
pour tout i. On a alors φ = (φ − φ0 ) + φ0 . φ(x) − φ0 (x) = 0 pour tout x ∈ F, et
φ0 (x) = 0 pour tout x ∈ F 0 . Donc φ ∈ F ⊥ + F 0⊥ .
iv. Soit x ∈ F. Pour tout φ ∈ F ⊥ , φ(x) = 0, et donc x ∈ (F ⊥ )0 . Réciproquement,
si x ∈ / F, on complète x en une base adaptée à < x > ⊕F, puis en une base de
E. On considère x∗ . x∗ (y) = 0 pour tout y ∈ F, donc x∗ ∈ F ⊥ . x ∈ / ker x∗ , donc
/ (F ⊥ )0 .
x∈
v. Soit φ ∈ G. Soit x ∈ G0 . Alors φ(x) = 0. Donc φ ∈ (G0 )⊥ .

34 CHAPITRE 2. DUALITÉ

Proposition 2.11.  Soit G un sous-espace vectoriel de E ∗ . Alors i : E → E ∗∗ induit


un isomorphisme i : G → G⊥ . 0

Démonstration : Montrons que i : G0 → G⊥ est bien dénie. Soit x ∈ G0 . Alors pour


tout φ ∈ G, 0 =< φ, x >= i(x)(φ). Ainsi i(x) ∈ G⊥ . L'application étant injective
comme restriction d'une application injective. Montrons qu'elle est surjective. Soit Φ ∈
G⊥ . i est un isomorphisme, donc il existe x ∈ E tel que i(x) = Φ. Montrons que x ∈ G0 .
Soit φ ∈ G. Comme φ(x) = i(x)(φ) = Φ(φ) = 0 et Φ(φ) = 0, on a alors x ∈ G0 . D'où
l'isomorphisme. 
Proposition 2.12.  Soit E de dimension nie, F un sev de E, G sev de E ∗ . Alors
i. dim F + dim F ⊥ = dim E,
ii. dim G + dim G0 = dim E ∗ ,
iii. G = (G0 )⊥ .
Démonstration :
i. On commence par établir ce lemme.
Lemme 2.13.  Soit F un sev de E. Soit (f1 , . . . , fk ) une base de F. On suppose
que (f1 , . . . , fk , e1 , . . . , er ) est une base de E. Alors (e∗1 , . . . , e∗r ) est une base de F ⊥ .
Démonstration du lemme: On a, pour tout i, e∗i ∈ F ⊥ par dénition (nulle en
f1 , . . . , fk ). Il sut de montrer qu'elle est génératrice car on sait déjà qu'elle est
libre.PSoit φ ∈P F ∗ . (f1∗ , . . . , fk∗ , e∗1 , . . . , e∗r ) est une base de E ∗ , donc on peut écrire
φ = λi fi + µi e∗i . On a, pour tout i, φ(fi ) = 0 = λi . On en déduit le résultat.


On en déduit que dim E = dim F + dim F ⊥ .
ii. On a, d'après la proposition dim G0 = dim G⊥ et on déduit le résultat de i.
iii. On a déjà G ⊂ (G0 )⊥ , d'où l'égalité par dimension.


2.4. Hyperplans
Dénition 2.14.  On appelle codimension d'un sev F de E la dimension de F ⊥
(ou la dimension de E/F ).
Dénition 2.15.  On appelle hyperplan tout sev de codimension 1 (c'est à dire de
dimension n − 1).

Exemple:Ainsi, une droite de R 2


et un plan de R3 sont des hyperplans (mais pas
une droite de R3 ).
Proposition 2.16.  Si φ ∈ E ∗ \ {0}, ker φ est un hyperplan. Réciproquement, si H
un hyperplan de E, il existe φ ∈ E ∗ \ {0} tel que H = ker φ.
2.5. TRANSPOSÉE 35

Démonstration : Soit φ ∈ E ∗ \ {0}. Soit G =< φ > . Alors dim G0 = n − dim G = n − 1


donc G0 = ker φ est un hyperplan. Réciproquement, si H est un hyperplan, H ⊥ est de
dimension 1 donc engendré par φ. 

Lemme 2.17.  Soit φ ∈ E ∗ \ {0}, φ ∈ H ⊥ . Soit ψ ∈ H ⊥ . Alors il existe λ ∈ K


ψ = λφ.

Dénition 2.18.  Soit H un hyperplan tel que H ⊥ =< φ > . Alors φ = 0 est une
équation de l'hyperplan H.

Si ψ = 0 est une autre équation de H, φ = λφ.


Exemple:
 Dans R3 , l'ensemble {(x, y, z) | x + y + z = 0} est l'hyperplan d'équation φ = 0,
où φ(x, y, z) = x + y + z.
 Plus généralement, soit φ = λ1 e∗1 + λ2 e∗2 + λ3 e∗3 ∈ (R3 )∗ , où (e1 , e2 , e3 ) est la base
canonique de R3 et (λ1 , λ2 , λ3 ) 6= (0, 0, 0). Alors l'hyperplan ker φ = {(x, y, z) ∈
R3 | λ1 x + λ2 y + λ3 y = 0} est l'hyperplan équation φ = 0

Proposition 2.19.  i. Soient H1 , . . . , Hm m hyperplans d'équation respectives φ1 =



0, . . . , φm = 0. Alors (∩m
i=1 Hi ) =< φ1 , . . . , φm > . En particulier, codim ∩mi=1 Hi =
dim < φ1 , . . . , φm > .
ii. Soit F un sev de E de codimension r. Alors il existe r formes linéaires linérairement
indépendantes φ1 , . . . , φr telles que F = ∩ri=1 ker φi .

Démonstration :
i. On montre le résultat par récurrence immédiate sur m. On a déjà vu le résultat
pour m = 1. Si m ≥ 2, on a
⊥ ⊥ ⊥ ⊥
(∩m ∩m−1 ∩m−1

i=1 Hi ) = i=1 Hi ∩ Hm = i=1 Hi + Hm =< φ1 , . . . , φm > .
| {z } |{z}
<φ1 ,...,φm−1 > par HR <φm >

ii. dim F ⊥ = r. On choisit alors une base (φ1 , . . . , φr ) de F ⊥ . Alors F = ∩ri=1 Kerφi .
En eet, pour tout i = 1, . . . , m, F ⊂ ker φi puisque φi ∈ F ⊥ est nulle sur F. Ainsi
F ⊂ ∩ ker φi . De plus, d'après i., codim ∩ri=1 ker φi = dim < φ1 , . . . , φr >= r, donc
dim F = dim ∩ri=1 ker φi = dim E − r, et on a donc l'égalité F = ∩ri=1 ker φi .


2.5. Transposée
2.5.1. Généralités.  E, F, G désignent trois K -espaces vectoriels de dimension
nie.
36 CHAPITRE 2. DUALITÉ

Dénition 2.20.  Soit u ∈ L(E, F ). On appelle transposée de u l'application (bien


dénie !)
t
u : F ∗ → E∗
φ 7→ φ ◦ u
[φ ◦ u : E → K est bien linéaire comme composée d'application linéaire.]

Proposition 2.21.  t
u ∈ L(F ∗ , E ∗ )

Démonstration : Soient φ1 , φ2 ∈ F ∗ , λ1 , λ2 ∈ K. Alors


t
u(λ1 φ1 + λ2 φ2 ) = (λ1 φ1 + λ2 φ2 ) ◦ u = λ1 φ1 ◦ u + λ2 φ2 ◦ u = λ1 t u(φ1 ) + λ2 t u(φ2 ).

Remarque: Soit x ∈ E, φ ∈ F . Alors < ∗ t
u(φ), x >E ∗ ,E = t u(φ)(x) = φ ◦ u(x) =
φ(u(x)) =< φ, u(x) >F ∗ ,F

Proposition 2.22.  i. Soit IdE ∈ L(E) l'identité sur E et t IdE ∈ L(E ∗ ) sa trans-
posée. Alors IdE est l'identité sur E ∗ : t IdE = IdE ∗ .
t

ii. Soient f : E → F, et g : F → G. Alors t (g ◦ f ) = t f ◦ t g.


iii. Si f : E → F est un isomorphisme, alors t f : F ∗ → E ∗ est un isomorphisme et
(t f )−1 =t (f −1 ).

Démonstration :
i. Soit φ ∈ E ∗ . On a t IdE (φ) = φ ◦ IdE = φ d'où t IdE = IdE ∗ .
ii. Soit φ ∈ G∗ . Alors
t
(g ◦ f )(φ) = φ ◦ (g ◦ f ) = (φ ◦ g) ◦ f = t g(φ) ◦ f = t f ( t g(φ)) = ( t f ◦ t g)(φ).
iii. Il existe f −1 tel que f ◦ f −1 = IdF et f −1 ◦ f = IdE . D'après i. et ii., on a
t
f ◦ t (f −1 ) = t (f ◦ f −1 ) = t IdF = IdF ∗ et t (f −1 )f ◦ t f = t (f −1 ◦ f ) = t IdE = IdE ∗ ,
d'où le résultat.


Proposition 2.23.  L(E, F ) → L(F ∗ , E ∗ ), u 7→ t u est un isomorphisme

Démonstration : Cette application est clairement linéaire (laissé au lecteur). De plus,


cette application est injective. En eet, si t u = 0 alors, pour tout φ ∈ F ∗ , t u(φ) = 0. Si
u 6= 0, il existe x ∈ E, y = u(x) 6= 0. On complète y en une base de F et on considère
y ∗ . On a t u(y ∗ )(x) = y ∗ (u(x)) = 1, ce qui contredit t u = 0. Comme dim L(E, F ) =
dim E dim F = dim F ∗ dim E ∗ = dim L(F ∗ , E ∗ ), cette application est un isomorphisme.


Théorème 2.24.  Soit u : E → F. Alors kert u = (Im u)⊥ et (Im t u) = (ker u)⊥ .
2.5. TRANSPOSÉE 37

Démonstration :Le premier point découle des dénitions :


kert u = {φ ∈ F ∗ | t u(φ) = 0}
= {φ ∈ F ∗ | φ ◦ u = 0}
= {φ ∈ F ∗ | Im u ⊂ ker φ}
= (Im u)⊥ .
Pour le second point, considérons φ ∈ Im t u. Il existe donc ψ ∈ F ∗ , φ = ψ ◦ u. Si
x ∈ ker u, φ(x) = ψ(u(x)) = 0, donc on a φ ∈ (ker u)⊥ . De plus,
dim(ker u)⊥ = dim E−dim ker u = dim Im u = dim F ∗ −dim(Im u)⊥ = dim F ∗ −dim kert u = dim Imt u.
On conclut alors par dimension. 
2.5.2. Écriture matricielle.  Soit u : E → F. Soit e = (e1 , . . . , en ) une base
de E, e = (e∗1 , . . . , e∗n )

sa base duale. Soit f = (f1 , . . . , fm ) une base de F et soit
f = (f1∗ , . . . , fm
∗ ∗
) sa base duale.
m
On pose, pour tout j ∈ {1, . . . , n}, u(ej ) = βij fi , de sorte que
X

i=1

M atfe u = (βij )1≤i≤m .


1≤j≤n

Calculons M at t u. Il s'agit donc de calculer t u(fj∗ ) pour tout j. Pour cela, déterminons
e∗
f∗
l'image de la base (e1 , . . . , en ). Pour tout k ∈ {1, . . . , n}, on a
Xm
t
u(fj∗ )(ek ) = (fj∗ ◦ u)(ek ) = fj∗ ( βik fi ) = βjk .
i=1
n
! n
De plus βji e∗i (ek ) = βjk . Ainsi fj∗ ◦ u et βji e∗i coïncident sur (e1 , . . . , en ) et
X X

i=1 i=1
sont donc égales. On a donc, pour tout j = 1, . . . , m,
n
X
t
u(fj∗ ) = βji e∗i .
i=1
On en déduit que ∗
M atef ∗ t u = (βji )1≤i≤m .
1≤j≤n
CHAPITRE 3

DÉTERMINANT

3.1. Le groupe symétrique


Dans toute cette partie, Nn = {1, . . . , n}.
Dénition 3.1.  On appelle groupe symétrique, et on note Sn , l'ensemble des
bijections σ : Nn → Nn .

Lemme 3.2.  #Sn = n!

Démonstration du lemme: σ ∈ Sn est déterminée par le n-uplet (σ(1), . . . , σ(n)). On


a σ(1) = {1, . . . , n} donc n choix pour σ(1). Comme σ est injective, σ(2) 6= σ(1). Ainsi
σ(2) ∈ Nn \ {σ(1)} et on a (n − 1) choix pour σ(2). Par récurrence immédiate, on voit
que pour tout i ∈ Nn , σ(i) ∈ {1, . . . , n} \ {σ(1) . . . , σ(i − 1)} donc on a n − i + 1 choix
pour σ(i). On en déduit que #Sn = n × (n − 1) × · · · × 1 = n!. 
Exemple: S 3 est formé des éléments suivants :
 
1 → 2 1 → 2

1 → 1
  
σ1 : 2 → 2 := Id σ3 : 2 → 1 := (1 2) σ5 : 2 → 3 := (1 2 3)
 
3 → 3 
3 → 1
3 → 3
  
1 → 1
 1 → 3
 1 → 3

σ2 : 2 → 3 := (2 3) σ4 : 2 → 2 := (1 3) σ6 : 2 → 1 := (1 3 2)

3 → 2 
3 → 1 
3 → 2

(les notations apparaîtront claires plus tard).


On peut munir Sn de la composition des applications ◦, et obtenir ainsi une structure
de groupes.
Proposition 3.3.  (Sn , ◦) est un groupe.
40 CHAPITRE 3. DÉTERMINANT

Démonstration : ◦ : Sn × Sn → Sn , (σ, τ ) 7→ σ ◦ τ est une loi interne (puisque


σ ◦ τ : Nn → Nn est bijective), vériant les propriétés suivantes :
 ◦ est associative : ∀σ, τ,  ∈ Sn , σ ◦ (τ ◦ ) = (σ ◦ τ ) ◦  car la composition des
applications est associative,
 ◦ admet un neutre, Id : Nn → Nn , i 7→ i. En eet, σ ◦ Id = Id ◦ σ = σ.
 tout élément a un inverse : σ ◦ τ = Id = τ ◦ σ, où τ : i 7→ j si σ(j) = i.

Remarque:
 Si m ≤ n, on peut voir Sm comme un sous groupe de Sn via le morphisme de
groupes injectifs σ 7→ τ, où τ (i) = σ(i) si i ≤ m, τ (i) = i si i > m.
 Attention : Sn n'est pas abélien si n ≥ 3. En eet, S3 n'est pas abélien :
(1 2) ◦ (2 3) = (1 2 3), et (2 3) ◦ (1 2) = (1 3 2).
Notations On note σ ∈ Sn de la façon suivante :
 
1 2 3 ... n
σ=
σ(1) σ(2) σ(3) . . . σ(n)
−1
On note, pour k ≥ 0, σ k := σ · · ◦ σ} . Si k < 0, σ k := σ −k
| ◦ ·{z .
k fois
Lemme 3.4.  Soit σ ∈ Sn . Il existe 0 < k ≤ n! tel que σ k = Id.
Démonstration du lemme: On applique le lemme des tiroirs. {σ k , k = 1, . . . , n! + 1}
a cardinal au plus #Sn = n! donc deux éléments σ i , σ j (au moins) sont égaux, avec
i < j. On a alors σ j−i = Id. 
On verra par la suite qu'on peut nettement raner ce résultat. Cependant, on peut
alors dénir l'ordre d'un élément.
Dénition 3.5.  On appelle ordre de σ ∈ Sn , et on note o(σ) le plus petit entier k
non nul tel que σ = Id.
k

Remarque: On a alors l'égalité < σ >:= {σ , k ∈ Z} = {σ , k = 0, . . . , o(σ) − 1}.


k k

En eet, si k ∈ Z, on considère le reste de la division euclidienne de k par o(σ). Il


existe q ∈ Z et 0 ≥ r < o(σ), k = qo(σ) + r. Alors
!q
σ k = σ qo(σ)+r = σ o(σ)
|{z} σr = σr
Id

Dénition 3.6.  Soit p ≥ 2 un entier plus petit que n. On appelle p-cycle tout
élément σ de Sn tel qu'il existe p entiers i1 , . . . , ip distincts de {1, . . . , n} vériant :
 Pour tout j ∈ {1, . . . , p − 1}, σ(ij ) = ij+1 et σ(ip ) = i1 .
 Pour tout k ∈/ {i1 , . . . , ip }, σ(k) = k.
Un tel p-cycle est alors noté (i1 i2 . . . ip ). {i1 , . . . , ip } s'appelle le support de σ.
Un 2-cycle est appelé une transposition.
3.1. LE GROUPE SYMÉTRIQUE 41

Lemme 3.7.  Soit σ un p-cycle, p ≥ 2. Alors σ est d'ordre p. En particulier, si τ


est une transposition, τ 2 = Id.

Remarque: Un p-cycle est donc un élément d'ordre p de S . La réciproque est n


fausse !
Démonstration : Soit σ un p-cycle et i1 , . . . , ip les entiers correspondant. On pose, pour
` = p + 1, . . . 2p, i` = i`−p . Si k ∈
/ {i1 , . . . , ip }, σ p (k) = σ p−1 (σ(k)) = σ p−1 (k) = · · · = k
par récurrence immédiate. Si j ∈ {1, . . . , p}, σ p (ij ) = σ p−1 (ij+1 ) = · · · = ij+p = ij .
Ainsi σ p = Id. De plus, si m < p, σ m (i1 ) = im+1 6= i1 , donc σ m 6= Id. 
Soit σ ∈ Sn . On dénit sur Nn la relation d'équivalence : i ∼σ j s'il existe k ∈ Z,
σ k (i) = j. On voit immédiatement que c'est bien une relation d'équivalence (reexive,
symétrique, transitive).

Dénition 3.8.  Soit i ∈ Nn et σ ∈ Sn . On dénit l'orbite de i sous l'action de σ


comme l'ensemble :
O(i) := {σ k (i), k = 0, . . . , o(σ) − 1}.
C'est la classe d'équivalence de i pour la relation d'équivalence précédente.

Théorème 3.9.  Soit n ≥ 2. Tout élément σ ∈ Sn est produit de cycles à supports


disjoints.

Démonstration : Soit σ ∈ Sn . On considère la relation ∼σ . Les classes I1 , . . . , Im


d'équivalence forment une partition de Nn . Soient i1 ∈ I1 , . . . , im ∈ Im des éléments de
ces classes. Soient, pour tout j, kj le plus petit entier k > 0 tel que σ k (ij ) = ij (existe !).
On a, pour tout j, Ij = {σ k (ij ), k = 0, . . . , kj − 1}. Considérons
τ σ = (i1 σ(i1 ) . . . σ k1 −1 (i1 )) ◦ · · · ◦ (im σ(im ) . . . σ km −1 (im )) := τ1 ◦ · · · ◦ τm .
Remarquons que les supports de ces m cycles sont les I1 , . . . , Im et sont donc disjoints.
Soit k ∈ Nm . Il existe un unique j ∈ {1, . . . , m}, tel que k ∈ Ij . On a alors, pour tout
i > j, τi (k) = k (car k ∈/ Ii ), τj (k) = σ(k), et pour tout i < j, τi (σ(k)) = σ(k) (car
σ(k) ∈/ Ii ). On conclut que τ (k) = σ(k). Ainsi τ = σ et le théorème est démontré. 
Remarque: C'est une première application des  actions de groupes .
Corollaire 3.10.  Soit n ≥ 2. Les transpositions engendrent Sn : tout élément σ
s'écrit σ = τ1 ◦ · · · ◦ τm , où τ1 , . . . , τm sont des transpositions.

Démonstration : Nous en proposons deux preuves.


 Il sut de voir que tout cycle s'écrit ansi. On vérie aisément qu'on a, pour tout
k -cycle (i1 . . . ik ),
(i1 . . . ik ) = (i1 i2 ) ◦ (i2 i3 ) ◦ · · · ◦ (ik−1 ik ).
42 CHAPITRE 3. DÉTERMINANT

 On peut également prouver le résultat par récurrence sur n. Dans S2 , (1 2) est


le seul élément, c'est donc vrai. Soit n ≥ 3. Supposons que toute permutation de
Sn−1 soit produit de transposition. On considère l'injection
φ : Sn−1 → Sn , (
τ (k) si k ∈ Nn−1
τ 7 → φ(τ ) : k →
7
k sinon.
C'est un morphisme de groupes dont l'image est {σ ∈ Sn , σ(n) = n}. On voit que
si τ = (i j) est une transposition de Sn−1 , φ(τ ) est la transposition (i j) de Sn et
inversement.
Soit σ ∈ Sn . Si σ ∈
/ φ(Sn−1 ), alors (n σ(n)) ◦ σ ∈ φ(Sn−1 ). D'après l'hypothèse
de récurrence et ce qui précède, toute permutation de φ(Sn−1 ) se décompose en
produit de transposition, et donc σ ou (n σ(n)) ◦ σ se décompose en produit de
transposition. Quitte à multiplier par (n σ(n)), σ est produit de transposition.
 On aurait pu montrer le résultat par récurrence descendante sur le nombre de
points xes.


Dénition 3.11.  Soit σ ∈ Sn . On appelle signature de σ le nombre (∈ Q a priori)


Q
i<j (σ(i) − σ(j))
ε(σ) = Q .
i<j (i − j)

Exemple: On voit que ε(Id) = 1.


Dans S3 ,
(σ(1) − σ(2))(σ(1) − σ(3))(σ(2) − σ(3)) (2 − 1)(2 − 3)(1 − 3)
ε((1 2)) = = = −1.
(1 − 2)(1 − 3)(2 − 3) (1 − 2)(1 − 3)(2 − 3)

Théorème 3.12.  Soit σ, τ ∈ Sn . Alors


i. ε(σ ◦ τ ) = ε(σ)ε(τ ).
ii. Si τ est une transposition, ε(τ ) = −1. Ainsi, ∀σ ∈ Sn , ε(σ) ∈ {±1}.
iii. ε est l'unique morphisme de groupes de Sn → C∗ non trivial.
Démonstration :
i. On a
Q Q Q
i<j (σ(τ (i))− σ(τ (j))) i<j (σ(τ (i)) − σ(τ (j))) i<j (τ (i) − τ (j))
ε(σ ◦ τ ) = Q = Q · Q .
i<j (i − j) i<j (τ (i) − τ (j)) i<j (i − j)
| {z } | {z }
Aσ,τ ε(τ )

On a donc ε(σ ◦ τ ) = Aσ,τ ε(τ ).


3.1. LE GROUPE SYMÉTRIQUE 43

σ(i) − σ(j)
Posons, pour i 6= j, S(i, j) = . Notons que S(i, j) = S(j, i) (S est
i−j
symétrique). Considérons l'application
φτ : {(i, j) ∈ N2n , i < j} → ({(i, j) ∈ N2n , i < j}
(τ (i), τ (j)) si τ (i) < τ (j)
(i, j) 7→
(τ (j), τ (i)) si τ (i) > τ (j).
φτ est une bijection d'inverse φτ −1 . On a alors
Y Y Y
Aσ,τ = S(τ (i), τ (j)) = S(τ (i), τ (j)) · S(τ (i), τ (j))
i<j i<j i<j
τ (i)<τ (j) τ (j)<τ (i)
Y Y
= S(τ (i), τ (j)) · S(τ (j), τ (i))
| {z }
i<j i<j
τ (i)<τ (j) τ (j)<τ (i)
S sym.
Y Y
= S(φτ (i, j)) · S(φτ (i, j))
i<j i<j
τ (i)<τ (j) τ (j)<τ (i)
Y Y
= S(φτ (i, j)) =
|{z} S(i, j) = ε(σ).
i<j φτ bijective i<j

ii. Soit τ = (k `), k < `, une transposition. On a ε(τ ) = S(i, j). De plus, 1 =
Y

i<j
ε(Id) = ε(τ 2 ) = ε(τ )2 Q donc ε(τ ) ∈ {±1}. Il sut donc de connaître son signe,
c'est à dire le signe de i<j S(i, j). Il est égal à (−1)inv(τ ) où inv(τ ) est cardinal
de l'ensemble {i < j σ(i) > σ(j)}.
Si i < j, on a τ (i) > τ (j) si et seulement si i = k et j ≤ `, ou (exclusif) si j = `
et k < i < `. On a donc inv(τ ) = ` − k + ` − 1 − k = 2(` − k) − 1. C'est un
nombre impair donc ε(τ ) = −1. Comme les transpositions engendrent Sn , pour
tout σ ∈ Sn , ε(σ) ∈ {±1}.
iii. D'après les deux premiers points, c'est un morphisme de groupes non trivial de Sn
vers {±1} ⊂ C∗ (il existe σ, ε(σ) 6= 1). Soit f un autre morphisme de groupes.
S'il vaut 1 sur les transpositions, il est trivial car elles engendrent Sn . Sinon, il
existe une transposition τ = (k `) telle que f (τ ) = −1 (car f (τ )2 = f (τ )2 = 1).
Soit ρ = (i j) une autre transposition. Soit σ ∈ Sn telle que σ(k) = i, σ(`) = j.
Alors on voit facilement que ρ = στ σ −1 (laissé au lecteur). On en déduit que
f (ρ) = f (σ)f (τ )f (σ −1 ) = f (σ)f (τ )f (σ)−1 = f (τ ) = −1. f et ε coïncident donc
sur les transpositions, et sont alors égaux (puisqu'elles engendrent Sn ).

Remarque: On montre facilement que la signature de σ est égale à (−1) n−m
où m
est le nombre d'orbites pour ∼σ .
44 CHAPITRE 3. DÉTERMINANT

Dénition 3.13.  On dit qu'une permutation σ ∈ Sn est paire si ε(σ) = 1. L'en-


semble des permutations paires de Sn est noté An . C'est un sous-groupe de Sn , appelé
groupe alterné.

Remarque: C'est le noyau de la signature.


3.2. Formes alternées
Soit E un K espace vectoriel. Soit p ∈ N∗ un entier. Notons E p = E
| × ·{z
· · × E} .
p fois

Dénition 3.14.  Une forme p-linéaire sur E est une application


φ: Ep → K
(x1 , . . . , xp ) 7→ φ(x1 , . . . , xp )
linéaire par rapport à chacun des xi : pour tout i ∈ {1, . . . , p}, tout (x1 , . . . , xbi , . . . , xp ) ∈
E p−1 , l'application
E → K
x 7→ φ(x1 , . . . , xi−1 , x, xi+1 , . . . , xp )
est une forme linéaire sur E.
L'ensemble des formes p-linéaires forme un K -espace vectoriel que l'on note Lp (E).
Exemples:
 p = 1, Lp est l'ensemble des formes linéaires sur E. C'est E ∗ .
 p = 2, φ ∈ L2 (E) vérie
φ(αx + βy, α0 x + β 0 y) = αα0 φ(x, x0 ) + αβ 0 φ(x, y 0 ) + βα0 φ(y, x0 ) + ββ 0 φ(y, y 0 ).
C'est ce qu'on appelle une forme bilinéaire.
Proposition 3.15.  dim Lp (E) = (dim E)p .
Démonstration : Soit {e1 , . . . , en } une base de E. On voit que φ ∈ Lp (E) est déterminée
par les images φ(ej1 , . . . , ejp ) lorsque les jk décrivent {1, . . . , n}, d'où le résultat. 
Remarque: On dit que φ ∈ L (E) est symétrique si
p

∀σ ∈ Sp , φ(xσ(1) , . . . , xσ(p) ) = φ(x1 , . . . , xp ).

Dénition-Proposition 3.16.  Soit φ ∈ Lp (E). Les assertions suivantes sont équi-


valentes :
i. Si (x1 , . . . , xp ) est liée, φ(x1 , . . . , xp ) = 0.
ii. S'il existe i 6= j tels que xi = xj , φ(x1 , . . . , xp ) = 0.
iii. φ(x1 , . . . , xp ) n'est pas modié si l'on ajoute à un vecteur une combinaison linéaire
des autres.
3.2. FORMES ALTERNÉES 45

iv. φ(x1 , . . . , xp ) est changé en son opposé si l'on permute deux vecteurs : pour toute
transposition τ ∈ Sp , φ(xτ (1) , . . . , xτ (p) ) = −φ(x1 , . . . , xp ).
v. ∀σ ∈ Sp , φ(xσ(1) , . . . , xσ(p) ) = (σ)φ(x1 , . . . , xp ).
Dans ce cas, on dit que φ est alternée (ou antisymétrique). On note alors Λp (E)
l'ensemble des formes p linéaires alternées sur E.

Démonstration : i)⇒ii) Une famille où deux vecteurs sont égaux est liée.
ii)⇒ iii) On a
X
φ(x1 , . . . , xi−1 , xi + λj xj , xi+1 , . . . , xp ) =φ(x1 , . . . , xi−1 , xi , xi+1 , . . . , xp )
j6=i
X
+ λj φ(x1 , . . . , xi−1 , xj , xi+1 , . . . , xp )
| {z }
j6=i
=0 par ii)
X
=φ(x1 , . . . , xp ) + λj × 0
j6=i

=φ(x1 , . . . , xp )

iii)⇒i) SupposonsX(x1 , . . . , xp ) liée. L'un des vecteurs, disons xi , est combinaison linéaire
des autres : xi = λj xj . On a alors
j6=i

X
= φ(x1 , . . . , xi−1 , xi −
φ(x1 , . . . , xp ) |{z} λj xj , xi+1 , . . . , xp )
ii) j6=i

= φ(x1 , . . . , xi−1 , 0, xi+1 , . . . , xp ) |{z}


= 0
def

ii)⇒iv) Soit τ = (i j). On a


0 =φ(x1 , . . . , xi + xj , . . . , xi + xj , . . . , xp )
| {z } | {z }
en i en j
0 =φ(x1 , . . . , xi , . . . , xi , . . . , xp ) + φ(x1 , . . . , xi , . . . , xj , . . . , xp )
+ φ(x1 , . . . , xj , . . . , xi , . . . , xp ) + φ(x1 , . . . , xj , . . . , xj , . . . , xp )
0 = φ(x1 , . . . , xi , . . . , xj , . . . , xp ) + φ(x1 , . . . , xj , . . . , xi , . . . , xp )
| {z }
φ(xτ (1) ,...,xτ (p) )

iv)⇒ii) Supposons que xi = xj pour i 6= j. Alors, en posant τ = (i j), on voit que


φ(x1 , . . . , xj , . . . , xi , . . . , xp ) = φ(x1 , . . . , xi , . . . , xj , . . . , xp ), donc

2φ(x1 , . . . , xi , . . . , xj , . . . , xp ) = 0.
46 CHAPITRE 3. DÉTERMINANT

iv)⇒v) On écrit σ comme produit de transpositions : σ = τ1 ◦ · · · ◦ τr et on raisonne


par récurrence sur r. A chaque transposition, on multiplie la valeur par −1, on a donc
φ(xσ(1) , . . . , xσ(p) ) = (−1)r φ(x1 , . . . , xp ).
| {z }
(σ)

v)⇒iv) Si τ est une transposition, (τ ) = −1. 


Remarque: Λp (E) est un K -espace vectoriel (à vérier en exercice).
Théorème 3.17.  Soit E un K -espace vectoriel de dimension n et {e1 , . . . , en } une
base de E.
i. Si p > n, Λp (E) = {0}.
ii. Si p = n, dim Λn = 1. Si φ est une forme n-linéaire alternée, X φ est entièrement
déterminée par φ(e1 , . . . , en ) : si, pour tout j, on pose xj = ai,j ei ,
i
n
!
X Y
φ(x1 , . . . , xn ) = (σ) aσ(j),j φ(e1 , . . . , en ).
σ∈Sn j=1

Démonstration :
i. Une famille de p vecteurs de E est liée, d'où le résultat d'après la proposition
précédente.
ii. Soit φ ∈ Λn (E). Supposons n = 2. Posons x = ae1 + be2 , y = ce1 + de2 . Alors
φ(x, y) = φ(ae1 + be2 , ce1 + de2 ) = acφ(e1 , e1 ) + adφ(e1 , e2 ) + bcφ(e2 , e1 ) + bdφ(e2 , e2 )
= (ad − bc)φ(e1 , e2 ).
Traitons maintenant le cas général. Soient, pour tout j = 1, . . . , n, xj =
X
ai,j ei .
i
des éléments de E. On a, en développant comme pour n = 2,
n
!
X Y
φ(x1 , . . . , xn ) = amj ,j φ(em1 , . . . , emn ).
(m1 ,...,mn )∈{1,...,n}n j=1

Si deux mj sont égaux, alors φ(em1 , . . . , emn ) = 0. Sinon, ils correspondent à la


permutation σ ∈ Sn , σ(j) = mj . On a donc
n
!
X Y
φ(x1 , . . . , xn ) = aσ(j),j φ(eσ(1) , . . . , eσ(n) ) .
σ∈Sn j=1
| {z }
(σ)φ(e1 ,...,en )

D'où !
X n
Y
φ(x1 , . . . , xn ) = (σ) aσ(j),j φ(e1 , . . . , en ).
σ∈Sn j=1
Ainsi dim Λn ≤ 1. On exhibe alors un élément non nul de Λn via le lemme suivant.
3.2. FORMES ALTERNÉES 47


Lemme 3.18.  On pose
X n
Y X n
Y
∆(x1 , . . . , xn ) = (σ) < e∗σ(j) , xj >= (σ) aσ(j),j .
σ∈Sn j=1 σ∈Sn j=1

∆e est une forme n-linéaire alternée vériant ∆e (e1 , . . . , en ) = 1. En particulier elle


est non nulle. On omettra e dans la notation si aucune confusion n'est à craindre.
Démonstration du lemme: On vérie que c'est bien une forme linéaire en chacune des
variables puisque chacun des termes de la somme est linéaire en chacune des variables.
Elle est de plus alternée, puisque pour tout τ ∈ Sn ,
X n
Y X n
Y
∆(xτ (1) , . . . , xτ (n) ) = (σ) < e∗σ(j) , xτ (j) >= (σ) < e∗στ −1 (k) , xk > .
σ∈Sn j=1 σ∈Sn k=1

On eectue le changement de variable ρ = στ . Lorsque σ décrit Sn , ρ décrit Sn . On


−1

en déduit
X n
Y
∆(xτ (1) , . . . , xτ (n) ) = (ρτ ) < e∗ρ(k) , xk >= (τ )∆(x1 , . . . , xn ).
| {z }
ρ∈Sn k=1
(ρ)(τ )

Cette forme n linéaire alternée est non nulle, puisque


X n
Y X n
Y
∆(e1 , . . . , en ) = (σ) < e∗σ(j) , ej >= (σ) δσ(j),j .
σ∈Sn j=1 σ∈Sn j=1

est non nul si et seulement si, pour tout j ∈ {1, . . . , n}, σ(j) = j, c'est à
Qn
j=1 δσ(j),j
dire si et seulement si σ = Id. Ainsi
Y
∆(e1 , . . . , en ) = (Id) δj,j = 1.

Remarque:
 Deux formes n-linéaires alternées non nulles sont proportionnelles.
 On peut montrer que dim Λp (E) = Cnp si p ≤ n. En eet, une forme n linéaire
alternée est déterminée par l'image des parties à p éléments de (e1 , . . . , en ).
Dénition 3.19.  Soit e = {e1 , . . . , en } une base de E. On appelle déterminant de
la famille {x1 , . . . , xn } relativement à {e1 , . . . , en } la quantité
X n
Y
det(x1 , . . . , xn ) := ∆e (x1 , . . . , xn ) = (σ) < e∗σ(j) , xj > .
e
σ∈Sn j=1

On omettra e dans la notation autant que possible.


Corollaire 3.20.  La famille {x1 , . . . , xn } est liée ⇔ det(x1 , . . . , xn ) = 0.
48 CHAPITRE 3. DÉTERMINANT

Démonstration : (⇒) det est une forme n linéaire alternée.


(⇐) Supposons que X = {x1 , . . . , xn } soit libre. Alors c'est une base de E. D'après le
théorème, il existe λ ∈ K tel que detX = λ dete . 1 = detX (x1 , . . . , xn ) = λ dete (x1 , . . . , xn ).
D'où le résultat. 

3.3. Déterminant d'un endomorphisme, déterminant d'une matrice


3.3.1. Déterminant d'un endomorphisme.  Soit E un K -ev de dim n. Soit
e = {e1 , . . . , en } une base de E. Soit u ∈ End(E).
Dénition-Proposition 3.21.  La quantité det u := dete (u(e1 ), . . . , u(en )) est in-
dépendante du choix de la base e et s'appelle déterminant de u.
Démonstration : Soit f = (f1 , . . . , fn ) une base de E. detf et dete sont deux formes
linéaires alternées non nulles, donc elles sont proportionnelles : detf = λ dete . On a
alors λ = λ dete (e1 , . . . , en ) = detf (e1 , . . . , en ). En spécialisant detf en (f1 , . . . , fn ) et
(u(f1 ), . . . , u(fn )), on obtient ainsi
1 = det(e1 , . . . , en ) det(f1 , . . . , fn )
f e

et
det(e1 , . . . , en ) det(u(f1 ), . . . , u(fn )) = det(u(f1 ), . . . , u(fn )) := det u.
f e f f

D'un autre côté, φ : (x1 , . . . , xn ) 7→ dete (u(x1 ), . . . , u(xn )) est une forme n-linéaire.
Elle est alternée puisqu'elle est nulle s'il existe i 6= j, xi = xj . Il existe donc µ tel
que φ = µ dete . On voit alors que µ = dete (u(e1 ), . . . , u(en )) := dete u. On a donc
φ(f1 , . . . , fn ) = dete u dete (f1 , . . . , fn ). Finalement, on a
detf u = det(e1 , . . . , en ) det(u(f1 ), . . . , u(fn )) = detf (e1 , . . . , en )dete (f1 , . . . , fn )dete u = dete u.
f e

[Remarquons que le théorème donne directement detf = detf (e1 , . . . , en ) dete .] 


Nous avons presque montré au passage le résultat suivant.
Proposition 3.22.  Pour tout φ ∈ Λn (E), tout (x1 , . . . , xn ) ∈ E n ,
φ(u(x1 ), . . . , u(xn )) = (det u) φ(x1 , . . . , xn ).
Démonstration : φu : (x1 , . . . , xn ) 7→ φ(u(x1 ), . . . , u(xn )) est une forme n-linéaire al-
ternée. Si φ est nulle, φu est nulle aussi et le résultat est clair. Sinon, φ 6= 0 donc
< φ >= Λn . φu est alors proportionnelle à φ : il existe λ, φu = λφ. λ est donné par
φu (e1 , . . . , en ) = λφ(e1 , . . . , en ). De plus φ = φ(e1 , . . . , en ) dete , donc φu (e1 , . . . , en ) =
φ(e1 , . . . , en ) dete u. Comme φ(e1 , . . . , en ) 6= 0, λ = det u. 
Proposition 3.23.  i. Soit id : E → E l'identité sur E. Alors det id = 1.
ii. Soient f, g : E ∈ L(E). Alors det(f ◦ g) = det f det g.
3.3. DÉTERMINANT D'UN ENDOMORPHISME, DÉTERMINANT D'UNE MATRICE 49

iii. Soit f ∈ L(E). Alors f est bijective si et seulement si det f 6= 0, et dans ce cas
1
det f −1 = .
det f

Démonstration :
i. det id = dete (e1 , . . . , en ) = 1.
ii. On pose dete (f ◦ g) = dete (f (g(e1 )), . . . , f (g(en ))). L'application E n → K, dénie
par (x1 , . . . , xn ) 7→ dete (f (x1 ), . . . , f (xn )) est n-linéaire alternée, donc on a
det(f ◦ g) = det g det(f (e1 ), . . . , f (en )) = det g det f.
e e

iii. Si f est inversible, f −1 existe et on a 1 = det id = det(f ◦ f −1 ) = det f det f −1 . Si


det f 6= 0, {f (e1 ), . . . , f (en )} est libre donc f est bijective.


3.3.2. Déterminant d'une matrice. 


Dénition-Proposition 3.24.  Soit A = (aij ) 1≤i≤n ∈ Mn (K). On pose
1≤j≤n

X n
Y X n
Y
det A = (σ) aσ(j),j = (σ) ai,σ(i)
σ∈Sn j=1 σ∈Sn i=1

Remarque:
 Si A1 , . . . , An sont les colonnes de A, ce sont des vecteurs de K n , det A =
dete (A1 , . . . , An ), où e est la base canonique.
 Si u ∈ L(E) et si A = M ate u, det A = det u.
n n
ai,σ−1 (i) avec i = σ(j) (lorsque j décrit {1, . . . , n}, i
Y Y
Démonstration : aσ(j),j =
j=1 i=1
décrit {1, . . . , n}). D'où
X n
Y X n
Y
−1
(σ) aσ(j),j = (σ ) ai,σ−1 (i) ,
σ∈Sn j=1 σ∈Sn i=1

car (σ) = (σ −1 ). Quand σ décrit Sn , σ −1 décrit Sn . On a donc


X n
Y X n
Y
−1
(σ ) ai,σ−1 (i) = (σ) ai,σ(i) ,
σ∈Sn i=1 σ∈Sn i=1

d'où le résultat. 
50 CHAPITRE 3. DÉTERMINANT

a1,1 · · ·
Notation : Si A =  ...
a1,n
 
... ..  , on note
.
an,1 · · · an,n

a1,1 · · · a1,n

. ... .. .
det A = .. .
a
n,1 · · · a n,n

Exemple: Avec la notation évidente A = (a i,j ),


 on a
a b X
=
c d (σ)aσ(1),1 aσ(2),2 = (Id)ad + (1 2)bc = ad − bc,
σ∈S2

 et
a b c X

d e f = (σ)aσ(1),1 aσ(2),2 aσ(3),3

g h i σ∈S3
=(Id)a1,1 a2,2 a3,3 + (1 2)a2,1 a1,2 a3,3 + (2 3)a1,1 a3,2 a2,3 + (1 3)a3,1 a2,2 a1,3
+ (1 2 3)a2,1 a3,2 a1,3 + (1 3 2)a3,1 a1,2 a2,3
=aei − dbi − ahf − egc + dhc + gbf.

Proposition 3.25.  det A = det t A.

Démonstration : Résulte de la proposition précédente, puisque si t A = (b


aij ), b
aσ(j),j =
aj,σ(j) . 
Remarque:
 Il y a n! termes dans la somme. Il n'est donc pas raisonnable de calculer un
déterminant en utilisant cette formule si n est grand.
n
 Dans aσ(j),j il y a un seul terme sur chaque ligne et sur chaque colonne.
Y

j=1

Proposition 3.26.  Le déterminant d'une matrice est une forme n linéaire alternée
de ses vecteurs colonnes, c'est à dire
det : K n × · · · × K n → K
(A1 , . . . , An ) 7→ det(A1 | . . . |An )
| {z }
matrice

est n-linéaire alternée.


3.3. DÉTERMINANT D'UN ENDOMORPHISME, DÉTERMINANT D'UNE MATRICE 51

Démonstration : Cf preuve du lemme 3.18.On voit que la forme est n linéaire, et qu'elle
est alternée :
∀σ ∈ Sn , det(Aσ(1) , | . . . |Aσ(n) ) = (σ) det(A1 | . . . |An )


Corollaire 3.27.  Le déterminant d'une matrice est une forme n linéaire alternée
de ses vecteurs lignes.

Démonstration : det A = det t A et det t A est une forme n linéaire alternée des vecteurs
colonnes de t A, donc des vecteurs lignes de A. 
On a pour les matrices le même résultat que celui obtenu pour les endomorphismes.
Proposition 3.28.  Soient A, B ∈ Mn (K). On a
i. det In = 1,
ii. det AB = (det A)(det B),
iii. Alors A est inversible si et seulement si det A 6= 0. Dans ce cas det(A−1 ) =
(det A)−1 .

Démonstration :
i. Cf 3.23 : In est associé à Id.
ii. Cf 3.23 : l'application linéaire associée à AB est f ◦ g si f est associé à A et g à B.
iii. det A 6= 0 ⇔ det(A1 | . . . |An ) 6= 0 ⇔ {A1 , . . . , An } libre ⇔ A inversible. Dans ce
cas 1 = det In = det AA−1 = (det A)(det(A−1 )), d'où le résultat.

Remarque:
 GLn (K) := {A ∈ Mn (K) | A inversible} = {A ∈ Mn (K) | det A 6= 0}. De plus,
l'application det : GLn (K) → K ∗ est un morphisme de groupes.
 Si A n'est pas inversible, pour tout n ∈ N∗ , An n'est pas inversible. En eet,
det(An ) = (det A)n .

Proposition 3.29.  Soit T =


Q (tij ) ∈ Mn (K) une matrice tringulaire (supérieure
ou inférieure). Alors det T = ni=1 tii est le produit des coecients diagonaux. En
particulier, T inversible ⇔ ∀i, tii 6= 0.
n
Démonstration : Supposons que T soit triangulaire supérieure. detT =
X Y
(σ) ti,σ(i) .
σ∈Sn j=1
n
Soit σ ∈ Sn . Pour que ti,σ(i) soit non nul, il faut que pour tout i ∈ {1, . . . , n},
Y

i=1
52 CHAPITRE 3. DÉTERMINANT

σ(i) ≥ i (les ti,σ(i) doivent être situés au dessus de la diagonale). On a alors


n
X n
X n
X
σ(i) − i = σ(i) − i = 0,
| {z }
i=1 ≥0 i=1 i=1

puisque σ(i) décrit {1,Q


. . . , n}. D'où, pour tout i ∈ {1, . . . , n}, σ(i) = i. Donc σ = Id,
et on a det T = (Id) ni=1 tii . Le dernier point découle directement de la proposition
précédente. 
3.3.2.1. Calcul d'un déterminant. 
Propriétés 3.30.  i. det A reste inchangé si l'on ajoute à une colonne (resp. ligne)
de A une combinaison linéaire des autres.
ii. det A est changé en − det A si l'on échange deux colonnes de A (resp. lignes).
iii. det A est changé en λ det A si l'on multiplie une colonne de A (resp. ligne) par un
scalaire λ.
iv. det λA = λn det A.
Méthode de calcul : On peut utiliser la méthode du pivot pour se ramener au
déterminant d'une matrice angulaire. Si le nombre de pivot est < n, le déterminant
est nul (la matrice n'est pas inversible). S'il y a n pivots, la matrice est triangulaire et
son déterminant est le produit des pivots. Cependant, il faut faire très attention que le
déterminant est modié lorsqu'on permute deux lignes ou deux colonnes.
Proposition 3.31.  Déterminant par blocs
 
A B
det = (det A)(det C)
0 C
avec A ∈ Mp (K), C ∈ Mq (K), p + q = n (et B ∈ Mp,q (K)).

Exemple:
 
1 2 3  
4 5
det 0 4 5
  = 1 · det = −2.
6 7
0 6 7
 
A B
Démonstration : det est une forme p-linéaire alternée des vecteurs colonnes
0 C
de A : l'application  
A B
f : (A1 , . . . , Ap ) 7→ det ,
0 C
où A = (A1 , . . . , Ap ), est une forme p-linéaire alternée (on vérie facilement cette
propriété). Donc il existe λ ∈ K ne dépendant que de B et C tel que, pour tout
A ∈ Mp (K),  
A B
det = λ det A.
0 C
3.3. DÉTERMINANT D'UN ENDOMORPHISME, DÉTERMINANT D'UNE MATRICE 53

On spécialise en A = Ip pour obtenir


 
Ip B
λ = det .
0 C
 
Ip B
det est une forme q -linéaire alternée des vecteurs lignes de C. Il existe donc
0 C
µ ∈ K tel que, pour tout C ∈ Mq (K),
 
Ip B
det = µ det C.
0 C
 
Ip B
On a alors µ = det = 1 comme matrice triangulaire supérieure. 
0 Iq

Dénition 3.32.  Soit A ∈ Mn (K). Le mineur ∆ij est le déterminant de la ma-


cij ∈ Mn−1 (K) obtenu en supprimant dans A la ième ligne et la j ème colonne.
trice A

Exemple:
 
1 2 3
1 2
Si A = 4 5 6 , ∆23 =
 
7 8
7 8 9

Dénition 3.33.  Cofacteur Cij = (−1)i+j ∆ij .


Lemme 3.34.  On a Cij = det (A1 , . . . , Aj−1 , Ei , Aj+1 , . . . , An ) . Cij est le détermi-
nant de la matrice obtenue en remplaçant dans A la j ème colonne par Ei .
Démonstration : Posons B = (A1 , . . . , Aj−1 , Ei , Aj+1 , . . . , An ). On commence par mettre
Ei en première position (on la permute successivement avec Aj−1 , . . . , A1 . On a
det B = (−1)j−1 det(Ei , A1 , . . . , Aj−1 , Aj+1 , . . . , An ).
On met ensuite la ième ligne en première position. D'où

1


j−1

i−1

det B = (−1) (−1) ,
0 A
cij

où Acij est la matrice obtenue en enlevant la ième ligne et la j ème colonne dans A. On a
alors le résultat en utilisant le calcul de determinant par blocs. 
Remarque: C ijest aussi le déterminant de la matrice obtenue en remplaçant dans
A la ième ligne par t Ej .

Proposition 3.35.  On note Cij les cofacteurs de A = (aij ). On a les propriétés


suivantes.
54 CHAPITRE 3. DÉTERMINANT

i. Développement par rapport à la j ème colonne :


n
X
det A = aij Cij .
i=1

ii. Développement par rapport à la ième ligne :


n
X
det A = aij Cij .
j=1

Démonstration :
i. On note A1 , . . . , An les colonnes de A. On a Aj = aij Ei . D'où
Pn
i=1
n
! n
X X
det A1 , . . . , Aj−1 , aij Ei , Aj+1 , . . . , An = aij det (A1 , . . . , Aj−1 , Ei , Aj+1 , . . . , An ) .
i=1 i=1

ii. De même, par transposition.

Attention : On oublie souvent le (−1)



i+j
.
Exemple:

a b c

d e b c b c
 d e f = a

− d h i − g e f

g h i h i
 Soit P ∈ K[X] unitaire. On note d = deg P . On pose P = X d −a1 X d−1 −. . .−ad .
On appelle matrice compagnon associée à P la matrice d × d suivante :
 
0 · · · · · · 0 ad
. .. .. 
 1 .. . . 

. . . . .
. .. 
. .

C(P ) =  0 . . 
 . .
 .. . . . . . 0 a2 
 

0 · · · 0 1 a1
On a det C(P ) = (−1)d+1 a0 .

3.3.3. Comatrice. 
Dénition 3.36.  La comatrice à de A est la matrice (cij ) des cofacteurs.

Exemple:
   
a b d −c
A= , Ã = .
c d −b a

Proposition 3.37.  A t à = t ÃA = (det A)I.


3.3. DÉTERMINANT D'UN ENDOMORPHISME, DÉTERMINANT D'UNE MATRICE 55

Démonstration : Posons B = A t à = (bik ). On a


n
X
bik = aij ckj .
|{z}
j=1
coe(j,k) de t Ã

Si k = i, bii = nj=1 aij cij = det A (développement suivant la ième ligne).


P

Si k 6= i, bik est, d'après la formule de développement suivant la k ème ligne, le déter-


minant de la matrice obtenue en remplaçant dans A la k ème ligne par la ième . En eet,
Cette matrice admet deux lignes égales donc bik = 0.
De même, en utilisant la formule du déterminant suivant la itextme colonne, on voit
que t ÃA = det A. 

Corollaire 3.38.  Si det A 6= 0, A−1 = 1 t


det A
Ã.

Exemple:
   
a b −1 1 d −b
A= , A = .
c d ad − bc −c a

3.3.4. Application auxb systèmes de Cramer.  Soit A une matrice inversible


1
de GLn (K) et B =  ...  ∈ K n . On considère le système (S) AX = B. Notons
bn
x1
 

X =  ...  ∈ K n son unique solution. On a B = xi Ai . D'où


Pn
i=1
xn
n
X
det(A1 , . . . , Aj−1 , B, Aj+1 , . . . , An ) = xi det(A1 , . . . , Aj−1 , Ai , Aj+1 , . . . , An ).
i=1

det(A1 , . . . , Aj−1 , Ai , Aj+1 , . . . , An ) = 0 si i 6= j, donc on a


det(A1 , . . . , Aj−1 , B, Aj+1 , . . . , An ) = xj det(A1 , . . . , Aj−1 , Aj , Aj+1 , . . . , An ) = xj det A.
Ainsi xj est donné par
det(A1 , . . . , Aj−1 , B, Aj+1 , . . . , An )
xj = .
det A

Exemple: (
ax + by = α
cx + dy = β
56 CHAPITRE 3. DÉTERMINANT

   
a b α
où A = vérie det A = ad − bc 6= 0, et B = . On a alors
c d β

α b
 1 αd−bβ
x = ad−bc β d = ad−bc




a α
 1 aβ−αc
y = ad−bc b β = ad−bc



CHAPITRE 4

QUELQUES ENDOMORPHISMES
REMARQUABLES

Soit E un K -ev de dimension nie. On xe une base e = {e1 , . . . , en } de E, de sorte


qu'on puisse identier L(E) et Mn (K), via l'isomorphisme de K -algèbres
L(E) → Mn (K)
.
u 7→ M ate u = (e∗i (u(ej )))i,j

4.1. Projecteurs
Dénition-Proposition 4.1.  Soient E1 et E2 deux sous-espaces vectoriels de E
tels que E1 ⊕ E2 = E, de sorte que
∀x ∈ E ∃!(x1 , x2 ) ∈ E1 × E2 tel que x = x1 + x2 .
L'application p : x 7→ x1 est linéaire et s'appelle projection sur E1 parallèlement à E2 .
On a ker p = E2 , imp = E1 , et p ◦ p = p.
Démonstration : L'application p est bien dénie car x1 est unique. De plus, elle est
linéaire : soient x, y ∈ E, λ ∈ K. Il existe x1 , y1 ∈ E1 , x2 , y2 ∈ E2 , tels que x = x1 + x2 ,
y = y1 + y2 . On a
x + λy = x1 + λy1 + x2 + λy2 .
| {z } | {z }
∈E1 ∈E2

Par unicité de la décomposition, p(x + λy) = x1 + λy1 = p(x) + λp(y). Par dénition,
ker p = {x ∈ E, p(x) = 0}. Si x ∈ ker p. x s'écrit 0 + x2 , x2 ∈ E2 donc x ∈ E2 .
Réciproquement, si x ∈ E2 , x = 0 + x est la décomposition de x dans E1 ⊕ E2 . Donc
x ∈ ker p. Ainsi ker p = E2 . On a im p ⊂ E1 par dénition. De plus, si s ∈ E1 , p(x) = x
et donc E1 ⊂ im p. Enn, si x ∈ E, p(x) ∈ E1 donc p(p(x)) = p(x), ce qui prouve que
p ◦ p = p. 
Dénition 4.2.  On appelle projecteur de E toute application linéaire p : E → E
telle que p := p ◦ p = p.
2
58 CHAPITRE 4. QUELQUES ENDOMORPHISMES REMARQUABLES

Remarque:
i. Une projection est un projecteur.
ii. La restriction d'un projecteur p à im p est l'identité. Plus précisément, si p est
un projecteur, et si y ∈ E, alors y ∈ im p si et seulement si y = p(y).

Proposition 4.3.  Soit p ∈ L(E). Alors p est un projecteur si et seulement si p est


la projection sur im p parallèlement à ker p. On a alors E = ker p ⊕ im p.

Démonstration : Soit p un projecteur. p vérie donc p ◦ p = p. Soit x ∈ E. On peut


écrire x = x − p(x) + p(x). Mais p(x) ∈ im p et x − p(x) ∈ ker p puisque p(x − p(x)) =
p(x) − p ◦ p(x) = 0 (p projecteur). Ainsi E = ker p + im p. On peut alors conclure par
dimension via le théorème du rang, ou bien prendre x ∈ ker p ∩ im p. Il existe y ∈ E,
p(y) = x. On a alors 0 = p(x) = p ◦ p(y) = p(y) = x. Donc x = 0 et l'intersection
est réduite à {0}. Ainsi E = ker p ⊕ im p. On peut ainsi considérer la projection p1
sur im p parallèlement à ker p. De plus si x ∈ ker p, p(x) = 0, tandis qu'on a vu que
si x ∈ im p, p(x) = x. Ainsi p coïncide avec p1 sur ker p et im p. Elles sont donc
égale. Réciproquement, la proposition précédente nous garantit qu'une projection est
un projecteur. 
Remarque: On verra au semestre prochain que le dernier point est un cas particulier
du lemme des noyaux. En général, le théorème du rang nous assure que dim ker p +
dim im p = dim E. Cependant, les endomorphismes de E ne vérient habituellement
pas E = ker p ⊕ im p.
Soit p un projecteur de E, et soit B1 une base de im p, soit B2 une base de ker p.
B = B1 ∪ B2 est donc une base de E. Dans cette base, la matrice de p est alors :
 
Ir 0
M atB p = ,
0 0s
où r = dim im p et s = dim ker p. En eet, la restriction de p à ker p est nulle tandis
que sa restriction à im p est l'identité.
Proposition 4.4.  Soit A ∈ Mn (K) telle que A2 = A. Alors A est la matrice d'un
projecteur p de E.

Démonstration : Évident vu l'isomorphisme rappelé en préambule. 

Exemple:
 
1 −1 −1
La matrice M = 0 1 0  est la matrice d'un projecteur. On voit
0 −1 0
que le rang de M vaut 2, et que imM =< e1 , e1 − e2 + e3 > . ker M est donc de
dimension 1, et est engendré par e1 + e3 . M est alors la matrice de la projection sur
< e1 , e1 − e2 + e3 > parallèlement à e1 + e3 .
4.2. SYMÉTRIES, INVOLUTIONS 59

4.2. Symétries, involutions


Dénition-Proposition 4.5.  Soient E1 et E2 deux sous-espaces vectoriels de E
tels que E1 ⊕ E2 = E, de sorte que
∀x ∈ E ∃!(x1 , x2 ) ∈ E1 × E2 tel que x = x1 + x2 .
L'application s : x 7→ x1 − x2 est linéaire et s'appelle symétrie par rapport à E1
parallèlement à E2 . Si p est la projection sur E1 parallèlement à E2 , on a s = 2p − id.

Démonstration : On a clairement s = 2p − id. La linéarité s'ensuit. 

Proposition 4.6.  Soit s ∈ L(E). Alors s est une symétrie si et seulement si s2 =


s ◦ s = idE . Dans ce cas, p = 21 (s + idE ) est un projecteur, et s est la symétrie par
rapport à im p parallèlement à ker p.

Démonstration : Si s est une symétrie, on considère la projection p = 12 (s + idE ). On


a s2 = (2p − id) ◦ (2p − id) = 4p2 − 2p − 2p + id = id. p est un projecteur, et s
est alors la symétrie par rapport à im p parallèlement à ker p d'après la proposition
4.3. Réciproquement, supposons que s2 = id. On peut s'appuyer encore sur p ou bien
démontrer le résultat directement (ce que nous allons faire). Montrons donc que s est
la symétrie par rapport à ker(s − id) parallèlement à ker(s + id). Soit x ∈ E. On a
1
x = ((x − s(x)) + (x + s(x))). On a s(x − s(x)) = s(x) − s2 (x) = s(x) − x donc
2
x − s(x) ∈ ker(s + id). De même s(x + s(x)) = s(x) + x donc x + s(x) ∈ ker(s − id).
Donc E = ker(s − id) + ker(s + id). De plus, si x ∈ ker(s − id) ∩ ker(s + id), s(x) = x
et s(x) = −x donc x = 0. La somme est donc directe : E = ker(s − id) ⊕ ker(s + id).
De plus, ces égalités montre que s coïncide avec la symétrie par rapport à ker(s − id)
parallèlement à ker(s + id) sur les deux composantes de la somme directe, donc sur E.
s est donc une symétrie. 
Soit s une symétrie de E, soit B1 une base de ker(s − id) et soit B2 une base de
ker(s + id). B = B1 ∪ B2 est donc une base de E. Dans cette base, la matrice de p est
alors :  
Ir 0
M atB p = ,
0 −Is
où r = dim ker(s − id) et s = dim ker(s + id). En eet, la restriction de s à ker(s − id)
est l'identité tandis que sa restriction à ker(s + id) est −id.

Proposition 4.7.  Soit A ∈ Mn (K) telle que A2 = In . Alors A est la matrice d'une
symétrie de E.

Démonstration : Évident vu l'isomorphisme rappelé en préambule. 


60 CHAPITRE 4. QUELQUES ENDOMORPHISMES REMARQUABLES

Exemple:
 
3 −2 4
La matrice M =  0 1 0  est la matrice d'un projecteur. En
−2 2 −3
 
4 −2 4
eet, M 2 = I2 . De plus, M + I =  0 2 0  a un rang égal à 2, donc un
−2 2 −2
 
2 −2 4
noyau de dimension 1, engendré par e1 − e3 . La matrice M − I =  0 0 0  a
−2 2 −4
rang 1 donc la dimension de son noyau est 2. Il est engendré par e1 +e2 et 2e1 −e3 . M
est alors la matrice de la symétrie par rapport à < e1 + e2 , 2e1 − e3 > parallèlement
à < e1 − e3 > .

4.3. Endomorphismes nilpotents


Pour u ∈ L(E), et k ∈ N∗ , on pose u0 = id et uk := u
| ◦ ·{z
· · ◦ u} .
k fois

Dénition 4.8.  u ∈ L(E) est dit nilpotent s'il existe k ∈ N∗ uk = 0. L'indice de


nilpotence d'un endomorphisme nilpotent u est l'entier m = inf{k ∈ N∗ | uk = 0}.

Exemple: L'endomorphisme déni par u(e ) = 0, et pour tout i = 2, . . . , n, u(e ) =


1 i
ei−1 vérie un−1
 6= 0 (car u (en ) =
n−1
e1 ) et u = 0. Il est donc nilpotent. Il correspond
n

0 1 0 ··· 0
.
0 0 1 0 .. 

. . . . . . . . .. 
à la matrice  .. . . .
. . .

 .. . . . . 0 1 
0 ··· ··· 0 0
Nous allons montrer que tout endomorphisme nilpotent d'indice de nilpotence égal
à n admet une matrice de la forme précédente. Comme un−1 6= 0, il existe x ∈ E,
un−1 (x) 6= 0.
Lemme 4.9.  La famille {x, u(x) . . . , un−1 (x)} forme une base de E.
Démonstration du lemme: On va montrer qu'elle est libre. Soient λ0 , . . . , λn−1 tels
que = 0. On applique un−1 aux deux membres de l'égalité, et on obtient
Pn−1 i
λ
i=0 i u (x)
λ0 un−1 (x) = 0, d'où λ0 = 0. On applique ensuite un−2 aux deux membres de l'égalité
n−1
λi ui (x) = 0, et on obtient λ1 = 0. On répète l'opération n − 2 fois pour obtenir,
X

i=1
pour tout i, λi = 0. La famille est libre de cardinal n, c'est donc une base. 
4.3. ENDOMORPHISMES NILPOTENTS 61

Dans la base {un−1 (x), . . . , x}, u a alors une matrice de la forme précédente. Plus
généralement, si l'indice de nilpotence de u n'est pas n, on peut décomposer l'espace
E en sous espaces stables par u tels que la matrice de la restriction de u à ces sous
espaces soit de cette forme. C'est la réduction de Jordan de u.