Académique Documents
Professionnel Documents
Culture Documents
L2 - Licence de Mathématiques
Année 2020 - 2021
2 Polynômes 15
2.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.2 Division euclidienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.3 Idéaux et pgcd de polynômes . . . . . . . . . . . . . . . . . . . . . . 19
2.4 Polynômes premiers entre eux et polynômes irréductibles . . . . . . . 21
2.5 Racines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.6 Polynômes irréductibles de C[X] et R[X] . . . . . . . . . . . . . . . . 29
2.7 Fractions rationnelles . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.8 Décomposition en éléments simples d’une fraction rationnelle . . . . . 31
2.9 Décomposition en éléments simples dans le cas K = C ou K = R . . 34
1
2 SOMMAIRE
4 Déterminant 51
4.1 Introduction au groupe symétrique . . . . . . . . . . . . . . . . . . . 51
4.2 Formes p-linéaires et formes alternées . . . . . . . . . . . . . . . . . . 54
4.3 Déterminants : définitions et premières propriétés . . . . . . . . . . . 58
4.4 Déterminant d’un endomorphisme . . . . . . . . . . . . . . . . . . . . 62
4.5 Déterminant d’une matrice carrée . . . . . . . . . . . . . . . . . . . . 63
4.6 Calcul du déterminant . . . . . . . . . . . . . . . . . . . . . . . . . . 64
4.7 Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
5 Exercices 75
5.1 Familles libres, familles génératrices, bases . . . . . . . . . . . . . . . 75
5.2 Noyaux et images d’applications linéaires . . . . . . . . . . . . . . . . 76
5.3 Matrices d’applications linéaires . . . . . . . . . . . . . . . . . . . . . 76
5.4 Somme d’espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . 77
5.5 Projections, symétries . . . . . . . . . . . . . . . . . . . . . . . . . . 77
5.6 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
5.7 Division euclidienne, divisibilité, PGCD, Algorithme d’Euclide . . . . 78
5.8 Racines, formule de Taylor, multiplicité . . . . . . . . . . . . . . . . . 80
5.9 Polynômes irréductibles . . . . . . . . . . . . . . . . . . . . . . . . . 81
5.10 Formes linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
5.11 Bases duales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
5.12 Orthogonalité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
5.13 Application transposée . . . . . . . . . . . . . . . . . . . . . . . . . . 87
5.14 Calcul de déterminants . . . . . . . . . . . . . . . . . . . . . . . . . . 89
5.15 Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
Chapitre 1
L’étudiant doit connaı̂tre les notions suivantes d’algèbre linéaire : espace vecto-
riel, sous-espace vectoriel, famille libre, famille génératrice, base, application linéaire,
matrice, etc. Dans ce chapitre rudimentaire, nous donnons quelques rappels élémentaires
de ces notions.
Dans toute la suite, sauf mention du contraire, K est un corps et dans la plupart
des cas, on aura K = Q, R ou C.
K × E −→ E
(λ, x) 7−→ λx
3
4 Rappels sur les espaces vectoriels
La proposition suivante est une conséquence immédiate des propriétés d’un espace
vectoriel.
Proposition 1.2. Soit E un K-espace vectoriel. Pour tout λ, µ dans K et pour tout
x, y dans E, on a :
λ(x − y) = λx − λy ;
(λ − µ)x = λx − µx ;
λ(−x) = (−λ)x = −λx ;
(−1)x = −x ;
λx = 0 si et seulement si λ = 0 ou x = 0.
F1 + F2 = {x1 + x2 : x1 ∈ F1 , x2 ∈ F2 } et F1 ∩ F2
E = F1 ⊕ F2 .
Exemples :
- Dans R2 , on pose F1 = R × {0} et F2 = {0} × R. On a R2 = F1 ⊕ F2 .
- On a C = R ⊕ iR.
- Dans F(R, R), on pose Fp (R, R) le sous-espace vectoriel des fonctions paires et
Fi (R, R) celui des fonctions impaires. On a F(R, R) = Fp (R, R) ⊕ Fi (R, R).
ker f = {x ∈ E : f (x) = 0} ⊂ E.
Si (xi )1≤i≤p une famille de vecteurs de E alors l’ensemble des combinaisons linéaires
des (xi )1≤i≤p : ( p )
X
F = λi xi : λi ∈ K pour tout 1 ≤ i ≤ p
i=1
Parties génératrices, parties libres, bases 7
Si E est un espace vectoriel de dimension finie, on montre que E possède des bases
et que toutes les bases de E ont le même cardinal.
Définition 1.15. Soit E un espace vectoriel de dimension finie, on appelle dimen-
sion de E le cardinal d’une de ses bases, on la note dim E.
Si (xi )1≤i≤p est une famille finie de E, on appelle rang des (xi )1≤i≤p la dimension du
sous-espace vectoriel engendré par les (xi )1≤i≤p . On note le note rg(xi )1≤i≤p .
On a le théorème suivant :
Théorème 1.16 (De la base incomplète). Soit E un espace vectoriel de dimension
finie. Soient L une famille libre de E et G une partie génératrice de E, alors il existe
H ⊂ G tel que B = H ∪ L soit une base de E.
Proposition 1.17. Soit E un espace vectoriel et soit (xi )1≤i≤n est une famille
génératrice de E. Les assertions suivantes sont équivalentes :
- la famille (xi )1≤i≤n est une base de E ;
- la famille (xi )1≤i≤n est libre ;
- on a dim E = rg(xi )1≤i≤n = n.
8 Rappels sur les espaces vectoriels
1.6 matrices
Définition 1.21. Soient n, p ∈ N∗ . Un tableau d’éléments de K de n lignes et p
colonne est appelée une matrice à n lignes et p colonnes. Si M est une telle matrice
et si mi,j est l’élément de M situé à la i-ième ligne et p-ième colonne et on écrit
M = (mi,j )1≤i≤n .
1≤j≤p
Alors (Ei,j )1≤i≤n,1≤j≤p est une base de Mn,p (K), appelée base canonique. Il vient
alors dim Mn,p (K) = np.
Dès que les nombres des lignes et des colonnes sont compatibles, on dispose aussi
du produit matriciel :
Définition 1.23. Soit M ∈ Mn (K). Elle est dite inversible s’il existe M 0 ∈ Mn (K)
telle que M M 0 = M 0 M = In (l’une des deux conditions M M 0 = In ou M 0 M = In
suffit). Dans ce cas, la matrice M 0 est unique, appelée inverse de M et on la note
M −1 .
Si M et N sont deux matrices inversibles de Mn (K), M N est inversible et
(M N )−1 = N −1 M −1 . L’ensemble des matrices inversibles de Mn (K) se note GLn (K)
(pour groupe linéaire). On remarque qu’en général la matrice M + N n’est pas in-
versible.
Proposition 1.24. Soit M ∈ Mn (K). On a équivalence entre :
- la matrice M est inversible ;
- on a rg M = n ;
- les vecteurs colonnes de M forment une base (ou une famille libre ou une
famille génératrice) de K n .
où on a noté M atC (f ) (resp. M atB (f )) au lieu de M atC,C (f ) (resp. M atB,B (f )).
Cela permet de donner les définitions suivantes.
Définition 1.28. Deux matrices M, N ∈ Mn,p (K) sont équivalentes si il existe deux
matrices inversibles P ∈ GLp (K) et Q ∈ GLn (K) telles que N = Q−1 M P .
Autrement dit, deux matrices sont équivalentes si et seulement si elles représentent la
même application linéaire dans des bases différentes. Être équivalente est une relation
d’équivalence de Mn,p (K). La méthode du pivot de Gauss permet de caractériser les
classes d’équivalence pour cette relation. En effet :
Théorème 1.29. Une matrice M ∈ Mn,p (K) est de rang r si et seulement si elle
est équivalente à la matrice définie par blocks suivante :
Ir 0
.
0 0
F2
x2 x
0 F1
x1
−x2 s(x)
Proposition 1.32. Soit s ∈ L(E) avec s2 = idE alors s est la symétrie par rapport
ker(s − idE ) parallèlement à ker(s + idE ).
Démonstration. On remarque que x ∈ ker(s − idE ) si et seulement si s(x) = x et
que x ∈ ker(s + idE ) si et seulement s(x) = −x. Il faut vérifier tout d’abord que
ker(s − idE ) et ker(s + idE ) sont deux sous-espaces vectoriels supplémentaires, en
effet pour tout x ∈ E, on a
x + s(x) x − s(x)
x= +
2 2
x+s(x) x−s(x)
avec x1 = 2
∈ ker(s − idE ) et x2 = 2
∈ ker(s + idE ). Cela montre que
Le théorème du rang assure que la somme directe (ou encore x ∈ ker(s−idE )∩ker(s+
idE ) vérifie que s(x) = x = −x donc x = 0 et l’intersection est réduite à l’élément
neutre de E). Enfin, avec l’écriture de x précédente, on a bien que s(x) = x1 − x2
d’où le résultat.
Remarque : de façon générale, une application f : X → X telle que f 2 = idX
s’appelle une involution de l’ensemble X. Une involution est une bijection.
Proposition 1.33. Soit s ∈ L(E) une involution. Il existe une base B, de E telle
que la matrice de s dans la base B soit donnée par la matrice par block suivante :
Ip 0
M atB (s) =
0 −Iq
p: E = F1 ⊕ F2 −→ E
x = x1 + x2 7−→ x1
F2
x2 x
0 F1
p(x) = x1
−x2 s(x)
Polynômes
La notion de polynôme a déjà été vue et utilisée les années précédentes. Dans ce
chapitre, il s’agit de formaliser les définitions. La lettre K désigne un corps commu-
tatifs (typiquement K = Q, R ou C).
2.1 Définitions
Définition 2.1. On appelle polynôme à coefficients dans K à une indéterminée une
suite d’élément de K P = (a0 , a1 , · · · , an , · · · ) telle que tous les éléments ai sont nuls
à partir d’un certain rang (cela revient au même de demander qu’il n’y ait qu’un
nombre fini de i ≥ 0 avec ai 6= 0).
On dit que les ai sont les coefficients de P . On note K[X] l’ensemble des polynômes
à une indéterminée à coefficients dans K.
M
D’un point de vue plus formel, on pourrait écrire K[X] = K.
n∈N
P + Q = (a0 + b0 , a1 + b1 , · · · ) (addition) ;
λP = (λa0 , λa1 , · · · ) (multiplication par un scalaire) ;
Xn
P Q = (d0 , d1 , · · · ) avec dn = ak bn−k (multiplication).
k=0
15
16 Polynômes
Démonstration. On vérifie aisément que (K[X], +, ·) satisfait les huit axiomes d’un
espace vectoriel. L’élément neutre est 0 = (0, 0, · · · ) et l’opposé du polynôme P est
−P = (−a0 , −a1 , · · · ). La multiplication des polynômes est commutative, en effet
n
X X n
X
ak bn−k = ai b j = an−k bk .
k=0 i,j∈N k=0
i+j=n
De la même façon, on a X
P (QR) = aj b k c l .
j+k+l=n
Démonstration.
Pn Un polynôme P est de degré ≤ n si et seulement si il est de la forme
k
P = k=0 ak X .
A = BQ + R.
deg B+deg(Q1 −Q2 ) = deg B(Q1 −Q2 ) = deg(R1 +R2 ) ≤ max{deg R1 , R2 } < deg B,
Remarques :
- on dit alors que K[X] est un anneau euclidien (Z est également un anneau euclidien
avec sa division euclidienne classique) ;
- en td, nous reverrons des méthodes pour calculer le quotient et le reste d’une
division euclidienne ;
- lorsque deg A < deg B, la division euclidienne est donnée par A = B · 0 + A.
Remarque :
- Avec la définition précédente, on a 0 divise 0 (i.e. le polynôme nul divise le polynôme
nul) et plus généralement tout polynôme divise le polynôme nul ;
- Un polynôme constant non-nul divise tous les les polynômes.
- Si B est un polynôme non-nul alors B divise A si et seulement si le reste de la
division euclidienne de A par B est le polynôme nul.
- Le polynôme X + i divise le polynôme X 2 + 1 dans C[X] mais pas dans R[X].
Remarque :
- En particulier, un idéal I de K[X] est un sous-espace vectoriel de K[X].
- On remarque que pour un idéal I de K[X], on a I = K[X] si et seulement si il
existe un polynôme constant non-nul dans I.
Théorème 2.11. Les idéaux I de K[X] sont de la forme I = P K[X] où P ∈ K[X]
i.e. un idéal I est constitué de l’ensemble des multiples de P .
Un tel polynôme est appelé plus grand diviseur commun de A et B, il est défini à
multiplication par une constante non-nulle près, on note D = pgcd(A, B).
pgcd(A1 , A2 , · · · , An ) = pgcd(pgcd(A1 , A2 ), A3 , · · · , An ),
A1 U1 + A2 U2 + · · · + An Un = D.
Un tel polynôme est appelé plus petit multiple commun de A et B, il est défini à
multiplication par une constante non-nulle près, on note P = ppcm(A, B).
Théorème 2.21 (de Bezout). Deux polynômes A et B de K[X] sont premiers entre
eux si et seulement si il existe U, V ∈ K[X] tels que
AU + BV = 1
Démonstration. Si A et B sont premiers entre eux alors 1 = pgcd(A, B) et le
Théorème 2.16 permet de conclure. Réciproquement, si 1 = AU + BV alors on
a pgcd(A, B) | 1 or 1 | pgcd(A, B) donc 1 et pgcd(A, B) sont associés d’où le
résultat.
Corollaire 2.22. Soient A et B deux polynômes de K[X] et supposons que D =
pgcd(A, B) est non-nul( i.e. A et B ne sont pas tous les deux nuls) alors A/D et
B/D sont premiers entre eux.
Démonstration. Il suffit de diviser la relation AU + BV = D par D.
Lemme 2.23 (de Gauss). Soient A, B et C trois polynômes de K[X] tels que A
divise BC et A est premier avec B alors A divise C.
Démonstration. Puisque A et B sont premiers entre eux, il existe U et V tels que
AU + BV = 1 donc ACU + BCV = C or, A divise ACU et par hypothèse A divise
BCV donc A divise C.
Corollaire 2.24. Soient A, B et C trois polynômes de K[X] avec A et B premiers
entre eux. Si A et B divise C alors AB divise C.
Démonstration. On a par hypothèse C = AQ pour un certain polynôme Q. Or, B
divise C = AQ et B est premier avec A donc B divise Q et Q = BQ0 pour une
certain polynôme Q0 . Il vient C = ABQ0 et AB divise C.
Définition 2.25. Un polynôme P ∈ K[X] est irréductible dans K[X] s’il est non-
constant et si ses seuls diviseurs dans K[X] sont les polynômes constants et les
polynômes associés à P , i.e. si P = AB entraı̂ne que A ou B est un polynôme
constant.
Un polynôme P n’est pas irréductible si et seulement si on peut écrire P = AB
avec deg A ≥ 1 et deg B ≥ 1.
Proposition 2.26. Un polynôme de degré 1 est irréductible. Un polynôme de degré
2 ou 3 est irréductible si et seulement si il n’est divisible par aucun polynôme de
degré 1.
Démonstration. La première assertion est immédiate. Montrons la deuxième asser-
tion pour un polynôme P . Si P est irréductible, il n’est pas divisible par un polynôme
de degré 1. Réciproquement, si P n’est pas irréductible alors on peut écrire P = AB
avec deg A, deg B ≥ 1. Comme deg P = deg A + deg B, l’hypothèse que deg P = 2
ou 3 entraı̂ne que A ou B est de degré 1.
Polynômes premiers entre eux et polynômes irréductibles 23
Remarques :
- Un polynôme de degré 4 peut être divisible
√ par deux polynômes
√ de degré 2. Par
exemple dans R[X], X 4 + 1 = (X 2 + 2X + 1)(X 2 − 2X + 1) et X 4 + 1 n’est
divisible par aucun polynôme de degré 1.
- La notion d’irréductibilité dépend du corps K dans lequel on se place. Le polynôme
X 2 + 1 est irréductible dans R[X] mais pas dans C[X] : X 2 + 1 = (X − i)(X + i).
De plus, cette décomposition est unique à l’ordre des facteurs irréductibles près.
A
un polynôme irréductible (unitaire) P . Par récurrence, P
s’écrit de façon unique
comme un produit d’irréductibles
r
A Y
=c Piαi
P i=1
0 0α0 Q0 0α0
et donc A = cP ri=1 Piαi . Si A = c0 i = 1r Pi i alors P divise le produit c0 ri=1 Pi i
Q Q
et donc P divise l’un des Pi0 et P est l’un des Pi0 . Quitte à réordonner les fac-
0 Q0 0α0
teurs, on peut supposer que P = P10 et A = c0 P P αi −1 ri=2 Pi i . Par unicité de la
décomposition de PA , on en déduit que c = c0 , r = r0 puis que l’ensemble des couples
(Pi , αi ) pour 1 ≤ i ≤ r et égal à l’ensemble des couples (Pi0 , αi0 ) pour 1 ≤ i ≤ r.
Remarques :
- La décomposition du théorème précédent s’appelle la décomposition en produit
d’irréductible. On dit alors que K[X] est anneau factoriel.
- Quitte à autoriser des exposants nuls dans la décomposition en irréductibles, on
peut écrire pour tout polynôme A :
Y
A=c P vP (A)
P unitaire
où le produit sur l’ensemble des polynômes irréductibles unitaires de K[X] et où
vP (A) ∈ N. Dans ce produit, les vP (A) sont tous nuls sauf pour un nombre fini de
polynômes irréductibles.
Définition 2.31. Avec les notations précédentes, le nombre vP (A) s’appelle la va-
luation de A en P . Le nombre vP (A) est caractérisé par le fait que P vP (A) divise P
et que P vP (A)+1 ne divise pas P .
Corollaire 2.32. Soient A et B deux polynômes de K[X], on a
Y
pgcd(A, B) = P min {vP (A),vP (B)} .
P unitaire
2.5 Racines
Définition 2.33. Soit P = nk=0 ak X k un polynôme de K[X] et soit x ∈ K, on
P
définit l’élément P (x) ∈ K par
n
X
P (x) = ak x k .
k=0
Définition 2.35. Soit P ∈ K[X] un polynôme et c ∈ K. On dit que c est une racine
de P si P (c) = 0
Remarques :
- Un polynôme de degré 1 a toujours une racine.
- Un polynôme irréductible de degré ≥ 2 n’a jamais de racine. En particulier, la
Proposition 2.26 peut se reformuler en disant qu’un polynôme de degré ≤ 3 est
irréductible si et seulement si il n’a pas de racine.
- Dire c est une racine de P non-nul revient à dire que le polynômes (X − c) apparaı̂t
dans la décomposition en produit d’irréductibles.
Remarques :
- la multiplicité de c de P est nulle si et seulement si c n’est pas une racine de P ;
- la racine c est dite simple (resp. double, resp. triple) si sa multiplicité est égale à
1 (resp. 2, resp. 3) ;
- l’élément 1 est racine double de X 2 + 2X + 1 (ou racine d’ordre 2).
- si P est le polynôme nul alors c est une racine deP d’ordre infini.
26 Polynômes
Démonstration. Soit (ci )i∈I les racines distinctes de P et (ki )i∈I leur multiplicité
(donc ki ≥ 1 pour tout i ∈ I). Alors (X − ci )ki divise P . De plus, les polynômes
(X − ci )ki sont deux à deux premiers entre eux donc
Y
(X − ci )ki
i∈I
P
divise P . Il vient i∈I ki ≤ deg P . Comme ki ≥ 1, il vient que I est fini et le
résultat.
Proposition 2.41. On a
- pour tout P, Q ∈ K[X], (P + Q)0 = P 0 + Q0 ;
- pour tout P, Q ∈ K[X], (P Q)0 = P 0 Q + Q0 P .
Démonstration. SeulP
le deuxième point mérite unePexplication. Si on écrit P =
k k k
P P
k≥0 ak X et Q = k≥0 bk X alors on a P Q = k≥0 i+j=k ai bj X et il vient
Racines 27
d’où le résultat.
La formule sur le produit se généralise par récurrence par
n
(n)
X n
(P Q) = P (k) Q(n−k) ,
k=0
k
où nk = n!
est le coefficient binomial et on obtient aussi (P ` )0 = nP 0 P `−1 pour
k!(n−k)!
` ∈ N.
Théorème 2.42 (Formule de Taylor). On suppose que K est de caractéristique
nulle (en particulier si K = Q, R, C). Si P est un polynôme de degré ≤ n on a pour
tout c ∈ K :
n
X P (k) (c)
P = (X − c)k .
k=0
k!
D’où
n
(k)
X i
P = λi k!Pi−k
i=0
k
n−1
X i
= λi k!Pi−k + λk k!P0
i=0
k
n−1
X i
= (X − c) λi k!(X − c)i−k−1 + λk k!P0
i=0
k
P X P (i) (c)
= (X − c)i−k
(X − c)k i≥k
i!
Corollaire 2.45. Les polynômes irréductibles de C[X] sont les polynômes de degré 1.
Démonstration. On sait déjà que les polynômes de degré 1 sont irréductibles. Réci-
proquement, soit P un polynôme irréductible. Par le théorème précédent, il admet
une racine c ∈ C et donc X − c divise P . Comme P est irréductible, P et X − c sont
associés et deg P = 1.
Remarque : on en déduit que les polynômes irréductibles unitaires de C[X] sont
les polynômes de la forme X − c, c ∈ C et que ces polynômes sont deux à deux non
associés. Ainsi la décomposition d’un polynôme P non-nul en produit d’irréductible
est de la forme : r
Y
P = a (X − ci )ki ,
i=1
Pr
où les ki ≥ 1 sont les ordres des racines ci de P . On a i=1 ki = deg P .
Corollaire 2.47. Les polynômes irréductibles de R[X] sont les polynômes de degré
1 et les polynômes de degré 2 sans racine dans R.
Démonstration. On sait déjà que les polynômes de degré et les polynômes de degré
2 sans racine sont irréductibles. Réciproquement, soit P un polynôme de R[X]. Si
P possède une racine c ∈ R alors X − c divise P et P est associé à X − c et
est de degré 1. Sinon, soit c ∈ C une racine de P alors c̄ est une autre racine de
P (dans C[X]). Les polynômes X − c et X − c̄ divisent P et sont premiers entre
eux donc (X − c)(X − c̄) divise P . Or, (X − c)(X − c̄) = X 2 − 2<e(c)X + |c|2
est un polynôme à coefficient réels. Dans C[X], la division euclidienne de P par
X 2 − 2<e(c)X + |c|2 donne P = (X 2 − 2<e(c)X + |c|2 )QC . Dans R[X] la division
30 Polynômes
où les ki sont les ordres des racines ci de P dans R et les `j sont les valuations de P
en (X 2 + bj X + cj ).
eux, B0 divise B1 . Il existe un polynôme D non nul tel que B1 = DB0 , puisque B1
et B0 sont unitaires, le polynôme D l’est aussi. Il vient alors A1 = DA0 et D divise
A1 et B1 donc D est un polynôme constant unitaire donc D = 1 et A1 = A0 et
B1 = B0 .
A0
Remarque : la preuve de la proposition précédente montre que si B 0
est la forme
réduite d’une rationnelle R ∈ Q(X) alors R = {(CA0 , CB0 ) : C ∈ K[X]}.
+: × K(X)
K(X) −→ K(X)
A1 A2 A1 A2 A1 B2 +A2 B1
,
B1 B2
7−→ B1
+ B2
= B1 B2
·: × K(X)
K(X) −→ K(X)
A1 A2 A1 A2 A1 A2
,
B1 B2
7−→ B1
· B2
= B1 B2
.
Ces opérations sont bien définies (le résultat ne dépend pas des représentants choisis
dans les classes d’équivalence) et munissent K(X) d’une structure de corps. En
particulier, 0 = 01 est le neutre pour la loi +, 1 = 11 est le neutre pour la loi · et tout
A A −1
=B
élément B non nul de K(X) (i.e. A 6= 0) possède un inverse pour · : B A
.
α
et Q0 = Q∗0 . On a alors ri=1 (Qi −Q∗i ) j6=i Pj j = 0. Soit k ∈ {1, . . . , r}, le polynôme
P Q
α
Pkαk divise chaque terme de (Qi − Q∗i ) j6=i Pj j donc Pkαk divise aussi
P Q
1≤i≤r,i6 = k
α α
(Qk − Q∗k ) j6=k Pj j . Comme il est premier avec j6=k Pj j , il divise Qk − Q∗k . Or,
Q Q
deg(Qk − Q∗k ) < deg Pkαk donc Qk = Q∗k .
Pour l’existence, on pose Rk = ri=1 Piαi pour k = 1, · · · , r. Alors les polynômes
Q
i6=k
R1 , R2 , · · · Rr sont premiers entre eux, i.e. pgcd(R1 , R2 , · · · , Rr ) = 1, en effet si un
polynôme P irréductible divise R1 alors P = Pj pour un certain 2 ≤ j ≤ r mais
alors P ne divise pas Rj . Ainsi, par la Proposition 2.17, il existe des polynômes
U1 , U2 , · · · , Ur tels que
1 = R1 U1 + R2 U2 + · · · + Rr Ur ,
et on a
A AU1 R1 AU2 R2 AUr Rr
= Qr αi + Q r αi + · · · + Q r αi .
B i=1 Pi i=1 Pi i=1 Pi
α
En remarquant que Rj / ri=1 Piαi = Pj j , il vient :
Q
A Q1 Q2 Qr
= S1 + S2 + · · · + Sr + α1 + α2 + · · · + αr
B P1 P2 Pr
et on conclut en posant Q0 = S1 + S2 + · · · + Sr .
Décomposition en éléments simples d’une fraction rationnelle 33
ri α
A XX Ri,j
=E+ j .
B i=1 j=1
P i
A
Définition 2.55. Avec les notations du Théorème 2.54, on dit que l’écriture de B
sous la forme
r X αi
A X Ri,j
=E+
B i=1 j=1
Pij
A
avec deg Ri,j < deg Pi est la décomposition de B en éléments simples. Le polynôme
A A
E s’appelle la partie entière de B et le la fraction rationelle B − E s’appelle la partie
polaire.
A
Si de plus la fraction B réduite alors pour tout c ∈ K tel que B(c) 6= 0, le nombre
A(c) A
B(c)
est la spécialisation (ou l’évaluation) de B en c.
A
Un zéro de la fraction réduite B est un élément c ∈ K tel que A(c) = 0 (et donc
B(c) 6= 0). L’ordre d’un zéro est sa multiplicité en tant que racine de A.
A
Un pôle de la fraction réduite B est un élément c ∈ K tel que B(c) = 0 (et donc
A(c) 6= 0). L’ordre du pôle est sa multiplicité en tant que racine de B.
34 Polynômes
A
On remarque que la partie entière de B est le quotient de la division euclidienne
A
de A par B. L’obtention de la partie polaire de B peut se faire grâce à plusieurs
techniques (substitution, calcul de limite, division suivant les puissances croissantes,
etc.) dont quelques unes sont explicitées maintenant.
i` r
A XX zi,j
=E+ j
.
B i=1 j=1
(X − c i )
On peut calculer les zi,j de proche en proche avec la même technique. Par exemple,
pour calculer zi,ri −1 , on remarque que
A bi,ri
−
B (X − ci )ri
est une fraction rationnelle ayant ci comme pôle d’ordre au plus ri − 1.
Une méthode efficace est l’utilisation de la division suivant les puissances croissantes.
Si A et B sont deux polynômes tels que B(0) 6= 0 alors pour tout s ∈ N il existe des
polynômes Q et S uniques avec deg Q ≤ s tels que
A = BQ + X s+1 S
Décomposition en éléments simples dans le cas K = C ou K = R 35
A
Soit B
une fraction rationnelle avec
A P
= , avec Q(a) 6= 0
B (x − a)r Q
A(Y +a)
Le changement de variable X ↔ Y + a donne B(Y +a)
= Y Pr Q(Y
(Y +a)
+a)
. On effectue la
division de P (Y + a) par Q(Y + a) à l’ordre r − 1 suivant les puissances croissantes,
on obtient :
et il vient
P (Y + a) br b2 b1 S(Y )
r
= r + ··· + 2 + + .
Y Q(Y + a) Y Y Y Q(Y + a)
On a donc
A br b1 S(X − a)
= r
+ ··· + + ,
B (X − a) (X − a) Q(X)
1
on a obtenu la partie polaire en (X−a)r
de la fraction rationnelle.
Il existe d’autres méthodes et astuces (identification, substitution de valeur numériques
à X, utilisation des propriétés de parité, etc.).
36 Polynômes
Chapitre 3
Soit K un corps commutatif (dans la plupart des cas, nous pouvons considérer
K = R ou C) et soit E un K-espace vectoriel.
Remarques :
- Soit n ∈ N∗ , pour 1 ≤ i ≤ n, l’application
Kn −→ K
(x1 , . . . , xn ) 7−→ xi
K[X] −→ K
P 7−→ P (c)
37
38 Formes linéaires et dualité
R[X] −→ R
Rb
P 7−→ a P (t)dt
Définition 3.2. L’ensemble des formes linéaires sur E est noté E ∗ et appelé le dual
de E. C’est un K-espace vectoriel et E ∗ = L(E, K).
Dans la suite (et sauf mention du contraire) les espaces vectoriels considérés sont
des espaces vectoriels de dimension finie. On note n = dim E.
Définition 3.4. Soit (v1 , . . . , vn ) une base de E. Pour tout i ∈ {1, . . . , n}, on note
vi∗ : E → K la forme linéaire sur E définie par :
La famille (v1∗ , . . . , vn∗ ) est une base de E ∗ , appelée la base duale de (v1 , . . . , vn ).
Démonstration. Vérifions que (v1∗ , . . . , vn∗ ) est bien une base de E ∗ . Elle est constituée
de n = dim E = dim E ∗ vecteurs,
P donc il suffit de prouver qu’elle est libre. S’il existe
λ1 , . . . , λn dans K tels que nk=1 λk vk∗ = 0 (la forme linéaire nulle) alors on a en
évaluant en vi pour tout i ∈ {1, . . . , n} :
n
X
0= λk vk∗ (vi ) = λi
k=1
d’où le résultat.
Exemple : la base duale de la base canonique de K n
Soit e1 = (1, 0, . . . , 0), . . . , en = (0, . . . , 0, 1) la base canonique de K n . Le i-ème
vecteur de sa base duale (e∗1 , . . . , e∗n ) est :
e∗i : Kn −→ K
(x1 , . . . , xn ) 7−→ xi
et est appelé la i-ème forme coordonnée. En écrivant x = x1 e1 +. . .+xn en , on trouve
e∗i (x) = e∗i (xi ei ) = xi . Ainsi, par exemple, la forme linéaire :
φ: K3 −→ K
(x1 , x2 , x3 ) 7−→ x1 + 2x2 − 3x3
s’écrit φ = e∗1 + 2e∗2 − 3e∗3 dans cette base duale.
Proposition 3.5 (Base duale et coordonnées dans une base). Soient B = (v1 , . . . , vn )
une base de E et B ∗ = (v1∗ , . . . , vn∗ ) sa base duale de E ∗ .
- Soit x ∈ E, les coordonnées de x dans B sont (vi∗ (x))1≤i≤n c’est-à-dire
n
X
x= vi∗ (x)vi .
i=1
n
X
φ= φ(vi )vi∗ .
i=1
Pn E −→ P E∗
n ∗
i=1 λi vi 7−→ i=1 λi vi
40 Formes linéaires et dualité
3.2 Bidual
Puisque E ∗ est un espace vectoriel, nous pouvons répéter la construction et
prendre son dual. L’objet de cette partie est de voir qu’on retombe essentiellement
sur E.
Définition 3.7. Soit φ une forme linéaire sur E et soit x ∈ E, on note hφ, xi = φ(x)
et on l’appelle crochet de dualité.
On peut vérifier que les applications
E −→ K E ∗ −→ K
et
x 7−→ hφ, xi φ 7→ hφ, xi
sont des formes linéaires sur E et E ∗ , respectivement.
Lemme 3.8 (Propriétés du crochet). On a
- soit φ ∈ E ∗ alors φ = 0 si et seulement si pour tout x ∈ E, hφ, xi = 0 ;
- soit x ∈ E alors x = 0 si et seulement si pour tout φ ∈ E ∗ , hφ, xi = 0.
Démonstration. Soit φ ∈ E ∗ . Par définition, tout x ∈ E vérifie φ(x) = 0 si et
seulement si φ est l’application linéaire nulle c’est-à-dire φ = 0.
Pour le second point, donnons une preuve utilisant la finitude de la dimension. Si
x = 0, il est clair que tout φ ∈ E ∗ vérifie hφ, xi = φ(x) = 0. Réciproquement, si
pour tout φ ∈ E ∗ on a hφ, xi = φ(x) = 0, prenons une base quelconque (v1 , . . . , vn )
de E et sa base duale (v1∗ , . . . , vn∗ ) de E ∗ . En particulier on a vi∗ (x) = 0 pour tout i.
Or vi∗ (x) est la i-ème coordonnée de x dans la base (v1 , . . . , vn ). Comme v a toutes
ses coordonnées nulles dans cette base, il est nul.
Définition 3.9. Le bidual de E est l’espace vectoriel (E ∗ )∗ , aussi noté E ∗∗ .
D’après la proposition 3.3, on a dim E = dim E ∗∗ .
Proposition 3.10. L’application suivante :
ι : E −→ E ∗∗ = L(E ∗ , K)
x 7−→ (φ 7→ hφ, xi).
est un isomorphisme entre E et E ∗∗ .
Démonstration. Pour x, y dans E et λ ∈ K, on a pour tout φ ∈ E ∗ :
Donc ι(x + λy) = ι(x) + λι(y) et ι : E → E ∗∗ est linéaire. Elle est injective par le
lemme 3.8. Comme dim E = dim E ∗∗ , c’est un isomorphisme.
Orthogonalité 41
Cet isomorphisme est canonique : il ne dépend pas du choix d’une base, contraire-
ment à E ' E ∗ vu plus tôt. Si E est de dimension infinie, on peut montrer que
l’application ι est injective mais n’est jamais surjective.
Corollaire 3.11 (Base antéduale). Soit (f1 , . . . , fn ) une base de E ∗ , il existe une
unique base (v1 , . . . , vn ) de E telle que (f1 , . . . , fn ) est la base duale de (v1 , . . . , vn ).
On l’appelle la base antéduale (ou préduale) de (f1 , . . . , fn ).
3.3 Orthogonalité
Définition 3.12. Soit F un sous-espace vectoriel de E. L’orthogonal de F dans E ∗ ,
noté F ⊥ , est l’ensemble des formes linéaires sur E qui sont nulles sur F :
F ⊥ = {φ ∈ E ∗ : ∀x ∈ F, φ(x) = 0}.
G0 = {v ∈ E : ∀φ ∈ G, φ(v) = 0}
Exemples :
- on a {0}⊥ = E ∗ et {0}0 = E ;
- on a E ⊥ = {0} et (E ∗ )0 = {0} (cela provient du lemme 3.8).
42 Formes linéaires et dualité
F ⊥ = {φ ∈ E ∗ : ∀x ∈ A, φ(x) = 0}.
G0 = {x ∈ E : ∀φ ∈ B, φ(x) = 0}.
F ⊥ = {φ ∈ E ∗ : ∀x ∈ F, φ(x) = 0} = {φ ∈ E ∗ : φ(e1 ) = 0} ⊂ (K n )∗ .
Démonstration. En effet
d’où le résultat.
F1 ⊂ F2 =⇒ F2⊥ ⊂ F1⊥
G1 ⊂ G2 =⇒ G02 ⊂ G01 .
la proposition 3.15, on a :
(En fait, la relation est valable si E n’est pas de dimension finie mais pour simplifier,
nous avons donné une démonstration utilisant la finitude de la dimension.)
Le troisième et quatrième point se démontrent de manière similaire.
Remarque : lorsque E n’est pas de dimension finie, les trois premières formules de
la proposition restent valables. En général, on a simplement une inclusion : G01 +G02 ⊂
(G1 ∩ G2 )0 .
Exemples :
- Les hyperplans de K 2 sont les sous-espaces de dimension 1 c’est-à-dire les droites
(i.e. engendrés par un vecteur v non nul).
- Les hyperplans de K 3 sont les sous-espaces de dimension 2 c’est-à-dire les plans
(i.e. engendrés par deux vecteurs non nuls et non colinéaires). Une droite de K 3
n’est pas un hyperplan de K 3 .
Définition 3.19. Une équation d’un hyperplan H est une forme linéaire φ ∈ E ∗
non nulle telle que H = ker φ (elle existe par la proposition ci-dessus). Par abus de
notation on écrit l’équation φ = 0.
ax + by + cz = 0.
Si φ = ae∗1 + be∗2 + ce∗3 est une forme linéaire non nulle sur R3 telle que H = ker φ
(i.e. H ⊥ = Vect(φ)).
Lemme 3.20. Si ψ = 0 est une autre équation de l’hyperplan H alors il existe
λ ∈ K ∗ tel que ψ = λφ.
Démonstration. Par la preuve de la proposition 3.18, une équation de H est simple-
ment un élément non nul de l’orthogonal H ⊥ , qui est de dimension 1.
C’est l’intersection des noyaux des fi (pour 1 ≤ i ≤ n − r), et chacun de ses noyaux
est l’hyperplan d’équation fi = 0.
Remarque : la preuve précédente utilise seulement le fait que (f1 , . . . , fn−r ) en-
gendre F ⊥ . Si c’est une base, le système d’équations obtenu pour F est de plus
minimal.
Exemples :
- si dim F = r = n − 1, alors le sous-espace est un hyperplan et on retrouve avec ce
théorème la proposition 3.18.
- dans R3 , toute droite est l’intersection de deux plans.
Exemple : calcul d’un système d’équations de F et d’une base de F ⊥ .
Soit F le sous-espace vectoriel de E = R4 engendré par les deux vecteurs a =
46 Formes linéaires et dualité
pour α1 , α2 réels. Donc F ⊥ est engendré par {e∗1 + e∗4 , e∗2 − 2e∗3 − 2e∗4 }, et cette famille
est même une base de F ⊥ (ces deux formes linéaires n’étant pas liées). On en déduit
un système d’équations de F :
(
x1 + x 4 = 0
x2 − 2x3 − 2x4 = 0.
une base de F ⊥ , on constate que d’après le système d’équations trouvé pour F , les
formes linéaires e∗3 − e∗1 − 21 e∗2 et e∗1 + e∗4 sont nulles sur F , donc appartiennent à F ⊥ .
Par ailleurs, elles forment une famille libre. Comme dim F ⊥ = 4 − dim F = 2, on en
déduit que {e∗3 − e∗1 − 12 e∗2 , e∗1 + e∗4 } est une base de F ⊥ .
3.6 Transposée
Soient E, F, G des espaces vectoriels de dimension finie. Rappelons que L(E, F )
est l’espace vectoriel des applications linéaires de E dans F .
E
u / F
t u(φ)=φ◦u
~ φ
K
Donc t (v ◦ u) = t u ◦ t v.
Pour le deuxième point, pour tout φ ∈ E ∗ on a
et de plus, rg u = rg t u.
Démonstration. La première égalité découle des définitions :
la matrice de u dans les bases (BE , BF ) alors la matrice de t u dans les bases
(BF ∗ , BE ∗ ) est
t
M = (aj,i )1≤j≤p .
1≤i≤n
Interprétation matricielle de la transposition 49
De plus ( pi=1 aj,i e∗i )(ek ) = aj,k . Donc t u(fj∗ ) et pi=1 aj,i e∗i coı̈ncident sur la base B
P P
et sont égaux.
Exemple : on a
t
1 2 3 1 4 3
4 5 6 = 2 5 8.
7 8 9 7 6 9
Remarque : comme rg(A) = rg(t A), on peut utiliser indifféremment des opérations
élémentaires sur les lignes ou sur les colonnes de A pour calculer son rang lors de la
méthode du pivot.
Démonstration. La matrice P n’est autre que celle de l’application idE dans les bases
(B1 , B2 ). Par les propositions 3.27 et 3.23, t P est la matrice de t (idE ) = idE ∗ dans
(B2∗ , B1∗ ). Donc (t P )−1 est la matrice de idE ∗ dans (B1∗ , B2∗ ), c’est-à-dire la matrice
de passage de B1∗ à B2∗ .
Exemple : calcul de la base duale d’une base (v1 , . . . , vn ) de K n .
Notons P la matrice de passage de (e1 , . . . , en ) (base canonique de K n ) à (v1 , . . . , vn ).
50 Formes linéaires et dualité
Déterminant
Une permutation σ de {1, . . . , n} est donc déterminée par ses valeurs σ(1), . . . , σ(n),
qui doivent être toutes distinctes, et égales à l’ordre près à 1, 2, . . . , n. On l’écrit
conventionnellement la permutation sous forme d’un tableau :
1 2 ··· n
σ=
σ(1) σ(2) · · · σ(n)
On a
1 2 1 2
S2 = = id, .
1 2 2 1
Une permutation de S3 est par exemple
1 2 3
.
2 3 1
51
52 Déterminant
Démonstration. Il y a n choix pour σ(1) ∈ {1, . . . , n}. Comme σ est injective, σ(2) 6=
σ(1) et il reste (n − 1) choix possibles pour σ(2). Par récurrence immédiate on voit
que pour tout i de {1, . . . , n}, on a σ(i) ∈ {1, . . . , n}\{σ(1), . . . , σ(i − 1)} donc
(n − i + 1) choix possibles pour σ(i). Donc ]Sn = n(n − 1) · · · 1 = n!.
Remarques :
- Il faut prendre garde au sens de calcul lors de l’évaluation d’une composée. Par
exemple,
T12 T23 (1) = T12 (T23 (1)) = T12 (1) = 2.
-Le groupe Sn n’est pas commutatif si n ≥ 3 (car (12)(23) 6= (23)(12)).
Une permutation n’est pas toujours une transposition mais peut néanmoins s’écrire
comme produit de transpositions.
Théorème 4.5. Pour toute permutation σ ∈ Sn , il existe un entier s ≥ 1 et des
transpositions τ1 , . . . , τs de Sn tels que σ = τ1 · · · τs .
Démonstration. Montrons que pour tout p ∈ {0, . . . , n}, une permutation de Sn qui
laisse invariant au moins p éléments de {1, . . . , n} est un produit de transpositions.
On procède par récurrence descendante sur p.
Pour p = n, une telle permutation ne peut être que l’identité, qui s’écrit aussi
Tij Tij .
Supposons la propriété vérifiée pour toute permutation laissant invariant au
moins p éléments de {1, . . . , n}. Montrons qu’il en est de même pour celles qui
en laissent au moins p − 1 invariants. Soit σ une telle permutation (on peut la sup-
poser distincte de id). Il existe alors j tel que σ(j) = k 6= j. En posant ψ = Tjk σ,
on a ψ(i) = i pour les p − 1 éléments invariants par σ et de plus ψ(j) = Tjk (k) = j.
Donc ψ laisse invariants au moins p éléments. Par hypothèse de récurrence, c’est
un produit de transpositions. En composant ψ à gauche par Tjk , on en déduit que
σ = Tjk ψ est aussi produit de transpositions.
Exemple : Dans S6 , on peut vérifier que la permutation
1 2 3 4 5 6
σ=
2 3 4 1 6 5
s’écrit σ = (12)(23)(34)(56) = (56)(23)(34)(41).
Définition 4.6. Soit σ une permutation de Sn . On dit que i et j présentent une
inversion dans σ lorsque i < j et σ(i) > σ(j). Soit I(σ) le nombre total d’inversions
que présente σ. La signature de σ est le nombre ε(σ) = (−1)I(σ) .
Exemples : ε(id) = 1, ε(T12 ) = −1 et
1 2 3
ε( ) = (−1)(−1) = 1.
2 3 1
Proposition 4.7. On a
Y σ(i) − σ(j)
ε(σ) = .
1≤i<j≤n
i−j
54 Déterminant
Q Q
Démonstration. Notons V = 1≤i<j≤n (i−j) et on pose Vσ = 1≤i<j≤n (σ(i)−σ(j)).
Le produit de l’énoncé est donc
Vσ
P = ∈ Q.
V
Par bijectivité de σ, V et Vσ sont les mêmes au signe près. Cela montre que P est
en fait dans {−1, +1}. De plus pour chaque paire (i, j) avec i < j, le terme σ(i)−σ(j)
i−j
a un signe négatif s’il y a une inversion, positif sinon. Donc le signe de P est bien
celui de (−1)I(σ) = ε(σ). On conclut que P = ε(σ).
Théorème 4.8.
- Pour σ, σ 0 dans Sn on a ε(σσ 0 ) = ε(σ)ε(σ 0 ) (on dit que ε est un morphisme de
groupes de Sn dans C∗ ).
- Pour toute transposition τ , on a ε(τ ) = −1 et pour tout produit de s transpositions
τ1 , . . . , τs , on a ε(τ1 . . . τs ) = (−1)s .
Définition 4.9. Une forme p-linéaire sur E est une application f : E p → K telle que
pour tout i ∈ {1, . . . , p} et pour tout (x1 , . . . , xi−1 , xi+1 , . . . , xp ) ∈ E p−1 l’application
partielle
fi : E −→ K
x 7−→ f (x1 , . . . , xi−1 , x, xi+1 , . . . , xp )
est une forme linéaire sur E (autrement dit, lorsqu’on fixe (p − 1) variables, les
applications de E dans K obtenues sont linéaires).
L’ensemble des formes p-linéaires sur E constitue un K-espace vectoriel noté Lp (E)
(démonstration laissée au lecteur).
Exemples :
• (p = 1) Ce sont simplement les formes linéaires sur E :
L1 (E) = L(E, K) = E ∗ .
est une forme bilinéaire sur R3 . Plus généralement le produit de p formes linéaires
sur E définit une forme p-linéaire sur E.
Remarque : Il ne faut pas confondre forme p-linéaire et forme linéaire sur E p . En
effet une forme bilinéaire f vérifie :
qui n’a aucune raison d’être égal à f (x, y) + f (x0 , y 0 ) (donc f n’est pas linéaire).
56 Déterminant
fi,j : E × E −→ K
(x, y) 7−→ e∗i (x)e∗j (y).
En effet on a i,j f (ei , ej )fi,j (ea , eb ) = i,j f (ei , ej )e∗i (ea )e∗j (eb ) = f (ea , eb ). Les deux
P P
expressions coı̈ncident sur les (ea , eb ) pour a, b ∈ {1, . . . , n}, qui forment une base
de E × E. Par bilinéarité elles coı̈ncident sur E × E d’où la formule annoncée. Ainsi
les fi,j engendrent
P l’espace vectoriel L2 (E). Il reste à voir que leur famille est libre.
Supposons Pi,j λi,j fi,j = 0 pourP λi,j dans K. En évaluant en (ek , el ) ∈ E × E, on
trouve 0 = i,j λi,j fi,j (ek , el ) = i,j λi,j e∗i (ek )e∗j (el ) = λk,l pour tout (k, l). Donc la
famille est libre et une base de L2 (E).
Exemple : Notons (e1 , e2 , e3 ) la base canonique de R3 et (e∗1 , e∗2 , e∗3 ) sa base duale
(formes coordonnées). D’après la démonstration, les neuf formes bilinéaires fi,j :
R3 × R3 → R, (x, y) 7→ e∗i (x)e∗j (y) constituent une base de L2 (R3 ).
On pose n = dim E.
Définition 4.11. Une forme p-linéaire f sur E est alternée si elle est nulle en
tout élément de E p ayant deux composantes égales : si xi = xj avec i 6= j alors
f (x1 , . . . , xp ) = 0.
Les formes p-linéaires alternées sur E constituent un sous-espace vectoriel de Lp (E)
noté Λp (E) (démonstration laissée au lecteur).
Exemple : l’application
f: C2 × C2 −→ C
((a, b), (c, d)) 7−→ ad − bc
est une forme bilinéaire alternée sur C2 . En effet, les deux applications C2 → C
obtenues en fixant (a, b) puis (c, d) sont linéaires et f ((a, b), (a, b)) = ab − ab = 0.
L’existence d’une forme p-linéaire alternée non nulle sur E est un énoncé non trivial,
qui est au coeur de la théorie du déterminant et fera l’objet de la prochaine section.
Formes p-linéaires et formes alternées 57
Or f (x1 , . . . , xj , . . . , xp ) est nul car deux composantes sont les mêmes et f est
|{z}
en i P
alternée. Donc f (x1 , . . . , xi + j6=i λj xj , . . . , xp ) = f (x1 , . . . , xp ).
Pour le deuxième point, supposons (x1 , . . . , xp ) liée. L’un des vecteurs, disons xi ,
est combinaison
P linéaire des autres : il existe P une famille de scalaires (λj )j6=i tels
que xi = j6=i λj xj . Alors f (x1 , . . . , xp ) = j6=i λj f (x1 , . . . , xj , . . . , xp ) = 0 par
|{z}
en i
alternance de f .
Démonstration. Si p > dim E, toute famille de p vecteurs dans E est forcément liée.
Par la proposition 4.12, toute forme p-linéaire alternée est donc identiquement nulle
sur E p .
0 =f (x1 , . . . , xi + xj , . . . , xi + xj , . . . , xp )
| {z } | {z }
en i en j
=f (x1 , . . . , xi , . . . , xj , . . . , xp ) + f (x1 , . . . , xi , . . . , xi , . . . , xp )
+ f (x1 , . . . , xj , . . . , xj , . . . , xp ) + f (x1 , . . . , xj , . . . , xi , . . . , xp )
=f (x1 , . . . , xi , . . . , xj , . . . , xp ) + f (x1 , . . . , xj , . . . , xi , . . . , xp )
=f (x1 , . . . , xi , . . . , xj , . . . , xp ) + f (xτ (1) , . . . , xτ (i) , . . . , xτ (j) , . . . , xτ (p) )
f (xσ(1) , . . . , xσ(p) ) = f (x(τ1 ···τr )(1) , . . . , x(τ1 ···τs )(p) ) = −f (x(τ1 ···τs−1 )(1) , . . . , x(τ1 ···τs−1 )(p) )
= +f (x(τ1 ···τs−2 )(1) , . . . , x(τ1 ···τs−2 )(p) ) = · · · = (−1)s f (x1 , . . . , xp ).
f (x, y) = f (ae1 + be2 , ce1 + de2 ) = acf (e1 , e1 ) + adf (e1 , e2 ) + bcf (e2 , e1 ) + bdf (e2 , e2 )
= adf (e1 , e2 ) + bcf (e2 , e1 ) = (ad − bc)f (e1 , e2 ).
Démonstration. Dans la base B, écrivons xj = ni=1 ai,j ei pour tout j ∈ {1, . . . , n}.
P
Soit f ∈ Λn (E). En développant comme dans l’exemple pour n = 2 on trouve :
n n
!
X X
f (x1 , . . . , xn ) = f ai,1 ei , · · · , ai,n ei
i=1 i=1
X X
= ··· f (ai1 ,1 ei1 , · · · , ain ,n ein )
1≤i1 ≤n 1≤in ≤n
X X
= ··· ai1 ,1 · · · ain ,n f (ei1 , · · · , ein )
1≤i1 ≤n 1≤in ≤n
X
= ai1 ,1 · · · ain ,n f (ei1 , · · · , ein )
1≤i1 ,i2 ,··· ,in ≤n
Comme f est alternée beaucoup des nn termes de la somme précédente sont nuls.
En effet, si ij = ij 0 avec j 6= j 0 alors f (ei1 , · · · , ein ) = 0. Ainsi, la somme porte sur
les 1 ≤ i1 , i2 , · · · , in ≤ n qui ne contiennent pas de répétition, en d’autres termes la
somme porte sur les 1 ≤ i1 , i2 , · · · , in ≤ n qui forment une permutation de {1, 2, · · · , n}.
Il vient donc
X
f (x1 , . . . , xn ) = aσ(1),1 · · · aσ(n),n f (eσ(1) , · · · , eσ(n) ).
σ∈Sn
Donc f est déterminée de façon unique par sa valeur f (e1 , . . . , en ) ∈ K. Pour toute
autre forme n-linéaire alternée g sur E, il existe λ ∈ K tel que g(e1 , . . . , en ) =
λf (e1 , . . . , en ) et alors g = λf . Cela prouve dim Λn (E) ≤ 1.
On pose X
∆(x1 , . . . , xn ) = ε(σ)aσ(1),1 · · · aσ(n),n .
σ∈Sn
Montrons que ∆ est une forme n-linéaire alternée qui vérifie ∆(e1 , . . . , en ) = 1. Elle
sera donc non nulle, ce qui prouvera dim Λn (E) = 1 et le théorème.
L’application ∆ est une forme linéaire en chacune des variables : chaque terme
aσ(1),1 · · · aσ(n),n = e∗σ(1) (x1 ) · · · e∗σ(n) (xn ) est linéaire en chacun des x1 , . . . , xn .
Montrons que ∆ est alternée. Soient i1 6= i2 deux entiers de {1, 2, · · · , n} tels que
xi1 = xi2 . On considère la transposition τ ∈ Sn qui échange i1 et i2 . Si on désigne par
An le sous-ensemble des permutations de Sn dont la signature est +1 (An s’appelle
60 Déterminant
Les termes dans la somme sont tous nuls sauf pour σ = id{1,2,··· ,n} et on a bien
∆(e1 , · · · , en ) = e∗1 (e1 ) · · · e∗n (en ) = 1. On termine la preuve en posant detB = ∆.
Remarques : il existe donc des formes n-linéaires alternées non nulles sur E de
dimension n. L’espace Λn (E) étant de dimension 1, deux telles formes n-linéaires
alternées sont toujours proportionnelles. D’autre part, la démonstration du théorème
précédent montre que :
1- pour tout (x1 , . . . , xn ) ∈ E n on a
X n
Y
detB (x1 , . . . , xn ) = ε(σ) aσ(j),j
σ∈Sn j=1
Déterminants : définitions et premières propriétés 61
Proposition 4.16 (Déterminant dans une base et famille liée). Soit B une base de
E et soit (x1 , . . . , xn ) une famille de vecteurs de E. Alors cette famille est liée si et
seulement si detB (x1 , . . . , xn ) = 0.
Démonstration. (⇒) Si la famille est liée, comme detB est une forme n-linéaire
alternée, on a detB (x1 , . . . , xn ) = 0 d’après la proposition 4.12.
(⇐) Raisonnons par contraposée. Supposons que la famille X = (x1 , . . . , xn ) est
libre dans E. Elle possède n vecteurs dans E de dimension n, donc c’est une base
de E. D’après le théorème 4.15, il existe λ ∈ K ∗ tel que detX = λ detB . Donc
1 = detX (x1 , . . . , xn ) = λ detB (x1 , . . . , xn ) donc detB (x1 , . . . , xn ) 6= 0.
Remarque : si on écrit
X
xj = ai,j ei
1≤i≤n
dans la base B, on a
X
detB (x1 , · · · , xn ) = ε(σ)aσ(1),1 · · · aσ(n),n .
σ∈Sn
On note aussi
ϕ: Λn (E) −→ Λn (E)
f 7−→ ϕ(f ) : (x1 , · · · , xn ) 7→ f (u(x1 ), · · · , u(xn ))
est une application linéaire (on vérifie que (x1 , · · · , xn ) 7→ f (u(x1 ), · · · , u(xn )) est
n-linéaire alternée). Comme Λn (E) est un espace vectoriel de dimension 1, f et ϕ(f )
sont colinéaires et il existe un scalaire λu ∈ K tel que ϕ(f ) = λu f i.e. pour tout
(x1 , · · · , xn ) ∈ E n on a
En −→ K
(x1 , . . . , xn ) 7−→ detB (u(x1 ), . . . , u(xn ))
det(M atB0 (f )) = det(P −1 AP ) = det(P )−1 det(A) det(P ) = det(A) = det(M atB (f )).
det(t A) = det(A);
det(AB) = det(A) det(B);
det(A−1 ) = det(A)−1 (pour A est inversible).
64 Déterminant
Proposition 4.23. Soit A une matrice n × n dont on note les colonnes sous la
formes (C1 , C2 , · · · , Cn ) et les lignes (L1 , · · · , Ln ). On a :
— le déterminant de A est nul dès qu’une colonne (ou une ligne) est nulle, dès
que les colonnes sont dépendantes ou dès que les lignes sont dépendantes ;
— tout permutation σ sur les colonnes (resp. lignes) de A échange det(A) en
ε(σ) det(A) ;
— pour toute famille (λk )1≤k≤n de scalaires,
n
X
det(C1 , · · · , λi Ci , · · · , Cn ) = λi det(C1 , · · · , Ci , · · · , Cn ) ;
k=1
Démonstration. Toutes ces propriétés découlent du fait que le déterminant est une
forme n-linéaire alternée de vecteurs colonnes (ou lignes).
Proposition 4.24. Si T = (ti,j )1≤i,j≤n est une matrice triangulaire supérieure (i.e.
ti,j = 0 dès que i > j) alors det(T ) = t1,1 t2,2 · · · tn,n .
Démonstration. En effet, on a
X
det(T ) = ε(σ)tσ(1),1 · · · tσ(n),n .
σ∈Sn
Pour σ ∈ Sn , le terme tσ(1),1 · · · tσ(n),n est nul si il existe i ∈ {1, · · · , n} tel que σ(i) < i
car T est triangulaire supérieure. Ainsi, la somme porte sur les permutations σ ∈ Sn
telles que pour tout i ∈ {1, · · · , n} on a σ(i) ≥ i. Soit σ une telle permutation, on a
n
X n
X n
X
σ(i) − i = σ(i) − i = 0.
i=1 i=1 i=1
Comme σ(i) ≤ i pour tout i, on en déduit que σ(i) − i = 0 pour tout i et que σ est
l’identité. D’où le résultat.
Remarque : les 2 propositions précédentes permettent de calculer des déterminants
en effectuant une sorte de pivot de Gauss sur les lignes et les colonnes. Par exemple :
1 0 0 1 0 0 1 0 0
2 4 −1 = 0 4 −1 = 0 1 −1 = 1.
(L2 →L2 −2L1 ) (C2 →C2 +3C3 )
0 −3 1 0 −3 1 0 0 1
66 Déterminant
K p × · · · × K p −→ K
A B
(A1 , . . . , Ap ) 7−→ det
0 C
est une forme p-linéaire alternée sur K p (on le vérifie aisément). Elle est donc pro-
portionnelle à (A1 , . . . , Ap ) 7→ det A et par le théorème 4.15 on a
A B Ip B
∀A ∈ Mp (K) det = det det A.
0 C 0 C
1 2 3
4 5
0 4 5 = det(1) = 1 × (−2) = −2.
6 7
0 6 7
On a :
1 2 3 4
5 6 7 8 1 2 9 10
= = (1.6 − 5.2)(9.12 − 11.10) = (−4)(−2) = 8.
0 0 9 10 5 6 11 12
0 0 11 12
1 3
∆22 = = −12, c22 = (−1)4 (−12) = −12.
7 9
1 2
∆23 = = −6, c23 = (−1)5 (−6) = 6.
7 8
Proposition 4.27. Soient A = (aij )i,j ∈ Mn (K) et i, j dans {1, . . . , n}, on a les
formules suivantes :
— développement par rapport à la i-ème ligne :
n
X
det A = aij cij ;
j=1
1 ∗
j−1 i−1
det B = (−1) (−1) det .
0 A
cij
Pn
Par ailleurs, on a Aj = i=1 aij ei donc par linéarité du déterminant par rapport
à la j-ème colonne :
n
X n
X
det A = aij det(A1 , . . . , Aj−1 , ei , Aj+1 , . . . , An ) = aij cij .
i=1 i=1
Exemple : on pose
1 −1 2
A = 2 0 1 .
3 1 3
Développons par rapport à la deuxième colonne :
2 1 1 2
det A = (−1)c12 + 0 + 1c32 = −(−1)3 ∆12 + (−1)5 ∆32 = − = 6.
3 3 2 1
4 0 5
4 5
det A = 2 0 1 = 1(−1)5 ∆32 = − = 6.
L1 →L1 +L3 2 1
3 1 3
4.7 Applications
Inverse d’une matrice
Exemple : si
a b
A=
c d
alors
d −c
A
e= .
−b a
Applications 69
A(t A)
e = (t A)A
e = (det A)In .
Démonstration. Posons B = A(t A) e = (bik )1≤i,k≤n . On a bik = Pn aij djk où djk est
j=1
t e
le coefficient en (j, k) de A, c’est-à-dire le coefficient en (k, j) de A.
e Ainsi on a :
n
X
bik = aij ckj .
j=1
Pn
Si k = i alors bii = j=1 aij cij = det A (développement par rapport à la i-ème
ligne). Si k 6= i, le développement par rapport à la k-ème ligne dit que bik est le
déterminant de la matrice obtenue à partir de A en remplaçant la k-ème ligne par
la i-ème. Elle possède deux lignes égales donc bik = 0. Ainsi B = (det A)In . En
procédant de même avec les colonnes on trouve (t A)A e = (det A)In .
Exemple : si ad − bc 6= 0 alors
−1
a b 1 d −b
=
c d ad − bc −c a
Il s’agit d’une formule à retenir.
Formules de Cramer
Soient A ∈ GLn (K) (matrice inversible) et B ∈ K n . On considère le système linéaire
carré (autant d’équations que d’inconnues) AX = B pour X ∈ K n . Comme A est
inversible, il possède une unique solution :
x1
..
X = . = A−1 B.
xn
Proposition 4.30. Avec les notations précédentes, l’unique solution est donnée
par :
1
∀j ∈ {1 . . . , n} xj = det(A1 , . . . , Aj−1 , B, Aj+1 , . . . , An )
det A
((A1 , . . . , Aj−1 , B, Aj+1 , . . . , An ) est la matrice obtenue en remplaçant la j-ème co-
lonne de A par B).
Démonstration. De AX = B on tire B = ni=1 xi Ai d’où par linéarité du déterminant
P
par rapport à la j-ème colonne :
n
X
δ := det(A1 , . . . , Aj−1 , B, Aj+1 , . . . , An ) = xi det(A1 , . . . , Aj−1 , Ai , Aj+1 , . . . , An )
i=1
Cette formule présente elle aussi un intérêt théorique. Pour être appliquée en pra-
tique, elle suppose de calculer n+1 déterminants de taille n. Pour résoudre le système
AX = B, on pourra lui préférer la méthode du pivot dans certaines circonstances.
Calcul du rang
Définition 4.31. Soit A ∈ Mn,p (K) une matrice non nécessairement carrée. On
généralise la notion de mineur en appelant mineur de A d’ordre s tout déterminant
d’une matrice carrée de taille s × s obtenue en supprimant des lignes et des colonnes
de A.
Exemple : on pose
1 2 3 4
A = 5 6 7 8 .
9 10 11 12
Ses mineurs d’ordre 1 sont 1, 2, . . . , 12. Voici des exemples de mineurs d’ordre 2 :
1 2 2 4 5 8
, , .
5 6 10 12 9 12
Les mineurs d’ordre 3 de A sont :
1 2 3 2 3 4 1 3 4 1 2 4
5 6 7 , 6 7 8 , 5 7 8 , 5 5 8 .
9 10 11 10 11 12 9 11 12 9 10 12
Applications 71
Théorème 4.32. Soit A ∈ Mn,p (K). Le rang de A est égal à l’ordre maximal d’un
mineur non nul de A. Autrement dit, le rang de A est l’entier 0 ≤ r ≤ min(n, p) tel
qu’il existe un mineur non nul d’ordre r et que tout mineur d’ordre r + 1 est nul.
Démonstration. Notons s l’ordre maximal d’un mineur non nul de A et r = rg A.
Notons aussi Aj ∈ K n (resp. Bj ∈ K α ) la j-ème colonne de A (resp. de B).
Prouvons r ≥ s. Soit B une matrice carrée d’ordre α extraite de A. Il s’agit de
montrer : α > r ⇒ det B = 0. Notons I (resp. J) l’ensemble des indices des lignes
(resp. des colonnes) qui crée B par extraction de A (I et J sont de cardinal α).
Comme
P α > r, la famille {Aj | j ∈ J} est liée : il existe des λj non tous
P nuls tels que
j∈J λj Aj = 0. En extrayant les lignes d’indices dans I, on obtient j∈J λj Bj = 0.
Les colonnes de B étant liées, le déterminant de B est nul.
Enfin montrons que A possède un mineur non nul d’ordre r (cela prouvera r =
s). Comme r = rg A, de la matrice A on peut extraire r colonnes linéairement
indépendantes. Appelons A0 ∈ Mn,r (K) la sous-matrice ainsi extraite de A. Elle
est de rang r. Maintenant la matrice t (A0 ) ∈ Mr,p (K) est aussi de rang r : on
peut donc extraire une sous-matrice de A0 en sélectionnant r colonnes linéairement
indépendantes (c’est-à-dire r lignes linéairement indépendantes de A0 ). Ces deux
opérations reviennent à extraire de A une sous-matrice B ∈ Mr,r (K) dont les lignes
et les colonnes sont linéairement indépendantes. Donc det B 6= 0 et comme c’est un
mineur d’ordre r de A, l’affirmation est démontrée.
Pour appliquer le théorème, plutôt que de calculer tous les mineurs de A, on
procède de la façon suivante. On commence par ceux d’ordre le plus grand possible
c’est-à-dire min(n, p). Si l’un est non nul, cela veut dire que A est de rang min(n, p).
Sinon, on regarde les mineurs d’ordre (min(n, p) − 1)... et ainsi de suite. L’ordre du
premier mineur non nul trouvé est le rang A.
Exemple : on pose
1 1 0 1
A= 1 0 −1 2 .
0 1 1 −1
Les mineurs extraits de A sont d’ordre ≤ 3. Calculons ses mineurs d’ordre 3 :
1 1 0 1 0 −1
1 0 −1 = 1 0 −1 = 0
L1 →L1 −L3
0 1 1 0 1 1
1 1 1 1 0 2
1 0 2 = 1 0 2 =0
L1 →L1 −L3
0 1 −1 0 1 −1
72 Déterminant
1 0 1 1 1 −1
0 −1 2 = 0 −1 2 = 0
L1 →L1 −L2
1 1 −1 1 1 −1
1 0 1 0 1 −1
1 −1 2 = 1 −1 2 = 0
L1 →L1 −L2
0 1 −1 0 1 −1
1 1
= −1
1 0
Autrement dit u est diagonalisable s’il existe une base B telle que la matrice de u
dans B est une matrice diagonale.
X −6 8 4
χu (X) = −2 X +2 2 = X 3 − 5X 2 + 8X − 4.
−1 2 X −1
Définition 4.37. Avec les notations ci-dessus et pour λ une valeur propre de E, le
sous-espace Eλ = ker(λidE − u) est appelé sous-espace propre de u pour la valeur
propre λ.
Exercices
Voici une liste d’exercices sur les différents chapitres traı̂tés dans ce cours. Il
est fort souhaitable que l’étudiant fasse sensiblement plus d’exercices que ce qui est
proposé ci-dessous.
75
76 Exercices
2. {(1, −1, 2), (2, 5, −3), (1, −8, 9), (−3, 10, −13)}.
3. {(1, 1, −2, −1), (2, 3, −2, −3), (1, 4, 4, −4), (1, 1, −1, 0)}.
4. {(1, 1, 1, 1), (2, 0, 1, −1), (5, 2, 1, 0), (−12, 1, 6, 5)}.
Exercice 5.3. Soit n ≥ 0 un entier naturel et P0 , . . . , Pn une famille de polynômes
de R[X] telle que pour tout i, deg Pi = i (une telle famille est dite échelonnée en
degré). Montrer que {P0 , . . . , Pn } est une base de Rn [X], le R-espace vectoriel des
polynômes de degré ≤ n.
5.6 Généralités
Exercice 5.12.
Dire, pour chacun des objets suivants, s’il appartient à C[X], R[X], Q[X] :
2 9 2 0 1 2 3 1 2 1
(a) 3X + 1 (b) 5 X + 25X + 7π (c) X + X+
√ 1 0 1 0 1 9
(d) X + X1 (e) X + 2
(f ) (2X 3 + X + 2)m pour m ∈ N (g) (X 2 + 2)m − (X + 2)n pour m, n ∈ N.
Exercice 5.21.
1. Déterminer dans chacun des cas suivant pgcd(A, B) :
(a) A(X) = X 5 + X 4 + 2X 3 − 2X + 3 et B(X) = X 4 + 3X 3 + 7X 2 + 8X + 6.
(b) A(X) = X 4 + X + 1 et B(X) = X 3 + 1 :
(c) A(X) = X 3 − X et B(X) = 2X 4 − 4X 2 + 2X ;
(d) A(X) = X 3 + 3X + 1 et B(X) = 2X 4 + 3X 3 + X + 1.
2. Supposons que A divise B. Que vaut alors pgcd(A, B) ?
3. En déduire le pgcd(A, B), avec A(X) = X 4 + 2X 2 + 1 et B(X) = X 2 + 1.
Exercice 5.22.
1. Soient P (X) = X 3 + 2X + 1 et Q(X) = X 4 + X 2 + X − 2. Montrer que
pgcd(P, Q) = 1.
2. Déterminer des polynômes U, V tels que U P + V Q = 1.
3
3. Mêmes questions avec P (X) = (X 2 − X + 1) et Q(X) = (2X 2 + X + 4).
2
Exercice 5.23. * (Polynômes de Fibonacci)
Soit (Pn ) la suite de K[X] définie par
P0 = 0, P1 = 1 et ∀ n ∈ N, Pn+2 = XPn+1 − Pn .
2
1. Montrer que ∀ n ∈ N, Pn+1 = 1 + Pn Pn+2 .
2. En déduire que ∀ n ∈ N, pgcd(Pn , Pn+1 ) = 1.
3. Établir que pour tout m ∈ N, n ∈ N \ {0} on a Pm+n = Pn Pm+1 − Pn−1 Pm .
4. Déduire de 2 et 3 que pour tout m ∈ N, n ∈ N \ {0} on a pgcd(Pm+n , Pn ) =
pgcd(Pn , Pm ).
80 Exercices
Exercice 5.28. Montrer que pour tout entier n ≥ 1 le polynôme P (X) = nX n+2 −
(n + 2)X n+1 + (n + 2)X − n de R[X] admet 1 comme racine, avec multiplicité 3.
Que vaut Li (aj ) ? Que vaut g(Li (X)) ? Que peut-on dire de (L0 (X), . . . , Ln (X)) ?
4. En déduire que pour tout P ∈ K[X] de degré ≤ n on a P (X) = ni=0 P (ai )Li (X).
P
Polynômes irréductibles 81
Exercice 5.31.
1. Factoriser X 4 + X 2 + 1 et X 4 − X 2 + 1 en produit de polynômes irréductibles
et unitaires de C[X] puis de R[X].
2. Montrer que le polynôme X 4 + X 3 + X 2 + X + 1 n’a pas de racine réelle.
Factoriser ce polynôme en produits de facteurs irréductibles et unitaires de
C[X] puis de R[X].
1
Exercice 5.34. Calculer la décomposition en éléments simples dans R(X) de .
X(X + 1)
∞
X 1
En déduire la valeur de la série .
n=1
n(n + 1)
Exercice 5.41. Montrer que les familles de vecteurs suivantes forment une base de
R3 , puis déterminer leur base duale en fonction des formes coordonnées (e∗1 , e∗2 , e∗3 ).
Orthogonalité 85
Exercice 5.43. On considère les formes linéaires suivantes sur K 3 (où K désigne
un corps) :
5.12 Orthogonalité
Exercice 5.44. Donner la dimension et une base de F et F ⊥ , dans R3 et (R3 )∗
respectivement :
1. F = ((1 , (2 . . . , (( ) 1, 2, 3), (4, 5, 6))
2. F = ((1 , (2 . . . , (( ) 3, −3, 1), (−3, 6, 0), (6, 3, 5)
3. F = {(x, y, z) : x = 0}
4. F = {(x, y, z) : x − 3y + 2z = 0, 2x − y + z = 0, x − 8y + 5z = 0}
Exercice 5.45. Donner la dimension et une base de G et G0 , dans (R3 )∗ et R3
respectivement :
1. G = ((1 , (2 . . . , (f ) ) où f (x, y, z) = x − 2y + z
2. G = ((1 , (2 . . . , (e ) ∗1 − e∗2 + 3e∗3 , 2e∗1 − e∗2 + 5e∗3 , 3e∗1 + 7e∗3 )
Exercice 5.46. 1. Déterminer un système d’équations du sous-espace vectoriel
de R4 engendré par les vecteurs (1, 1, 1, 1) et (−1, 1, −1, 1).
2. Même question pour le sous-espace engendré par (2, 1, 0, 3).
Exercice 5.47. Soit E = R3 muni de sa base canonique (e1 , e2 , e3 ).
1. Posons u1 = (2, 1, 1), u2 = (5, 3, 2), u3 = (4, 3, 1) et F = ((1 , (2 . . . , (u ) 1 , u2 , u3 ).
(a) Déterminer une base de F et montrer que F est un hyperplan de E.
(b) Donner une base de F ⊥ . En déduire un système d’équations de F .
86 Exercices
Exercice 5.49. Soit E le K-espace vectoriel Mn (K). Soit Ei,j la matrice de E dont
tous les coefficients sont nuls, sauf celui situé à la i-ème, j-ème colonne qui vaut 1.
∗
On rappelle que (Ei,j )1≤i,j≤n est une base de E ; on note (Ei,j )1≤i,j≤n sa base duale.
Pour tout A ∈ E on considère la forme linéaire :
φA : E −→ K
M 7−→ Tr(AM ).
∗
1. Montrer Ei,j Ek,l = δj,k Ei,l . En déduire φEi,j = Ej,i .
2. Montrer que l’application suivante est linéaire et un isomorphisme :
φ : E −→ E ∗
A 7−→ φA .
∀i 6= j f (Ei,j ) = 0
∀i, j f (Ei,i ) = f (Ej,j ).
Application transposée 87
a c + id a−1 1 tan x −1
, , .
c − id b a3 a2 + a + 1 1 tan x
Calculer les déterminants suivants sous forme factorisée en fonction des réels a et b :
2a a + b a 2ab a + b a2
a + b 2a b , ab + b2 2a ab .
a b 0 ab b 0
1 1 1 1 1 2 3 4
1 2 2 2 2 3 4 1
Exercice 5.56. Calculer les déterminants : , . Pour tous
1 2 3 3 3 4 1 2
1 2 3 4 4 1 2 3
a 1 0 2
0 b 0 3
a, b, c, d complexes, calculer le déterminant .
4 5 c 6
0 0 0 d
Exercice 5.57. On considère le polynôme suivant :
1 x x 2 x3
1 1 1 1
P (x) = .
1 2 3 4
1 4 9 16
Exercice 5.58. Sachant que les nombres 119, 153 et 289 sont tous divisibles par 17,
1 1 9
montrer sans le calculer que le déterminant 1 5 3 est divisible par 17.
2 8 9
Exercice 5.59. Considérons l’application suivante :
φ : R2 [x] −→ R2 [x]
R x+1
P 7−→ x P (t)dt.
1. Montrer que φ est un endomorphisme de R2 [x].
2. Calculer son déterminant.
3. Est-ce que φ est un isomorphisme ?
Exercice 5.60. Soit A ∈ Mn (K) une matrice carrée de taille n.
1. Exprimer le déterminant de −A en fonction du déterminant de A.
2. Supposons A antisymétrique c’est-à-dire t A = −A. Montrer que si A est de
taille n impaire alors A n’est pas inversible.
Exercice 5.61. (Déterminant de Vandermonde) Soient a1 , . . . , an dans K. On considère
le déterminant suivant :
1 1 ··· 1
a1
a2 · · · an
2
V (a1 , · · · , an ) = det a1
a22 · · · a2n .
.. .. ..
. . .
n−1 n−1 n−1
a1 a2 · · · an
5.15 Applications
Exercice 5.62. Avec un déterminant, préciser si les systèmes de vecteurs suivants
sont libres ou liés dans C3 :
1. u = (1, 2, 3), v = (4, 5, 6), w = (2, 1, 0).
2. u = (1, 1, −1), v = (1, 2, 0), w = (−1, 3, 2).
1 0 a
Exercice 5.63. Soient a ∈ R et A = 0 a 1 ∈ M3 (R).
a 1 0
Applications 91
m 0 0 m