Académique Documents
Professionnel Documents
Culture Documents
Cours Algèbre2
Cours Algèbre2
Algèbre II
2 Matrices 5
2.1 Définition et notations . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.2 Opérations sur les matrices . . . . . . . . . . . . . . . . . . . . . . . . 6
2.2.1 Addition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.2.2 Multiplication par un scalaire : . . . . . . . . . . . . . . . . . 7
2.2.3 Multiplication de deux matrices : . . . . . . . . . . . . . . . . 7
2.2.4 Pièges à éviter : . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.2.5 Transposée d’une matrice : . . . . . . . . . . . . . . . . . . . . 9
2.2.6 Puissance d’une matrice : . . . . . . . . . . . . . . . . . . . . 10
2.2.7 Formule du binôme . . . . . . . . . . . . . . . . . . . . . . . . 11
2.3 Matrices particulières : . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.3.1 Matrices carées : . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.3.2 Matrices triangulaires, matrices diagonales : . . . . . . . . . . 13
2.3.3 La trace : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.3.4 Matrices symétriques : . . . . . . . . . . . . . . . . . . . . . . 17
2.3.5 Matrices antisymétriques . . . . . . . . . . . . . . . . . . . . . 17
2.4 Inversion de matrices : . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.4.1 Propriétés : . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.4.1.1 Unicité : . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.4.1.2 Inverse de l’inverse : . . . . . . . . . . . . . . . . . . 19
2.4.1.3 Inverse d’un produit : . . . . . . . . . . . . . . . . . 19
2.4.1.4 Simplification par une matrice inversible : . . . . . . 19
2.4.2 Inverse d’une matrice : calcul . . . . . . . . . . . . . . . . . . 20
2.4.2.1 Matrices 2 × 2 : . . . . . . . . . . . . . . . . . . . . 20
1
2 TABLE DES MATIÈRES
3 Polynômes 22
3.1 Définitions générales . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.2 Structure de l’ensemble des polynômes . . . . . . . . . . . . . . . . . 26
3.3 Fonctions polynômiales . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.4 Degré et valuation d’un polynôme . . . . . . . . . . . . . . . . . . . . 28
3.5 Arithmétique dans K[X] . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.5.1 Division euclidienne dans K[X] . . . . . . . . . . . . . . . . . 32
3.5.2 Idéaux de K[X] . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.5.3 Pgcd de deux polynômes . . . . . . . . . . . . . . . . . . . . . 36
3.5.4 Polynômes premiers entre eux . . . . . . . . . . . . . . . . . . 39
3.5.5 Ppcm de deux polynômes . . . . . . . . . . . . . . . . . . . . 40
3.6 Racines d’un polynôme . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.6.1 Dérivation des polynômes . . . . . . . . . . . . . . . . . . . . 45
3.6.2 Polynômes irréductibles et factorisations . . . . . . . . . . . . 49
3.6.2.1 Décomposition en irréductibles dans C[X] . . . . . . 52
3.6.2.2 Décomposition en irréductibles dans R[X] . . . . . . 53
4 Fractions rationnelles 55
4.1 Décomposition en éléments simples . . . . . . . . . . . . . . . . . . . 58
5 Espaces vectoriels 64
5.1 Introdution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
5.2 Notion d’espace vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . 66
5.2.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
5.2.2 Exemples fondamentaux . . . . . . . . . . . . . . . . . . . . . 67
5.2.3 Combinaisons linéaires . . . . . . . . . . . . . . . . . . . . . . 67
5.2.4 Un exemple important : espace de fonctions . . . . . . . . . . 68
5.2.5 Produits d’espaces vectoriels . . . . . . . . . . . . . . . . . . . 69
5.2.6 Sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . 69
5.2.6.1 Exemples . . . . . . . . . . . . . . . . . . . . . . . . 70
5.2.7 Remarque . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
5.2.8 Sous-espace vectoriel engendré par un sous-ensemble . . . . . 71
5.2.8.1 Exemple . . . . . . . . . . . . . . . . . . . . . . . . . 72
5.2.9 Sommes de sev . . . . . . . . . . . . . . . . . . . . . . . . . . 72
5.2.9.1 Exemple . . . . . . . . . . . . . . . . . . . . . . . . . 73
5.2.10 Sommes directes . . . . . . . . . . . . . . . . . . . . . . . . . 73
5.3 Familles de vecteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
5.3.1 Familles libres . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
5.3.1.1 Solution : . . . . . . . . . . . . . . . . . . . . . . . . 77
5.4 Familles génératrices . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
5.5 Bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
5.5.0.1 Exemple . . . . . . . . . . . . . . . . . . . . . . . . . 80
5.5.1 Exemples importants de bases, à connaı̂tre) . . . . . . . . . . 80
5.6 Espaces vectoriels de dimension finie . . . . . . . . . . . . . . . . . . 80
5.6.1 Notion de dimension . . . . . . . . . . . . . . . . . . . . . . . 80
5.6.2 Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
5.6.3 Dimension, liberté et rang . . . . . . . . . . . . . . . . . . . . 82
5.6.3.1 Exemple . . . . . . . . . . . . . . . . . . . . . . . . . 83
5.7 Dimension de sous-espaces et de sommes . . . . . . . . . . . . . . . . 83
5.7.0.1 Remarque . . . . . . . . . . . . . . . . . . . . . . . . 85
4
Chapitre 2
Matrices
5
6 Algèbre II
Remarque : on travaillera pour le moment avec des nombres réels mais il n’y a pas
de difficulté à étendre les notions de ce chapitre au cas où les coefficients sont dans
un corps commutatif K .
0 −1 3 4
Exemple 2.1. A = est une matrice 2 × 4 et son coefficient a22
1 2 −3 4
est égal à 2, alors que a13 = 3.
Une matrice 1×n est un vecteur ligne. Une matrice m×1 est un vecteur colonne.
2.2.1 Addition
Si A := (aij ) et B := (bij ) sont des matrices m × n alors A + B est une matrice
m × n dont les coefficients sont donnés par cij := aij + bij .
0 −1 3 4 1 2 0 0 1 1 3 4
Exemple 2.2. + =
1 2 −3 4 −1 3 2 1 0 5 −1 5
Exemple 2.4.
1 2
1 2 3
A= B = −1 1
2 3 4
1 1
On dispose d’abord le produit correctement (à gauche) : la matrice obtenue est de
taille 2 × 2. Puis on calcule chacun des coefficients, en commençant par le premier
coefficient c11 = 1 × 1 + 2 × (−1) + 3 × 1 = 2 (au milieu), puis les autres (à droite).
1 2 1 2 1 2
−1 1 −1 1 −1 1
1 1 1 1 1 1
1 2 3 c11 c12 1 2 3 2 c12 1 2 3 2 7
2 3 4 c21 c22 2 3 4 c21 c22 2 3 4 3 11
Un exemple intéressant est le produit d’un vecteur ligne par un vecteur colonne :
b1
b2
u = (a1 a2 · · · an ) v = ..
.
bn
Exemple 2.5.
5 1 2 0 14 3 2 0 5 1 10 2
= mais =
3 −2 4 3 −2 −6 4 3 3 −2 29 −2
Exemple 2.6.
0 −1 2 −3 0 0
A= B= et AB =
0 5 0 0 0 0
Troisième piège : AB = AC n’implique pas B = C. On peut avoir AB = AC
et B ̸= C.
Exemple 2.7.
0 −1 4 −1 2 5 −5 −4
A= B= C= et AB = AC =
0 3 5 4 5 4 15 12
(A + B)2 = A2 + AB + BA + B 2
D’où
1 p p2 p (p2 − p + 1)
0 1 2p p(3p − 2)
Ap =
0
0 1 3p
0 0 0 1
— De même, une matrice qui n’a qu’une seule colonne (p = 1) est appelée matrice
colonne ou vecteur colonne. On la note
a1,1
a2,1
A = ..
.
an,1
— La matrice (de taille n × p ) dont tous les coefficients sont des zéros est appelée
la matrice nulle et est notée 0n,p ou plus simplement 0 . Dans le calcul matriciel,
la matrice nulle joue le rôle du nombre 0 pour les réels.
i < j =⇒ aij = 0.
Exemple 2.10. Deux matrices triangulaires inférieures (à gauche), une matrice
triangulaire supérieure (à droite) :
4 0 0 1 1 −1
0 −1 0 5 0 0 −1 −1
1 −2
3 −2 3 0 0 −1
Une matrice qui est triangulaire inférieure et triangulaire supérieure est dite diago-
nale. Autrement dit : i ̸= j =⇒ aij = 0.
— Inversement, supposons qu’au moins l’un des éléments diagonaux soit nul et
notons aℓℓ le premier élément nul de la diagonale. En multipliant les lignes 1 à
ℓ − 1 par l’inverse de leur élément diagonal, on obtient une matrice de la forme
1 ∗ ··· ··· ∗
.
0 .. ∗ · · · ··· ∗
0 0 1 ∗ ··· ∗
0 ··· 0 0 ∗ ··· ∗
0 ··· 0 0 ∗ ··· ∗
. . .. . . ..
.. .. . ··· 0 . .
0 ··· ··· 0 ∗
2.3.3 La trace :
Dans le cas d’une matrice carrée de taille n×n, les éléments a11 , a22 , . . . , ann sont
appelés les éléments diagonaux. Sa diagonale principale est la diagonale (a11 , a22 , . . . , ann ).
a11 a12 . . . a1n
a21 a22 . . . a2n
.. .. . . ..
. . . .
an1 an2 . . . ann
Ainsi,
tr(AB) =a11 b11 +a12 b21 + · · · +a1n bn1
+ a21 b12 +a22 b22 + · · · +a2n bn2
..
.
+ an1 b1n +an2 b2n + · · · +ann bnn
On peut réarranger les termes pour obtenir
A = AT ,
AT = −A,
Exemple 2.16.
0 4 2
0 −1 −4 0 −5
1 0
−2 5 0
Remarquons que les éléments diagonaux d’une matrice antisymétrique sont toujours
tous nuls.
Exemple 2.17. Toute matrice est la somme d’une matrice symétrique et d’une
matrice antisymétrique.
2 10 2 9 0 1
Exemple 2.18. Pour A = alors A= + .
8 −3 9 −3 −1 0
| {z } | {z }
symétrique antisymétrique
Remarque 2.1. • La notion n’a pas bien sûr de sens dans le cas de matrices
qui ne sont pas carrées.
• L’inverse d’une matrice, quand il existe, est unique. C’est une conséquence de
l’étude générale de la symétrisabilité faite dans le chapitre sur les structures
algrébriques.
2.4.1 Propriétés :
2.4.1.1 Unicité :
Proposition 2.2. Si A est inversible, alors son inverse est unique.
(AB)−1 = B −1 A−1
2.4.2.1 Matrices 2 × 2 :
Considérons la matrice 2 × 2 :
a b
A=
c d
.
alors
1 0
AB = .
0 1
Idem pour BA.
1 t
Conséquence : si A est inversible, A−1 = det(A)
(com(A)).
Démonstration. On va se contenter du cas des matrices d’ordre 2 où le calcul n’est
pas compliqué. Les mineurs sont constitués de déterminants de matrices
à une seule
d −c
ligne et une seule colonne, on obtient donc aisément com(A) = . Il
−b a
a b d −b ad − bc 0
ne reste plus qu’à calculer × = =
c d −c a 0 ad − bc
(ad − bc)I2
Polynômes
On désigne par K l’un des ensembles R ou C. K est muni de deux lois de com-
positions internes : + et × ; la richesse de leurs propriétés lui confère une structure
de corps commutatif :
— (K, +) est un groupe commutatif, ceci est la conséquence du fait que
— + est associative.
— + est commutative.
— + admet un élément neutre : 0.
— Tout élément x de K admet un symétrique : −x.
— (K∗ , ×) est un groupe commutatif (Rappel : K∗ = K \ {0} est l’ensemble des
éléments de K qui ont un inverse).
— × est distributive à gauche et à droite par rapport à +, c’est-à-dire :
∀(x, y, z) ∈ K, x × (y + z) = x × y + x × z et (y + z) × x = y × x + z × x
22
23 Algèbre II
la lettre x désigne une variable qu’on peut remplacer par n’importe quel réel, mais
rien d’autre, tandis que y est une variable que l’on peut remplacer par n’importe
quel réel positif, mais rien d’autre.
L’expression définissant f a également un sens sur C. On peut définir une autre
fonction expression définit une fonction sur n’importe quel espace dans lequel on a
défini une addition, une multiplication, et une muliplication par les réels.
Considérons l’ensemble E des fonctions du plan R2 dans lui-même, muni de l’addi-
tion et de la multiplication par les réels usuelles, ainsi que de la composition. Ainsi
u2 = u ◦ u, u3 = u2 ◦ u, . . . etc. Par convention on note u0 = IR2 . On peut alors définir
la fonction F qui à u ∈ E associe
F (u) = u3 + 4u + 2 = u ◦ u ◦ u + 4u + 2 IR2 .
Ainsi on a intérêt à voir un polynôme comme un nouvel objet et pas comme une
fonction. Pour satisfaire notre soif de rigueur, il faut donner un sens à l’indéterminée
X. En fait, ce X n’est qu’une notation. L’information importante dans l’expression
(3.1) est la famille de coefficients a0 , ..., an ∈ K. Ainsi on pourrait simplement voir
un polynôme comme un élément de Kn+1 . Le problème est que l’entier n dépend
lui aussi du polynôme. En effet, un polynôme est donné par un nombre fini mais
quelconque de coefficients non nuls.
On note (a0 , a1 , a2 , . . . , an , 0, . . .) une suite (infinie) d’éléments de K nuls à partir
d’un certain rang. n désigne un entier naturel tel que au delà du rang n tous les
termes sont nuls, ce qui ne signifie d’ailleurs pas que les termes ai (i = 0 . . . n) sont
tous non nuls.
√
Exemples : (0, 1, −1, 0, 2, 0, 0, 0, . . .), (π, e, 2, 0, . . .) etc...
Dans le but d’alléger les écritures, une telle suite sera notée A = {(ai )i∈N , n} 1 . On
définit alors trois lois de composition dans l’ensemble de ces suites
Parmi les suites qui ne peuvent pas être identifiées à un scalaire, il en est une
particulière que l’on note X, que l’on nomme l’indéterminée et qui est telle que :
X = (0, 1, 0, 0, 0, . . .)
On vérifie alors :
def
X 2 = X × X = (0, 0, 1, 0, 0, . . .)
def
X 3 = X × X 2 = (0, 0, 0, 1, 0, . . .)
et ainsi de suite ...
def
Pour être complet, en hommage à une telle régularité, on pose X 0 = (1, 0, 0, . . .) =
1.
Ainsi, la suite A = (a0 , a1 , . . . , an , 0, . . .) = {(ai )i∈N , n} peut s’écrire :
i=n
X
A = a0 + a1 X + a2 X 2 + . . . + an X n = ai X i
i=0
Définition 3.1. On note K[X] l’ensemble des suites (ak )k∈N d’éléments de
K nulles à partir d’un certain rang (il existe N ∈ N tel que ak = 0 pour tout
k ≥ N ). Les éléments de K[X] sont appelés polynômes à une indéterminée
sur le corps K.
Remarque 3.1. 1. La suite a = (ak )k≥0 est dite à support fini ⇐⇒ il existe un
entier n dans N tel que : ∀ k > n, ak = 0.
2. Un polynôme du type (a0 , 0, 0, ...) s’appelle un polynôme constant. Le polynôme
(0, 0, ...) s’appelle le polynôme nul.
a0 + a1 X + . . . + ak X k + . . . + an X n = 0
P = a0 + a1 X + . . . + ak X k + . . . + an X n
On peut vérifier que ces trois définitions définissent bien des fonctions de K[X]×K[X]
dans K[X], de K × K[X] dans K[X] et de K[X] × K[X] dans K[X], respectivement.
On peut vérifier que l’ensemble K[X] muni de l’addition précédente est un groupe
commutatif, dont l’élément neutre est le polynôme (0, 0, 0, 0, ...). La multiplication
est associative et commutative, et le polynôme (1, 0, 0, 0, ...) est élément neutre. En
outre on a la distributivité du produit par rapport à l’addition :
∀ P, Q, R ∈ K[X], P (Q + R) = P Q + P R.
K[X] muni de son addition et de sa multiplication interne n’est pas un corps, car
tout élément non nul n’admet pas d’inverse pour la multiplication. Par contre, les
propriétés déjà évoquées assurent que c’est ce qu’on appelle un anneau commutatif.
Outre ces propriétés concernant l’addition et la multiplication interne, la multi-
plication externe se comporte également comme on pouvait espérer :
• Pour tout P ∈ K[X] on a 1K P = P (où 1K l’élément unité du corps K).
• Pour P, Q ∈ K[X] et λ ∈ K on a λ(P + Q) = λP + λQ.
• Pour P ∈ K[X] et λ, µ ∈ K on a (λ + µ)P = λP + µP.
• Pour P ∈ K[X] et λ, µ ∈ Kon a λ(µP ) = (λµ)P.
• Pour P, Q ∈ K[X] et λ ∈ K on a λ(P Q) = (λP )Q = (λQ)P.
Remarque 3.3. On montre que l’ensemble K[X] muni des deux lois de composition
internes : + et × possède une structure d’anneau 3 :
3. En réalité quand on considère la troisième loi (externe), la structure de K[X] est plus riche,
mais ceci correspond à un cours à venir.
Bien entendu l’intérêt de l’abstraction est, comme on l’a dit, de définir des fonc-
tions sur tout espace dans lequel une expression polynômiale à coefficients dans K
a un sens. Par exemple à un polynôme dans K[X] on peut associer une fonction sur
K mais aussi sur l’espaces des fonctions de K dans K(ou de Kn dans Kn ), mais aussi
sur les matrices n × n à coefficients dans K ou sur K[X].
Exemples
1. P (x) = 23 x4 + 2 x2 + 52; deg(P ) = 4 et val(P ) = 0.
2. P (x) = 2; deg(P ) = 0 et val(P ) = 0.
3. P (x) = 0; deg(P ) = −∞ et val(P ) = +∞.
8
4. P (x) = 3 x ; deg(P ) = 8 et val(P ) = 8.
Remarques
— Le coefficient dominant d’un polynôme non nul est le coefficient dont l’indice
est égal au degré du polynôme.
— Un polynôme est unitaire ou normalisé si, et seulement si son coefficient
dominant est égal à 1.
— On a val(P ) = 0 si et seulement si le coefficient constant de P est non nul.
— deg(P ) ≥ 1 si P n’est pas le polynôme constant.
4. deg(λ.P ) = deg(P ) si λ ̸= 0
5. val(P + Q) ≥ inf{val(P ), val(Q)}
6. val(P × Q) = val(P ) + val(Q)
7. val(λ.P ) = val(P ) si λ ̸= 0
Q) = m.
Si n = m et an + bm ̸= 0 alors le terme de plus haut degré est (an + bm ) X n et
deg(P + Q) = n = m.
Si n = m et an + bm = 0 alors tous les termes sont des monômes de degrés
strictement inférieurs à n = m, donc deg(P + Q) < n = m.
2. Soit λ ∈ K. On a :
n
X
λP = λ ak X k
k=0
Puisque bm Pm est de degré nm et que les autres termes sont de degrés stric-
tement inférieurs, on obtient bien que deg(P (Q)) = nm.
On utilise souvent la filtration suivante de K[X] (une filtration de E est une chaı̂ne
d’inclusions d’union totale E).
6) : il en existe toujours un, mais il n’est plus unique, on peut prendre d = 2 mais
aussi d = −2. Les polynômes unitaires joueront un rôle analogue aux entiers positifs
mais ils sont légèrement moins confortables, dans la mesure où la somme de deux
entiers positifs est positive alors que la somme de deux polynômes unitaires n’est
pas nécessairement unitaire. Attention à ces petits détails donc, en apprenant les
énoncés.
Commençons par donner une définition, à partir de laquelle on ne montrera guère
de théorèmes que dans K[X] mais que ça ne coûte pas plus cher de donner sur un
anneau commutatif quelconque.
Remarques
1. Si Q|P alors deg(Q) ≤ deg(P ).
2. Soient (P, Q) ∈ K[X]2 et (λ, µ) ∈ (K⋆ )2 . Alors Q divise P si et seulement si
µQ divise λ P .
3. Le polynôme nul est un multiple de tout polynôme P (en effet on 0 = 0P ) mais
il ne divise que lui-même (car Q = P 0 ⇒ Q = 0). Autrement dit D(0) = K[X]
et K[X] = {0}
4. Si P = λ ∈ K⋆ alors P divise tout polynôme Q (car Q = AP avec A = λ1 Q).
Mais λ ̸= 0 n’est multiple que des polynômes constants non nuls (P Q = λ ⇒
deg(P ) = 0. Autrement dit, pour tout λ ∈ K⋆ : D(λ) = K⋆ et λK[X] = K[X].
5. En posant Q|P , on définit une relation binaire sur K[X] qui réflexive et transi-
tive. Mais elle n’est pas antisymétrique (donc ce n’est pas une relation d’ordre).
On en effet : (Q|P et P |Q) ⇐⇒ (∃λ ∈ K⋆ , P = λ Q).
On exprime cette situation en disant que le polynômes sont associés.
6. Si deux polynômes sont associés alors ils ont le même diviseurs et le même
multiples.
7. Soit P un polynôme non nul, et soit λ le coefficient de plus haut degré de P .
Le polynôme P ⋆ = λ1 P est appelé le normalisé de P .
Deux polynômes non nuls sont associés s’ils ont le même normalisé.
8. Soit P le polynôme non nul.
P ⋆ est l’unique normalisé tel que D(P ⋆ ) = D(P ).
Il est est l’unique normalisé tel que P K[X] = P ⋆ K[X].
On a alors deg(Â) < deg(A), donc par hypothèse de récurrence il existe Q̂, R̂ ∈ K[K]
tels que deg(R̂) < deg(B) et  = B Q̂ + R̂. On a alors
an m
A=B X + Q̂ + R̂.
bn−m
an
Il suffit alors de poser Q = bn−m Xm + Q̂ et R = R̂.
-On montre maintenant l’unicité du couple (Q, R). On suppose que Q1 , Q2 , R1 , R2 ∈
K[X] sont tels que d’une part
et d’autre part
A = BQ2 + R2 et deg(R2 ) < deg(B).
On a alors
B(Q1 − Q2 ) = R2 − R1 ,
donc
deg(B) + deg(Q1 − Q2 ) = deg(R2 − R1 ) < deg(B)
Cela prouve que deg(Q1 − Q2 ) < 0, donc Q1 = Q2 , et par suite que R1 = R2 .
Remarques
1. Soit A dans K[X] et α dans K Le reste de la division de A par X − α est la
constante A(α).
Plus généralement si A = BQ + R et si B(α) = 0 alors A(α) = R(α).
Supposons
√
par exemple qu’on veille calculer A(α) avec deg(A) ≥ 2 et α =
−1+ 13
2
.
Il est plus commode de diviser par B = X 2 + X − 3 car B(α) = 0. Le reste R
s’écrit en effet R = aX + b et on a alors A(α) = aα + b.
2. Soient K et K′ deux corps, K étant un sous-corps de K′ .
Soient A, B deux éléments de K[X], le polynôme B étant non nul.
Soit A = BQ + R la division eucidienne de A par B dans K[X].
Par unicité, cette égalité représente aussi la division euclidienne de A par B
dans K′ [X].
Cette propriété est souvent utilisée avec K = R et K′ = C : on part d’une
division dans R[X], et on considère momentanément comme une division dans
C[X], le temps de la substituer à X un nombre complexe (souvent une racine
complexe du polynôme B).
Définition 3.7. On dit que deux polynômes P et Q sont premiers entre eux
si les seuls diviseurs communs à P et Q sont les polynômes constants non
nuls.
Comme dans le cadre général, on dit que le couple (A, B) est un couple de
polynômes associés si A divise B et B divise A. Il vient alors de la description des
idéaux de K[X] que :
D est appelé plus grand commun diviseur de A et B et est noté pgcd(A, B).
En outre il existe (U, V ) ∈ K[X]2 tel que
D = AU + BV. (3.3)
n = min{deg(P ), P ∈ D \ {0}}
R = A − DQ = (1 − QU )A − QV B,
ce qui prouve que R appartient à D. Mais son degré est strictement inférieur à celui
de D, ce qui est absurde. Ainsi A = QD, ce qui signifie que D divise A. On montre
de la même façon que D divise B.
Soit P ∈ K[X] un diviseur commun de A et B. Il existe (QA , QB ) ∈ K[X]2 tel
que A = P QA et B = P QB . On a alors
D = AU + BV = P (QA U + QB V ),
Il reste à montrer que D est l’unique polynôme unitaire vérifiant (3.2). Pour
cela, supposons que D̃ est également un polynôme unitaire vérifiant (3.2). Comme
D̃ divise A et B, on obtient par propriété de D que D̃ divise D. On obtient de la
même façon que D divise D̃. Comme D et D̃ sont unitaires, on a nécessairement
D = D̃, ce qui conclut la démonstration.
On note que l’unicité de D assure qu’il n’y a qu’un seul polynôme unitaire de D de
degré n.
Remarque 3.5. Comme pour le cas des entiers, le calcul du pgcd est basé sur
l’algorithme d’Euclide.
Exemples :
• Déterminer le pgcd de P = X 3 + 2X 2 − X − 2 et Q = X 2 + 4X + 3. en vous
inspirant de l’algorithme d’Euclide.
On a :
X 3 + 2X 2 − X − 2 = (X 2 + 4X + 3)(X − 2) + 4X + 4;
1
X 2 + 4X + 3 = (4X + 4)( X + 3 = 4) :
4
Donc, pgcd(P, Q) = pgcd(Q ; 4X + 4) = X + 1.
• Trouver P ∧ Q, où
P = 2X 3 − 4X 2 − X + 2; Q = X 3 − 3X 2 + 3X − 2
Posons R0 = Q.
P = Q1 R0 + R1 ; où Q1 = 2; R1 = 2X 2 − 7X + 6
P ∧ R0 = R0 ∧ R1 :
R0 = Q2 R1 + R2 ; où Q2 = 21 X + 14 ; R2 = 74 X − 7
2
R0 ∧ R1 = R1 ∧ R2 = R1 ∧ (X − 2)
R1 = Q3 (X − 2) + 0 ; où Q3 = 2 X − 3
Donc
P ∧Q=X −2
Comme pour les entiers, le pgcd est le dernier reste non nul.
• Soit à déterminer le pdcd de
et
B = X 5 − X 4 + 2X 3 − 2X 2 + X − 1.
En Effectuant les divisions euclidiennes suivantes :
A = B (x − 5) + R1
pgc(A, B) = pgcd(R1 , X 3 − X 2 + X − 1)
Ensuite ; on a :
R1 = (7X + 1) X 3 − X 2 + X − 1) + 0
Ce qui montre finalement que pgcd(A, B) = X 3 − X 2 + X − 1 (polynôme
unitaire associé au dernier reste non nul de l’algorithme).
AU + BV = 1.
Le théorème de Bézout a des conséquences fondamentales en arithmétiques des
polynômes :
Théorème 3.5. (Théorème Gauss)
Soient A, B, C ∈ K[X]. Si A divise BC et si A est premier avec B, alors A
divise C.
Démonstration. Supposons que A|BC et que A et B sont premiers entre eux.
Alors, d’après l’identité de Bézout, il existe U, V ∈ K[X] tels que AU + BV = 1.
Comme A divise AC, il divise ACU .
De même A divise BC donc divise BCV . Ainsi, A divise la somme de ces polynômes :
ACU + BCV = C(AU + BV ) = C.
Exemples
• Soient a et b deux éléments distincts de K. Si p et q sont deux entiers naturels,
les polynômes A = (X − a)p et B = (X − b)q sont premiers entre eux puisque
les diviseurs unitaires de A sont les polynômes (X − a)k , avec k ≤ p, et que
parmi eux, seul 1 divise B.
Remarques et propriétés
Rappelons qu’on note P ⋆ le polynôme unitaire associé à un polynôme non nul P
.
• A ∨ B est multiple de A et B , et tout multiple de A et B est un multiple de
A ∨ B.
On a l’égalité A ∨ B = A⋆ si et seulement si A est un multiple de B .
• Si A = 0 ou B = 0 alors A ∨ B = 0 (le seul multiple commun à A et B est 0).
Si A ̸= 0 et B ̸= 0, alors M = A ∨ B ̸= 0 et parmi les multiples communs
à A et B, A ∨ B est le polynôme unitaire de plus petit degré (ce qui justifie
l’appellation ”ppcm” )
• Pour tous polynômes A, B, et tous scalaires non nuis λ, µ, on a
(λA) ∨ (µB) = A ∨ B.
A ∨ B = ∆⋆ (Ã ∨ B̃).
(A ∧ B)(A ∨ B) = A B
D = AU + BV
(A ∧ B)(A ∨ B) = λ A B, λ ∈ K⋆ .
P = X 2 + 1 ∈ Q[X], P (i) = 0, i ∈ C, i∈
/Q
Lorsque nous dirons que λ est racine de P ∈ K[X] , nous sous-entendrons que λ est
un élément de K.
La recherche des racines des polynômes à coefficients entiers est en général difficile,
sauf en petit degré. On démontre même qu’il n’existe aucune méthode de recherche
des racines de polynômes à coefficients entiers de degré n si n ≥ 5.
4
P = (X − α) Q + R
P = (X − α) Q + P̃ (α)
z3 − z2 + z − 1 = 0 (3.4)
Solution :
1. Il est claire que 1 est une solution de l’équation (3.4)
2. 1 est une solution de l’équation (3.4) alors
z 3 − z 2 + z − 1 = (z − 1) (a z 2 + b z + c)
4. Ce célèbre résultat, concernant la non-résolubilité du groupe Sn pour n ≥ 5, est dû à Evariste
Galois (1811-1832), génial mathématicien français fondateur de la théorie qui porte désormais son
nom. Il fut le premier à employer le mot groupe.
n
Q
Démonstration. On suppose que (X − aj ) divise P . Il existe Q ∈ K[X] tel que
j=1
n
Q
P (X) = Q(X) (X − aj ). En particulier pour tout k ∈ [[1 ; n]] on a
j=1
n
Y
P (ak ) = Q(ak ) (ak − aj ) = 0,
j=1
D’où le résultat.
Comme P ̸= 0 on a Q ̸= 0 donc
Yn
deg(P ) = deg(Q) + deg( (X − aj )) ≥ n.
| {z }
≥0 j=1
| {z }
=0
L’intérêt du corollaire 3.4 par rapport au corollaire 3.3 est qu’on n’a pas besoin
d’information sur les degrés des polynômes pour conclure. Le prix à payer est qu’on
a besoin d’une infinité de racines. Mais une infinité de racines ce n’est pas tant que
ça, et cela reste un résultat très important. Par exemple, il suffit de savoir que deux
polynômes complexes coı̈ncident sur les réels (ou même seulement sur les entiers)
par savoir qu’ils sont égaux.
Définition 3.12. On dit d’un polynôme qu’il est scindé, s’il peut s’écrire
comme produit de polynômes de degré 1.
Autrement dit, P ∈ K[X] si et seulement s’il existe λ ∈ K⋆ , n ∈ N et
a1 , . . . , an ∈ K tels que
n
Y
P = λ (X − aj ).
j=1
Par analogie avec les fonctions, on note P (k) le polynôme dérivé k-ième de
P défini en posant :
P (0) = P
∀k ∈ N, P (k+1)
= (P (k) )′ .
.
Remarque et propriétés
La définition précédente est purement algébrique. Elle ne correspond à la
dérivée des fonctions polynômiales que lorsque le corps de base est le corps
des réels.
On note bien sûr P ′ et P ′′ plutôt que P (1) et P (2) .
Par exemple, si P = aX 3 + bX 2 + cX + d alors P ′ = 3aX 2 + 2bX + c.
n n−1 n
Si P = ak X k , alors P ′ = (k + 1) ak+1 X k , ou encore P ′ = k ak X k−1 .
P P P
k=0 k=0 k=1
Si K = R, alors la fonction polynomiale associée au polynôme P est bien la
′
.
Si deg(P ) ≥ 1 on a deg(P ′ ) = deg(P ) − 1 (c’est là qu’intervient l’hypothèse
”K est infini”.)
Pour cette raison, P ′ est le polynôme nul si et seulement si P est un polynôme
constant.
Plus généralement : ∀(P, Q) ∈ K[X]2 , P ′ = Q′ ⇐⇒ ∃λ ∈ K, P = Q + λ.
Remarque
La formule de Taylor montre qu’un polynôme est entièrement déterminé par
la valeur de ses dérivées successives en un point.
Le cas particulier λ = 0 est connu sous le nom de formule de Mac Laurin.
P P (k) (0) k
ak X k alors P =
P
Si P = k!
X
k≥0 k≥0
On a l’équivalence :
X P k (λ) X P k (λ)
P (X) = (X − λ)k ⇐⇒ P (X + λ) = Xk
k≥0
k! k≥0
k!
Remarque 3.7. En toute précision, il faudrait dire que α est une racine de P ou
que α est un zéro de la fonction polynomiale associée à K, mais on commet souvent
l’abus de langage de dire que α est un zéro du polynôme P .
Si α n’est pas une racine de P , il pourra cependant être commode de dire que
α est une racine de P avec la multiplicité 0.
Si α est une racine de multiplicité k de P , alors k ≤ deg(P ).
Dire que P est divisible par (X − α)k , c’est dire que α est racine de P avec
une multiplicité au moins égale à k.
Si K est un sous-corps de K′ , et si P est dans K[X], alors P est dans K′ [X].
Chacune des racines de P dans K est racine de P dans K′ , et avec la même
multiplicité.
En revanche, il se peut que P admette des racines qui soient dans K′ mais pas
dans K.
Par exemple, soit P = (X 2 − 2)(X 2 + 1) :
✓ P n’a pas de racines dans Q.
√ √
✓ Ses racines dans R sont − 2 et 2.
√ √
✓ Ses racines dans C sont − 2, 2, −i, i.
Pour j ∈ [[1 ; k − 1]] on a donc P (j) (a) = 0, tandis que pour j = k, on obtient
Inversement on suppose que P (j) (a) = 0 pour tout j ∈ [[0 ; k − 1]] et que P (k) (a) ̸= 0.
On note n = deg(P ). D’après la formule de Taylor en a, on a
n n n
X P j (a) j
X P (j) (a) j k
X P (j) (a)
P = (X − a) = (X − a) = (X − a) (X − a)j−k
j=0
j! j=k
j! j=k
j!
P (k) (a)
On a Q(a) = k!
̸= 0 donc (X − a)k divise P mais pas (X − a)k+1 .
Pour m = 1 c’est vrai par définition. Supposons donc le résultat acquis jusqu’au
rang m − 1 (pour m ∈ [[2 ; k]]. Il existe Q ∈ K[X] tel que
m−1
Y
P = (X − aj )αj Q
j=1
On a alors
β
(β)
X (i) (β−i)
(β)
0=P (am ) = (R1 R2 ) (am ) = Cβi R1 (am ) R2 (am ) = β! R2 (am ) ̸= 0
i=0
D’où la contradiction. D’où (3.5) par récurrence. Les autres assertions s’obtiennent
en analysant les degrés.
Remarques et propriétés
• En d’autres termes, on dira qu’un polynôme est réductible lorsqu’on peut le
factoriser sous la forme d’un produit de deux polynômes de degré au moins 1.
• Les polynômes irréductibles jouent un rôle analogue à celui des nombres pre-
miers en arithmétique. Toutefois les usages étant ce qu’ils sont, il y a une
petite nuance de vocabulaire un peu désagréable : alors que le mot ”nombre
premier” est réservé à des entiers positifs, le mot ”polynôme irréductible” n’est
pas réservé à des polynômes unitaires. On se méfiera de cette peu perceptible
nuance qui crée de légères discordances entre énoncés analogues portant les
uns sur les polynômes et les autres sur les entiers.
• Tout polynôme de degré 1 est irréductible car X − a = QR entraı̂ne Q ou R
constant pour des raisons de degré..
Si deg(P ) ≥ 2 et si P admet une racine dans K, P n’est pas irréductible dans
K[X].
• La notion de polynôme irréductible dépend du corps K.
Ainsi P = X 2 − 2 est irréductible dans Q[X], mais il ne l’est pas dans R[X].
De même P = X 2 + 1 est irréductible dans R[X], mais il ne l’est pas dans
C[X].
• Si un polynôme irréductible P ne divise pas un polynôme Q, alors il est premier
avec P .
En particulier, P est premier avec les polynômes de degré strictement inférieur
à deg(P ).
• Si un polynôme P est irréductible, ses associés le sont aussi.
Si deux polynômes irréductibles ne sont pas associés, ils sont premiers entre
eux.
Deux polynômes irréductibles unitaires distincts sont premiers entre eux.
• Soit P un polynôme irréductible, et soit P1 , P2 , . . . , Pn une famille de po-
lynômes.
Alors P divise le produit P1 P2 . . . Pn si et seulement si P divise l’un au moins
des Pk .
Proposition 3.15. Tout polynôme non constant est divisible par au moins
un polynôme irréductible.
En d’autres termes, tout polynôme non constant P de K[X] est produit de
polynômes irréductibles.
Remarque 3.8. Pour des entiers, on a convenu de classer les facteurs dans l’ordre
croissant : ainsi 6 se décompose en 2 · 3 et non en 3 · 2. Une telle convention ne peut
être appliquée pour décomposer des polynômes, aucun ordre ”raisonnable” n’étant à
notre disposition sur l’ensemble des polynômes irréductibles ; ainsi dans C[X] peut-
on écrire selon la fantaisie du moment X 2 + 1 = (X − i)(X + i) ou X 2 + 1 =
(X + i)(X − i). Quand on énonce ci-dessus que la décomposition est ”unique” on
sous-entend donc qu’on considère les deux exemples qui précèdent comme la même
décomposition, ce qui peut s’énoncer rigoureusement mais lourdement.
Pour l’unicité, on suppose qu’on a une égalité entre produits de polynômes irréductibles
de la forme suivante
λ P1α1 P2α2 . . . Pkαk = Qβ1 1 . . . Qβmm
Par identification des coefficients dominants on a λ = µ · P1 est irréductible. Comme
il divise le produit Qβ1 1 . . . Qβmm , il divise l’un des Qj . Qj étant lui même irréductible
et unitaire, on a P1 = Qj . D’après le corollaire 3.5 on peut simplifier l’égalité par
P1 = Qj . On obtient une nouvelle égalité avec un facteur de moins, et on procède
de la même façon pour prouver que les facteurs sont en fait exactement les mêmes
de chaque côté de l’égalité
Corollaire 3.6. Dans C[X], les polynômes irréductibles sont exactement les
polynômes du premier degré.
Définition 3.16. On dit qu’un polynôme est scindé lorsqu’il peut s’écrire
sous forme de produit de facteurs du premier degré.
Corollaire 3.7. Dans C[X], tout polynôme non nul est scindé. Autrement
dit, il existe λ ∈ C, k ∈ N, r1 , . . . , rk deux à deux distincts et α1 , . . . , αk ∈ N⋆
tels que :
Yk
P =λ (X − rj )αj .
j=1
Par ailleurs, un polynôme P ∈ R[X] de degré ≥ 2 sans racine réelle admet au moins
une racine complexe z ∈ C. En fait, il en admet au moins deux car le conjugué z de
z est aussi racine de P . Cela provient du fait que P est à coefficients réels si bien
que l’on a :
0 = P (z) = P (z).
Du coup X − z et X − z divisent P dans C[X] ; étant de surcroı̂t premiers entre eux
(car z ̸= z), on en déduit que le produit (X − z)(X − z) divise P a priori dans C[X].
Mais cette relation de divisibilité est encore vraie dans R[X] car le polynôme :
avec λ ∈ R⋆ , r, s ∈ N, les ai pour i ∈ [[1 ; r]] sont des réels deux à deux
distincts, α1 , . . . , αr ∈ N⋆ , les Qj pour j ∈ [[1 ; s]] sont des polynômes unitaires
de degré 2 sans racine réelle et deux à deux distincts, et enfin β1 , . . . , βs ∈ N⋆ .
En outre cette écriture est unique à l’ordre des facteurs près.
P = X 4 + 6X 2 + 25
Fractions rationnelles
Le concept est très simple : les fractions rationnelles sont les expressions de la
P
forme Q où P et Q sont des polynômes. Une mise en forme totalement rigoureuse
demande un effort un peu disproportionné par rapport au caractère intuitif de l’ob-
jet à construire.
P
La première idée qui peut venir à l’esprit est de tenter de modéliser la fraction Q par
le couple (P, Q) qui contient à première vue la même information : ainsi la fraction
X
X+1
correspondra au couple (X, X + 1). Une telle idée nous met sur la bonne piste,
mais elle se heurte à un problème : le couple (X 2 , X 2 + X) représentera la fraction
X2 X
X 2 +X
= X+1 ; la même fraction correspond donc à plusieurs couples, et l’ensemble
de tous les couples (P, Q) est donc trop gros.
On pourrait penser à n’utiliser que des couples (P, Q) avec P et Q premiers entre
eux ; c’est vraisemblablement faisable, mais la preuve risque d’être extrêmement
lourde, avec des pgcd à simplifier de partout.
Non, décidément, on ne fera rien de simple si on n’a pas compris ce qu’est un
ensemble-quotient, alors que si on maı̂trise cette notion, la preuve est longue à
écrire, mais sans obstacles.
Dans la suite de ce chapitre, K est un corps commutatif.
Définition 4.1. Soit K[X] un anneau intègre, 0 son élément neutre pour
l’addition, et C l’ensemble K[X] × {K[X] \ {0}}.
Sur C on introduit deux opérations + et × définies comme suit : pour tous
(P 1, Q1) et (P 2, Q2) de C, on pose
On notera qu’on utilise très discrètement l’intégrité de K pour justifier que le pro-
duit Q1 Q2 qui intervient dans les formules n’est pas nul, donc que la somme et le
produit d’éléments de C appartiennent effectivement à C.
55
56 Algèbre II
Signalons une fois encore que les deux formules de la définition précédente se com-
prennent aisément si on a en tête qu’un couple (P, Q) a vocation à décrire la fraction
P
Q
(qui n’aura un sens propre qu’une fois la construction terminée) : elles sont les
reproductions des formules qu’on sait bien utiliser pour multiplier ou additionner
des fractions.
L’ensemble C a une bonne tête vu de loin, mais de près il est trop gros. Pour le faire
maigrir, introduisons une relation d’équivalence R sur C.
Si nous savions déjà donner un sens aux barres de fractions, nous aurions écrit la
P1 P2
condition sous la forme Q 1
= Q2
, la rendant ainsi compréhensible, mais comme ce
symbole ne nous sera disponible qu’une fois finie la construction, on a dû donner
une forme moins limpide.
et
cl(P1 , Q1 ) × cl(P2 , Q2 ) = cl((P1 , Q1 ) × (P2 , Q2 )),
Cette définition n’en sera une qu’une fois vérifiée la proposition suivante.
et
(P3 , Q3 ) + (P4 , Q4 ) = (P3 Q4 + P4 Q3 , Q3 Q4 ),
sont bien dans la même classe.
Cela revient à comparer les produits P5 et P6 définis par :
P5 = P1 Q3 Q2 Q4 + P2 Q4 Q1 Q3 = P3 Q1 Q2 Q4 + P4 Q2 Q1 Q3 = P6 .
Proposition 4.2. L’anneau K(X) est inclus dans K[X] ; plus précisément,
il existe un morphisme d’anneaux j : K[X] 7→ K[X]qui est injectif. Tout
élément de K[X] peut s’écrire comme j(P ) j(Q)−1 pour P et Q dans K[X]
et Q 6 = 0.
Démonstration. Soit j l’application définie par j(P ) = cl(P, 1). Il est très facile de
vérifier que j transforme addition en addition et multiplication en multiplication ;
son injectivité peut seule interpeller. Mais puisque cette transformation est un mor-
phisme de groupes additifs, l’injectivité se laisse montrer à coups de noyaux ; et
effectivement si un polynôme P est envoyé sur le neutre additif de K[X] qui est la
classe de (0, 1), c’est que (P, 1)R(0, 1) et donc que P = 0 : le noyau est bien réduit
au seul polynôme nul. Enfin,
P
Notation : On note P/Q ou Q
l’élément cl(P, Q) de K[X] .
, dans laquelle R et les Ai,j sont tous des polynômes de K[X] qui vérifient en
outre la condition suivante, portant sur les degrés : pour tout couple d’indices
(i, j) tel que 1 ≤ i ≤ k et 1 ≤ j ≤ αi ,
P T1 T2 Tk P S1 λ T1 P S2 λ T2 P Sk λ Tk
= P S1 + P S2 + . . . + P Sk = + +...+ ,
Q Q Q Q λ Q λ Q λ Q
Donc
P P S1 1 P S2 1 P Sk 1
= α1 + α2 . . .
Q λ Q1 λ Q2 λ Qαk k
En notant B1 , . . . , Bk les divers numérateurs qui interviennent dans la dernière for-
mule, on a donc réussi à écrire :
P B1 B2 Bk
= α1 + α2 + . . . + αk
Q Q1 Q2 Qk
Preuve de l’unicité
Alors,
P C D E F G
=A+BX + + 2
+ 3
+ +
Q X − 1 (X − 1) (X − 1) X − 2 (X − 2)2
H IX +J KX +L MX +N
+ + 2 + 2 2
+ 2
X −3 X +1 (X + 1) X +X +1
où les lettres de A jusqu’à M désignent des réels à déterminer. La théorie assure
que ces réels existent et sont uniques. Il suffirait donc de réduire tous les éléments
simples au même dénominateur, et d’identifier les numérateurs pour obtenir autant
d’équations que d’inconnues (14 dans notre cas). Ce n’est pas ainsi qu’on procède
en pratique. On utilise plusieurs techniques de manière à déterminer le plus de
coefficients possibles par des équations simples. Voici ces techniques.
113
=E
(1 − 2)2 (1 − 3) (12 + 1)2 (12 + 1 + 1)
1
Soit E = − 24 .
Il faut chercher les équations les plus simples possibles, en prenant des valeurs
particulières pour X, qui ne soient pas des racines du dénominateur (X = 0, X =
±1, etc . . .). On peut aussi penser à faire tendre X vers l’infini. On n’a recours à une
réduction au même dénominateur avec identification des coefficients qu’en dernier
ressort.
Voici un exemple plus simple, sur lequel nous allons détailler tous les calculs. Il s’agit
de décomposer en éléments simples la fraction rationnelle
P (X 6 + 1)
=
Q (X − 1) (X 2 + X + 1)2
P C DX +E F X +G
= AX + B + + +
Q (X − 1) (X + X + 1) (X 2 + X + 1)2
2
où les lettres de A jusqu’à G désignent des réels à déterminer. La division euclidienne
du numérateur par le dénominateur donne :
X 6 + 1 = (X − 1) (X − 1) (X 2 + X + 1)2 + 2 X 3 .
Donc A = 1, B = −1, et :
P 2 X3
=X −1+
Q (X − 1) (X 2 + X + 1)2
2 X3 C DX +E F X +G
2 2
= + +
(X − 1) (X + X + 1) (X − 1) (X + X + 1) (X 2 + X + 1)2
2
La
√
décomposition dans C(X) a une forme différente. Nous notons encore j = − 12 +
i 23 , de sorte que j et j sont les deux racines de X 2 + X + 1.
P C D E F G
= AX + B + + + 2
+ +
Q (X − 1) (X − j) (X − j) (X − j) (X − j)2
A priori, les lettres de A jusqu’à G désignent des nombres complexes, mais le fait que
la fraction initiale ait tous ses coefficients réels simplifie quelque peu le problème :
A = A, B = B, C = C, D = F, E = G,
√ √ √ √
P 2
9
− 19 − i 33 1
3
+ i 93 − 19 + i 3 3 1
3
− i 93
=X −1+ + + + + .
Q (X − 1) (X − j) (X − j)2 (X − j) (X − j)2
Espaces vectoriels
5.1 Introdution
Définition 5.1. (Révisions)
64
65 Algèbre II
La notion de vecteur est reprise avec la présentation des nombres complexes par
Argand et Hamilton. En 1844, Hermann Grassmann développe l’idée d’une structure
algébrique dans laquelle les symboles représentant des quantités (points, droites,
plans) sont régis par des règles ; ce faisant, il dégage une structure géométrico-
algébrique générale, proche de la conception axiomatisée actuelle des espaces vecto-
riels de dimension finie. Grassmann est considéré aujourd’hui comme le fondateur
de la théorie des espaces vectoriels. La définition de Grassmann des espaces vecto-
riels de dimensions supérieures à 3 était utile pour l’élaboration de la théorie de la
relativité, ou l’espace-temps est considéré comme un espace vectoriel de dimension
4.
La structure d’espace vectoriel est une structure rigide, généralisant le cadre
géométrique usuel.
Il s’agit d’une structure algébrique liée à la donnée d’un corps, qui va constituer
l’unité de la dimension : la droite réelle représente l’espace vectoriel typique sur R
de dimension 1, alors que le C-espace vectoriel typique de dimension 1 ressemblera
au plan complexe, donc à un objet gémetriquue, qui, en tant que R-espace vectoriel
sera en fait de dimension 2.
La rigidité de la structure se traduit par le fait qu’on peut multiplier un elément
par un scalaire (un élément du corps de base), ceci de façon injective (sauf pour 0) :
ainsi, si un élément x est dans un espace vectoriel E, tous les éléments λx, λ ∈ K
seront aussi dans E, et si x ̸= 0, l’ensemble des λx, λ ∈ K ressemble à K (il y
a une bijection entre les deux). On parle de la droite engendrée par x. Ainsi un
espace vectoriel est une structure droite, qui, dès qu’elle contient un élément non
nul, contient tout la droite (au sens du corps K ) contenant x.
La rigidité d’un espace vectoriel est même plus forte que cela : plus que la sta-
bilité par un scalaire, on a la stabilité par combinaison linéaire (et encore une fois,
l’application qui à (λ, µ) de K associe λ x + µ y est bijective, sauf si x et y sont
colinéaire). Ainsi, si E contient deux points (non colinéaires), il contient tout un
K-plan passant par ces deux points et par l’origine.
Cette structure rigide (plate pourrait -on dire) généralise la situation du plan
réel usuel (approximation de la surface localement plate de la Terre sur laquelle
nous faisons notre géométrie) ou de l’espace usuel donc de la géometrie euclidienne
classique. Elle ne permet en revanche pas de prendre en compte de façon implicite des
phénomènes de courbure intrinsèque (géométrie sphérique définie intrinsèquement
sur un objet de dimension 2, sans plongement dans un espace de dimension 3,
ou propriétés de courbures de l’espace-temps) : ces structures courbes nécessitent
l’introduction d’objets plus complexes (les variétés).
Dans tout le chapitre, on considere un corps K. Vous pouver considerer que
K = R ou C, mais sauf mention explicite du contraire, les définitions et les résultats
sont valables pour tout corps (commutatif selon notre définition des corps)
Remaque et terminologie
• Les éléments de E sont dits vecteurs, ceux de K scalaires.
• Deux éléments x et y de E sont colinéaires s’il existe λ, µ ∈ K tels que (λ, µ) ̸=
(0, 0) et λ x + µ y = 0.
• L’élément neutre 0E est unique. Pour chaque x, (−x) est unique.
Si I est fini, toute famille est à support fini. Peut-on dire quelle presque nulle ?
La terminologie n’est certainement pas trés heureuse dans cette situation, puisque
toute famille est alors presque nulle même si aucun vecteur n’est nul, mais nous
l’utiliserons tout de même.
Ainsi, toute combinaison linéaire sur une famille infinie est une combinaison linéaire
d’un nombre fini de vecteurs de cette famille.
Exemples :
1. K∅ = {0}
2. K{1} = K
3. K[[1 ;n]] = Kn
4. KN l’ensemble des suites à valeurs dans K
5. K[[0,;n]] = Kn [X] l’espace des polynômes de degré au plus n.
∀x, y ∈ F 2 , ∀λ ∈ K, λx + y ∈ F
5.2.6.1 Exemples
1. Étant donné un espace vectoriel E, le sous-espace vectoriel nul {0E } et le
sous-espace vectoriel total E.
2. Étant donné un vecteur X de R2 , la droite RX = {λX, λ ∈ R}
3. Étant donné a, b et c trois réels, le plan de R3 d’équation ax + by + cy = 0
4. R[X] espace des polynômes
5. C(R, R) ensemble des fonctions continues sur R
6. plus généralement C(I, R), ensemble des fonctions continues sur un intervalle
I
7. C n (R, R) ensemble des fonctions de classe C n sur R
8. plus généralement C n (I, R), ensemble des fonctions de classe C n sur un inter-
valle I ;
9. Les exemples d’espaces vectoriels de fonctions sont nombreux.
Vous remarquerez dans les premiers exemples les deux points de vue différents pour
définir un sous-espace vectoriel : par l’intérieur (sous-espace engendré par un vec-
teur) ou par l’extérieur (sous-espace défini par une équation sur les coordonnées).
On retrouvera souvent ces deux points de vue par la suite.
Remarque
1. Plus généralement, si F1 , . . . , Fn sont des sous-espaces vectoriels d’un espace
vectoriel E, alors F1 ∩ . . . ∩ Fn est un sous-espace vectoriel de E aussi.
2. Si F et G sont des sous-espaces vectoriels d’un espace vectoriel E, alors F ∪ G
n’est pas en général un sous-espace vectoriel de E, car non stable pour +.
Par exemple, prenons E = R2 , F la droite vectorielle engendrée par (1, 0) ,
et G celle engendrée par (0, 1) . Alors {(1, 0), (0, 1)} ⊆ F ∪ G, mais (1, 1) =
(0, 1) + (1, 0) ∈
/ F ∪ G.
De même, on montrera par la suite que les sous-espaces vectoriels de R3 sont exacte-
ment l’espace vectoriel nul, les droites vectorielles, les plans vectoriels (plans passant
par l’origine) et R3 tout entier.
5.2.7 Remarque
L’aspect géométrique d’une droite vectorielle dépend du corps de base K :
• Si le corps de base est R, une droite vectorielle a l’aspect d’une droite géométrique
usuelle.
• Si K = C, une droite a l’aspect d’un plan complexe : une droite complexe est
donc un objet de dimension géométrique égale à 2.
• Si K = Fp , alors une droite est constituée d’un nombre fini de points alignés
circulairement si on peut dire cela ainsi...
• Par exemple, si K = F2 , une droite est constituée de deux points : il y a dans
ce cas autant de droites que de vecteurs non nuls de E, les droites étant les
ensembles {0, x}, x ̸= 0.
Si X est exprimée sous forme d’une famille (xi )i∈I , on note V ect(X) = V ect(xi )i∈I .
Si X est fini et enuméré par exemple x = {x1 , . . . , xn }, on notera
V ect(X) = V ect(x1 , . . . , xn )
5.2.8.1 Exemple
1. Vect(x) = {λx, λ ∈ K} = Kx
2. Vect (x, y) = {λx + µy, (λ, µ) ∈ K2 }
• si x = y = 0, Vect(x, y) = {0}.
• si x et y sont colinéaires, non tous deux nuls (disons x ̸= 0 ), Vect (x, y) =
Vect(x)
• si x et y ne sont pas colinéaires, Vect (x, y) est un plan vectoriel.
E + F = V ect(E ∪ F ).
E + F = {x + y|x ∈ E, y ∈ F }.
E1 + . . . + En = V ect(E1 ∪ . . . ∪ En )
5.2.9.1 Exemple
1. Dans R2 : Vect((1, 2), (−1, 1)) = R2
2. Soit E l’ensemble des suites vérifiant une relation de récurrence linéaire de
polynôme caractéristique P , ayant n racines deux à deux distinctes x1 , . . . , xk
dans C. Alors, dans CN :
3. Soit f une fonction définie sur R par une équation differentielle homogène
d’ordre 2 , dont le polynome caractéristique admet deux racines réelles dis-
tinctes λ et µ. Alors
Proposition 5.12. Soit (xi )i∈I et (xj )j∈J deux familles (pas nécessairement
disjointes). Alors :
Vect (xi )i∈I∪J = Vect (xi )i∈I + Vect (xj )i∈J
L
Proposition 5.13. (Caractérisation de par les intersections)
Soit n ≥ 2. Soient F1 , . . . , Fn n sous-espaces d’un K-espace (E, +, ·)
La somme F1 + · · · + Fn est directe si et seulement si pour tout i ∈ [[2 ; n]]
i−1
X
Fi ∩ Fj = {0}
j=1
P
Démonstration. • Supposons que ∀i ∈ [[1 ; n]], Fi ∩ j̸=i Fj = {0}.
Pi−1 P
Soit i ∈ [[1 ; n]]. Fi ∩ j=1 Fj ⊂ Fi ∩ j̸=i Fj = {0} et donc
i−1
X
Fi ∩ Fj = {0}
j=1
Pi−1
(toujours à cause du fait que Fi ∩ j=1 Fj est un sous-espace en tant qu’in-
tersection de sous-espaces)
Pi−1
• Supposons que ∀i ∈ [[2 ; n]], Fi ∩ j=1 Fj = {0}.
2
Soit (xj )1⩽j⩽n , x′j 1⩽j⩽n ∈ ( i=1 Fi ) tel que nj=1 xj = nj=1 x′j .
n
Q P P
Supposons par l’absurde qu’il existe i ∈ [[1 ; n]] tel que xi ̸= x′i .
Soit alors p le plus grand des indices i tel que xi ̸= x′i . Par définition de p,
pour j > p, xj = x′j .
L’égalité nj=1 xj = nj=1 x′j s’écrit après simplification pj=1 xj = pj=1 x′j
P P P P
L
Proposition
P 5.14. (Caractérisation de par l’unicité)
La somme Ei de sous-espaces vectoriels de E est directe si et seulement
i
si l’application ci-dessous est injective :
φ : E1 × · · · × En → E
(x1 , . . . , xn ) 7→ x1 + · · · + xn
Solution
∃λ ∈ R/u = (λ, λ, λ). On en déduit que x = λ, y = λ, z = λ puis λ + λ + λ = 0
puis 3λ = 0 et donc λ = 0. Par suite u = (0, 0, 0) = 0. Ceci montre que F ∩ G ⊂ {0}
puis que F ∩ G = {0} car F et G sont des sous-espaces de R3
Vérifions que R3 = F + G. Soit u = (x, y, z) ∈ R3 .
On cherche v = (x′ , y′ , z′ ) ∈ R3 et w = (x′′ , y′′ , z′′ ) ∈ R3 tels que v ∈ F, w ∈ G et
u = v + w.w est dans G si et seulement si il existe λ ∈ R tel que x′′ = y ′′ = z ′′ = λ.
L’égalité u = v + w est alors équivalente à x = x′ + λ, y = y ′ + λ et z = z ′ + λ. Enfin,
1
v ∈ F ⇔ x′ + y′ + z ′ = 0 ⇔ (x − λ) + (y − λ) + (z − λ) = 0 ⇔ λ = (x + y + z)
3
x+y+z x+y+z x+y+z
Ainsi, si on pose λ = 31 (x + y + z) puis w
= (λ, λ, λ) = 3
, 3
, 3
puis
2x−y−z −x+2y−z −x−y+2z
v =u−w = 3
, 3
, 3
, alors v ∈ F, w ∈ G et u = v + w
En résumé, ∀u ∈ E, ∃(v, w) ∈ F × G/u = v + w. Ceci montre que R3 = F + G et
finalement que R3 = F ⊕ G
u∈F ⇔λ+λ+λ=0⇔λ=0⇔u=0
Donc, F ∩ G = {0}
Vérifions que R3 = F+ G. Soient u = (x, y, z) ∈ R3 et λ ∈ R
u − (λ, λ, λ) ∈ F ⇐ (x − λ, y − λ, z − λ) ∈ F
1
⇐ (x − λ) + (y − λ) + (z − λ) = 0 ⇐ λ = (x + y + z)
3
A. Azouani AP1-ENSA Khouribga
76 Algèbre II
R3 = F ⊕ G
Soient u = (x, y, z) ∈ R3 et λ ∈ R
u − (λ, λ, λ) ∈ F ⇔ (x − λ, y − λ, z − λ) ∈ F
1
⇔ (x − λ) + (y − λ) + (z − λ) = 0 ⇔ λ = (x + y + z)
3
Ainsi, pour tout u ∈ R3 , ∃ : λ ∈ R/u − (λ, λ, λ) ∈ F. Ainsi, tout vecteur de
R3 est somme d’un vecteur de F et d’un vecteur de G, de manière unique. Donc,
R3 = F ⊕ G
5.3.1.1 Solution :
1) Soit (a, b, c) ∈ R3
a + 3c = 0 a = −3c
au + bv + cw = 0 ⇒ b + 5c = 0 ⇒ b = −5c
a + b + 5c = 0 −3c − 5c + 5c = 0
c=0
⇒ a=0
b=0
a + 14b + 4c = 0 a = −2b
au + bv + cw = 0 ⇔ −a − 2b = 0 ⇔ −2b + 14b + 4c = 0
a + 5b + c = 0 −2b + 5b + c = 0
a = −2b
⇔
c = −3b
Soient b = 1, a = −2 et c = −3.
Pour ce choix de a, b et c, on a au + bv + cw = 0 et (a, b, c) ̸= (0, 0, 0)
Donc, la famille (u, v, w) est liée.
On note que l’on obtient explicitement v = 2u + 3w qui est une relation de
dépendance linéaire entre les vecteurs u, v et w.
Si un tel ajout est impossible, on dira que la famille libre est maximale :
Définition 5.14. (Famille libre maximale)
Une famille libre est maximale si et seulement s’il est impossible de lui ra-
jouter un vecteur (quelconque) de E en préservant sa liberté.
Lorsque cette situation n’est pas vérifiée pour aucun élément de la famille, on parle
de famille génératrice minimale :
5.5 Bases
Définition 5.17. (base d’un espace vectoriel)
Soit (xi )i∈I une famille de vecteurs d’un ev E. On dit que (xi )i∈I est une base
de E si elle est une famille à la fois libre et génératrice de E.
Ainsi, (bi )i∈I est une base de E si et seulement si tout élément x de E s’écrit de façon
unique comme combinaison linéaire des éléments bi : l’existence traduit le caractère
générateur, l’unicité traduit la liberté.
5.5.0.1 Exemple
• Les coordonnées cartésiennes dans R2 correspondent aux coordonnées dans la
base canonique ((1, 0), (0, 1)).
• Un autre choix de base fournit d’autres coordonnées, par exemple (2, 3) dans
la base ((1, 0), (1, 1))
Le premier théorème important est l’existence d’une base de cardinal fini d’un espace
vectoriel de dimension finie. On montre un résultat plus fort, disant que toute famille
libre peut être vue comme le début d’une base.
En particulier, si (xi )1⩽i⩽n est génératrice de E, et (xi )i∈I est libre, pour I ⊂ [[1 ; n],
il existe J tel que I ⊂ J ⊂ [[1 ; n], tel que (xj )j∈J soit une base de E.
5.6.2 Exemple
1. Dimension de Kn
2. Dimension de Kn [X]
3. Dimension de l’ensemble des suites vérifiant une récurrence linéaire homogène
d’ordre k
4. Dimension de l’ensemble des solutions d’une équation différentielle linéaire
homogène d’ordre 1, d’ordre 2 à coefficients constants.
5. Dimension de C en tant que...
6. Dimension de Mn,m (M), de Mn (R).
Nous terminons cette section par :
5.6.3.1 Exemple
Montrer que toute matrice M ∈ Mn (R) admet un polynôme annulateur, c’est-
à-dire un polynôme P tel que P (M ) = 0. Quelle est la structure de l’ensemble
des polynômes annulateurs de M ? Justifier l’existence d’un polynôme annulateur
minimal pour la relation de divisibilité.
Comme évoqué plus haut, ces deux derniers résultats affirment que moins il y a
de redondances dans l’écriture d’une somme, plus la dimension de la somme est
importante ; elle est maximale lorsqu’il n’y a aucune redondance, ce qui s’exprime
par le fait que la somme est directe.
5.7.0.1 Remarque
• Comparez cette formule à |A ∩ B| = |A| + |B| − |A ∪ B|
• Peut-on généraliser, en trouvant pour les dimensions une formule analogue à
la formule du crible de Poincaré :
n
[ n
X X \
Ai = (−1)j+1 Ai ?
i=1 j=1 J⊂[[1 ;n]] i∈J