Vous êtes sur la page 1sur 26

Cours d’Algèbre 1

Table des matières

1 Logique et Théorie des ensembles 3


1.1 Logique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.1.1 Logique des propositions . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.1.2 Formule de langage des propositions . . . . . . . . . . . . . . . . . . . . . 4
1.1.3 Propositions logiquement vraies, fausses, équivalentes . . . . . . . . . . . 4
1.2 Les quantificateurs ∀ et ∃ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.1 Définition des quantificateurs . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3 Quelques types de raisonnement . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3.1 Le raisonnement déductif . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3.2 Le raisonnement par l’absurde . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3.3 Le raisonnement par contraposition . . . . . . . . . . . . . . . . . . . . . 5
1.3.4 Le raisonnement par récurrence . . . . . . . . . . . . . . . . . . . . . . . . 5

2 Structures algébriques : groupes, anneaux et corps 6


2.1 Groupes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.1.1 Loi de composition interne . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.1.2 Groupes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.1.3 Sous groupes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.2 Anneaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.2.1 Structure d’anneaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.2.2 Sous-anneaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.3 Corps . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

3 Nombres complexes 8
3.1 Construction des nombres complexes . . . . . . . . . . . . . . . . . . . . . . . . . 8
3.1.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
3.1.2 Représentation des nombres complexes . . . . . . . . . . . . . . . . . . . . 8
3.1.3 Opérations avec les nombres complexes . . . . . . . . . . . . . . . . . . . 8
3.1.4 Conjugué . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
3.2 Équation du second degré . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
3.3 Forme trigonométrique et exponentielle . . . . . . . . . . . . . . . . . . . . . . . 9
3.3.1 Forme trigonométrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
3.3.2 Forme exponentielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

4 Polynômes et fraction rationnelles 10


4.1 Polynômes sur R ou C . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
4.1.1 Vocabulaire sur les polynômes . . . . . . . . . . . . . . . . . . . . . . . . . 10
4.1.2 Division des polynômes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
4.1.3 Racines, factorisation des polynômes . . . . . . . . . . . . . . . . . . . . . 11
4.2 Fraction rationnelles sur R ou C . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

1
4.2.1 Décomposition en éléments simples . . . . . . . . . . . . . . . . . . . . . . 12
4.2.2 Pratique de la décomposition éléments simples dans C(X) . . . . . . . . . 13
4.2.3 Pratique de la décomposition éléments simples dans R(X) . . . . . . . . . 13

5 Espace vectoriel 14
5.1 Introduction au groupe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
5.2 Espace vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
5.3 Sous-espace vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
5.3.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
5.3.2 Sous-espace vectoriel engendré par une partie d’un espace vectoriel . . . . 15
5.4 Systèmes de vecteurs et dimension . . . . . . . . . . . . . . . . . . . . . . . . . . 16
5.5 Sous espace et sommes directes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
5.6 Application linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
5.6.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
5.6.2 Noyau et image d’une application linéaire . . . . . . . . . . . . . . . . . . 18

6 Matrices 19
6.1 Opérations sur les matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
6.1.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
6.1.2 (Mn,p (K), +, .) est un K-espace vectoriel . . . . . . . . . . . . . . . . . . . 20
6.1.3 Propriétés du produit matriciel . . . . . . . . . . . . . . . . . . . . . . . . 21
6.2 Représentations matricielles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
6.2.1 Matrice colonne des composantes d’un vecteur . . . . . . . . . . . . . . . 23
6.2.2 Matrice des composantes d’une famille de vecteurs . . . . . . . . . . . . . 23
6.2.3 Matrice d’une application linéaire . . . . . . . . . . . . . . . . . . . . . . . 23
6.3 Formule de changement de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
6.4 Déterminant d’une matrice carrée . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
6.4.1 Déterminant d’ordre 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
6.4.2 Déterminant d’ordre 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
6.4.3 Déterminant d’ordre n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
6.4.4 Application . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

©Ali TRAORE 2 Fondation 2ie /2018-2019


Chapitre 1

Logique et Théorie des ensembles

1.1 Logique
1.1.1 Logique des propositions
Définition 1.1.1. Une proposition est un énoncé déclaratif dont on peut dire s’il est vrai (valeur
1) ou s’il est faux (valeur 0), indépendamment de tout context de lieu, de temps, ou de personne
qui le prononce. De plus, un énoncé qui est à la fois vrai et faux n’est pas une proposition.

Définition 1.1.2. La négation d’une proposition est une proposition qui est vraie si celle-ci est
fausse et vice-versa. On note ¬.

p ¬p
La table de vérité de la négation est la suivante 0 1
1 0

Définition 1.1.3. La conjonction de deux propositions est une proposition qui est vraie si les
deux propositions sont simultanément vraies. Elle est fausse dès que l’une au moins des deux
propositions est fausse. On la note ∧.

p q p∧q
0 0 0
La table de vérité de la conjonction est la suivante : 0 1 0
1 0 0
1 1 1

Exemple 1.1.4. Céline est un grand écrivain mais c’est un personnage contreversé.

Définition 1.1.5. La disjonction de deux propositions est une proposition qui est vraie dès
que l’une au moins des deux propositions est vraie. Elle est fausse si les deux propositions sont
simultanément fausses. On la note V .

La table de vérité de la disjonction est la suivante :


p q pV q
0 0 0
0 1 1
1 0 1
1 1 1

Exemple 1.1.6. Ce médicament peut provoquer des troubles de l’équilibre ou de la vue.

3
∀ ET ∃
1.2. LES QUANTIFICATEURSCHAPITRE 1. LOGIQUE ET THÉORIE DES ENSEMBLES

Définition 1.1.7. Si p et q sont deux propositions, alors l’implication “si p alors q” est une
proposition qui est vraie si p est faux, ou bien si p et q sont simultanément vrais. Cette implication
est fausse uniquement si l ?antécédant p est vrai et le conséquent q faux. On note →
La table de vérité de l’implication est la suivante est la suivante :
p q p→q
0 0 1
0 1 1
1 0 0
1 1 1
Exemple 1.1.8. Si Jupin a de bons avocats alors il n’ira pas en prison.
Définition 1.1.9. Si p et q sont deux propositions, alors l’équivalence “ p si et seulement q”
est une proposition qui signifie ( p si q) et (p seulement si q). La table devérité de l’équivalence
‘p si et seulement si q est la valeur de vérité de (q → p) ∧ (p → q). On la note ⇐⇒ .
La table de vérité de l’équivalence est la suivante est la suivante :
p q p ⇐⇒ q
0 0 1
0 1 0
1 0 0
1 1 1

1.1.2 Formule de langage des propositions


Définition 1.1.10. 1) Une lettre de proposition est une formule dite atomique.
2) Si A est une formule, alors ¬A l’est aussi.
3) Si A et B sont des formules alors (A ∧ B), (AV B), (A → B) et A ⇐⇒ B sont aussi des
formules.

1.1.3 Propositions logiquement vraies, fausses, équivalentes


Définition 1.1.11. Une formule A est dite valide si sa table de vérité ne contient que des 1.
Définition 1.1.12. On appelera formule complète d’une proposition P une formule représentant
la proposition donnée telle que les lettres utilisées dans cette représentation désignent des pro-
positions (constituant P ) ne contenant aucun connecteur logique.
Définition 1.1.13. Une proposition est logiquement vraie ou tautologique si sa formule complète
est valide. Une proposition est logiquement fausse ou contradictoire si sa négation est logiquement
vraie.
Exemple 1.1.14. La proposition Paul est malade ou n’est pas malade est logiquement vraie car
sa formule pV ¬p est valide.
Définition 1.1.15. On dit que deux propositions sont logiquement équivalentes si leurs for-
mules complètes sont équivalentes, i.e ont la même table de vérité. On dit qu ?une proposition
P implique logiquement une proposition Q si la proposition ‘ si P alors Q’ est tautologique.

1.2 Les quantificateurs ∀ et ∃


1.2.1 Définition des quantificateurs
Définition 1.2.1. -La proposition : “ Pour tous les éléments x de E, la proposition P (x) est
vraie” s’écrit en abrégé :“∀x ∈ E, P (x)

©Ali TRAORE 4 Fondation 2ie /2018-2019


1.3. QUELQUES TYPES DE RAISONNEMENT
CHAPITRE 1. LOGIQUE ET THÉORIE DES ENSEMBLES

-La proposition : “ il existe au moins un élément x de E, tel que la proposition P (x) est vraie”
s’écrit en abrégé :“ ∃x ∈ E/P (x), ou aussi “∃x ∈ E/P (x)”
-La proposition : “ il existe un et un seul élément x de E, tel que la proposition P (x) est vraie
” s’écrit en abrégé :“ ∃!x ∈ E/P (x).

Définition 1.2.2. ∀ s’appelle le quantificateur universel et ∃ s’appelle le quantificateur existen-


tiel.

Théorème 1.2.3. Soient E un ensemble et P (x) une proposition dont les valeurs de vérité sont
fonction des éléments x de E.
1) ¬(∀x ∈ E, P (x)) ⇐⇒ (∃x ∈ E, ¬P (x))
2) ¬(∃x ∈ E, P (x)) ⇐⇒ (∀x ∈ E, ¬P (x))

1.3 Quelques types de raisonnement


1.3.1 Le raisonnement déductif
Le schéma du raisonnement déductif est le suivant
Quand P est une proposition vraie, et P → Q est une proposition vraie, on peut affirmer que Q
est une proposition vraie.

1.3.2 Le raisonnement par l’absurde


On veut montrer qu ?une proposition P est vraie. On suppose que c ?est sa négation ¬P qui
est vraie et on montre que cela entraı̂ne une proposition fausse. On en conclut que P est vraie.
Le schéma du raisonnement par l’absurde est le suivant :
Quand ¬P → Q est une proposition vraie, et Q est une proposition fausse, on peut affirmer que
P est une proposition vraie.

1.3.3 Le raisonnement par contraposition


Le schéma est le suivant :
Pour montrer que P → Q est une proposition vraie, il (faut et) il suffit de montrer que ¬Q → ¬P
est une proposition vraie.

1.3.4 Le raisonnement par récurrence


Pour démontrer que la proposition ∀n ∈ N, P (n), est vraie on peut effectuer les deux étapes
suivantes :
1) On prouve P (0).
2) On prouve que si P (n) est vraie pour un certain n ∈ N, alors P (n + 1) est vraie

©Ali TRAORE 5 Fondation 2ie /2018-2019


Chapitre 2

Structures algébriques : groupes,


anneaux et corps

2.1 Groupes
2.1.1 Loi de composition interne
Définition 2.1.1. Soit E un ensemble. Une loi de composition interne (LCI) sur E est une
application T de E × E dans E, notée généralement xT y.
Exemple 2.1.2. La somme sur N, Z, Q, R.
Définition 2.1.3. - Une LCI T sur E est dite associative lorsque :

∀x, y, z ∈ E, (xT y)T z = xT (yT z).

- Une LCI T sur E est dite commutative lorsque :

∀x, y ∈ E, xT y = yT x.

- Si T est une LCI associative sur E, e ∈ E est un neutre pour T lorsque :

∀x ∈ E, xT e = eT x = x.

Proposition 2.1.4. Si T est une LCI associative sur E qui admet un neutre, alors ce neutre
est unique. On peut alors parler du neutre de T .
Définition 2.1.5. Si T est une LCI associative sur E qui admet un neutre e et x ∈ E, on dit
que x admet un symétrique pour T s’il existe y ∈ E tel que xT y = yT x = e.
Proposition 2.1.6. Dans la définition précédente, si y existe, il est unique. On peut alors parler
du symétrique de x pour T . On le note généralement x−1 .

2.1.2 Groupes
Définition 2.1.7. Un groupe est un ensemble non vide muni d’une loi de composition interne
(G, ?) tels que :
- ? est associative
- ? admet un élément neutre eG
- tout élément de G est symétrisable (admet un symétrique) pour ?. Si ? est commutative, on
dit que (G, ?) est commutatif ou abélien.
Exemple 2.1.8. (Z, +), (Q, +), (R, +) sont des groupes abéliens

6
2.2. ANNEAUX
CHAPITRE 2. STRUCTURES ALGÉBRIQUES : GROUPES, ANNEAUX ET CORPS

2.1.3 Sous groupes


Définition 2.1.9. Un sous groupe d’un groupe (G, ?) est une partie non vide H de G telle que :
- ? induit sur H une loi de composition interne.
- Muni de cette loi, H est un groupe.
On note alors : H < G

En pratique, pour montrer qu’une partie non vide H de G en constitue un sous-groupe, il


suffit de vérifier :
-eG ∈ H
- H est stable par ?
- pour tout x ∈ H, le symétrique de x est dans H.

2.2 Anneaux
2.2.1 Structure d’anneaux
Définition 2.2.1. Un anneau est un ensemble muni de deux LCI (A, +, .) tels que :
- (A, +) est un groupe commutatif de neutre noté 0A .
- La loi . est une LCI sur A associative et distributive à gauche et à droite par rapport à + :

∀x, y, z ∈ A, x.(y + z) = x.y + x.z, (x + y).z = x.z + y.z


- La loi . admet un neutre noté 1A .
Si la loi . est commutative, l’anneau est dit commutatif ou abélien.

Exemple 2.2.2. (Z, +, .), (Q, +, .), (R, +, .) sont des anneaux.

2.2.2 Sous-anneaux
Soit (A, +, .) un anneau. Une partie non vide A1 de A est un sous-anneau de A lorsque :
- 1A ∈ A1
- les lois + et . induisent des LCI sur A1 , et , muni de ces lois, (A1 , +, .) es un anneaux.

Proposition 2.2.3. Une partie A1 de A est un sous-anneau si et seulement si


- (A1 , +) est un sous-groupe de (A, +)
-1A ∈ A1
- . induit une LCI sur A1 .

Exemple 2.2.4. Z est un sous-anneau de Q.

2.3 Corps
Définition 2.3.1. - Un corps est un anneau commutatif dans lequel tout élément non nul est
inversible.
- Si (K, +, .) est un corps, un sous-corps de K est un sous-anneau de K1 de K tel que pour tout
élément non nul x de K1 , on a x−1 ∈ K1 .

©Ali TRAORE 7 Fondation 2ie /2018-2019


Chapitre 3

Nombres complexes

3.1 Construction des nombres complexes


3.1.1 Définition
Définition 3.1.1. On appelle l’ensemble des nombres complexes, noté C, l’ensemble des nombres
z de la forme z = a + ib avec (a, b) ∈ R2 et i2 = −1.
le nombre réel a s ?appelle la partie réelle de z notée : Re(z)
Le nombre réel b s ?appelle la partie imaginaire de z noté : Im(z).
Cette forme z = a + ib est appelée forme algébrique.

Remarque 3.1.2. 1) Tout nombre réel appartient à C (faire b = 0).


2) Si a = 0 on dit que z est un imaginaire pur.

3.1.2 Représentation des nombres complexes


Théorème 3.1.3. A tout nombre complexe z = a + ib, on peut faire correspondre un point
M (a; b) dans un plan orthonormal (0, ~u, ~v ). On dit que z est l ?affixe de M . On écrit alors M (z)

3.1.3 Opérations avec les nombres complexes


Dans l’ensemble des nombres complexes on définit deux opérations
- L’addition (+) :
0 0 0 0 0 0
si z = a + ib et z = a + ib alors z + z = (a + a ) + i(b + b ).
- La multiplication (×)
0 0 0 0 0 0 0 0
i z = a + ib et z = a + ib alors z × z = (aa − bb ) + i(ab + a b)

3.1.4 Conjugué
Définition 3.1.4. Soit z un nombre complexe dont la forme algébrique est : z = a + ib. On
appelle le nombre conjugué de z, le nombre noté z tel que : z = a − ib

Proposition 3.1.5. Soit z un nombre complexe et z son conjugué. On a


z + z = 2Re(z)
z − z = 2iIm(z)

3.2 Équation du second degré


Les nombres complexes ont été créés pour que l ?équation du second degré ait toujours des
solutions

8
3.3. FORME TRIGONOMÉTRIQUE ET EXPONENTIELLE
CHAPITRE 3. NOMBRES COMPLEXES

Théorème 3.2.1. Toute équation du second degré dans C admet toujours 2 solutions distinctes
ou confondues. Si cette équation est à coefficients réels, c ?est à dire
az 2 + bz + c = 0 avec a ∈ R∗ , b, c ∈ R.

Elle admet comme solutions dans C. √ √


−b + ∆ −b − ∆
1) Si ∆ > 0, deux solutions réelles : z1 = et z2 =
2a 2a
−b
2) Si ∆ = 0, une solution réelle double : z0 =
2a
3) Si ∆ < 0,pdeux solutions complexes
p conjuguées avec ∆ = i2 |∆|
−b + i |∆| −b − i |∆|
z1 = et z2 =
2a 2a

3.3 Forme trigonométrique et exponentielle


3.3.1 Forme trigonométrique
Définition 3.3.1. On appelle forme trigonométrique d ?un nombre complexe z (z 6= 0) dont
l ?écriture algébrique est a + ib l ?écriture suivante :
z = r(cos θ + i sin θ) avec r = |z| et θ = arg(z)[2π]

3.3.2 Forme exponentielle


Définition 3.3.2. On appelle forme exponentielle d ?un nombre complexe z (z 6= 0) dont
l ?écriture algébrique est a + ib l ?écriture suivante :
z = reiθ avec r = |z| et θ = arg(z)[2π]

©Ali TRAORE 9 Fondation 2ie /2018-2019


Chapitre 4

Polynômes et fraction rationnelles

4.1 Polynômes sur R ou C


4.1.1 Vocabulaire sur les polynômes
Définition 4.1.1. Un polynôme à coefficients dans K(R ou C ) est un élément de la forme
X
P (X) = a0 + a1 X + · · · + an X n = ai X i ,

où n ∈ N et les coefficients a0 , a1 , · · ·.an sont des éléments de K. Le symbole X est appélé
l ?indéterminée (On note X 0 = 1). On note K[X] l’ensemble des polynômes à coefficients dans
K.

Exemple 4.1.2. P1 (X) = X 3 + 4X − 8, P2 (X) = 5.

Proposition 4.1.3. Sur K[X] on définit les lois suivantes :


Si P (X) = a0 + a1 X + · · · + an X n et Q(X) = b0 + b1 X + · · · + bm X m , alors :
max(n,m)
X
- (P + Q)(X) = (ak + bk )X k
k=0
n
X
-λP (X) = λak X k
k=0
n+m
X k
X
-(P Q)(X) = ck X k tel que ck = ai bk−i , ak = 0, ∀k ≥ n + 1, bk = 0, ∀k ≥ m + 1.
k=0 i=0

Définition 4.1.4. Soit P un polynôme non nul, on appelle degré de P , le plus grand indice de ses
coefficients non nuls,et on le note degP . Ainsi degP = n équivaut à P (X) = a0 +a1 X+· · ·+an X n
avec an 6= 0. an s’appelle coefficient dominant de P . Par convention deg0 = −∞.

Théorème 4.1.5. deg(P + Q) ≤ max(degP, degQ), avec égalité dans le cas où degP 6= degQ.

Théorème 4.1.6. deg(P Q) = degP + degQ. En particulier si λ est une constante non nulle
alors : deg(λP ) = degP .

Exemple 4.1.7. degP1 = 3, degP2 = 0, degP1 .P 1 = 9.

Proposition 4.1.8. K[X] est intègre :

∀(P, Q) ∈ K[X] × K[X], P Q = 0 → P = 0 ou Q = 0.

10
4.1. POLYNÔMES SUR R CHAPITRE
OU C 4. POLYNÔMES ET FRACTION RATIONNELLES

4.1.2 Division des polynômes


Théorème 4.1.9. (Division Euclidienne)
Soient A et B deux polynômes, B 6= 0. Il existe un unique couple (Q, R) de polynômes tel que :
A = BQ + R avec deg(R) < deg(B). Les polynômes Q et R s’appellent respectivement quotient
et reste dans la division euclidienne de A par B.

Définition 4.1.10. Lorsque R = 0, on dit que B divise A : B|A.

Exemple 4.1.11. La division euclidienne de X 3 + 3X 2 + 2X + 1 par X 2 + 1 s’écrit :


X 3 + 3X 2 + 2X + 1 = (X 2 + 1)(X + 3) + X − 2.
X + 3 est le quotient et X − 2 est le reste.

Définition 4.1.12. (Algorithme d’ Euclide, PGCD)


Soient A et B deux polynômes non nuls, on effectue les divisions euclidiennes successives des
quotients par leurs restes, jusqu’à arriver à un reste nul, alors le dernier reste non nul est un
diviseur commun de A et B de de degré minimal, ce reste une fois normalisé s ?appelle le P GCD
de A et B et se note P GCD(A, B).

Exemple 4.1.13. P GCD(X 3 + 3X 2 + 3X + 1, X 3 + 2X 2 + 2X + 1) = X + 1.

Définition 4.1.14. Deux polynômes sont dits premiers entre eux si leur PGCD vaut 1.

Théorème 4.1.15. (Bézout)


Soient A et B deux polynômes non nuls et C = P GCD(A, B). Alors il existe deux polynômes
U et V tel que C = AU + BV

Corollaire 4.1.16. Deux polynômes A et B sont premiers entre eux, si et seulement si, il existe
deux polynômes U et V tel que AU + BV = 1.

Théorème 4.1.17. (Division suivant les puissances croissantes à l’ordre k)


Soient A et B deux polynômes avec b0 ( le terme de degré 0 de B) non nul et k ∈ N. Alors il
existe deux polynômes R et Q uniques tels que A = QB + X k+1 R et degQ ≤ k.

Exemple 4.1.18. 2X + 3X 2 − X 3 = (1 + 2X − X 3 )(2X − X 2 + 3X 2 + X 4 ) + X 5 (−4 − X).

4.1.3 Racines, factorisation des polynômes


Définition 4.1.19. Un scalaire a de K est dit racine de P si P (a) = 0. a est racine de P ssi
X − a divise P .

Définition 4.1.20. Soit k ∈ N∗ , on dit que a est racine d’ordre k, (ou de multiplicité k) de P
si (X − a)k divise P et si (X − a)k+ ne divise pas P .

Exemple 4.1.21. Si P (X) = X 4 + 2X 2 + 1, alors P (X) = (X 2 + 1)2 = (X − i)2 (X + i)2 , donc


i et −i sont racines de multiplicité 2 de P .

Définition 4.1.22. Un polynôme non constant P est dit irréductible sur K si ses seuls diviseurs
sont les constantes non nulles et les polynômes de K[X] de la forme λP (λ ∈ K). Concrètement,
cela signifie que P n’est “ pas factorisable ”

Théorème 4.1.23. Si a1 , a2 , · · · ar sont des racines distinctes du polynôme P de multiplicités


respectives k1 , k2 , · · · , kr , alors P peut s’écrire sous la forme P = (X − a1 )k1 · · · (X − ar )kr Q où
Q est un polynôme.

Corollaire 4.1.24. Un polynôme de degré n a au plus n racines.

©Ali TRAORE 11 Fondation 2ie /2018-2019


4.2. FRACTION RATIONNELLES
CHAPITRE
SUR4.RPOLYN
OU C ÔMES ET FRACTION RATIONNELLES

Théorème 4.1.25. Soit A un polynôme de K[X], et a un élément de K. Alors les propriétés


suivantes sont équivalentes.
-(X − a)k divise A.
0
-A(a) = A (a) = · · · = A(k−1) (a) = 0.
0
En conséquence, a est racine d’ordre k de A i et seulement si A(a) = A (a) = · · · = Ak−1 (a) =
0. et A(k−1) 6= 0.

Théorème 4.1.26. (de D’Alembert) Tout polynôme non constant de C[X] admet au moins une
racine.

Proposition 4.1.27. Soient P ∈ R[X] et α ∈ C. Alors P (α) = P (ᾱ). En particulier, α est


racine de P ssi ᾱ l’est aussi.

Théorème 4.1.28. Les polynômes irréductibles de R[X] sont soit de la forme : λ(X −α), (λ, α ∈
R), soit de la forme λ(X 2 − sX + p) avec s2 − 4p < 0, (s, p ∈ R). Tout polynôme de R[X] peut
se décomposer en produit de tels facteurs irréductibles

Exemple 4.1.29. Décomposer P = X 3 − 1 en facteurs irréductibles dans R[X] et C[X].

4.2 Fraction rationnelles sur R ou C


Définition 4.2.1. On appelle fraction rationnelle à une indéterminée tout couple (P, Q) de
P P R
K[X] × K[X]∗ . On note . Si P S = QP , on identifie les deux fractions rationnelles et .
Q Q S
On dit aussi que ce sont deux représentants de la même fraction. Toute fraction rationnelle admet
au moins un représentant irréductible (P0 , Q0 ), c’est à dire tel que P0 et Q0 soient premiers entre
eux. L’ensemble des fractions rationnelles est noté K(X).

Définition 4.2.2. (Pôle)


P
Soit R = une fraction écrite sous forme irréductible. On appelle pôle de R toute racine de
Q
Q. a est un pôle d’ordre n de R si a est une racine de multiplicité n de Q ; si n = 1, on dit que
a est un pôle simple de R.
X −3
Exemple 4.2.3. Soit R(X) = .
X2 − 4
2
On a (X − 4) = (X + 2)(X − 2).
Les pôles de R sont donc 2 et −2.
X 2 − 3X + 2
Exemple 4.2.4. Soit R(X) = . R n’est pas sous forme irréductible, car on a
X4 − 1
(X − 1)(X − 2) X −2
R(X) = 2
= .
(X − 1)(X + 1)(X + 1) (X + 1)(X − i)(X + i)
Les pôles de R sont −1, i et −i (ils sont tous simples).

4.2.1 Décomposition en éléments simples


P
Proposition 4.2.5. Soit R = une fraction écrite sous forme irréductible. Il existe un unique
Q
P1
polynôme E et un unique polynôme P 1 tels que R = E + et deg(P 1) < deg(Q). E est appelé
Q
la partie entière de la fraction R.

©Ali TRAORE 12 Fondation 2ie /2018-2019


4.2. FRACTION RATIONNELLES
CHAPITRE
SUR4.RPOLYN
OU C ÔMES ET FRACTION RATIONNELLES

Exemple 4.2.6. La division euclidienne de P (X) = 2X 4 +3X 3 −X +1 par Q(X) = X 2 −3X +1


s’écrit
2X 4 + 3X 3 − X + 1 = (X 2 − 3X + 1)(2X 2 + 9X + 25) + 65X − 24.
Ce qui conduit à
2X 4 + 3X 3 − X + 1 65X − 24
= 2X 2 + 9X + 25 + 2 .
X 2 − 3X + 1 X − 3X + 1
P
Théorème 4.2.7. Pour toute fraction rationnelle de K(X) dont le dénominateur admet
Q
la décomposition en facteurs irréductibles sur K : Q = Aα B β .....Lλ , où A, B, ..., L sont des
polynômes irréductible de K[X], et α, β, ...., λ des entiers strictement positifs. Il existe un unique
système de polynômes :
E, Ai (1 ≤ i ≤ α), Bj (1 ≤ j ≤ β), ...., Lk (1 ≤ k ≤ λ)
de K[X] (i, j, ..., k entiers) vérifiant les conditions :
P A1 A2 Aα B 1 B2 Bβ L1 L2 Lλ
1) =E+ + 2 + ... + α + + 2 + .... + β + + 2 + ... + λ .
Q A A A B B B L L L
2) ∀ i, deg(Ai ) < deg(A) ; ∀ j, deg(Bj ) < deg(B) ; ∀ k, deg(Lk ) < deg(L).
P
3) E est la partie entière de
Q
P
L’écriture 1) s’appelle la décomposition en éléments simples de la fraction rationnelle .
Q
A1 Lλ
Les , ..., λ sont les éléments simples.
A L
Si le dénominateur st une puissance d’un polynôme de degré 1, on parle d’élément de première
espèce, si c’est une puissance d’un polynôme de degré 2, on parle d’élément de deuxième espèce.

4.2.2 Pratique de la décomposition éléments simples dans C(X)


P
Soit une fraction rationnelle à coefficients dans C. Dans C[X] tous les polynômes sont
Q
scindés et si Q s’écrit sous la forme Q = k(X −a)α (X −b)β ....(X −l)λ , on obtient la décomposition
suivante :
P a1 a2 aα b1 lλ
=E+ + )2 + .... + + + ... + .
Q X − a (X − a (X − a)α X − b (X − l)λ
La décomposition s’effectue donc de la manière suivante :
1) Déterminer la partie entière de la fraction.
2) Décomposer si nécessaire le dénominateur en facteurs irréductible, écrire la forme de la
décomposition, puis déterminer les coefficients.
X 2 − 3X + 2
Exemple 4.2.8. Décomposer R(X) = en éléments simples dans C(X)
X4 − 1

4.2.3 Pratique de la décomposition éléments simples dans R(X)


Toutes les méthodes vues précédemment s’appliquent encore dans le cas d’une décomposition
sur R(X). Mais il apparait cette fois ci dans la décomposition théorique des éléments simples
rX + s
de deuxième espèce du type (avec p2 − 4q < 0). Il y a donc ici une autre étape,
(X + pX + q)α
2
consistant à déterminer les coefficients r et s ci-dessus.
X3 + 1
Exemple 4.2.9. Décomposer R(X) = en éléments simples dans R(X)
X(X − 1)(X 2 + 1)2

©Ali TRAORE 13 Fondation 2ie /2018-2019


Chapitre 5

Espace vectoriel

5.1 Introduction au groupe


Définition 5.1.1. Une loi de composition interne sur un ensemble E est une application de
E × E dans E.

Exemple 5.1.2. L’addition ou la multiplication sont des lois de composition internes sur
N, Z, Q, R, C.

Définition 5.1.3. Un groupe est la donnée d’un ensemble G et d’une loi de composition interne
notée ? suivante :

G×G→G
(x, y) 7→ x ? y

telle que (G, ?) vérifie les trois propriétés suivantes :


1) Il existe e ∈ G tel que ∀x ∈ G, e ? x = x ? e = x (élément neutre).
2) Pour tout x, y, z ∈ G, (x ? y) ? z = x ? (y ? z) (Associativité)
0 0 0
3) Pour tout x ∈ G, il existe x ∈ G tel que x ? x = x ? x = e. (élément inverse ou symétrique)
Si de plus, ∀x, y ∈ G, on a x ? y = y ? x, on dit que ? est commutative et (G, ?) est un groupe
commutatif ou abélien.

Exemple 5.1.4. (Z, +), (Q, +), (R, +), (C, +), sont des groupes abéliens : 0 est l’élément neutre,
l’inverse de x est −x.

Proposition 5.1.5. 1) L’élément neutre est unique


0
2) L’inverse x d’un élément x ∈ G est unique.
0 0
3) L’inverse de l’inverse de x ∈ G est x, c’est à dire (x ) = x.
0 0 0
4) Pout tout x, y ∈ G, (x ? y) = y ? x .
5) Pour tout x, y, z ∈ G, si x ? y = x ? z alors y = z.

5.2 Espace vectoriel


L’ensemble K désigne toujours R ou C

Définition 5.2.1. On appelle K-espace vectoriel (ou espace vectoriel sur K ) tout ensemble
non vide E muni d’une loi de composition interne notée + et d’une deuxième loi · définit par
∀(λ, x) ∈ (K × E), λ · x = λx telles que

14
5.3. SOUS-ESPACE VECTORIEL CHAPITRE 5. ESPACE VECTORIEL

1) (E, +) est un groupe abélien


2) ∀λ, µ ∈ K, ∀x ∈ E, on a (λ + µ)x = λx + µx.
3) ∀λ ∈ K, ∀x, y ∈ E, on a λ(x + y) = λx + λy
4) ∀λ, µ ∈ K, ∀x ∈ E, on a λ(µx) = (λµ)x.
5) ∀x ∈ E, 1 · x = x

Les éléments d’un espace vectoriel sont appelés vecteurs et les éléments de K sont appelés
scalaires.

Exemple 5.2.2. Sur R2 , on définit les deux lois suivantes :


pour tout (x1 , y1 ), (x2 , y2 ) ∈ R2 et λ ∈ R,
(x1 , y1 ) + (x2 , y2 ) = (x1 + x2 , y1 + y2 ) et λ(x, y) = (λx, λy).
Alors R2 est un R-espace vectoriel.

Proposition 5.2.3. Pour tout λ, µ ∈ K et pour tout x, y ∈ E, on a :


1) λx = 0 ⇐⇒ λ = 0 ou x = 0.
2) λ(x − y) = λx − λy
3) (λ − µ)x = λx − µx
4) (−λ)(−x) = λx

5.3 Sous-espace vectoriel


5.3.1 Définition
Dans toute la suite l’ensemble E désignera un espace vectoriel sur K.

Définition 5.3.1. Soit F un sous-ensemble de E. On dit que F est un sous-espace vectoriel de


E si :
1) 0 ∈ F
2) ∀x, y ∈ F , x + y ∈ F . Autrement dit F est stable par l’addition
3) ∀x ∈ F, ∀λ ∈ K, λx ∈ F . Autrement dit, F est stable par la multiplication par un scalaire.

Remarque 5.3.2. Tout sous-espace vectoriel de E, est un espace vectoriel pour les lois induites
par E.

Corollaire 5.3.3. Soit E un espace vectoriel et F un sous-ensemble de E (F ⊂ E). Si F vérifie


les propriétés 1) et 2) suivantes alors F est un sous-espace vectoriel de E.
1) F est non vide (F contient l’élément neutre de E)
2) ∀(x, y) ∈ F × F, ∀(λ, µ) ∈ K × K, on a λx + µy ∈ F .

Proposition 5.3.4. Soient E un espace vectoriel et E1 , ..., En des sous-espaces vectoriels de E,


alors l’intersection F = ∩nk=1 Ek est un sous-espace vectoriel de E.

5.3.2 Sous-espace vectoriel engendré par une partie d’un espace vectoriel
Définition 5.3.5. Soit {x1 , ..., xp } une famille de vecteurs d’un espace vectoriel E. Tout vecteur
Xp
de E de la forme a1 x1 + .... + ap xp = ak xk où les ak ∈ R est appelé combinaison linéaire des
k=1
vecteurs xk , k = 1, ..., p.

Soit A un sous-ensemble non-vide de l’espace vectoriel E. On note vect(A) l’ensemble des


combinaisons linéaires d’éléments de A.

©Ali TRAORE 15 Fondation 2ie /2018-2019


5.4. SYSTÈMES DE VECTEURS ET DIMENSION CHAPITRE 5. ESPACE VECTORIEL

Théorème 5.3.6. Soit A une partie d’un espace vectoriel E. vect(A) est l’unique sous-espace
vectoriel de E vérifiant :
1) A ⊂ vect(A)
2) vect(A) est inclus dans tout sous-espaces vectoriels contenant A

Le sous-espace vectoriel vect(A) se comprend comme étant le plus petit sous-espace vectoriel
contenant A, on l’appelle espace vectoriel engendré par A.

Corollaire 5.3.7. vect(A) est l’intersection de tous les sous-espaces vectoriel de E contenant
A.

Corollaire 5.3.8. A est un sous-espace vectoriel, si et seulement si vect(A) = A.

Proposition 5.3.9. Si A et B sont deux parties de E alors A ⊂ B → vect(A) ⊂ vect(B)

Proposition 5.3.10. Si A et B sont deux parties de E alors vect(A ∪ B = vect(A) + vect(B)

5.4 Systèmes de vecteurs et dimension


Soit E un espace vectoriel. Un système de vecteurs de E est une famille (v1 , ..., vn ) de vecteurs
de E.

Définition 5.4.1. Un système (v1 , ..., vn ) est lié si il existe λ1 , ...., λn non tous nuls tels que
λ1 v1 + ... + λn vn = 0. Si le système n’est pas lié il est libre.

Définition 5.4.2. Un système (v1 , ..., vn ) est générateur pour un espace vectoriel E si tout
vecteur de E est combinaison linéaire des vi .

Définition 5.4.3. Un système (v1 , ..., vn ) est une base d ?un espace vectoriel E si il est générateur
et libre.

Théorème 5.4.4. Toutes les bases d’un espace vectoriel de dimension finie ont le même nombre
d’éléments appelé dimension de l’espace.

Proposition 5.4.5. Soit E un espace vectoriel de dimension finie n, et soit (v1 , ...., vn ) une
famille de n vecteurs. On a équivalence entre :
1) (v1 , ...., vn ) est une base de E
2) (v1 , ...., vn ) est une famille libre
3) (v1 , ...., vn ) est une famille génératrice (est un système générateur)

Proposition 5.4.6. Soient e1 , ..., ek une famille libre de vecteurs d’un espace E de dimension
n. Il existe des vecteurs ek+1 , ..., en tel que e1 , ..., en soit une base de E.

Définition 5.4.7. On appelle rang d’un système de vecteurs d’un espace E la dimension du
sous-espace vectoriel engendré par ce système.

5.5 Sous espace et sommes directes


Définition 5.5.1. (Somme de deux sous-espaces)
Etant donnés deux sous-espaces vectoriels F et G d ?un espace vectoriel E, leur somme notée
F + G est le sous-espace constitué par les vecteurs de la forme u + v pour tout u ∈ F , v ∈ G.
Si F ∩ G = {0}, la somme est dite directe, et dans ce cas on note F ⊕ G. On dit aussi que F et
G sont en somme directe et le sous-espace F ⊕ G est appelé la somme directe de F et G.

©Ali TRAORE 16 Fondation 2ie /2018-2019


5.6. APPLICATION LINÉAIRE CHAPITRE 5. ESPACE VECTORIEL

Définition 5.5.2. (Somme de sous-espaces)


Etant donnée une famille de sous-espaces vectoriels Fi et i = 1, ..., n d’un espace vectorielE, leur
somme notée
X n
F1 + F2 + .... + Fn = Fi
i=1
est le sous-espace vectoriel constitué par les vecteurs de la forme x1 + x2 + .... + xn pour tout
n
X
x1 ∈ F1 , ...., xn ∈ Fn . Si tout x ∈ Fi a une seule écriture sous la forme x = x1 + x2 + .... + xn
i=1
avec x1 ∈ F1 , ...., xn ∈ Fn . On dit que la somme est directe ( ou que les sous-espaces sont en
somme directe) et on note
F1 ⊕ F2 ⊕ .... ⊕ Fn = ⊕ni=1 Fi .
Proposition 5.5.3. Etant donnée une famille de sous-espaces vectoriels Fi et i = 1, ..., n d’un
espace vectorielE. Leur somme est directe si et seulement si l’une des deux conditions suivantes
est vérifiée :
1) L’équation x1 + x2 + .... + xn = 0 avec x1 ∈ F1 , ...., xn ∈ Fn à pour seule solution x1 = x2 =
.... = xn = 0.
2) Pour tout i, 1 ≤ i ≤ n, on a (F1 + F2 + .... + Fi−1 ) ∩ Fi = {0}
Définition 5.5.4. Si F et G sont des sous-espaces vectoriel de E, si ils sont en somme directe
et si F ⊕ G = E on dit que G est un supplémentaire de F (et F un supplémentaire de G).
Proposition 5.5.5. 1) Soient F et G deux sous-espaces vectoriel de E. On a dim(F + G) =
dim(F ) + dim(G) − dim(F ∩ G).
2) F et G sont en somme directe si et seulement si dim(F + G) = dim(F ) + dim(G). 3) On a
équivalence entre :
i) E = F ⊕ G
ii) E = F + G et dim(E) = dim(F ) + dim(G)
iii) F ∩ G = {0} et dim(E) = dim(F ) + dim(G)
La proposition suivante explique comment construire une base d’un espace vectoriel E qui est
somme directe de deux sous-espaces F et G.
Proposition 5.5.6. La réunion d’une base quelconque de F et d’une base quelconque de G est
une base de E. Autrement dit si (v1 , ..., vk ) est une base de F , (w1 , ..., wl ) une base de G, alors
(v1 , ..., vk , w1 , ..., wl ) est une base de E.

5.6 Application linéaire


5.6.1 Définitions
Dans tout ce qui suit, E et F sont deux K- espaces vectoriels de dimension finie.
Définition 5.6.1. Soit f : E → F une application. On, dit que l’application f est linéaire si
les deux conditions suivantes sont satisfaites :
1) ∀x, y ∈ E, f (x + y) = f (x) + f (y)
2) ∀λ ∈ K, ∀x ∈ E ,f (λx) = λf (x).
On note L(E, F ), l’ensemble des applications de E dans F .
Proposition 5.6.2. Soit f : E → F une application. L’application f est linéaire si et seulement
si ∀λ, µ ∈ K, ∀x, y ∈ E, f (λx + µy) = λf (x) + µf (y)
Exemple 5.6.3. f : R2 → R3 définie par f (x, y) = (x + y, x − y, 2y) est linéaire

©Ali TRAORE 17 Fondation 2ie /2018-2019


5.6. APPLICATION LINÉAIRE CHAPITRE 5. ESPACE VECTORIEL

Proposition 5.6.4. Soit G un K- espace vectoriel.


1) Si l’application f : E → F est linéaire alors f (0E ) = 0F
2) Si l’application f : E → F et g : F → G sont linéaires alors gof : E → G est linéaire.

5.6.2 Noyau et image d’une application linéaire


Définition 5.6.5. Soit f : E → F une application linéaire.
1) On appelle image de f l’espace Imf = f (E).
2) On appelle noyau de f l’espace kerf = f −1 ({0})

Proposition 5.6.6. 1) Imf est un sous-espace vectoriel de F .


2) kerf est un sous-espace vectoriel de E

Théorème 5.6.7. Soit f : E → F une application linéaire.


1) f est surjective, si et seulement si, Imf = F
2) f est injective, si et seulement si, kerf = {0E }

Définition 5.6.8. On appelle rang de f la dimension de l’image de f .

Proposition 5.6.9. On a
rang(f ) = dim(E) − dim(kerf )

©Ali TRAORE 18 Fondation 2ie /2018-2019


Chapitre 6

Matrices

6.1 Opérations sur les matrices


6.1.1 Définitions
Définition 6.1.1. Soient n, p ∈ N∗ . On appelle matrice à n lignes et p colonnes à coefficients
dans K, un tableau à n lignes et p colonnes d’éléments de K. On note une telle matrice
 
a11 a12 · · · a1p
 a21 a22 · · · a2p 
M = (aij )1≤i≤n,1≤j≤p  . ..  .
 
. .. . .
 . . . . 
an1 an2 · · · anp

- On dit que M est une matrice colonne si p = 1


- On dit que M est une matrice ligne si n = 1
- On dit que M est une matrice carrée si n = p.

Notations
- On note Mn,p (K) l’ensemble des matrices à n lignes et p colonnes à coefficients dans K.
- Si p = n, on note Mn (K) l’ensemble des matrices carrées à n lignes et à n colonnes
- Un élément de Mn (K) est dite matrice carrée de taille n.
- Soit M = (aij )1≤i≤n,1≤j≤p , alors aij est le coefficient situé sur la i ième ligne et la j ième
colonne de la matrice M .

Définition 6.1.2. Soit M = (aij )1≤i,j≤n une matrice carrée de taille n. On dit que :
1) M est une matrice triangulaire supérieure si aij = 0 pour tout i > j. C’est à dire
 
a11 a12 · · · a1n
 0 a22 · · · a2n 
M = .
 
. . . . . .. 
 . . . . 
0 ··· 0 ann

2) M est une matrice triangulaire inférieure si aij = 0 pour tout i < j. C’est à dire
 
a11 0 ··· 0
 .. .. 
 a21 a22 . . 
M =  .. .. ..


 . . . 0 
an1 an2 · · · ann

19
6.1. OPÉRATIONS SUR LES MATRICES CHAPITRE 6. MATRICES

3) M est une matrice triangulaire diagonale si aij = 0 pour tout i 6= j. C’est à dire
 
a11 0 ··· 0
.. 
 0 ... ..

. . 
M = .
..

 ..

. an−1,n−1 0 
0 ··· ··· ann

4) M est une matrice symétrique si aij = aji pour tout 1 ≤ i, j ≤ n. C’est à dire
 
a11 a12 · · · a1n
 a12 a22 · · · a2n 
M = .
 
.. .. .. 
 .. . . . 
a1n a2n · · · ann

5) M est une matrice antisymétrique si aij = −aji pour tout 1 ≤ i, j ≤ n. C’est à dire
 
a11 a12 · · · a1n
 −a12 a22 · · · a2n 
M = .
 
. .. . . .. 
 . . . . 
−a1n −a2n · · · ann

Définition 6.1.3. Soit M = (aij )1≤i≤n,1≤j≤p ∈ Mn,p (K). On appelle transposée de M la ma-
trice M t = (bij )1≤i≤n,1≤j≤p ∈ Mn,p (K) où bij = aji . C’est à dire
 
a11 a21 · · · an1
 a12 a22 · · · an2 
Mt =  .
 
. .. . . .. 
 . . . . 
a1p a2p · · · anp
Autrement dit, les n lignes de M sont les n colonnes de M t et les p colonnes de M sont les
p lignes de M t .

Remarque 6.1.4. 1) Une matrice carrée M est symétrique, si et seulement si M = M t


2) Une matrice carrée M est antisymétrique, si et seulement si M = −M t

6.1.2 (Mn,p (K), +, .) est un K-espace vectoriel


Définition 6.1.5. Soit A = (aij )1≤i≤n,1≤j≤p , B = (bij )1≤i≤n,1≤j≤p ∈ Mn,p (K). On définit la
matrice A + B de la façon suivante : A + B = (aij + bij )1≤i≤n,1≤j≤p Ainsi
   
a11 a12 · · · a1p b11 b12 · · · b1p
 a21 a22 · · · a2p   b21 b22 · · · b2p 
A+B =  . ..  +  ..
   
. .. . . .. . . .. 
 . . . .   . . . . 
an1 an2 · · · anp bn1 bn2 · · · bnp
 
a11 + b11 a12 + b12 · · · a1p + b1p
 a21 + b21 a22 + b22 · · · a2p + b2p 
= 
 
.. .. .. .. 
 . . . . 
an1 + bn1 an2 + bn2 · · · anp + bnp

Remarque 6.1.6. On ne somme que des matrices de même types.

©Ali TRAORE 20 Fondation 2ie /2018-2019


6.1. OPÉRATIONS SUR LES MATRICES CHAPITRE 6. MATRICES

Définition 6.1.7. Soit A = (aij )1≤i≤n,1≤j≤p ∈ Mn,p (K) et soit λ ∈ K On définit la matrice λA
de Mn,p (K) par λA = (λaij )1≤i≤n,1≤j≤p . Ainsi
 
λa11 λa12 · · · λa1p
 λa21 λa22 · · · λa2p 
λA =  .
 
.. .. .. 
 .. . . . 
λan1 λan2 · · · λanp

Théorème 6.1.8. (Mn,p (K), +, .) est un K-espace vectoriel d’élément nul 0 = 0Mn,p (K)

Définition 6.1.9. Soit 1 ≤ i ≤ n et 1 ≤ j ≤ p. On appelle matrice élémentaire d’indice (i, j)


de Mn,p (K) la matrice Eij , dont tous les coefficients sont nuls sauf celui de la i ième ligne et
de la j ième colonne qui vaut 1.
   
1 0 0 1
Exemple 6.1.10. Dans M2 (K), les matrices élémentaires sont E11 = E12 =
0 0 0 0
 
0 0
E21 =
1 0
 
0 0
E22 =
0 1

Théorème 6.1.11. La famille B = (Eij , 1 ≤ i ≤ n, 1 ≤ j ≤ p) est une base de Mn,p (K)

Corollaire 6.1.12. La dimension de l ?espace vectoriel Mn,p (K) est np.


     
1 0 1 0 1 1
Exemple 6.1.13. Soient A1 = , A2 = , A3 = et A4 =
0 1 0 −1 1 1
 
0 −1
. Montrer que B = (A1 , A2 , A3 , A4 ) est une base de M2 (R)
1 0

6.1.3 Propriétés du produit matriciel


Définition 6.1.14. Soient A = (aij )1≤i≤n,1≤j≤p ∈ Mn,p (K), B = (bij )1≤i≤p,1≤j≤q
Pp ∈ Mp,q (K).
On définit la matrice C = A × B = (cij )1≤i≤n,1≤j≤q ∈ Mn,q (K) par cij = k=1 aik bkj .
  
1 2 1 0 0
Exemple 6.1.15.
−1 1 2 1 −1
  
1 0 0 1
Remarque 6.1.16. En général on n’a pas AB = BA. Comme exemple A =
0 0 0 0

Proposition 6.1.17. 1) Pour tout A ∈ Mn,p (K), B ∈ Mp,q (K), C ∈ Mq,m (K), (AB)C=A(BC)
2) Pour tout A ∈ Mn,p (K), B ∈ Mn,p (K), C ∈ Mp,q (K), (A+B)C=AC+BC
3) Pour tout A ∈ Mn,p (K), B, C ∈ Mp,q (K), A(B+C)=AB+AC
4) Pour tout A ∈ Mn,p (K), B ∈ Mp,q (K) et pour tout λ ∈ K, λ(AB) = (λA)B = A(λB)

Remarque 6.1.18. Dans l’ensemble Mn (K) des matrices carrées, la multiplication est une loi
de composition interne. Elle admet comme élément neutre la matrice diagonale
 
1 0 ··· 0
. 
 0 1 . . . .. 

In =  . .

.

.
 . . . . 
. 0 
0 ··· 0 1

©Ali TRAORE 21 Fondation 2ie /2018-2019


6.1. OPÉRATIONS SUR LES MATRICES CHAPITRE 6. MATRICES

Définition 6.1.19. Soit A ∈ Mn (K), on a : A0 = In , A1 = A, A2 = A×A... Am = A×A×...×A


(m termes).
Attention : (A + B)2 = A2 + AB + BA + B 2 .
Définition 6.1.20. Soit A ∈ Mn (K). A est dite nilpotente d’indice n, si An = 0 et Ak 6= 0
pour tout k < n.
Définition 6.1.21. Une matrice A ∈ Mn (K) est dite inversible s’il existe B ∈ Mn (K) vérifiant
AB = BA = In . La matrice B est unique et est appelé l’inverse de A. On le note A−1 .
Proposition 6.1.22. Soient A, B ∈ Mn (K).
1) Si A et B sont inversibles, alors (AB)−1 = B −1 A−1 .
2) Si A est inversible alors A−1 est inversible et (A−1 )−1 = A.
Définition 6.1.23. Soit A ∈ Mn (K). On appelle trace de A et on note T r(A), la somme des
n
X
éléments diagonaux de A. On note T r(A) = aii .
i=1
Définition 6.1.24. On note GLn (K) l’ensemble des matrices inversible de Mn (K)
Lemme 6.1.25. Soient A, B ∈ Mn,p (K). Si AX = BX pour tout X ∈ Mp,1 (K), alors A = B.
Pratique : Détermination de l’inverse d’une matrice carrée inversible.
   
x1 y1
Soit A = (aij )1≤i,j≤n ∈ GLn (K). On introduit X =  ...  ∈ Mn,1 (K) et Y =  ...  ∈
   

xn yn
Mn,1 (K) tel que Y = AX, c’est à dire
    
y1 a11 · · · ann x1
 ..   .. .. ..   .. 
 . = . . .  . 
yn an1 · · · ann xn
Ce qui est équivalent à


 y1 = a11 x1 + a12 x2 + ... + a1n xn




(S) ..
 .




yn = an1 x1 + an2 x2 + ... + ann xn

On résout le système dont les inconnues sont x1 , ..., xn et on obtient




 x1 = b11 y1 + b12 y2 + ... + b1n yn




..
 .




xn = bn1 y1 + bn2 y2 + ... + bnn yn

Soit B = (bij )1≤i,j≤n ∈ GLn (K). Le système (S) est équivalent à X = BY . Ainsi In X = BAX,
pour tout X ∈ Mn,1 (K). D’après le Lemme 3.1.25, In = BA. et A−1 = B.
Exemple 6.1.26. Calculer l’inverse de
 
0 1 1
A= 1 0 1 
1 1 0

©Ali TRAORE 22 Fondation 2ie /2018-2019


6.2. REPRÉSENTATIONS MATRICIELLES CHAPITRE 6. MATRICES

6.2 Représentations matricielles


6.2.1 Matrice colonne des composantes d’un vecteur
Soit E un K-espace vectoriel muni d’une base B(e1 , ..., en ). ∀x ∈ E, il existe un unique
(α1 , ..., αn ) tel que x = α1 x1 + .... + αn xn .

Définition 6.2.1. On appelle matrice des composantes du vecteur x dans B, la matrice colonne
 
α1
A =  ...  .
 

αn

On la note M atB (x).

Exemple 6.2.2. Soit Rn le R- espace  vectoriel


 muni de sa base canonique (e1 , ..., en ). Soit
1
x = (1, 2, 3, ..., n) ∈ Rn . M atB (x) =  ... 
 

6.2.2 Matrice des composantes d’une famille de vecteurs


Soit F = (x1 , ..., xp ) une famille de vecteurs d’un K- espace vectoriel muni d’une base B =
(e1 , ..., en ). Pour tout 1 ≤ i ≤ p, notons ci la colonne des composantes du vecteur xi .

Définition 6.2.3. On appelle matrice des composantes de la famille F, la matrice dont les
colonnes sont c1 , ..., cp . On la note M atB (F) = M atB (x1 , ..., xp ).

6.2.3 Matrice d’une application linéaire


Soient E et F deux K− espaces vectoriels munis respectivement des bases B = (e1 , ..., en ) et
C = (v1 , ..., vp ).

Définition 6.2.4. On appelle matrice représentative dans les bases B et C d’une application
linéaire f ∈ L(E, F ), la matrice des composantes de la famille (f (e1 ), ...., f (en )) dans C. On la
note M atB,C (f ).

Exemple 6.2.5. Soit

f : R3 → R2
(x, y, z) 7→ (x + 2y − z, x − y)

On muni R3 de sa base canonique B = (e1 , e2 , e3 ) et R2 de sa base canonique C = (v1 , v2 ).


Calculer M atB,C (f )

6.3 Formule de changement de base


Soit E un K-espace vectoriel de dimension n muni de deux bases B = (e1 , e2 , ..., en ) et
0 0 0 0
B = (e1 , e2 , ..., en )
0
Définition 6.3.1. On appelle matrice de passage de la base B à la base B la matrice P =
0
matB (B ).

©Ali TRAORE 23 Fondation 2ie /2018-2019


6.4. DÉTERMINANT D’UNE MATRICE CARRÉE CHAPITRE 6. MATRICES

Exemple 6.3.2. Soit R3 le R-espace vectoriel muni de la base canonique B = (e1 , e2 , e3 ) et


0 0 0 0 0 0 0
de la base B = (e1 , e2 , e3 ) où e1 = e1 − e2 + e3 , e2 = e2 − e3 , e3 = −2e1 + 2e2 − e3 . Trouver
0
M atB (B ).
0
Proposition 6.3.3. Si P est la matrice de passage de la base B à la base B alors P est
0
inversible et P −1 est la matrice de passage de la base B à la base B.

6.4 Déterminant d’une matrice carrée


6.4.1 Déterminant d’ordre 2
 
a11 a12 a11 a12
Le symbole est appelé déterminant d’ordre 2 de la matrice A = et
a21 a22 a21 a22
a11 a12
est défini par det(A) = = a11 a22 − a12 a21 .
a21 a22

1 −3
Exemple 6.4.1. Calculer
2 4

6.4.2 Déterminant d’ordre 3


 
a11 a12 a13
Soit A =  a21 a22 a23 .
a31 a32 a33

a11 a12 a13


det(A) = a21 a22 a23
a31 a32 a33
a22 a23 a12 a13 a12 a13
= a11 − a21 + a31
a32 a33 a32 a33 a22 a23
= a11 × mineur de a11 − a21 × mineur de a21 + a31 × mineur de a31

1 3 0
Exemple 6.4.2. Calculer 2 6 4
−1 0 2

Définition 6.4.3. Le cofacteur de l’élément de det(A) de la i ème ligne et de la k ème colonne


est égal à (−1)i+k multiplié par le mineur de ce élément. Il est noté Cij

a11 a13
Exemple 6.4.4. Le cofacteur de a22 est (−1)2+2
a31 a33

Remarque 6.4.5. 1) On remarque que l’on peut écrire det(A) = a11 C11 + a21 C21 + a31 C31 .
2) Le déterminant de A peut être développé suivant n’importe quelle ligne ou colonne.

6.4.3 Déterminant d’ordre n


 
a11 · · · ann
 .. .. .. .
Soit A =  . . . 
an1 · · · ann

©Ali TRAORE 24 Fondation 2ie /2018-2019


6.4. DÉTERMINANT D’UNE MATRICE CARRÉE CHAPITRE 6. MATRICES

· · · ann
a11
det(A) = ..
.. ..
. . .
an1 · · · ann
= ai1 Ci1 + ai2 Ci3 + ..... + ain Cin (i = 1, 2, ...., ou n)
= a1k C1k + a2k C3k + ..... + ank Cnk (k = 1, 2, ...., ou n)

Remarque 6.4.6. 1) det(At ) = det(A).


2) det(A + B) 6= det(A) + det(B) en général.
3) det(AB) = det(A)det(B).
4) det(A−1 ) = (det(A))−1 .

6.4.4 Application
1
Une matrice A est inversible si det(A) 6= 0. Dans ce cas A−1 = (adj(A)), où adj(A)
det(A)
désigne l’adjoint classique de A. C’est à dire la matrice [Cij ]t , où [Cij ] désigne la matrice des
cofacteurs de A

©Ali TRAORE 25 Fondation 2ie /2018-2019

Vous aimerez peut-être aussi