Académique Documents
Professionnel Documents
Culture Documents
Chapitre 3 Matrices…...………………………………………………………………..34
1 Définitions…………………………………………………………………………………..34
3 Fractions rationnelles……………………………………………………………………….64
Introduction
Nous définissons dans ce chapitre la notion d’ensemble, les opérations usuelles sur les
ensembles (sous-ensembles, complémentaires, intersections, unions, produits, ensemble
des parties) puis nous abordons par la suite la notion de fonction (ou application) qui est
fondamentale dans toutes les mathématiques.
1 Ensembles
1.1 Langage ensembliste
Exemples {-1 ; 1}, {orange, blanc, vert}, {0, 1, 2, … } = ℕ sont des ensembles.
Remarque Un ensemble particulier est l’ensemble vide, noté ∅ qui est l’ensemble
ne contenant aucun élément. On note 𝑥 ∈ 𝐸 (lire 𝑥 appartient à E) si 𝑥 est un
élément de E, et 𝑥 ∉ 𝐸 (lire 𝑥 n’appartient pas à E) si 𝑥 n’est pas dans
l’ensemble E.
Définition 1.2 Un ensemble est une collection d’objets qui vérifient une
propriété.
L’inclusion. On dit qu’un ensemble F est inclus dans un autre ensemble E (ce qu’on note
F ⊂ E et E ⊂ F ⇔ E = F.
Par exemple 𝒫(∅) = {∅} (ensemble avec un élément), 𝒫({0,1}) ={∅, {0}, {1}, {0, 1}},
𝒫({1, 2, 3}) = {∅, {1}, {2}, {3}, {1, 2}, {1, 3}, {2, 3}, {1, 2, 3}}.
Union. Si E et F sont deux ensembles on peut former un ensemble appelé leur union et notée
E ∪ F et définie par :
𝐸 ∪ 𝐹 = {𝑥, 𝑥 ∈ 𝐸 𝑜𝑢 𝑥 ∈ 𝐹}.
Par exemple si E = {0, 1, 2, 3, 5, 7, 8} et F = {0, 1, 2, 4, 8, 16, 32} alors
𝐸 ∩ 𝐹 = {𝑥, 𝑥 ∈ 𝐸 𝑒𝑡 𝑥 ∈ 𝐹}.
E ∩ F = {0, 1, 2, 8}
Complémentaire. Soit F un sous-ensemble de E ; on définit le complémentaire de F dans
E que l’on note ∁𝐹𝐸 (ou simplement 𝐹̅ si E est sous-entendu) comme l’ensemble des éléments
de E qui n’appartiennent pas à F : ∁𝐹𝐸 = {𝑥 ∈ 𝐸, 𝑥 ∉ 𝐹}.
On a : 𝐵 − 𝐴 = 𝐵 − (𝐴 ∩ 𝐵).
En particulier si A et B sont les parties de E,
𝐵 − 𝐴 = 𝐵 ∩ ∁𝐸 𝐴.
∁ℕ𝐴 = {𝑥 ∈ ℕ, ∃∈ ℕ, 𝑥 = 2𝑦}.
Il est très important de savoir calculer et raisonner sur les ensembles. Il faut aussi remarquer
que le calcul sur les ensembles est entièrement analogue au calcul sur les propositions. En effet
l’union correspond au connecteur ou. L’intersection correspond au connecteur et. La relation
d’inclusion correspond à l’implication ; prendre le complémentaire correspond au connecteur
non.
1) A ∩ B = B ∩ A et A ∪ B = B ∪ A.
2) (A ∪ B) ∩ C = (A ∩ C) ∪ (B ∩ C) et (A ∩ B) ∪ C = (A ∪ C) ∩ (B ∪ C) (Distributivité).
3) 𝐴̿ = 𝐴 et donc 𝐴 ⊂ 𝐵 ⇔ 𝐵̅ ⊂ 𝐴̅.
4) ̅̅̅̅̅̅̅
𝐴 ∩ 𝐵 = 𝐴̅ ∪ 𝐵̅ 𝑒𝑡 ̅̅̅̅̅̅̅
𝐴 ∪ 𝐵 = 𝐴̅ ∩ 𝐵̅ (𝐿𝑜𝑖 𝑑𝑒 𝑀𝑜𝑟𝑔𝑎𝑛).
5) 𝐴 × (𝐵 ∩ 𝐶) = (𝐴 × 𝐵) ∩ (𝐴 × 𝐶) et 𝐴 × (𝐵 ∪ 𝐶) = (𝐴 × 𝐵) ∪ (𝐴 × 𝐶).
6) Si 𝐴 ⊂ 𝐵 et 𝐶 ⊂ 𝐷 ⇒ 𝐴 × 𝐶 ⊂ 𝐵 × 𝐷.
Preuve
Démontrons la première formule de distributivité.
2) Soit x ∈ A ∩ (B ∪ C) ⇔ x ∈ A et (x ∈ B ou x ∈ C)
⇔ (x ∈ A et x ∈ B) ou (x ∈ A et x ∈ C)
⇔ x ∈ (A ∩ B) ∪ (A ∩ C).
4) La loi de Morgan se démontre de manière similaire.
Soit 𝑥 ∈ ̅̅̅̅̅̅̅
𝐴∪𝐵 ⇔ non ( x ∈ A ou x ∈ B)
⇔ non ( x ∈ A) et non (x ∈ B)
⇔ x ∈ 𝐴̅ ∩ 𝐵̅ .
Les autres démonstrations sont similaires et laissées en exercice au lecteur.
Si 𝑥 ∈ 𝐸 et 𝑦 ∈ 𝐹 on peut fabriquer un nouvel élément appelé couple et noté (x, y), caractérisé
par le fait que (x, y) = (z, t) si et seulement si x = z et y = t. L’ensemble de ces couples s’appelle
le produit (cartésien) de E et F et se note : 𝐸 × 𝐹 = {(𝑥, 𝑦), 𝑥 ∈ 𝐸 𝑒𝑡 𝑦 ∈ 𝐹}.
Exemples
1) ℝ2 = ℝ × ℝ = {(𝑥, 𝑦) ; 𝑥 , 𝑦 ∈ ℝ}.
Définition 1.3
Une relation binaire sur un ensemble E, e s t u n s o u s - e n s e m b l e d e
𝐸 × 𝐸.
Ou une propriété qui relie ou non deux éléments 𝑥 et 𝑦 de E.
Exemples
L'inégalité ≤ est une relation sur ℕ, ℤ ou ℝ.
Le parallélisme et l'orthogonalité sont des relations sur l'ensemble des droites du plan
ou de l'espace.
L'inclusion ⊂ est une relation sur P(𝑋), où 𝑋 est un ensemble quelconque.
L’équation 𝑦 = 𝑓(𝑥) est une relation binaire, comme
ℜ = {(𝑥, 𝑦) ∶ 2𝑥 + 𝑦 = −1, 𝑥 ∈ ℝ} est une relation binaire.
Soit 𝐸 un ensemble et soient 𝑥, 𝑦 𝐸, 𝑥 ℜ 𝑦 si et seulement si 𝑦 = 𝑥 est une relation
binaire sur 𝐸.
La relation d'inclusion est une relation binaire dans l'ensemble des parties de E.
Définition 1.4
Soit ℜ une relation sur un ensemble E.
ℜ est réflexive si pour tout 𝑥 ∈ 𝐸, on a 𝑥 ℜ 𝑥 ;
ℜ est symétrique si pour tout 𝑥, 𝑦 ∈ 𝐸, on a 𝑥ℜ𝑦 ⇒ 𝑦ℜ𝑥 ;
ℜ est antisymétrique si pour tout 𝑥, 𝑦 ∈ 𝐸, (𝑥ℜ𝑦 𝑒𝑡 𝑦ℜ𝑥) ⇒ 𝑥 = 𝑦 ;
ℜ est transitive si pour tout 𝑥, 𝑦, 𝑧 ∈ 𝐸, (𝑥ℜ𝑦 𝑒𝑡 𝑦ℜ𝑧) ⇒ 𝑥ℜ𝑧.
Exemples
La relation d’égalité = sur 𝐸 est réflexive, symétrique, antisymétrique et transitive.
Les relations ≤ et ≥ sur ℝ sont réflexives, antisymétrique et transitives. Elles ne sont
pas symétriques.
Les relation < et > sur ℝ sont antisymétriques et transitives. Elles ne sont ni réflexives,
ni symétriques.
La relation de divisibilité | sur ℤ est réflexive et transitive. Elle n’est ni symétrique, ni
antisymétrique : (2|(−2) et −2|2 mais −2 ≠ 2).
d’équivalence si : - ∀𝑥 ∈ 𝐸, 𝑥 𝑥, (réflexivité)
– ∀x, y, z ∈ E, x y et y z ⇒ x z, (transitivité)
4) La relation (< sur 𝐸 = ℝ par exemple) n’est pas une relation d’équivalence
car la symétrie n’est pas vérifiée.
1 ) c l ( x ) = c l ( y ) ⇔ x y.
3) L' e n s e m b l e d e s c l a s s e s d ' é q u i v a l e n c e e s t u n e p a r t i t i o n d e E .
Réciproquement, toute partition de E définit une relation d'équivalence
sur E.
Définition 1.7 Une partition de E est un ensemble {Ei} de parties de E tel que E = ⋃𝑖 𝐸𝑖 et
𝐸𝑖 ⋂𝐸𝑗 = ∅ si i ≠ j.
Exemples
1) Pour la relation «être du même âge», la classe d’équivalence d’une personne est l’ensemble
des personnes ayant le même âge. Il y a donc une classe d’équivalence formée des personnes
de 18 ans, une autre formée des personnes de 19 ans,... Les trois assertions de la proposition se
lisent ainsi :
– On est dans la même classe d’équivalence si et seulement si on est du même âge.
– Deux personnes appartiennent soit à la même classe, soit à des classes disjointes.
– Si on choisit une personne de chaque âge possible, cela forme un ensemble de représentants.
Maintenant une personne quelconque appartient à une et une seule classe d’un des
représentants.
2) Pour la relation «être parallèle», la classe d’équivalence d’une droite est l’ensemble des
droites parallèles. À chaque classe d’équivalence correspond une et une seule direction.
Définition 1.8 On dit qu'une relation binaire dans un ensemble E est une relation d'ordre
si elle est :
● réflexive : x x, ∀ 𝑥 ∈ 𝐸,
● antisymétrique : ∀ 𝑥 ∈ 𝐸 , ∀ 𝑦 ∈ 𝐸 ; x y et y x s i e t s e u l e m e n t s i x = y ,
● transitive : ∀ (𝑥, 𝑦, 𝑧) ∈ 𝐸 3 , x y et y z x z .
En général, une relation d'ordre sera notée ≤ et on dit que (E, ≤) est un ensemble ordonné.
Dans le cas contraire, on dit que ≤ est une relation d'ordre partiel et (E, ≤) est dit partiellement
ordonné.
Exemples
2) Soit E un ensemble, la relation d'inclusion est une relation d'ordre partiel en général entre
éléments de P(E). On dit que P(E) est ordonné par inclusion.
2 Applications
Définitions 2.1 Une application (ou fonction) définie sur E et à valeurs dans F est une
relation qui, à tout é l é m e n t de E fait correspondre un unique élément de F. Si on note
f cette application, l ’ é l é m e n t associé à x par f est noté f (x). L’ensemble E s’appelle
l’ensemble de départ, l’ensemble F s’appelle l’ensemble d’arrivée de f.
Exemples
Composition
Il est naturel, disposant d’une fonction f, étudier les équations du type : f(x) = f(y) ou encore
Exemple. Les fonctions x x+2 (de ℝ dans ℝ) et x log(x) (de ℝ∗+ dans ℝ ) sont
Définition 2.3 Une application f : E F est surjective si, pour tout y F il existe x E tel
que y = f(x).
2.2.2 Bijection
Définition 2.4 Une application f : E F est bijective si elle est à la fois injective et surjective.
En d’autres termes tout élément de F a exactement un antécédent.
Lorsque f : E F est une bijection, on peut définir une application de F dans E par la loi qui
à y associe l’unique élément x tel que y = f(x) (le fait que f soit bijective garantit exactement
l’existence et l’unicité d’un tel x).
ii) Si B est une partie de F on appelle image réciproque de B par f et on note 𝑓 −1 (𝐵)
l’ensemble :
𝑓 −1 (𝐵) = {𝑥 ∈ 𝐸 𝑡𝑒𝑙 𝑞𝑢𝑒 𝑓(𝑥) ∈ 𝐵}.
Proposition 2.2
Proposition 2.3
Exemples
Proposition 3.1
Soient E et F des ensembles finis de cardinaux n et m respectivement, on a :
iii) Soit ℱ(𝐸, 𝐹) l’ensemble des applications de E vers F alors 𝑐𝑎𝑟𝑑(ℱ(𝐸, 𝐹)) = 𝑚𝑛 .
En particulier 𝑐𝑎𝑟𝑑(𝒫(𝐸)) = 2𝑛 .
𝑚 × (𝑚 − 1) × (𝑚 − 2) × … × (𝑚 − 𝑛 + 1) si 𝑛 < 𝑚.
𝑛! = 𝑛 × (𝑛 − 1) × (𝑛 − 2) × … × 2 × 1.
Proposition 3.2
Preuves
Proposition 3.3
Soient E et F des ensembles finis de même cardinal ; soit f une application de E dans F alors
les propriétés suivantes sont équivalentes :
i) L’application f est injective.
ii) L’application f est surjective.
iii) L’application f est bijective.
4 Raisonnements logiques
𝑎 𝑏
Exemple. Soient a, b ≥ 0. Montrer que si = 1+𝑎 alors a = b.
1+𝑏
𝑎 𝑏
Solution. Nous raisonnons par l’absurde en supposant que = 1+𝑎 avec a ≠ b. Comme
1+𝑏
𝑎 𝑏
= 1+𝑎 , alors a(1+a) = b(1+b) donc a+a2 = b+b2 d’où a2 - b2 = b-a.
1+𝑏
Cela conduit à (a-b)(a+b) = -(a-b).
𝑎 𝑏
Conclusion, si = 1+𝑎 alors a = b.
1+𝑏
4.2 Le contre-exemple
Si l’on veut montrer qu’une assertion du type " ∀𝑥 ∈ 𝐸, 𝑃(𝑥) " est vraie alors il
faut montrer que P (x) est vraie pour chaque x de E.
Par contre pour montrer que cette assertion est fausse alors il suffit de trouver
𝑥 ∈ 𝐸 tel que P (x) soit fausse. Trouver un tel x c’est trouver un contre-exemple
à l’assertion " ∀𝑥 ∈ 𝐸, 𝑃(𝑥) ".
L’idée est en fait assez simple. Elle repose sur trois étapes :
● l'hérédité : démontrer que si la propriété est vraie pour un rang n ≥ n0 quelconque alors elle
l’est pour le rang n + 1 (c’est-à-dire le rang juste après).
● conclusion : on affirme que la propriété est vraie pour tous les rangs supérieurs à n0.
Nous allons démontrer par récurrence que P(n) est vraie pour tout n ≥ 0.
Initialisation. Pour n = 0 nous avons 20 = 1 > 0. Donc P(0) est vraie.
Hérédité. Fixons n ≥ 0. Supposons que P(n) soit vraie. Nous allons montrer que
P (n + 1) est vraie.
2𝑛+1 = 2𝑛 + 2𝑛 > 𝑛 + 2𝑛 car par P(n) nous avons 2n > n.
Conclusion. Par le principe de récurrence P(n) est vraie pour tout n ≥0, c’est-à-
dire 2n > n pour tout n ≥ 0.
Définition 5.1 Le nombre de parties à k éléments d’un ensemble à n éléments est notée Cnk .
Exemple Les parties à deux éléments de {1, 2, 3} sont {1, 2}, {1, 3} et {2, 3} et donc C32 =3.
Nous allons classer les parties de {1, 2, 3, 4, 5} par nombre d’éléments, ainsi
∁45 = 5 (il y a 5 quadruplets), C55 = 1 (la seule partie ayant 5 éléments est
l’ensemble tout entier).
Proposition 5 . 1
ii) Compter le nombre de parties A E ayant k éléments revient aussi à compter le nombre de
parties de la forme ∁𝐸𝐴 (qui ont donc n-k éléments), ainsi Cnn k Cnk .
n
iii) La formule C
k 0
k
n 2n exprime que faire la somme du nombre de parties à k éléments,
n!
Proposition 5.3 Cnk pour 0 ≤ k ≤ n.
k ! n k !
Preuve Cela se fait par récurrence sur n. C’est clair pour n = 1. Si c’est vrai au rang
n − 1 alors écrivons Cnk Cnk1 Cnk11 et utilisons l’hypothèse de récurrence pour Cnk11 et Cnk1
. Ainsi,
=
n 1! 1
1
k 1! n k 1! n k k
=
n 1!
n
k 1! n k 1! k n k
n!
= .
k ! n k !
k 0
Remarques
Il s’agit d’un paragraphe qui servira de références dans le cours. Dans un premier
temps, nous attendons que l ’ é t u d i a n t lise le sous-paragraphe 2 sur les groupes qui
n’est pas facile et se pose quelques questions à son sujet ...
Concernant les applications des notions de ce cours en sciences, indiquons par une
flèche quelques- unes des plus marquantes :
• Algèbre → informatique ;
Définition 1 .1. Soit E un ensemble, on appelle loi de composition interne sur E, toute
application ⋆ de 𝐸 × 𝐸 dans E.
Exemple 1.2. Les applications d’un ensemble non vide E dans P(E) l’ensemble des parties de
E suivantes, (𝐴, 𝐵) ↦ 𝐴⋃𝐵 et (𝐴, 𝐵) ↦ 𝐴⋂𝐵 sont des lois de composition internes.
Exemple 1.4 Soit F = {{a, b}, {a, c}, {b, c}} ⊂ P{a, b, c}.
F n’est pas stable par rapport à l’intersection et la réunion, car :
∃ 𝑋 = {𝑎, 𝑏}, 𝑌 = {𝑎, 𝑐} ∈ 𝐹 ; 𝑋 ∩ 𝑌 = {𝑎} 𝐹
∃ 𝑋 = {𝑎, 𝑏}, 𝑌 = {𝑎, 𝑐} ∈ 𝐹 ; 𝑋 ∪ 𝑌 = {𝑎, 𝑏, 𝑐} 𝐹.
Définition 1.2 Soient ⋆ et • deux lois de composition internes sur E, on dit que :
Exemple. Soit F un ensemble et E = P(F). On considère sur E les lois de composition internes
“ ∩” et “ ∪”, alors il est très facile de montrer que :
● “ ∩” et “ ∪” sont associatives,
● “ ∩” et “ ∪” sont commutatives,
● ∅ est l’élément neutre de ∪,
● F est l’élément neutre de ∩.
Propriété 1.1 Si une loi de composition interne ⋆ possède un élément neutre à droite e′ et un
élément neutre à gauche e′′, alors e′ = e′′ et c’est un élément neutre de ⋆.
Preuve. Soit e′, respectivement e′′, un élément neutre à droite, respectivement à gauche, de ⋆,
alors e′ = e′′ ⋆ e′ car e′′ élément neutre à gauche de ⋆, e′′ = e′′ ⋆ e′ car e′ élément neutre à droite
de ⋆ ce qui montre que e′ = e′′.
Remarque. D’après cette dernière propriété, si ⋆ possède un élément neutre, alors il est unique.
Définition 1.3. Soit ⋆ une loi de composition interne sur un ensemble E admettant un élément
neutre e.
i) On dit qu’un élément a ∈ E est inversible ou symétrisable, à droite (respectivement
à gauche) de ⋆ si ∃ a′ ∈ E, a ⋆ a′ = e (respectivement a′ ⋆ a = e).
ii) a′ est dit un inverse (ou un symétrique) à droite (respectivement à gauche) de a, s’il
existe a′ ∈ E tel que a′ ⋆ a = a ⋆ a′ = e.
On dit que a est inversible (ou symétrisable) et a′ est dit un inverse (ou un symétrique) de a par
rapport à ⋆.
Remarque
● a est inversible (ou symétrisable) s’il est inversible à droite et à gauche de ⋆.
● Le symétrique d’un élément n’est pas toujours unique.
Exemple. Soit E = {a, b, γ}, on définit une loi de composition interne dans E par :
⋆ a b γ
a a b γ
b b γ a
γ γ a a
On remarque que :
i) a est l’élément neutre de ⋆.
ii) Tous les éléments de E sont inversibles avec :
– a est l’inverse de a,
– γ est l’inverse de b,
– b et γ sont des inverses de γ.
Propriété 1.3 Soit ⋆ une loi de composition interne dans E, associative et admettant un
élément neutre e. Si un élément x ∈ E admet x1 un inverse (ou symétrique) à droite et x2 un
inverse (ou symétrique) à gauche, alors x1 et x2 sont identiques.
Remarque
– De cette propriété on déduit que l’associativité de la loi assure l’unicité du symétrique d’un
élément s’il existe
– D’après cette propriété on déduit que la loi définie dans l’exemple ci-dessus n’est pas
associative.
Pour s’en convaincre, on remarque que : (b ⋆ b) ⋆ γ = γ ⋆ γ = a et b ⋆ (b ⋆ γ) = b ⋆ a = b donc
(b ⋆ b) ⋆ γ ≠ b ⋆ (b ⋆ γ) ce qui montre que la loi ⋆ n’est pas associative.
Conventions : Etant donnée une loi de composition interne associative dans un ensemble E,
– Si la loi est notée +, son élément neutre est noté 0E ou 0, et on parle du symétrique de a qu’on
note a′ = - a.
– Si la loi est notée multiplicativement, son élément neutre est noté 1E ou 1, et on parle de
l’inverse de a qu’on note a ' a 1 .
Propriété 1.4. Soit ⋆ une loi de composition interne dans un ensemble E, associative et
admettant un élément neutre e, alors si a et b sont deux éléments inversibles (symétrisables) il
en sera de même de (a ⋆ b) et on a : (a ⋆ b) -1 = b -1 ⋆ a -1.
= (a ⋆ e) ⋆ a -1 = a ⋆ a -1 = e
De la même manière on montre que (b -1 ⋆ a -1) ⋆ (a ⋆ b) = e, d’où on déduit que (a ⋆ b) est
inversible et que
(a ⋆ b) -1 = b -1 ⋆ a -1.
Définition 2.1. On appelle groupe, tout ensemble non vide G muni d’une loi de composition
interne ⋆ tel que :
i) ⋆ est associative ;
ii) ⋆ possède un élément neutre e ;
iii) Tout élément de E est symétrisable.
Si de plus ⋆ est commutative, on dit que (G, ⋆) est un groupe commutatif, ou groupe Abélien.
x y
Exercice. On définit l’opération ⋆ par : x, y 1,1 , x⋆y .
1 xy
Montrer que (] − 1, 1[, ⋆) est un groupe abélien.
Remarque
Les deux propriétés suivantes sont alors des conséquences immédiates de la définition
d’un morphisme de groupes et de la définition d’un groupe :
−1
𝑓(𝑒) = 𝑒 ′ 𝑒𝑡 ∀ 𝑥 ∈ 𝐺, 𝑓(𝑥 −1 ) = (𝑓(𝑥)) .
Preuve
1). Soit G′ un sous-groupe de G et montrons que f(G′) vérifie les deux conditions de la
caractérisation des sous-groupes.
i) Comme G′ est un sous-groupe de G, alors e ∈ G′ donc f(e) ∈ f(G′), par suite f(G′) ≠ ∅.
ii) Soient a, b ∈ f(G′), alors il existe x, y ∈ G′ tels que a = f(x) et b = f(y), donc d’après la
deuxième propriété on aura
a ⋆ b -1 = f(x) ⋆ (f(y)) -1 = f(x) ⋆ f(y -1) = f(x • y -1) et comme G′ est un sous-groupe de G alors
(x • y -1) ∈ G′, par suite
a ⋆ b -1 = f(x • y -1) ∈ f(G′) de i) et ii) on déduit que f(G′) est un sous-groupe de H.
Remarque. Comme cas particuliers des propriétés, Im(f) est un sous-groupe de (H, ⋆) et
Ker(f) est un sous-groupe de (G, •).
3. Structure d’Anneaux
Définition 3.1
On appelle anneau, tout ensemble A muni de deux lois de composition internes « + » et « • »
telles que :
1) (A, +) est un groupe abélien (on notera 0 ou 0A l’élément neutre de +),
Conventions : (A, +) étant un groupe, alors tous les éléments de A sont symétrisables et on
convient de noter - x le symétrique d’un élément x ∈ A.
Si « • » possède un élément neutre, on le note 1 ou 1A et on dit que l’anneau (A,+, •) est
unitaire ou unifère.
Dans un tel anneau, on dit qu’un élément est inversible s’il l’est par rapport à la deuxième loi
« • ».
L’inverse d’un élément x ∈ A est noté 𝑥 −1 .
Sous Anneaux
Définition 3.2. On appelle sous anneau de (A, +, •), tout sous ensemble A′ de A tel que muni
des restrictions des lois « + » et « • » est anneau.
Si A est un anneau unitaire et 1A ∈ A′, on dit que A′ est sous anneau unitaire.
Homomorphismes d’Anneaux
Soient (A, +, •) et (B, ⊕, ⊗) deux anneaux et f : A → B.
Remarque
– Si A = B on dit que f est un endomorphisme d’anneau de A.
– Si f est bijective, on dit que f est un isomorphisme d’anneaux
– Si f est bijective et A = B, on dit que f est un automorphisme d’anneaux.
Remarque
On sait que l’image de l’élément neutre du groupe de départ d’un homomorphisme de groupe
est l’élément neutre du groupe d’arrivée. Par contre, l’image de l’élément unité de l’anneau de
4. Structure de Corps
Définition 4.1 On appelle corps K tout anneau non nul dans lequel tout élément non nul
est inversible. On dit qu’un corps un commutatif si sa deuxième loi « • » est commutative.
Sous-corps
Soit K un corps et K’ un sous-ensemble de K. On dit que K’ est un sous-corps de K si :
i) K’ est un sous-anneau de K,
ii) Les relations 𝑥 ≠ 0 𝑒𝑡 𝑥 ∈ 𝐾’ ⇒ 𝑥 −1 ∈ 𝐾′ .
Exemple
L’ensemble ℚ des nombres rationnels est un sous-corps du corps des nombres réels.
Morphismes de corps
Un morphisme de corps ou homomorphisme de corps est une application entre deux corps
qui respecte les structures de corps. Ainsi, si K et K’ sont deux corps, une application
Exemple
𝑢 + 𝑣 = (𝑥1 + 𝑦1 , 𝑥2 + 𝑦2 , … , 𝑥𝑛 + 𝑦𝑛 )
Définition 5.1 On appelle espace vectoriel sur 𝐾 ou 𝐾 -espace vectoriel un ensemble E sur
vérifiant :
● associativité : ∀ 𝑢, 𝑣, 𝑤 ∈ 𝐸 , (u + v) + w = u + (v + w). Cet élément est alors noté
u + v + w.
● existence d’un élément neutre : il existe un é l é ment noté 0 ∈ 𝐸 (ou ⃗0, ou encore
0E) tel que pour tout 𝑢 ∈ 𝐸, u + 0 = 0 + u = u.
● commutativité : ∀ 𝑢, 𝑣 ∈ 𝐸, 𝑢 + 𝑣 = 𝑣 + 𝑢.
4) L’ensemble des solutions d’un système linéaire homogène est un espace vectoriel (comme
c’est un sous-ensemble de 𝐾 𝑛 l’addition et la multiplication par un scalaire sont déjà définies).
5) L’espace des fonctions de ℝ dans ℝ est un ℝ - espace vectoriel : si f, g sont des fonctions et
α un réel, on pose (𝑓 + 𝑔)(𝑥) = 𝑓(𝑥) + 𝑔(𝑥) et (𝛼𝑓)(𝑥) = 𝛼𝑓(𝑥).
6) L’espace des fonctions continues de ℝ dans ℝ est un ℝ -espace vectoriel. En effet la somme
de deux fonctions continues est continue de même que le produit par une constante.
7) L’espace des fonctions f(t) deux fois dérivables de ℝ dans ℝ et vérifiant l’équation
différentielle : 𝛼(𝑡)𝑓"(𝑡) + 𝛽(𝑡)𝑓′(𝑡) + 𝛾(𝑡)𝑓(𝑡) = 0 est un ℝ -espace vectoriel.
En effet la somme de deux fonctions deux fois dérivables et vérifiant l’équation différentielle
est encore deux fois dérivable et vérifie l’équation différentielle.
Définition 5.2 Soit E un K-ev et F une partie de E. On dit que F est un sous espace vectoriel
de E (ou sev) si :
● 0𝐸 ∈ 𝐹 ; ;
● F est stable par rapport à l’addition : u, v ∈ F ⇒ u + v ∈ F ;
● F est stable par rapport à la multiplication : λ ∈ K, u ∈ F ⇒ λu ∈ F.
Exemples
2) L’ensemble des nombres réels est un sous-espace vectoriel du ℝ-espace vectoriel des
Remarque. Une partie quelconque F d’un espace vectoriel E n’est pas toujours un sous -
espace vectoriel, par contre elle sera toujours inclue dans un sev de E. Enfin une partie F d’un
espace vectoriel E peut ne pas être un sous espace vectoriel de E mais être un espace vectoriel
(en changeant bien sûr les lois d’addition et ou de multiplication par un scalaire).
Le vecteur λ1 u1 + λ2 u2 + · · · + λp up est a p p e l é u n e c o m b i n a i s o n l i n é a i r e d e
u1, u2 , . . ., up. On note Vect(u1 , u2 , . . . , up) l’ensemble des combinaisons linéaires de u1 ,
u2 , . . . , up .
Définition 5.4 Soit P une partie de E un espace vectoriel. On pose vect(P) = {x ∈ E : il existe
e1 ; … ; en ∈ P tel que x = λ1e1 +…+_λnen} c’est à dire l’ensemble des combinaisons linéaires
Définition 5.5
Proposition 5.3
Preuve : Montrons par exemple que l’intersection de deux sous-espaces vectoriels d’un
espace vectoriel E est un sous-espace vectoriel de E. Soit F1 et F2 deux sous-espaces
vectoriels de E. Tout d’abord 0E ∈ F1, car F1 est un sous-espace vectoriel de E. De
même, 0E ∈ F2. Ainsi, 0E ∈ F1∩ F2 et F1∩ F2 est donc non vide. Soit u, v ∈ F1 ∩ F2
et λ ∈ K. En particulier, u et v sont deux é l é m ents de F1 . Comme F1 est un sous-
espace vectoriel de E : u + v ∈ F1 et λu ∈ F1 . De même, on montre que u + v ∈ F2 et λu
∈ F2 . Ainsi, u + v ∈ F1∩ F2 et λu ∈ F1∩ F2 . Cela montre que F1∩ F2 est un sous-espace
vectoriel de E.
Remarques
L’union de deux sev n’est pas un espace vectoriel à cause de la non stabilité par rapport à
Pour montrer qu’un ensemble n’est pas un sev il suffit d’exhiber un contre-exemple, alors que
pour montrer que l’on est en présence d’un ev il faut montrer les propriétés pour tous les
éléments.
Proposition 5.4.
Soient P et Q deux parties de E. Alors vect(P∪ Q) = vect(P) + vect(Q).
Définition 5.6 Soient F et G deux sev d’un K-ev E. On dit que F et G sont en sommes directes
si 𝐹 ∩ 𝐺 = {0} 𝑒𝑡 𝐹 + 𝐺 = 𝐸.
Définition 5.7 Soit F un sous espace vectoriel d’un K-ev E. G est un supplémentaire de F si F
et G sont en sommes directes.
Remarques
1) Il y a deux conditions à vérifier : F ∩ G = {0} et F + G = E.
2) Attention : Il n’y a pas unicité du supplémentaire d’un sev donné.
3) Attention : G supplémentaire n’est pas le complémentaire de F dans E.
λ1 , . . . , λp ∈ K tel que : v = λ1 v1 + λ2 v2 + · · · + λp vp .
λ1 v1 + λ2 + · · · + λp vp = 0 ⇒ λ1 = λ2 = . . . = λp = 0.
c) On dit que la famille (v1, v2 , . . . , vp ) est une base de E, si cette famille est libre et
génératrice.
On notera que dire que la famille (v1 , v2 , . . . , vp ) est liée, c’est dire qu’il existe une
« relation non triviale » entre les vi , c’est à dire des éléments λ1 , . . . , λp ∈ K non tous
nuls tels que : λ1v1+ λ2v2 + · · · + λp vp = 0.
Exemples
Notons qu’une famille réduite à un vecteur est libre si et seulement si ce vecteur est non
nul.
Ainsi, si av1 + bv2 + cv3 = 0R5, les réels a, b, c sont solutions du système :
2a 3b c 0
a 4b 3c 0
.
b 7c 0
17c 0
On en déduit c = 0, puis b = 0 et enfin a = 0. Cela montre que (v1, v2 , v3) est une
famille libre de R5 .
Solution Nous devons montrer qu’il existe trois réels a, b, c non tous nuls tels que :
a 2b c 0
.
2 a b c 0
a 2b c 0
a même solution que le système triangulé : .
5b c 0
La variable c est la seule variable libre de ce système triangulé. En remontant les
−3 1
équations, on trouve que l’ensemble S des triplets cherchés est : {𝑐 ( 5 , 5 , 1) , 𝑐 ∈ 𝑅}.
Ce système a une infinité de solutions. Il a donc au moins une solution (a, b, c) avec a, b,
c non tous nuls (dite solution non triviale). Donc, la famille (v1, v2, v3) est l i é e . Par
3 1
exemple, en prenant c=1, on obtient la solution , ,1 .
5 5
3 1
Ainsi, v1 v2 v3 0 .
5 5
x1 x2 x3 x4 0
solutions que le système : ( E’) .
x3 17 x4 0
Ainsi, F = vect((−1, 1, 0, 0), (16, 0, −17, 1)). La famille ((−1, 1, 0, 0), (16, 0, −17, 1)) est libre.
c’est que x2 = x4 = 0. La famille (−1, 1, 0, 0), (16, 0, −17, 1) génératrice de F et libre est
donc une base de F.
Montrons que cette famille de scalaires λ1 , . . . λn est unique. Pour ce faire, soit 1' , , n' une
deuxième famille de scalaires telle que u 1'e1 n' en . Par différence, on obtient :
u (1 1' )e1 (n n' )en =0.
Comme la famille (e1 , e2 , . . . , en ) est libre, il en résulte que 1 1' 0, , n n' 0 . D’où
l’unicité de la décomposition de u. On peut donc donner la définition,
Définition 5.6.1 (coordonnées d’un vecteur dans une base) Soit B = (e1 , e2 , . . . , en ) une
base d’un K-espace- vectoriel E. Tout vecteur u de E s ’ é c r i t de façon unique
Si E possède une base B de n éléments, notons que deux vecteurs de E sont égaux si et
seulement si leurs n coordonnées dans B sont égales.
Cas p> 1 : Si la famille (v1 , . . . , vp ) est libre, puisqu’elle est supposée génératrice, c’est une
base de E. Sinon, il existe a1 , . . . , ap ∈ K non tous nuls tels que :
a1 v1 + a2 v2 + · · · + ap vp = 0.
Quitte à renuméroter la famille, on peut supposer que a1 est non nul. On en déduit :
a2 ap
v1 v2 vp .
a1 a1
a a
u 2 1 2 v2 p 1 p v p .
a1 a1
Ainsi, la famille (v2 , , v p ) est génératrice. En itérant ce procédé, on obtient une base de E
extraite de la famille (v1 , , vp ) .
Proposition 5.7.3 Soit E un K-espace vectoriel de dimension n, alors toute famille libre peut
être complétée en une base.
Preuve : Soit (v1 , . . . , vp ) une famille libre de vecteurs de E. On sait alors que p ≤ n
Si la famille (v1 , . . . , vp ) est génératrice, c’est une base de E. Sinon, il existe vp+1 ∈ E non
combinaison linéaire de (v1 , . . . , vp ). Considérons une relation : a1v1 + … + apvp + ap+1vp+1 =
a a
0, où ai K. Alors ap+1 = 0, sinon v p 1 1 v1 p v p ce qui contredit l’hypothèse
a p 1 a p 1
faite sur vp+1. Il en résulte, a1 v1 + · · · + ap vp + ap+1 vp+1 = 0.
Mais alors, puisque la famille de départ (v1 , . . . , vp ) est une famille libre, tous les ai
sont nuls. On a ainsi montré que la famille (v1 , . . . , vp+1 ) est libre et que l’on pouvait
donc compléter la famille (v1 , . . . , vp ) en une famille libre (v1 , . . . , vp+1 ). En itérant ce
procédé et en moins de dimKE-p é́tapes, nous complétons (v1 , . . . , vp ) en une base de E.
On fabriquerait sinon une famille libre de E ayant dimKE+1 éléments.
Proposition 5.7.4 Soit (f1 , . . ., fp ) une famille génératrice et (e1 , . . . , em ) une famille
libre d’un K-espace vectoriel E. Alors, on peut compléter la famille (e1 , . . . , em ) par des
n’est pas une famille génératrice. L’un des fi n’est alors pas dans vect(e1 , . . . , em ). Sinon
Si am+1 est non nul, on aurait fi1 = −(1/am+1 )(a1 e1 + · · · + am em ), ce qui contredit
l’hypothèse sur fi1. Donc, am+1 = 0 et la famille (e1 , . . . , em ) étant libre, on en déduit
que tous les ai sont nuls. La famille (e1 , . . . , em , fi1 ) est donc libre. Si c’est une
continuons. Supposons la famille e1 ,..., em , fi1 ,..., fir libre. Les f i j sont alors deux à deux
distincts, car une famille libre ne contient pas deux vecteurs égaux. Si e1 ,..., em , fi1 ,..., fir
est génératrice, alors c’est une base de E. Sinon, par le même argument que précédemment,
il existe ir 1 ∈ {1, … , 𝑝} tel que f ir 1 e1 ,..., em , fi1 ,..., fir . On montre alors comme
précédemment que la famille e1 ,..., em , fi1 ,..., fir est libre. En moins de p étapes, on obtient
une base de E car e1 ,..., em , f1 ,..., f p est une famille génératrice de E.
• ∀ u, v ∈ E , f (u + v) = f (u) + f (v) ,
• ∀ λ ∈ K, ∀u ∈ E , f (λu) = λf (u).
Exemple.
Une matrice par exemple à coefficients réels de n lignes et p colonnes est un tableau
constitué de n lignes formées de p réels. L’ensemble de ces matrices est muni de deux
opérations naturelles : addition et multiplication par un réel. Nous définissons de plus le
produit « ligne-colonne » qui permet de multiplier une matrice n lignes et p colonnes
par une matrice p lignes et m colonnes.
Les matrices codent les systèmes d’équations linéaires et ce codage est à la source du
produit ligne-colonne. Il existe plus précisément une correspondance entre système
d’équations linéaires et équations matricielles.
Dans ce cours, K désignera soit l'ensemble ℝ des nombres réels, soit l'ensemble ℂ des nombres
complexes.
1 Définitions
Définition 1.1 Soit n et p deux entiers naturels. Une matrice 𝑛 × 𝑝 à coefficients dans K est la
donnée d'une famille (𝑎𝑖𝑗 )1≤𝑖≤𝑛 ,1≤𝑗≤𝑝 de 𝑛𝑝 éléments de K. Elle est représentée par le tableau
𝑎11 … 𝑎1𝑝
à n lignes et p colonnes : 𝑀 = ( ⋮ … ⋮ ).
𝑎𝑛1 … 𝑎𝑛𝑝
L’é́lément 𝑎𝑖𝑗 de K est le terme de sa i-ème ligne et j - è me colonne qui est appelé le terme
général de M. On dit que la matrice M est une matrice à n lignes et p colonnes.
Notation 1.1 On note 𝑀𝑛,𝑝 (𝐾) l’ensemble des matrices à n lignes et p colonnes.
Soit a1, . . . , ap ∈ 𝐾, la matrice (a1, a2,. . ., ap ) ∈ 𝑀1,𝑝 (𝐾) est appelée matrice ligne.
On note 0 la matrice de 𝑀𝑛,𝑝 (𝐾) dont tous les coefficients sont nuls.
Soit 𝑀 = (𝑎𝑖𝑗 )1≤𝑖≤𝑛,1≤𝑗≤𝑛 ∈ 𝑀𝑛 (𝐾) une matrice carrée. Les coefficients 𝑎𝑖𝑖 sont appelés
coefficients diagonaux.
𝑎11 … 0
𝑀=( ⋮ ⋱ ⋮ ).
0 … 𝑎𝑛𝑛
Enfin, on note 𝐼𝑛 ∈ 𝑀𝑛 (𝐾) la matrice diagonale dont les éléments diagonaux sont égaux à
1:
1 … 0
𝐼𝑛 = ( ⋮ ⋱ ⋮ ).
0 … 1
Soit 𝑴 = (𝒂𝒊𝒋 ) ∈ 𝑴𝒏,𝒑 (𝑲), 𝑁 = (𝑏𝑖𝑗 ) ∈ 𝑴𝒏,𝒑 (𝑲). La somme de M et N est la matrice
de 𝑀𝑛,𝑝 (𝐾) dont le terme général est 𝑎𝑖𝑗 + 𝑏𝑖𝑗 . Elle est notée M + N. Ainsi
0 1 3 4 1 2 0 0 1 1 3 4
Exemple : .
1 2 3 4 1 3 2 1 0 5 1 5
Soit λ ∈ K, le produit de M par λ est la matrice de 𝑀𝑛,𝑝 (𝐾) dont le terme général est
λaij. Elle est notée λM. Ainsi :
a11 a1 p a11 a1 p
M .
a anp an1 anp
n1
0 1 3 4 0 2 6 8
Exemple 2 .
1 2 3 4 2 4 6 8
Ces deux opérations munissent 𝑀𝑛,𝑝 (𝐾) d’une structure de K-espace vectoriel.
2.3 Produit ligne-colonne d’une matrice de 𝑴𝒏,𝒑 (𝑲) par une matrice de 𝑴𝒑,𝒒 (𝑲)
Nous allons définir une opération qui associera à 𝑴 ∈ 𝑴𝒏,𝒑 (𝑲), 𝑵 ∈ 𝑴𝒑,𝒒 (𝑲) une
matrice notée 𝑴𝑵 ∈ 𝑴𝒏,𝒒 (𝑲) et appelée produit de M par N , et donc définir une
application :
Commençons par définir ce produit dans le cas du produit d’une matrice ligne par
une matrice colonne, c’est à dire d’une matrice de 𝑀1,𝑝 (𝐾 ) par une matrice 𝑀𝑝,1 (𝐾 ).
Ce produit est défini par l’application :
𝑏1
𝐿 = (𝑎1 𝑎2 … 𝑎𝑝 ), 𝐶 = (𝑏2 ) ⟼ 𝐿𝐶 = 𝑎1 𝑏1 + 𝑎2 𝑏2 + ⋯ + 𝑎𝑝 𝑏𝑝 .
⋮
𝑏𝑝
( )
A partir de là, le produit de 𝑴 ∈ 𝑴𝒏,𝒑 (𝑲) par 𝑵 ∈ 𝑴𝒑,𝒒 (𝑲) est la matrice M N dont
le terme plaçé à la i-ème ligne et j-ème colonne est 𝐿𝑖 𝐶𝑗 produit de la i-ème ligne
de M par la j-ème colonne de N.
𝑎11 … 𝑎1𝑝 𝑏11 … 𝑏1𝑞 𝐿1 𝐶1 … 𝐿1 𝐶𝑞
𝑀=( ⋮ ⋱ ⋮ ),𝑁 = ( ⋮ ⋱ ⋮ ) ⟼ 𝑀𝑁 = ( ⋮ ⋱ ⋮ ).
𝑎𝑛1 … 𝑎𝑛𝑝 𝑏𝑝1 … 𝑏𝑝𝑞 𝐿𝑛 𝐶1 … 𝐿𝑛 𝐶𝑞
𝑏1𝑗
où 𝐿𝑖 = (𝑎𝑖1 … 𝑎𝑖𝑝 ) est le i-ème ligne de M et 𝐶𝑗 = ( ⋮ ) est la j-ème colonne de N.
𝑏𝑝𝑗
𝑳𝒊 𝑪𝒋 = ∑ 𝒂𝒊𝒌 𝒃𝒌𝒋 .
𝒌=𝟏
1 1 0
0 1 3 4 1 2 1 5 5 4
Exemple .
1 2 3 4 0 1 1 1 8 5
1 0 0
Proposition 2.1 Dès qu’elles ont un sens, nous avons les égalités entre matrices :
𝑣) 𝐼𝑛 𝑀 = 𝑀𝐼𝑝 = 𝑀.
Transposition
C’est une application qui à 𝑴 ∈ 𝑴𝒏,𝒑 (𝑲) associe une matrice notée t𝑴 ∈ 𝑴𝒑,𝒏 (𝑲)
appelée transposée de M d é finie par :
𝑴𝒏,𝒑 (𝑲) ⟶ 𝑴𝒑,𝒏 (𝑲)
.
(𝒂𝒊𝒋 ) ⟼ (𝒂𝒋𝒊 )
𝟏≤𝒊≤𝒏,𝟏≤𝒋≤𝒑 𝟏≤𝒋≤𝒑,𝟏≤𝒊≤𝒏
Exemple :
𝑡 1 1 −2 4 1 0 −7
(0 4 1
5 0)=(−2 4 2)
5 6
−7 2 6 1
4 0 1
Définition 2.1. Soit 𝐴 ∈ 𝑀𝑛 (𝐾) une matrice carrée. Sa trace, notée Tr(A), est la somme de ses
coefficients diagonaux.
1 0 4 0
1 2 7 10
Exemple. A , on a : Tr(A) = 1+2+5+-1 = 7.
0 5 5 2
3 1 2 1
Si 𝐴𝐵 = 𝐵𝐴, alors ∀𝑛 ∈ ℕ,
𝒏
(𝑨 + 𝑩) = ∑ 𝑪𝒌𝒏 𝑨𝒌 𝑩𝒏−𝒌
𝒏
𝒌=𝟎
avec
𝒏!
𝑪𝒌𝒏 = .
𝒌! (𝒏 − 𝒌)!
Proposition 2.2 Soit 𝜆 ∈ 𝐾, 𝑀 𝑒𝑡 𝑁 ∈ 𝑀𝑛,𝑝 (𝐾) dès qu’elles ont un sens, on a les
égalités : t (M + N) = t M + t N , t (λM) = λ(t M), t (M N) = (t N) (t M),
t (t M) = M.
Définition 2.2 Une matrice carrée est dite symétrique si elle est é g a le à sa transposée:
t M = M. Elle est antisymétrique si t M = -M.
Définition 3.1 Une matrice 𝑀 ∈ 𝑀𝑛 (𝐾) est dite inversible, s’il existe 𝑛 ∈ 𝑀𝑛 (𝐾) tel que
𝑀𝑁 = 𝑁𝑀 = 𝐼𝑛 . La matrice N est alors unique, appelée inverse de M et notée 𝑴−𝟏 .
Notation 3.1. Nous noterons Gln (K) l’ensemble des matrices inversibles Mn (K).
Proposition 3.1
3. Si M est une matrice carrée inversible, son inverse 𝑀 −1 est inversible et l’inverse
et
𝑁 −1 𝑀−1 M N = 𝑁 −1 (𝑀 −1 M )N = 𝑁 −1 In N = 𝑁 −1 N = In.
4) Soit M une matrice carrée inversible. En utilisant la formule sur la transposée d’une
multiplication donnée dans la proposition 2.2, nous obtenons :
𝑎 𝑏
Définition 4.1 Soit 𝐴 = ( ) ∈ 𝑀2 (𝐾). On appelle déterminant de A et on note det(A)
𝑐 𝑑
l’élément de K définie par : det(A) = ad - bc.
𝑎 𝑏
Proposition 4.1 Soit 𝐴 = ( ) ∈ 𝑀2 (𝐾). La matrice A est inversible si et seulement si
𝑐 𝑑
det(A) ≠ 0. On a alors :
1 𝑑 −𝑏
𝐴−1 = ( ).
𝑎𝑑 − 𝑏𝑐 −𝑐 𝑎
= 𝑎11 (𝑎22 𝑎33 - 𝑎32 𝑎23 ) - 𝑎21 (𝑎12 𝑎33 - 𝑎32 𝑎13) + 𝑎31 (𝑎12 𝑎23 - 𝑎22 𝑎13 ).
Remarque 4.1 Avec les notations de la définition 4.2, on remarque que pour
tout j , i ∈ {1, 2, 3} :
1 t
A1 Com( A)
det( A)
où com(A) ∈ Mn(K) est la matrice de terme général le cofacteur de aij : (−1)i+j ∆ij .
i i ) S i deux l i gnes d’ une m at ri c e sont pr oport i onnel l es (ou i dent i ques) al ors
𝑑𝑒𝑡(𝑀) = 0.
iv) Si aux éléments d’une ligne d’une matrice M on ajoute 𝜆 fois les éléments
correspondants d’une autre ligne, la valeur de son déterminant reste inchangée.
v) Si chaque élément d’une ligne de la matrice M est multiplié par un scalaire 𝜆, alors
son déterminant est multiplié par 𝜆.
vi) Si l’on permute deux lignes d’une matrice, le signe de son déterminant change.
Exemple
1 9 −3 1 9 −2 − 1
|4 6 −2| = | 4 6 −2 + 0|
−3 1 5 −3 1 2+3
1 9 −2 1 9 −1
=| 4 6 −2| + | 4 6 0 | = −160.
−3 1 2 −3 1 3
5. Rang d’une matrice
Contrairement au déterminant, la notion de rang d’une matrice se définit pour les matrices
quelconques et non nécessairement carrées.
Une matrice 𝐴 ∈ 𝑀𝑛,𝑝 (𝐾) non nulle est de rang 𝑟 = 𝑟𝑔(𝐴) si au moins l’un de ses mineurs
carrés d’ordre r est différent de 0, tandis que chaque mineur carré d’ordre r+1 est nul.
Ou encore, le rang de la matrice 𝐴 ∈ 𝑀𝑛,𝑝 (𝐾) est l’ordre de la plus grande sous-matrice carrée
de déterminant non nul que l’on peut extraire de A.
Exemple
1 2 3 4
𝐴 = ( 1 0 1 2 ) ∈ 𝑀3,4 (ℝ).
−1 1 0 −1
1 2 3
| 1 0 1| = 0, on constate que tous les déterminants des sous-matrices carrées
−1 1 0
d’ordre 3 extraites de la matrice A sont nuls, donc 𝑟𝑔(𝐴) < 3.
1 2
On vérifie facilement que | | = −2 ≠ 0 par conséquent on a 𝑟𝑔(𝐴) = 2.
1 0
Remarque La matrice nulle est la seule matrice de rang nul.
Propriété 5.1 Le rang d’une matrice 𝐴 ∈ 𝑀𝑛,𝑝 (𝐾) non nulle est égale au nombre
maximum de lignes linéairement indépendantes de la matrice A.
Propriétés 5.3
𝑖) 𝑟𝑔(𝐴 + 𝐵) = 𝑟𝑔(𝐴) + 𝑟𝑔(𝐵) ;
ii) si 𝑟𝑔(𝐴) = 𝑟𝑔(𝐵) alors 𝑟𝑔(𝐴𝐵) = 𝑟𝑔(𝐵𝐴).
am1 x1 am 2 x2 amn xn bm
.
x1 x1 b1
vérifie A où 𝐴 = (𝑎𝑖𝑗 ) ∈ 𝑀𝑚,𝑛 (𝐾).
x x b
n n m
x1 b1
Le système d’équations linéaires associé à l’équation A admet
x b
n m
x1 b1
1
comme unique solution A .
x b
n m
a x a12 x2 b1
( E ) 11 1 .
a21 x1 a22 x2 b2
a a
La matrice associée à ce système est A 11 12 . Si A est inversible alors l’unique
a21 a22
x b
solution de (E) est 1 A1 1 .
x2 b2
x1 b1
1
Si A est inversible, l’unique solution de (E) est : x2 A b2 .
x b
3 3
Le calcul donne :
x1 x2 x2 1
2 x1 2 x2 x3 0 .
x x 2x 2
1 2 3
x1 1 1 1 1
Ce système équivaut à l’égalité matricielle : A x2 0 , où A 2 2 1 .
x 2 1 1 2
3
Le déterminant de A est -2. Ainsi, la matrice A est inversible et notre système admet une
unique solution.
i) Le système linéaire reste invariant pour les trois opérations élémentaires à savoir :
la permutation de lignes, la multiplication d'une ligne par une constante et l'addition d'une ligne
à une autre.
ii) Si la matrice A est triangulaire supérieure, alors la résolution du système linéaire 𝑨𝑿 = 𝑩
se fait par substitution arrière.
1) Fixer le pivot 𝑎𝑖𝑖 ≠ 0. Si le pivot d'une ligne i est nul on cherche dans les lignes suivantes le
premier élément non nul dans la même colonne (colonne i) et on fait une permutation des lignes
du système linéaire.
2) Soustraire des lignes j suivantes (𝑗 > 𝑖) la ième ligne de A et de B multipliée par la quantité
(𝑎𝑗𝑖 /𝑎𝑖𝑖 ). Avec aji les coefficients des différentes lignes se trouvant sur la même colonne du
𝑎𝑗𝑖
pivot : 𝐿′𝑗 = 𝐿𝑗 − (𝑎 ) 𝐿𝑖 .
𝑖𝑖
Exemple 6.1
2𝑥 + 𝑦 − 2𝑧 + 3𝑡 = 1 𝐿1
{ 𝟑𝑥 + 2𝑦 − 𝑧 + 2𝑡 = 4 𝐿2 .
3𝑥 + 3𝑦 + 3𝑧 − 3𝑡 = 5 𝐿3
On voit que les coefficients devant x sont tous non nuls. On peut fixer le pivot 𝑎11 = 2 ≠ 0
𝑎 𝑎
puis on transforme les lignes 𝐿2 et 𝐿3 : 𝐿′2 = 𝐿2 − (𝑎21 ) 𝐿1 et 𝐿′3 = 𝐿3 − (𝑎31 ) 𝐿1 .
11 11
On obtient,
2𝑥 + 𝑦 − 2𝑧 + 3𝑡 = 1 𝐿1
1 5 5
{ 𝑦 + 2𝑧 − 𝑡 = 𝐿′ 2 .
2 2 2
0 = −4 𝐿"3
Dans cet exemple on trouve 0 = −4 ce qui est évidemment faux, on dit alors que le système
est incompatible ou qu’il n’a pas de solutions : 𝑆 = ∅.
Exemple 6.2
1𝑥 + 2𝑦 − 𝑧 = 1 𝐿1
{ 2𝑥 + 3𝑦 + 𝑧 = 2 𝐿2 .
2𝑥 − 4𝑦 − 6𝑧 = 2 𝐿3
Après la même méthode décrite ci-dessus on trouve :
𝑥 + 2𝑦 − 𝑧 = 1 𝐿1 𝑥 + 2𝑦 − 𝑧 = 1 𝐿1
{ −1𝑦 + 3𝑧 = 0 𝐿′ 2 puis { −1𝑦 + 3𝑧 = 0 𝐿′2 .
−8𝑦 − 4𝑧 = 0 𝐿′3 28𝑧 = 0 𝐿"3
On trouve 𝑧 = 0 dans d’abord l’équation 𝐿"3 puis dans 𝐿′2 pour trouver la valeur 𝑦 = 0.
Enfin dans 𝐿1 on trouve 𝑥 = 1. Ainsi, le système a pour solution 𝑆 = {(1, 0, 0)}.
𝑥 − 3𝑦 + 4𝑧 − 2𝑡 = 5
{ 𝑥 − 𝑦 + 9𝑧 − 𝑡 = 7 .
𝑥 − 2𝑦 + 7𝑧 − 2𝑡 = 9
Systèmes homogènes
Les systèmes homogènes sont les systèmes de la forme :
Remarque La dimension de l’espace des solutions égale au nombre de variables libres qui
apparaissent dans le système sous forme échelonnée.
Définition 1.1 Soit E et F deux K-espaces vectoriels, une application linéaire de E vers F est
une application vérifiant :
Remarques Ces deux conditions sont équivalentes au seul fait que l’application f
préserve les combinaisons linéaires de deux vecteurs :
Ceci est encore équivalent au fait que f préserve n’importe quelle combinaison linéaire :
Exemples
𝑓∶ℝ→ℝ
1) Les applications de la forme
𝑥 ↦ 𝑎𝑥
avec 𝑎 ∈ ℝ sont linéaires. Ce sont d’ailleurs les seules applications linéaires de ℝ dans ℝ.
2 ) Toute matrice 𝐴 ∈ 𝑀𝑛,𝑚 donne naissance à une application 𝑓𝐴 : ℝ𝑚 → ℝ𝑛 , 𝑋 ↦ 𝐴𝑋, où
la multiplication 𝐴𝑋 de la matrice 𝐴 par le vecteur colonne 𝑋 est
𝑎11 … 𝑎1𝑚 𝑥1 𝑎11 𝑥1 + ⋯ + 𝑎1𝑚 𝑥𝑚
( ⋮ ⋱ ⋮ )( ⋮ ) = ( ⋮ )
𝑎𝑛1 ⋯ 𝑎𝑛𝑚 𝑥𝑚 𝑎𝑛1 𝑥1 + ⋯ + 𝑎𝑛𝑚 𝑥𝑚
qui est linéaire car la multiplication des matrices l’est :
𝐴(𝑋 + 𝑌) = 𝐴𝑋 + 𝐴𝑌 𝑒𝑡 𝐴(𝜆𝑋) = 𝜆(𝐴𝑋).
ℎ𝜆 ∶ 𝐸 → 𝐸, 𝑥 ↦ ℎ𝜆 (𝑥) = 𝜆𝑥
6) L’application 𝑓 → 𝑓′ qui à une fonction associe sa dérivée est linéaire (de l’espace des
fonctions dérivables dans l’espace des fonctions).
𝑏
7) L’application 𝑓 ↦ ∫𝑎 𝑓(𝑡)𝑑𝑡 est linéaire (de l’espace des fonctions continues dans ℝ.)
𝜆𝑔 ∘ 𝑓(𝑢) + 𝛽𝑔 ∘ 𝑓(𝑣).
Proposition 1.2
1) Soit 𝑓 ∈ LK (E, F), 𝑔 ∈ LK (E, F) et soit λ ∈ K. Les applications
𝑓 + 𝑔 𝑒𝑡 𝜆𝑓 sont linéaires.
2) Munis de ces opérations, (LK (E, F) ; +, × ) est un K-espace vectoriel.
Notation 1.2 On note GLK (E) ⊂ LK (E) l’ensemble des isomorphismes linéaires de E
vers E.
Proposition 2.1 Soit 𝑓 ∶ 𝐸 ⟶ 𝐹 une application linéaire entre deux K-espaces vectoriels.
Preuve de 1) : L’ensemble 𝑓(𝑈) est non vide, car 0𝐸 ∈ 𝑈 et donc 𝑓(0𝐸 ) = 0𝐹 ∈ 𝑓(𝑈).
Soit 𝑦, 𝑦′ ∈ 𝑓(𝑈) et λ ∈ K. Par définition de 𝑓(𝑈), il existe 𝑥, 𝑥 ′ ∈ 𝑈 tels que
𝜆𝑦 = 𝜆𝑓(𝑥) = 𝑓(𝜆𝑥).
Preuve
Cela montre que tout 𝑦 ∈ 𝐹 est combinaison linéaire de 𝑓(𝑣1 ), 𝑓(𝑣2 ), . . . , 𝑓(𝑣𝑝 ).
1) 𝑓 est injective ;
2) 𝑓 est surjective ;
3) 𝑓 est un isomorphisme.
Ainsi, 𝑘𝑒𝑟𝑓 = {0𝐸 }. Il résulte encore de la proposition 2.2 que 𝑓 est injective. Etant injective
Exercice corrigé 1
𝑓(𝑥, 𝑦, 𝑧, 𝑡) = (𝑥 + 𝑦 + 𝑧 + 𝑡 ; 𝑥 − 𝑦 + 𝑧 − 𝑡 ; 𝑥 − 𝑦).
1) Déterminer le noyau de 𝑓.
2) L’application 𝑓 est-elle injective ? Justifier votre réponse.
3) Déterminer le rang de 𝑓. L’application 𝑓 est-elle surjective ?
4) Trouver Im(𝑓).
Définition 3.1 Soit E et F deux K-espaces vectoriels. On suppose donnée une base
ℬ = (𝑒1 , … , 𝑒𝑛 ) de E et une base ℬ ′ = (𝑒′1 , … , 𝑒′𝑚 ) de F. Soit 𝑓 ∈ LK (E, F). On appelle
matrice de 𝑓 dans les bases ℬet ℬ′, la matrice notée 𝑀(𝑓, ℬ ′ , ℬ) ∈ 𝑀𝑚,𝑛 (𝐾) définie comme
suit : la i-ème colonne de 𝑀(𝑓, ℬ ′ , ℬ) est formée des coordonnées de 𝑓(𝑒𝑖 ) dans la base ℬ′.
On dit encore que 𝑀(𝑓, ℬ ′ , ℬ)est la matrice de 𝑓 avec comme base d'arrivée ℬ ′ et base de
départ ℬ.
Proposition 3.2 Soit E et F deux K-espaces vectoriels. On suppose donnée une base
ℬ = (𝑒1 , … , 𝑒𝑛 ) de E et une base ℬ ′ = (𝑒′1 , … , 𝑒′𝑚 ) de F.
𝑥1
Soit 𝑋 = ( ⋮ ) la matrice colonne formée des coordonnées du vecteur 𝑢 dans la base ℬ.
𝑥𝑛
𝑦1
Soit 𝑌 = ( ⋮ ) la matrice colonne formée des coordonnées du vecteur 𝑓(𝑢) dans la base ℬ’.
𝑦𝑚
Alors, 𝑌 = 𝑀(𝑓, ℬ ′ , ℬ)𝑋.
Preuve Soit 𝑎𝑗𝑖 le terme de j-ème ligne et de la i-ème colonne de 𝑀(𝑓, ℬ ′ , ℬ). Par définition,
les coordonnées de 𝑓(𝑒𝑖 ) dans la base ℬ’ sont :
a1i
. Soit u∈ , on a f (u) f ( x1e1 ... xnen ) x1 f (e1 ) ... xn f (en ) . On obtient,
a
mi
y1 a11 a1n a11 x1 ... a1n xn x1
x1 ... xn 𝑀(𝑓, ℬ , ℬ)
′
.
y a a a x ... a x x
m m1 mn m1 1 mn n n
𝑥1 + 2𝑥2
2 3
𝑥1
𝑓: ℝ ⟶ ℝ , (𝑥 ) ↦ ( 1 + 4𝑥2 ).
3𝑥
2
5𝑥1 + 6𝑥2
Notons ℬ = (𝑒1 , 𝑒2 ) la base canonique de ℝ2 et ℬ ′ = (𝑒′1 , 𝑒′2 , 𝑒′3 )la base canonique de ℝ3 .
1
1
On a f (e1 ) f 3 e '1 3e '2 5e '3 ,
0 5
2
0
f e2 f 4 2e '1 4e '2 6e '3 .
1 6
1 2
Ainsi, 𝑀(𝑓, ℬ′ , ℬ) = (3 4).
5 6
𝑀(𝑓 + 𝑔, ℬ′, ℬ) = 𝑀(𝑓, ℬ′, ℬ) + 𝑀(𝑔, ℬ′, ℬ)et 𝑀(𝜆𝑓, ℬ′, ℬ) = 𝜆𝑀(𝑓, ℬ′, ℬ).
Remarques
ii) Soit E un K-espace vectoriel de dimension n. La matrice de 𝐼𝑑𝐸 dans toutes les bases
de E est la matrice 𝐼𝑛 .
Définition 4.1 Soit E un K-espace vectoriel, ℬ = (𝑒1 , … , 𝑒𝑛 ) et ℬ ′ = (𝑒′1 , … , 𝑒′𝑚 ) deux bases
de E. On appelle matrice de passage de la base ℬ à la base ℬ′ la matrice P de 𝑀𝑛 (𝐾) dont la
i-ème colonne est formée des coordonnées de 𝑒′𝑖 dans la base ℬ. La matrice P est inversible et
𝑃−1 est la matrice de passage de la base ℬ′ à la base ℬ.
On peut observer que P est la matrice de l’application linéaire identité avec ℬ′ comme base de
départ et ℬ comme base d’arrivée. Autrement dit, 𝑃 = 𝑀(𝐼𝑑𝐸 , ℬ, ℬ′).
L’intérêt de cette matrice est que si X est la matrice colonne des coordonnées d’un vecteur 𝑢 de
E dans la base ℬ et 𝑋’ la matrice colonne de ses coordonnées dans la base ℬ′, on a :
𝑋 = 𝑃𝑋’ et 𝑋’ = 𝑃−1 𝑋.
Proposition 4.1 Soit E et F deux K-espaces vectoriels. Soit ℬ1 et ℬ′1 deux bases respectivement
de E et F et 𝐴 = 𝑀(𝑓, ℬ′1 , ℬ1 ) la matrice de 𝑓 avec base de départ ℬ1 et base d’arrivée ℬ′1 .
Corollaire 4.1 Soit E un K-espace vectoriel, ℬ1 une base de E et ℬ2 une deuxième base de E
(dite une nouvelle base). Soit P la matrice de passage de la base ℬ1 à la base ℬ2 . Soit LK (E),
𝐴 la matrice de 𝑓 dans la base ℬ1 et 𝐵 la matrice de 𝑓 dans la base ℬ2 . Alors 𝐵 = 𝑃−1 𝐴𝑃 et
𝐴 = 𝑃𝐵𝑃−1 .
Exercice corrigé 2
Soit dans ℝ3 les vecteurs : 𝑢 = (0, 1, 1) ; 𝑣 = (2, 0, −1) et 𝑤 = (2, 1, 1).
Montrer que {𝑢, 𝑣, 𝑤} est une base ℬ de ℝ3 .
Soit 𝑓 ∈ ℒ(ℝ3 ) défini par : 𝑓(𝑢) = 𝑤 ; 𝑓(𝑣) = 7𝑢 + 4𝑣 − 3𝑤 𝑒𝑡 𝑓(𝑤) = 𝑤.
2.a) Déterminer la matrice de f dans la base ℬ.
2.b) On pose 𝑒1 = −𝑢 + 𝑤 ; 𝑒2 = 2𝑢 + 𝑣 − 𝑤 ; 𝑒3 = −𝑢 − 𝑣 + 𝑤.
Déterminer les coordonnées dans ℬ de 𝑓(𝑒1 ) ; 𝑓(𝑒2 ) ; 𝑓(𝑒3 ).
3.a) Calculer les coordonnées dans la base canonique de ℝ3 des vecteurs
𝑒1 ; 𝑒2 ; 𝑒3 ; 𝑓(𝑒1 ) ; 𝑓(𝑒1 ) ; 𝑓(𝑒3 ).
3.b) Quelle est la matrice de f dans la base canonique de ℝ3 ?
3.c) Retrouver cette matrice par une formule du cours.
4) Déterminer le noyau et l’image de f.
2𝛽 + 2𝛾 = 0 (𝐿1)
{ 𝛼+𝛾 = 0 (𝐿2)
𝛼−𝛽+𝛾 = 0 (𝐿3)
(L2) – (L3) donne 𝛽 = 0 dans (L1), on trouve 𝛾 = 0 et par suite 𝛼 = 0 dans (L2).
Donc {𝑢, 𝑣, 𝑤} est une famille libre de ℝ3 . Par conséquent {𝑢, 𝑣, 𝑤} est une base ℬ de ℝ3 .
N. B. On peut aussi montrer que le déterminant des trois vecteurs est différent de 0 pour
conclure
0 7 0
𝑀(𝑓, ℬ ) = 𝐵 = (0 4 0).
1 −3 1
2.b) On pose 𝑒1 = −𝑢 + 𝑤 ; 𝑒2 = 2𝑢 + 𝑣 − 𝑤 ; 𝑒3 = −𝑢 − 𝑣 + 𝑤.
2 0 0
𝑒1 = −𝑢 + 𝑤 = (0) ; 𝑒2 = 2𝑢 + 𝑣 − 𝑤 = (1) ; 𝑒3 = (0).
0 0 1
N. B. On peut aussi utiliser la formule
X=PX’ 𝒂𝒗𝒆𝒄 𝑷 𝒍𝒂 𝒎𝒂𝒕𝒓𝒊𝒄𝒆 𝒅𝒆 𝒑𝒂𝒔𝒔𝒂𝒈𝒆 𝒅𝒆 𝒍𝒂 𝒅𝒂𝒔𝒆 (𝒆𝟏 , 𝒆𝟐 , 𝒆𝟑 ) à la base 𝓑.
0 4
𝑓(𝑒1 ) = 0ℝ3 = (0) ; 𝑓(𝑒2 ) = 7𝑢 + 4𝑣 − 2𝑤 = (5) ;
0 1
−2
𝑓(𝑒3 ) = −7𝑢 − 4𝑣 + 3𝑤 = (−4) .
0
3.b) Déterminons la matrice de f dans la base canonique de ℝ3 .
𝟎 𝟒 −𝟐
On déduit de la question 3.a) que 𝑴(𝒇, 𝓑′ ) = 𝑨 = (𝟎 𝟓 −𝟒).
𝟎 𝟏 𝟎
3.c) Retrouvons cette matrice par une formule du cours.
0 2 2 −1/2 2 −1
𝑃 = (1 0 1) et 𝑃−1 = ( 0 1 −1).
1 −1 1 1/2 −1 1
𝑥 𝑥 𝑥 0 4 −2 𝑥 0 1
𝐾𝑒𝑟(𝑓) = {(𝑦) , 𝑓 (𝑦) = 0ℝ3 } = {(𝑦) , (0 5 −4) (𝑦) = (0)} = 𝑣𝑒𝑐𝑡 ((0)).
𝑧 𝑧 𝑧 0 1 0 𝑧 0 0
4 −2
On déduit que 𝐼𝑚(𝑓) = 𝑣𝑒𝑐𝑡 ((5) , (−4)).
1 0
RATIONNELLES
1.1 Définitions
Définition 1.1
𝑃(𝑋) = ∑ 𝑎𝑛 𝑋 𝑛
𝑛=0
où (𝑎𝑛 )𝑛∈ℕ est une suite de scalaires tous nuls à partir d’un certain rang.
L’ensemble des polynômes à une indéterminée à coefficient dans l’ensemble K est noté 𝐾[𝑋].
● Les 𝑎𝑖 sont appelés les coefficients du polynôme.
● Si tous les coefficients a i sont nuls, P est appelé le polynôme nul, il est noté 0.
ii) Les polynômes comportant un seul terme non nul (du type 𝒂𝒌 𝑿𝒌 ) sont appelés
monômes.
à l ’ e n s e m b l e 𝐾𝑛 [𝑋] q u e n o u s n o t e r o n s a u s s i 𝐾[𝑋].
+ (𝑎0 + 𝑏0 )
Exercice
Définition 2.2 Soit 𝑃 ∈ 𝐾𝑛 [𝑋] et 𝛼 ∈ 𝐾. On dit que α est une racine (ou un zéro)
de P si 𝑃(𝛼) = 0.
ii) Il existe un polynôme Q tel que 𝑃(𝑋) = (𝑋 − 𝛼)𝑘 𝑄(𝑋) avec 𝑄(𝛼) ≠ 0.
𝑃′(𝑥) = 𝑛𝑎𝑛 𝑥 𝑛−1 + (𝑛 − 1)𝑎𝑛−1 𝑥 𝑛−2 + ⋯ + 2𝑎2 𝑥 + 𝑎1 avec 𝑥 ∈ 𝐾 est le polynôme dérivé
de P.
Remarque Sur cet exemple particulier on aurait aussi pu calculer les racines qui
sont ici les racines n-ième de l’unité.
2
P( X ) 3 X X 2 2 .
3
2
P( X ) 3 X X i 2 X i 2 et admet 3 racines simples.
3
Dans le cas contraire, on dit que P est réductible ; il existe alors des polynômes 𝑄,
𝑅 de 𝐾[𝑋] tels que 𝑃 = 𝑄𝑅, avec 𝑑𝑒𝑔(𝑄) ≥ 1 et 𝑑𝑒𝑔(𝑅) ≥ 1.
b) Soit 𝑃(𝑋) = 𝑋 4 + 1.
Sur ℂ, on a
P( X ) X 2 i X 2 i X
2 2 2 2
1 i
X 1 i
X 1 i
X 1 i
2 2 2 2
Sur ℝ. Pour un polynôme à coefficient réels, si α est une racine alors ᾱ aussi.
Dans la décomposition ci-dessus on regroupe les facteurs ayant des racines
conjuguées, cela doit conduire à un polynôme réel, on a : P ( X )
X
2
2
1 i
X
2
2
1 i
X
2
2
1 i
X
2
2
1 i X 2 2 X 1 X 2 2 X 1
qui est la factorisation de P dans ℝ[𝑋].
1
Exercice Factoriser P X (2 X 2 X 2) 2 X 4 1 et Q X 3 X 1 X X
3 2 2 2
4
3 Fractions rationnelles
Définition 3.1. Une fraction rationnelle à coefficients dans 𝐾 est une expression de la forme
𝑃(𝑋)
𝐹(𝑋) = 𝑄(𝑋) où 𝑃, 𝑄 ∈ 𝐾[𝑋] sont deux polynômes et 𝑄 ≠ 0.
𝑃(𝑋) 𝑏1 𝑏2 𝑏𝑘1
= 𝐸(𝑋) + + + ⋯ + +
𝑄(𝑋) (𝑋 − 𝛼1 )𝑘1 (𝑋 − 𝛼1 )𝑘1 −1 (𝑋 − 𝛼1 )
𝑐1 𝑐2 𝑐𝑘2
+ + ⋯ + +⋯
(𝑋 − 𝛼2 )𝑘2 (𝑋 − 𝛼2 )𝑘2 −1 (𝑋 − 𝛼2 )
𝑏𝑖
Le polynôme E s’appelle la partie polynomiale (ou partie entière). Les termes (𝑋−𝛼1 )𝑘𝑖
et
𝑐𝑖
(𝑋−𝛼2 )𝑘𝑖
sont les éléments simples de première espèce sur ℂ.
Tout d’abord si 𝑑𝑒𝑔(𝑄) > 𝑑𝑒𝑔(𝑃) alors 𝐸(𝑋) = 0. Si 𝑑𝑒𝑔(𝑃) ≤ 𝑑𝑒𝑔(𝑄) alors on effectue
𝑃 𝑅
la division euclidienne de P par Q. On obtient : 𝑃 = 𝑄𝐸 + 𝑅 donc = 𝐸 + 𝑄 où
𝑄
𝑑𝑒𝑔(𝑅) < 𝑑𝑒𝑔(𝑄). La partie polynomiale est donc le quotient de cette division.
𝑃(𝑋) 𝑋 5 − 2𝑋 3 + 4𝑋 2 − 8𝑋 + 11
= .
𝑄(𝑋) 𝑋 3 − 3𝑋 + 2
Le théorème de décomposition en éléments simples nous dit qu’il existe une unique
décomposition :
P X 2X 2 5X 9 a b c
X 2 1 X 2 1 .
Q X X 1 X 2
2
X 1 X 1 X 2
2
Notons
H X 2X 2 5X 9 a b c
On a .
Q X X 1 X 2 X 1
2 2
X 1 X 2
H X
par X 1 et on évalue en 𝑥 = 1.
2
Pour déterminer 𝑎 on multiplie la fraction
Q X
On en déduit 𝑎 = 2.
Comme les coefficients sont uniques tous les moyens sont bons pour les déterminer.
H X
On évalue enfin la décomposition théorique de en 𝑥 = 0, on obtient
Q X
𝑏 = −1. Finalement,
P X 2 1 3
X 2 1 .
Q X X 1 X 1 X 2
2
𝑋6 + 5
𝐺(𝑋) = .
(𝑋 + 1)(𝑋 + 2)(𝑋 2 + 3)
On a,
deg(𝑋 6 + 5) = 6 ≥ 4 = 𝑑𝑒𝑔(𝑋 4 + 3𝑋 3 + 5𝑋 2 + 9𝑋 + 6)
𝑋6 + 5 2
−6𝑋 3 + 𝑋 2 − 18𝑋 − 19
𝐺(𝑋) = = 𝑋 − 3𝑋 + 4 + .
(𝑋 + 1)(𝑋 + 2)(𝑋 2 + 3) (𝑋 + 1)(𝑋 + 2)(𝑋 + 𝑖√3)(𝑋 − 𝑖√3)
On a
−6𝑋 3 + 𝑋 2 − 18𝑋 − 19 𝑎 𝑏 𝑐 𝑑
𝐻(𝑋) = 2
= + + + .
(𝑋 + 1)(𝑋 + 2)(𝑋 + 3) 𝑋 + 1 𝑋 + 2 𝑋 + 𝑖√3 𝑋 − 𝑖√3
−6𝑋 3 +𝑋 2 −18𝑋−19 3
● lim (𝑋 + 1)𝐻(𝑋) = lim (𝑋+2)(𝑋 2 +3)
= 𝑎 = 2.
𝑋→−1 𝑋→−1
−6𝑋 3 +𝑋 2 −18𝑋−19 69
● lim (𝑋 + 2)𝐻(𝑋) = lim (𝑋+1)(𝑋 2 +3)
=𝑏= .
𝑋→−2 𝑋→−2 7
−87
On déduit que 𝑐 + 𝑑 = .
7
−403𝑖√3
● On calcule H(0) pour obtenir 𝑐 − 𝑑 = . Le reste est à TERMINER.
42
Définition 3.2 On appelle élément simple de deuxième espèce toute fraction rationnelle
pouvant s’écrire comme le quotient d’un polynôme de degré au plus égal à 1 par un polynôme
du second degré de discriminant strictement négatif, élevé éventuellement à une puissance
entière.
Formellement, un élément simple de deuxième espèce est une fraction rationnelle 𝐹(𝑋) qui
peut s’écrire :
𝐴𝑋 + 𝐵
𝐹(𝑋) =
(𝑎𝑋 + 𝑏𝑋 + 𝑐)𝑛
2
𝑎𝑣𝑒𝑐 𝐴1 , 𝐴2 , … , 𝐴𝑛 ∈ ℝ,
𝑎𝑣𝑒𝑐 𝐵1 , 𝐶1 , 𝐵2 , 𝐶2 , … , 𝐵𝑛 , 𝐶𝑛 ∈ ℝ.
𝑃(𝑋)
Remarque Soit 𝐹(𝑋) = 𝑄(𝑋) une fraction rationnelle irréductible dont le numérateur P est de
degré supérieur ou égal à celui du dénominateur Q. Pour effectuer la décomposition en éléments
de simples de F, on effectue la division euclidienne de P par Q.
On obtient :
𝑃(𝑋) 𝑅(𝑋)
= 𝐸(𝑋) +
𝑄(𝑋) 𝑄(𝑋)
𝑅(𝑋)
avec 𝑑𝑒𝑔(𝑅) < 𝑑𝑒𝑔(𝑄) puis on effectue la décomposition de comme au Théorème 3.1.
𝑄(𝑋)
Exemple 3
P( X ) 3 X 4 5 X 3 8 X 2 5 X 3
Décomposition en éléments simples de .
X 2 X 1 X 1
2
Q( X )
Comme 𝑑𝑒𝑔(𝑃) < 𝑑𝑒𝑔(𝑄) alors 𝐸(𝑋) = 0. Le dénominateur est déjà factorisé sur ℝ car
X 2 X 1 est irréductible. La décomposition théorique est donc :
P( X ) aX b cX d e
2 .
Q( X ) X 2 X 1 X X 1 X 1
2
3X 4 5 X 3 8 X 2 5 X 3 2 X 1 1 3
.
X X 1 X 1 X X 1 X X 1 X 1
2 2 2 2 2
𝑋4 + 2
𝐹(𝑋) = .
(𝑋 + 1)(𝑋 2 + 1)2
Ici 𝑑𝑒𝑔(𝑋 4 + 2) < 𝑑𝑒𝑔((𝑋 + 1)(𝑋 2 + 1)2 ), il n’y a donc pas de division euclidienne à
effectuer. La décomposition théorique donne :
𝑋4 + 2 𝑎 𝑏𝑋 + 𝑐 𝑑𝑋 + 𝑒
𝐹(𝑋) = 2 2
= + 2 + 2 .
(𝑋 + 1)(𝑋 + 1) 𝑋 + 1 𝑋 + 1 (𝑋 + 1)2
𝑋4 + 2 3
𝟏) lim (𝑋 + 1)𝐹(𝑋) = lim = 𝑎 = .
𝑋→−1 𝑋→−1 (𝑋 2 + 1)2 4
𝑋 4 +2 3 3 3 3
𝟐) lim (𝑋 2 + 1)2 𝐹(𝑋) = lim = 2 − 2 𝑖 = 𝑑𝑖 + 𝑒. On trouve 𝑑 = − 2 et 𝑒 = 2 .
𝑋→ 𝑖 𝑋→ 𝑖 𝑋+1
1
3) lim 𝑋𝐹(𝑋) = 1 = 𝑎 + 𝑏. On tire 𝑏 = 4. On calcule 𝐹(0) = 2 = 𝑎 + 𝑐 + 𝑒. On obtient
𝑋→+∞
1
𝑐 = − 4 . Ainsi,
3 1 1 3 3
𝑋4 + 2 𝑋 − 4 −2𝑋 + 2
𝐹(𝑋) = = 4 + 4 + .
(𝑋 + 1)(𝑋 2 + 1)2 𝑋 + 1 𝑋 2 + 1 (𝑋 2 + 1)2
Exercices
1
Exercice 1 Décomposer la fraction rationnelle 𝐹(𝑋) = en éléments simples
𝑋(𝑋+1)3 (𝑋+2)
sur ℂ.
1
Exercice 2 Décomposer la fraction rationnelle 𝑄(𝑋) = .
(𝑋+2)3 (𝑋−2)3
𝑋4 + 2
𝐹(𝑋) = .
(𝑋 + 1)(𝑋 2 + 1)2
Exercice 4 Décomposer en élément simples sur ℂ la fraction rationnelle suivante :
𝑋4 + 1
𝐹(𝑋) = .
𝑋3 − 1