Académique Documents
Professionnel Documents
Culture Documents
Chapitre1
Méthodes de résolution des équations non‐linéaires
1. Introduction
Les méthodes analytiques de résolution des équations algébriques polynômiales sont
limitées à certaines formes de faible degré telles que les équations quadratiques, cubiques
et quartiques. Pour les équations polynômiales entières de degré supérieur à quatre, il
n’existe guère de méthodes exactes de résolution et l’on doit employer des méthodes
numériques pour trouver les racines.
De plus, les méthodes analytiques limitées aux formes polynômiales simples sont
inutilisables pour les équations transcendantes telles que :
cos 1 0
Il faudra donc recourir aux méthodes numériques qui permettent de calculer des racines
approchées avec une précision déterminée.
Dans ce chapitre, nous présentons plusieurs techniques de résolution des équations non
linéaires. Les méthodes proposées sont : la méthode de la bissection, de Newton‐Raphson et
du point fixe.
Définition :
Une valeur de solution de 0 est appelée une racine ou un zéro de la fonction .
2. Méthode de la bissection
Cette méthode est appelée aussi « dichotomie », elle repose sur un théorème important
c’est le théorème des valeurs intermédiaires qui est à la base de l’étude de celle‐ci ainsi que
des autres méthodes.
Théorème
Si est une fonction continue sur l’intervalle , et si on a . 0 alors l’équation
0 possède au moins une racine dans l’intervalle , .
2.1. Développement de la méthode
On s’assure que si . 0 sur l’intervalle , , la racine est unique (c.à.d. que
est monotone dans l’intervalle , ).
2
On partage , en 2 intervalles, , et , tel que . Si . 0 cela
implique que la racine ∈ , et si . 0 cela implique qu’elle ∈ , (si 0,
serait la racine exacte). Le domaine gardé sera à son tour partagé jusqu’à arriver à un petit
domaine selon une précision donnée dont sa moitié sera considérée comme racine
approchée de l’équation 0.
Exemple 1 : Calculer la racine de l’équation 1 0 dans l’intervalle 1,2
avec la précision eps=0.001
Solution :
La fonction est un polynôme donc continue sur 1,2 .
1 1.0000 2.0000 1.5000 0.5000 8.8906
2 1.0000 1.5000 1.2500 0.2500 1.5647
3 1.0000 1.2500 1.1250 0.1250 ‐0.0977
4 1.1250 1.2500 1.1875 0.0625 0.6167
⋮
10 1.1300 1.1348 1.1338 0.001 0.0096
La racine approchée est 1.1338 obtenue après 10 itérations.
Exemple 2 : Résoudre l’équation cos dans l’intervalle 0.5,0.5 avec eps=0.0003.
Solution :
0
2
On remarque que cos 0 0.
Donc, 0 est la racine exacte de la fonction dans l’intervalle 0.5,0.5 .
2.2. Algorithme de la méthode
Pas 1 : ⟵ ⁄2
Pas 2 : Si , est considérée racine approchée (stop).
Pas 3 : Si 0, est considérée racine exacte (stop).
3
Pas 4 : Si . 0 Alors ⟵
Sinon ⟵
Pas 5 : Retour au pas 1.
2.3. Convergence et estimation de l’erreur
On démontre que la méthode de la bissection est convergente (vers la solution unique
de l’équation 0 dans l’intervalle , ).
On cherche à déterminer l’erreur maximale commise en utilisant la méthode de la
bissection dans l’intervalle , .
a b
c
Intervalle initial
a 1 b1
Pour 1 : la longueur du premier intervalle , , est .
Pour 2 : la longueur du deuxième intervalle , est .
Pour 3 : la longueur du troisième intervalle , est .
Pour 4 : la longueur du quatrième intervalle , est .
⋮
è
Pour : la longueur du (dernier) intervalle , est .
Cn α
an bn
La racine approchée est . Si on désigne par la solution exacte, alors on a :
| |
2 2
donc, l’erreur | | (1)
La relation (1) permet aussi de calculer à l’avance le nombre max d’itérations
nécessaires.
(2) ( ne dépend pas de )
4
d’itérations nécessaire (pour le calcul on peut se contenter de 9 tout en ayant atteint la
précision voulue).
3. Méthode de Newton‐Raphson
Soit la racine exacte de l’équation 0. Si est continue et continûment dérivable
au voisinage de , alors le développement en série de Taylor autour de ( étant la valeur
initiale) s’écrit :
⋯
1! 2! 3!
Donc on peut écrire :
Posons on trouve :
0
⇒
On considère maintenant le développement en série de Taylor autour de .
De la même manière que précédemment on trouve une nouvelle valeur tel que :
Ainsi on obtient la relation récursive suivante :
donné
5
3.1. Interprétation graphique de la méthode
Figure 1.1. Méthode de Newton‐Raphson
représente la dérivée :
0
Exemple : Trouver par la méthode de Newton‐Raphson la valeur approximative de la racine
de 2 0 à partir de 1 pour une précision 10
Solution :
2 0 ⇒ 5 1
En appliquant la formule de Newton‐Raphson, nous obtenons :
2
5 1
Alors en partant de 1, on obtient les itérations illustrées dans le tableau suivant :
6
0 ‐1.000000
1 ‐1.500000
2 ‐1.331620
3 ‐1.273516
4 ‐1.267237
5 ‐1.267168
6 ‐1.267168
3.2. Algorithme de la méthode
Pas 1 : ⟵ 1
Pas 2 : ⟵
3.3. Convergence et estimation de l’erreur
Théorème
On démontre que si est définie sur l’intervalle , tel que :
1. . 0
2. ∀ ∈ , 0
3. ∀ ∈ , 0
Alors la méthode de Newton‐Raphson engendre une suite qui converge vers la solution
unique de 0, en partant de l’approximation vérifiant :
. 0.
On démontre aussi que l’erreur commise en utilisant la méthode de Newton‐Raphson
comme outil de résolution s’écrit :
| | , ∈ ,
| | avec
2 | | , ∈ ,
7
4. Méthode du point fixe
Avant d’aborder la méthode du point fixe, il est important de définir ce que signifie un
point fixe d’une fonction.
Définition
Soit la fonction définie dans l’intervalle , . Tout point ∈ , tel que :
est dit point fixe de .
L’équation 0, avec continue sur , peut être mise sous la forme
tel que : .
Le choix d’une valeur initiale de la racine permet d’avoir une première approximation
tel que : puis une meilleure approximation tel que : ainsi on
obtient une suite définie par la relation récursive suivante :
4.1. Exemple
Soit à résoudre l’équation 2 0 à partir de la valeur initiale 1.2
Solution :
Il est possible de transformer l’équation précédente en plusieurs formes par
exemple :
a) 2
1.200
0.928
0.273
2.293
16.349
On remarque qu’on s’éloigne de la racine exacte 2 ⇒ Divergence.
b) 2 5 /5 on obtient :
1.2000
1.2544
1.2596
1.2599
1.2599
On remarque qu’on s’approche rapidement de la racine exacte 2 ⇒ Convergence.
8
De là on conclue que le choix de la forme est capital dans la détermination de la
convergence ou la divergence de la méthode du point fixe.
4.2. Algorithme de la méthode
Pas 1 : ⟵ 1
Pas 2 : ⟵
Pas 3 : Si | | Alors on arrête ( racine approchée)
Sinon Pas 4 : ⟵ 1
Pas 5 : Retour au pas 2.
4.3. Etude de la convergence de la méthode
Théorème
On démontre que si : , → , possède un point fixe dans l’intervalle , et si
| | 1 ce point est unique.
Exemple : On montre que la fonction possède un point fixe unique dans
l’intervalle 1,1 .
Solution :
Divisons l’intervalle en 2 parties : 1,0 et 0,1
1 1 0∈ 1,1
1
0 ∈ 1,1
3
Et nous avons :
1
∀ ∈ 1,0 ∶ ↘ ⇒ 0 1 0
3
1
∀ ∈ 0,1 ∶ ↗ ⇒ 0 1 0
3
Donc : 1,1 → 1,1
En plus | | 2 2 1
3 3
On conclu que le point fixe est unique dans 1,1 .
Théorème
9
est convergente et converge vers le point fixe unique de dans , .
4.4. Estimation de l’erreur
On démontre que l’erreur commise en utilisant la méthode du point fixe comme outil de
résolution vérifie la relation :
: la solution exacte
: la solution approchée
| | | | où | | .
1
| |
10
Chapitre 2
Résolution des systèmes d’équations linéaires (Méthodes
directes)
1. Introduction
Dans la pratique, l’ingénieur se trouve souvent confronté à des problèmes dont la
résolution passe par celle d’un système d’équations qui modélise les divers éléments
considérés. Par exemple, la détermination des courants et tensions dans des réseaux
électriques passe par la résolution d’un système d’équations linéaires ou non linéaires.
Dans ce chapitre, nous allons aborder deux principales méthodes de résolution des
systèmes linéaires, à savoir la méthode d’élimination de Gauss et Gauss avec pivot. De façon
générale, la résolution d’un système d’équations linéaires consiste à trouver un vecteur
… ( dénotera un vecteur colonne et l’indice supérieur
désignera sa transposée) solution de :
⋯
⋯
⋮
⋯
On peut utiliser la notation matricielle, qui est beaucoup plus pratique et surtout plus
compacte. On écrit alors le système précédent sous la forme :
où est la matrice :
…
…
⋮
…
11
2. Méthode de Cramer (Rappel)
C’est certainement la méthode la plus connue de résolution des systèmes linéaires.
Toutefois, nous allons voir que c’est la moins recommandable.
2.1. Solution utilisant les déterminants
si le | | 0 ⇒ le système possède une solution unique telle que :
| | | | | |
, , … ,
| | | | | |
La matrice est est obtenue par remplacement de la colonne i de la matrice A par le
vecteur .
Remarque : Si | | 0 ⇒ le nombre solutions est infini ou inexistant.
2.2. Solution utilisant la matrice inverse
Si | | 0 ⇒ existe.
. ⇒ ( est calculée par la méthode des cofacteurs).
Remarque : la méthode de Cramer exige un grand nombre d’opérations de calcul
! 1 . Si n est élevé, le nombre d’opérations augmente et par conséquent le
temps de calcul. De plus, pour les moyens et grands systèmes l’erreur cumulée d’arrondi
augmente avec le nombre d’opérations et altère la précision des résultats. On va aborder
d’autres méthodes qui nécessitent un nombre limité d’opérations de calcul, donc rapides et
plus précises.
3. Méthode de Gauss
3.1. Introduction (principe)
Cette méthode est basée sur la transformation du système linéaire en un
système équivalent tel que la matrice est une matrice triangulaire supérieure.
La transformation de la matrice A en et le vecteur b en passe par plusieurs étapes que
nous présentons à travers l’exemple suivant :
Pour une meilleure praticabilité, on forme la matrice telle que ⋮ et qu’on
appelle matrice augmentée de A.
Exemple : Soit à résoudre par Gauss le système linéaire suivant :
12
3 3 0 1 3 3 0 E1
2 2 2 2 2 0 2 E
2
3 2 6 11 3 2 6 11 E3
Etape 1 : élimination de de et
2 3
← , ←
1 1
1 3 3 0 E1
0 4 6 2 E
2
0 7 3 11 E3
Etape 2 : élimination de de
7
←
4
1 3 3 0 E1
0 4 6 2 E2
0 0 15 2 15 2 E3
Par substitution inverse on obtient :
15 15
⇒ 1
2 2
4 6 2 ⇒ 2
3 3 0 ⇒ 3
Donc, la solution est :
3
2
1
3.2. Algorithme
. :
; 1, 1 ; 1, ; 1, 1
. :
; , 1, … ,1
13
4. Méthode de Gauss avec pivot
Dans le processus d’élimination de la méthode de Gauss, on a supposé à chaque étape
1, 1 que l’élément 0, mais cette supposition n’est pas toujours vraie. Si
0, on cherche l’équation parmi celles qui suivent où l’élément 0 pour
faire la permutation ( ↔ ) et ainsi avoir 0.
Aussi, on remarque que la division par de petites valeurs génère une grande erreur ce qui
nous amène à choisir le plus grand en valeur absolue, c.à.d:
| | ;
Après le choix de , on poursuit normalement l’étape en cours selon Gauss.
14
Université des Frères Mentouri Module : « Méthodes Numériques »
Série de TD n° 1
Exercice 1 :
1. Montrer que cette équation possède une solution dans l’intervalle [1,2].
Exercice 2 :
Exercice 3 :
Exercice 4 :
1. Montrer que cette équation possède une solution dans l’intervalle [0,1].
Exercice 6 :
Solution du TD n° 1
Exercice 1 :
, [ ]
On pose ( )
1. L’existence de la solution dans l’intervalle [ ]:
[ ]} [ ] ( )
( ) ( ) ( ) ( )
2. L’unicité de la solution :
( ) [ ]
f est monotone la solution c est unique.
3. La bissection :
On applique maintenant la méthode de la bissection avec . On prendra 3 chiffres
après la virgule et le nombre d’itérations peut être calculé d’avance par la formule :
( )
1 1.000 2.000 1.500 0.500 +0.875
2 1.000 1.500 1.250 0.250 -0.297
3 1.250 1.500 1.375 0.125 +0.225
4 1.250 1.375 1.312 0.063 -0.054
5 1.312 1.375 1.343 0.032 +0.079
6 1.312 1.343 1.327 0.016 +0.010
7 1.312 1.327 1.319 0.008 -0.024
( )
1 0.0000 1.0000 0.5000 0.5000 +0.1756
2 0.5000 1.0000 0.7500 0.2500 -0.5877
3 0.5000 0.7500 0.6250 0.1250 -0.1676
4 0.5000 0.6250 0.5625 0.0625 +0.0128
5 0.5625 0.6250 0.5937 0.0313 -0.0750
6 0.5625 0.5937 0.5781 0.0156 -0.0305
7 0.5625 0.5781 0.5703 0.0078 -0.0087
8 0.5625 0.5703 0.5664 0.0039 +0.0020
9 0.5664 0.5703 0.5683 0.0020 -0.0032
10 0.5664 0.5683 0.5673 0.0010 +0.0004
( ) , * +
Etude de la convergence :
a)
( )
} ( ) ( )
( )
b)
( )
( ) impossible de résoudre puisque [ ]
donc
( ) * +
c)
( ) * +
0 —
1 0.967120 0.181722
2 0.964335 0.002785
3 0.964334 0.000001
√
On pose : ( )
( )
( )
2. et l’intervalle est [ ]
a) La convergence de la méthode de Newton-Raphson :
Pour on aura ( )
La fonction f est définie sur l’intervalle [ ] tel que :
( )
} ( ) ( )
( )
( ) [ ] donc ( ) [ ]
( ) .
Les conditions de convergence sont vérifiées donc la méthode de Newton-Raphson converge
vers une solution unique [ ].
b) Le calcul des 4 premières itérations :
L’équation récursive est :
Pour Pour
0 1.0000 0 3.0000
1 4.0000 1 2.6667
2 2.8750 2 2.6458
3 2.6549 3 2.6457
4 2.6458 4 2.6457
Exercice 5 :
( )
* +
* + [ ]
Comme [ ] * + [ ] [ ]
b) | ( )| [ ]
̀ {| ( )|} [ ]
( ) | ( )| car [ ]
( ) [ ] c.à.d. ( ) et elle atteint donc son Max
en .
( ) ( )
Les conditions a) et b) sont vérifiées donc la méthode du point fixe converge.
La suite est définie par la formule récursive suivante :
( ) ( )
0 0.500 —
1 0.878 0.378
2 0.639 0.239
3 0.803 0.164
4 0.694 0.109
5 0.769 0.075
6 0.719 0.050
7 0.752 0.033
8 0.730 0.022
9 0.745 0.015
10 0.735 0.010
Exercice 6 :
( ) , [ ]
1. Vérification des conditions de convergence :
( ) √( )
On a deux conditions à vérifier :
a. [ ] [ ]
La fonction g(x) est continue sur l’intervalle [ ]
( ) [ ]
√( ) [ ] ( )
( ) [ ] [ ] [ ]
( ) [ ] }
b. | ( )| [ ]
( ) | ( )|
√( ) √( )
[ ] [ ]
√( ) √( )
( ) ( ) ( )
( ) ( )
Les conditions a) et b) sont vérifiées donc la méthode du point fixe converge.
La suite est définie par la formule récursive suivante :
( ) √
0 1.500 —
1 1.357 0.143
2 1.331 0.019
3 1.326 0.005
TD n° 2
Exercice 1 :
Résoudre le système d’équations suivant en utilisant la méthode Gauss.
4𝑥1 + 𝑥2 + 2𝑥3 = 9
{2𝑥1 + 4𝑥2 − 𝑥3 = −5
𝑥1 + 𝑥2 − 3𝑥3 = −9
Exercice 2 :
En utilisant la méthode de Gauss, calculer le déterminant de WANDERMONDE de degré 3
suivant :
1 𝛼1 𝛼1 2
𝑊 = [ 1 𝛼2 𝛼2 2 ]
1 𝛼3 𝛼3 2
Exercice 4 :
Soit les deux matrices suivantes :
2 1 1 1 2 1
𝐴 = [1 2 1], 𝐵 = [2 1 −1]
1 1 3 3 −1 −1
4 1 2 9 E1
𝐴̃ = 2 4 1 5 E2
1 1 3 9 E3
4 1 2 9 E1
𝐴̃(1) = 0 7 2 2 19 2 E2
0 3 4 7 2 45 4 E3
Exercice 3 :
1. Résolution du système par la méthode de Gauss :
On écrit le système sous la forme matricielle suivante :
𝑥
⃗⃗ , avec 𝐴 = [0.0003 3.0000] , 𝑋⃗ = [ 1 ] et 𝐵
𝐴. 𝑋⃗ = 𝐵 ⃗⃗ = [2.0001]
1.0000 1.0000 𝑥2 1.0000
On forme la matrice augmentée 𝐴̃ :
0.0003 3.0000 2.0001 𝐸1
𝐴̃ = [ ]
1.0000 1.0000 1.0000 𝐸2
L’annulation des éléments sous-diagonaux de la première colonne en utilisant la ligne 𝐸1 :
𝐸2 ← 𝐸2 − 3333.3333𝐸1
0.0003 3.0000 2.0001 𝐸
𝐴̃(1) = [ ] 1
0 −9998.9999 −6665.9999 𝐸2
La résolution du système à matrice triangulaire supérieur résultant donne :
−9998.9999𝑥2 = −6665.9999 ⇒ 𝑥2 = 0.6667
0.0003𝑥1 + 3.0000𝑥2 = 2.0001 ⇒ 𝑥1 = 0.0000
Donc, la solution est :
0.0000
𝑋⃗ = [ ]
0.6667
2. Résolution du système par la méthode de Gauss avec pivot :
0.0003 3.0000 2.0001 𝐸1
𝐴̃ = [ ]
1.0000 1.0000 1.0000 𝐸2
Choisissons dans la première colonne l’élément le plus grand en valeur absolue. Le pivot est
donc 1.0000. Alors on effectue une permutation entre les lignes 1 et 2, ceci donne :
1.0000 1.0000 1.0000 𝐸1
𝐴̃ = [ ]
0.0003 3.0000 2.0001 𝐸2
L’annulation des éléments sous-diagonaux de la première colonne en utilisant la ligne 𝐸1
donne :
𝐸2 ← 𝐸2 − 0.0003𝐸1
1.0000 1.0000 1.0000 𝐸1
𝐴̃ = [ ]
0 2.9997 1.9998 𝐸2
La résolution du système à matrice triangulaire supérieur résultant donne :
2.9997𝑥2 = 1.9998 ⇒ 𝑥2 = 0.6667
1.0000𝑥1 + 1.0000𝑥2 = 1.0000 ⇒ 𝑥1 = 0.3333
Donc, la solution est :
0.3333
𝑋⃗ = [ ]
0.6667
3. Conclusion :
On remarque à partir des deux résultats précédents que la méthode de Gauss avec pivot
donne une solution plus proche de la solution exacte. On conclue que la méthode de Gauss
avec pivot permet de minimiser les erreurs de calcul (cumuls d’erreurs d’arrondis).
Exercice 4 :
1. Calcul du déterminant des matrices A et B par la méthode de Gauss :
2 1 1 𝐸1
𝐴 = [1 2 1] 𝐸2
1 1 3 𝐸3
Etape 1 : Annulation des éléments sous-diagonaux de la première colonne en utilisant la
ligne 𝐸1
1
𝐸2 ← 𝐸2 − 𝐸1
2
1
𝐸3 ← 𝐸3 − 𝐸1
2
2 1 1 𝐸
3 1⁄ 1
𝐴̃(1) = [0 ⁄2 2] 𝐸2
0 1⁄2 5⁄ 𝐸3
2
Etape 2 : Annulation des éléments sous-diagonaux de la deuxième colonne en utilisant la
ligne 𝐸2
1
𝐸3 ← 𝐸3 − 𝐸2
3
2 1 1 𝐸
3 1
1⁄
𝐴̃(2) = [0 ⁄2 2] 𝐸2
0 0 7⁄ 𝐸3
3
Le déterminant d’une matrice triangulaire est le produit de ses éléments diagonaux, donc :
3 7
det(𝐴) = det(𝐴̃(1) ) = det(𝐴̃(2) ) = 2 ∗ ∗ = 7
2 3
1 2 1 𝐸1
𝐵 = [2 1 −1] 𝐸2
3 −1 −1 𝐸3
Etape 1 : Annulation des éléments sous-diagonaux de la première colonne en utilisant la
ligne 𝐸1
𝐸2 ← 𝐸2 − 2𝐸1
𝐸3 ← 𝐸3 − 3𝐸1
1 2 1 𝐸1
𝐵̃ (1) = [0 −3 −3] 𝐸2
0 −7 −4 𝐸3
Etape 2 : Annulation des éléments sous-diagonaux de la deuxième colonne en utilisant la
ligne 𝐸2
7
𝐸3 ← 𝐸3 − 𝐸2
3
1 2 1 𝐸1
̃ (2)
𝐵 = [0 −3 −3] 𝐸2
0 0 3 𝐸3
Le déterminant d’une matrice triangulaire est le produit de ses éléments diagonaux, donc :
det(𝐵) = det(𝐵̃ (1) ) = det(𝐵̃ (2) ) = 1 ∗ (−3) ∗ 3 = −9
2. Déterminants de 𝑨−𝟏 , 𝑩−𝟏 et (𝑨. 𝑩)−𝟏
𝐝𝐞𝐭(𝑨−𝟏 ) = ?
On a : 𝐴. 𝐴−1 = 𝐼 ⇒ det(𝐴. 𝐴−1 ) = det(𝐼) ⇒ det(𝐴) ∗ det(𝐴−1 ) = det(𝐼) ⇒ det(𝐴−1 ) =
det(𝐼)
det(𝐴)
1 1
Nous avons det(𝐼) = 1donc det(𝐴−1 ) = det(𝐴) = 7
𝐝𝐞𝐭(𝑩−𝟏 ) = ?
1 1
det(𝐵 −1 ) = =−
det(𝐵) 9
𝐝𝐞𝐭(𝑨. 𝑩)−𝟏 = ?
(𝐴. 𝐵)−1 = 𝐵 −1 . 𝐴−1
1 1 1
det(𝐴. 𝐵)−1 = 𝑑𝑒𝑡(𝐵 −1 . 𝐴−1 ) = det(𝐵−1 ) . det(𝐴−1 ) = (− ) ∗ = − .
9 7 63