Vous êtes sur la page 1sur 40

Annaba

E PST Département de Mathématiques et d’Informatique

ECOLE PRÉPARATOIRE AUX SCIENCES ET TECHNIQUES


Département de Mathématiques et d’Informatique

Cours d’Analyse Numérique


2 Année Cycle Préparatoire

Année Universitaire 2014-2015


Table des matières

1 Systèmes d’équations algébriques 5


1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2 Elimination de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2.2 Méthode des substitutions successives . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2.3 Matrices diagonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2.4 Matrices triangulaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2.5 Algorithmes de résolution pour les matrices triangulaires . . . . . . . . . . . . . . . 8
1.2.6 Comment exploiter les algorithmes des matrices triangulaires ? . . . . . . . . . . . . 9
1.2.7 Transformation des matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.2.8 Opérations élémentaires sur les lignes . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.2.9 Opérations sur les lignes : matrice M . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.2.10 Opérations sur les lignes : matrice P . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.2.11 Opérations sur les lignes : matrice T . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.2.12 Elimination de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.2.13 Retour . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.2.14 Pivot partiel / Pivot total . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.3 Calcul du déterminant d’une matrice par la méthode de Gauss. . . . . . . . . . . . . . . . . 18
1.4 Résolution de plusieurs systèmes d’équations ayant la même matrice des coefficients. . . . . 19
1.4.1 Inversion matricielle par résolution de systèmes d’équations. . . . . . . . . . . . . . 19
1.5 Décomposition LU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.5.1 Décompositions de Crout et de Doolittle . . . . . . . . . . . . . . . . . . . . . . . . 20
1.5.2 Factorisation de Cholesky . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.5.3 Existence de la factorisation de Cholesky . . . . . . . . . . . . . . . . . . . . . . . 22
1.6 Effets de l’arithmétique flottante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
1.6.1 Propagation d’erreurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
1.7 Conditionnement d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
1.8 Méthodes itératives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
1.8.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
1.8.2 Principe des méthodes itératives . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
1.8.3 Le choix de la décomposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
1.8.4 Méthode de Jacobi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
1.8.5 Méthode de Gauss-Seidel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
1.9 Critère de convergence des méthodes itératives . . . . . . . . . . . . . . . . . . . . . . . . 32
1.9.1 Rappel d’algèbre linéaire. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
1.9.2 Théorème de convergence des méthodes itératives . . . . . . . . . . . . . . . . . . 34
1.10 Conditionnement d’un système linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
1.11 Système d’équations non linéaires à plusieurs variables . . . . . . . . . . . . . . . . . . . . 36

2014-2015 Anal.Num. 2. Année Cycle Préparatoire EPST-Annaba


1
Systèmes d’équations algébriques

1.1 Introduction

On a résolu une équation de la forme

f ( x ) = 0 où x ∈ R et f ( x ) ∈ R (i.e. f : R →: R)

On complique encore les choses : deux grandes familles de problèmes possibles :

– les systèmes d’équations linéaires de n équations et n inconnues :

Ax = b

où A est une matrice carrée inversible et b un vecteur (F : Rn →: Rn avec F ( x ) = Ax − b et on cherche


F ( x ) = 0)
– les systèmes non linéaires : F ( x ) = 0 où F : Rn →: Rn est une application à n variables : n équations
non-linéaires dépendant de n variables.

Beaucoup d’applications dans le domaine de l’ingénierie exigent de résoudre des systèmes d’équations qui
comportent souvent un grand nombre d’inconnues. On rencontre ces applications, par exemple, dans les
domaines suivants :

– la mécanique des fluides : écoulement de l’air autour d’un avion, écoulement dans une turbine hydrau-
lique, etc.
– la mécanique des solides : déformation d’un matériau soumis à des contraintes extérieures, analyse des
structures complexes, etc.
– Optimisation de la distribution des fréquences sur des antennes, filtrage de signaux, etc.

2014-2015 Anal.Num. 2. Année Cycle Préparatoire EPST-Annaba


6 Systèmes d’équations algébriques

1.2 Elimination de Gauss


1.2.1 Généralités

Un système d’équations linéaires est un système de n équations linéaires à n inconnues




 a11 x1 + a12 x2 + a13 x3 + . . . + a1n xn = b1
 a21 x1 + a22 x2 + a23 x3 + . . . + a2n xn = b2

.. .


 . = ..
 a x +a x +a x +...+a x = b
n1 1 n2 2 n3 3 nn n n

où aij et b j sont connus pour i, j = 1, ..., n. Exemple : Trouver x1 , x2 , x3 solution de



 2x1 + 3x2 − x3 = 5
4x1 + 4x2 − 3x3 = 3

−2x1 + 3x2 − x3 = 1

Écriture matricielle :
Ax = b

où A dénote la matrice carrée d’ordre n des coefficients du système linéaire et b le vecteur du second
membre.
a11 ... a1i ... a1n b1 x1
     
 .. . . ..
. .
. . ..
. .  ..   .. 
 .  .   . 


A =  ai1 ... aii ... ain b =  bi  x =  xi 
     

 . . . .. . . ..   .   . 
 .. . . . .   ..   .. 
an1 ... ani ... ann bn xn
Exemple 1.2.1. Trouver x ∈ R3 solution de
    
2 3 −1 x1 5
 4 4 −3   x2  =  3 
−2 3 −1 x3 1

Théorème 1.2.1. Les trois énoncés suivants sont équivalents :

(i ) Le système Ax = b admet une solution unique si et seulement si la matrice A est de rang maximal
(autant d’inconnues que d’équations et pas d’équation qui se répète).

(ii ) Le système Ax = b admet une solution unique si et seulement si det A 6= 0

(iii ) Le système Ax = b admet une solution unique si et seulement si A est inversible.

Dans ce cas la solution est fournie par la formule de Cramer :

x = A −1 b

det Ai det (c1 ( A) ... ci−1 ( A) b ci+1 ( A) ... cn ( A))


xi = =
det A det A
où Ai est la matrice A dont la colonne i est remplacée par b.

2014-2015 Anal.Num. 2. Année Cycle Préparatoire EPST-Annaba


1.2 Elimination de Gauss 7

Inconvénient de la méthode de Cramer

VOCABULAIRE. Rappelons la définition d’un FLOPS : floating point operations per second. Les nombres
sont en général stockés en flottant, c’est-à-dire avec le nombre de chiffres significatifs, le signe, la base
Les abréviations suivantes sont couramment utilisées : Mega-flops pour 106 flops, Giga-flops pour 109
flops, Tera-flops pour 1012 flops, Peta-flops pour 1015 flops. Les ordinateurs les plus rapides atteignent
actuellement 1.7 Peta-flops.
L’incovénient de la méthode de Cramer est le nombre d’opérations arithmétiques nécéssaires pour trouver
la solution, ce nombre est évalué à environ N × ( N + 1)! ainsi pour un système à 100 inconnues, on devra
effectuer sur machine à peu près 9.4 × 10161 opérations, ainsi même avec une machine d’une vitesse d’un
petaflops 1 c’est à dire effectuant 1015 opérations par secondes il faudrait environ 0.2980720446 × 10140
années pour trouver la solution.

Remarque 1.2.1. – La plupart du temps on traite des cas où la matrice est inversible (matrice non-singulière).
Ce qui assure l’existence d’une solution.
– Sauf dans de rare cas la formule de Cramer peut être considérer comme purement théorique (sans appli-
cations).
– Sauf dans des cas particuliers il est plus rapide et simple de résoudre le système linéaire que d’inverser la
matrice (même “à la main”).

Comment résoudre efficacement des systèmes linéaires ?

1.2.2 Méthode des substitutions successives

Méthode des substitutions successives


La méthode la plus simpliste (et classique) consiste a éliminer des inconnues dans les équations par substi-
tution successive :
    
2 3 x1 8
=
3 4 x2 11
De la première équation on a
8 − 3x2
x1 =
2
Et en substituant dans la deuxième (éliminant x1 ) on a

8 − 3x2
3( ) + 4x2 = 11 ⇒ x2 = 2
2
1. Début juin 2008, le supercalculateur IBM Roadrunner est le premier à franchir la barre symbolique du Péta-
flop. Puis, en novembre 2008, c’est au tour du supercalculateur Jaguar de Cray. En avril 2009, c’était les deux seuls
supercalculateurs à avoir dépassé le Petaflop.(source Page processeur Wikepedia 18/12/2010)

2014-2015 Anal.Num. 2. Année Cycle Préparatoire EPST-Annaba


8 Systèmes d’équations algébriques

1.2.3 Matrices diagonales

Pour une matrice quelconque cette approche est simple pour un humain mais difficile à traduire en algo-
rithme. On doit abandonner cette approche du moins sous cette forme.

Cette approche est plus simple à décrire pour certaines structures de matrices.
Matrice diagonale
Facile lorsque le système linéaire a une matrice diagonale :
 
a11 0 0 ... 0    
x 1 b1
 0 a22 0 . . . 0 
  ..   .. 
Ax =    .  =  .  ⇔ aii xi = bi i = 1, ..., n

.. ..
 . . 0 
xn bn
0 ... 0 . . . ann

n
bi
alors xi =
aii
. Solution unique ssi aii 6= 0 ∀i (det A = ∏ aii 6= 0)
i =1

1.2.4 Matrices triangulaires

Définition 1.2.1. Une matrice est dite triangulaire inférieure (ou supérieure) si toutes ces entrées aij sont
nulles pour i < j (i > j resp.).

Triangulaire inférieure = “nulle au dessus de la diagonale“.


Triangulaire supérieure = “nulle au dessous de la diagonale“.
   
a11 0 0 ... 0 a11 a12 a13 . . . a1n

 a21 a22 0 ... 0 


 0 a22 a23 . . . a2n 


 a31 a32 a33 ... 0 


 0 0 a33 . . . a3n 

 .. .. .. .. ..   .. .. . . .. 
 . . . . .   . . . . 
an1 an2 an3 . . . ann 0 0 0 . . . ann

1.2.5 Algorithmes de résolution pour les matrices triangulaires

Matrice triangulaire
Les matrices triangulaires : résoudre sucessivement en choisissant l’équation avec le moins d’inconnues.

– Matrice triangulaire inférieure : descente triangulaire (on commence à 1 on finit à n ”en bas”).
i −1
bi − ∑ aik xk
b k =1
x1 = 1 xi = i = 2, ..., n
a11 aii

– Matrice triangulaire supérieure : remontée triangulaire (on commence à n on finit à 1 ”en haut”).

2014-2015 Anal.Num. 2. Année Cycle Préparatoire EPST-Annaba


1.2 Elimination de Gauss 9

n
bi − ∑ aik xk
bn k = i +1
xn = xi = i = n − 1, n − 2, ..., 1
ann aii

Unicité dans le cas des matrices triangulaires


La remontée et la descente triangulaire n’ont de sens qu’a la condition que les termes diagonaux soient
tous non nuls.

Que se passe-t’il si cela n’est pas le cas ?

Puisque le déterminant d’une matrice triangulaire est le produit des termes de la diagonale, alors
n
det A = ∏ aii 6= 0 ⇔ aii 6= 0 ∀i
i =1

Donc l’unicité de la solution impose que les termes diagonaux soient tous non nuls. Dans le cas contraire le
système n’a pas une solution unique et A n’est pas inversible.

Exemple de résolution

• Exemple de remontée triangulaire Soit à résoudre le système


    
3 1 3 x1 0
 0 2 2   x2  =  30 
0 0 1 x3 15

3
b2 − ∑ a2k xk
b3 k =3 30 − 2x3
x3 = = 15 x2 = = =0
a33 a22 2
3
b1 − ∑ a1k xk
k =2 0 − 1x2 − 3x3
x1 = = = − x3 = −15
a11 3

1.2.6 Comment exploiter les algorithmes des matrices triangulaires ?

L’algorithme de remontée (ou de descente) est efficace. On sait que l’on peut transformer un système quel-
conque en système triangulaire.

On voudrait :
I une méthode de passage d’un système de quelconque vers un système triangulaire tout en conservant la
solution du système original.
I utiliser la remontée ou descente triangulaire.

2014-2015 Anal.Num. 2. Année Cycle Préparatoire EPST-Annaba


10 Systèmes d’équations algébriques

Pour cela on va revoir les opérations élémentaires sur les systèmes linéaires. On produira ensuite deux
méthodes directes : la méthode de Gauss et la méthode de la décomposition LU.

Définition 1.2.2. Une méthode de résolution d’un système linéaire est dite directe si la solution du système
peut être obtenue en un nombre fini et prédéterminé d’opérations.

• Remarque sur les méthodes directes


– Une méthode directes est essentiellement une méthode basée sur la remontée (descente). Pour de telle
méthode on peut faire un estimé a priori du nombre d’opérations en virgule flottante et du temps de calcul
(une remontée ou une descente exige ≈ n2 opérations élémentaires). La plupart du temps la limitation
dans l’utilisation de méthodes directes vient de l’espace mémoire requis pour la résolution.
– À l’opposée de ces méthodes on trouve les méthodes itératives. Ces méthodes ne garantissent pas la
convergence et ne peuvent garantir un nombre fixe d’opérations pour l’obtention d’une solution. Cepen-
dant la plupart des méthodes itératives exigent moins d’espace mémoire.

Remarque 1.2.2. On sépare généralement les problèmes et par conséquent les techniques employées en deux
catégories selon la nature de la matrice A :

(i ) La matrice A est de taille réduite c’est à dire de dimension inférieure et pleine c’est à dire contenant
peu de zéros.

(ii ) La matrice A est de grande taille c’est à dire de dimension importante et creuse c’est à dire contenant
beaucoup de termes nuls.

• La notion de matrice de grande et de petite dimension est relative, elle dépend des capacités des machines
utilisées à un moment donné, ainsi entre 1980 et 2000 cette taille à beacoup changé :

1980 : matrice de grande dimension. N = 106


: matrice de petite dimension. N = 102
2000 : matrice de grande dimension. N = 108
: matrice de petite dimension. N = 106
• Généralement pour les problèmes de la première catégorie on utilise des méthodes directes et pour la
seconde des méthodes itératives.
• Les méthodes directes conduisent à une solution en un nombre fini d’étapes et mis à part les erreurs
d’arrondis ces méthodes conduisent à la solution exacte.
Les méthodes itératives font passer d’une estimation X (k) à une autre estimation X (k+1) de cette solution, si
la méthode converge la solution ne pourrait être atteinte en un nombre fini d’itérations, ici comme dans les
méthodes de résolution des équations nonlinéaires on se fixe une précision à atteindre.

2014-2015 Anal.Num. 2. Année Cycle Préparatoire EPST-Annaba


1.2 Elimination de Gauss 11

1.2.7 Transformation des matrices

Transformation = produit par une matrice

– On veut garder la linéarité du système alors on transforme avec les opérations de bases (+, −, ×, ÷) avec
des scalaires sur et entre les lignes du système.
– Une transformation de ce type est représentable par une matrice multipliant la matrice A et le vecteur b
du système :
W A x = Wb

– Quels conditions sur W ? Si on a la solution (unique) de WAx = Wb alors on veut que cette solution soit
la solution de Ax = b. Alors il faut que la matrice W soit inversible !
– On s’assurera de la validité de notre transformation en s’assurant que son déterminant est non nul (ou quel
est inversible).
Exemple 1.2.2. Soit     
10 6 2 x1 44
Ax =  4 4 1   x2  =  21 
3 2 1 x3 14
Prenons      
1 −1 −1 3 0 0 9
W= 0 1 −1  ⇒ WA =  1 2 0  Wb =  7 
0 0 1 3 2 1 14

la solution x = (3 2 1) T correspond à la solution du système original.


     
1 −1 −1 3 0 0 9
W̃ =  0 1 −1  ⇒ W̃ A =  1 2 0  W̃b =  7 
0 0 0 0 0 0 0

Le système n’est plus valide : pas unicité donc pas correspondance entre les deux problèmes !

1.2.8 Opérations élémentaires sur les lignes

Pour réduire un système linéaire à la forme triangulaire on utilise 3 opérations élémentaires sur les lignes

– Multiplication d’une ligne Li par une scalaire λ non nul :

λLi −→ Li

– Addition de deux lignes :

Li + λL j −→ Li

2014-2015 Anal.Num. 2. Année Cycle Préparatoire EPST-Annaba


12 Systèmes d’équations algébriques

– permuter deux lignes :

Li ←→ L j

On sait qu’en multipliant (à gauche) le système original par une matrice inversible la solution sera inchangée.
On va montrer que les 3 opérations proposées correspondent a des produits par une matrice inversible, nous
assurant ainsi de conserver la solution originale.

1.2.9 Opérations sur les lignes : matrice M

A l’opération multiplication de la ligne i par λ non nul : λLi −→ Li correspond le produit de Ax = b avec
la matrice élémentaire M :

m jj = 1 j = 1, ..., i − 1, 1 + 1, ..., n mii = λ m jk = 0 sinon

On sait que det M = λ donc la matrice est inversible si λ 6= 0

1 0 ... ... 0
   
1 0 ... ... 0
.. ..
 0 .
0 ... 0
   
 0 .
0 ... 0  
M −1 1
 
M =  0 ... λ ... 0
 
=  0 ... ←i
... 0
 


 0 ... 1 ...
  λ 
  0 ... 1 ... 
0 ... ... 1 0 ... ... 1

1.2.10 Opérations sur les lignes : matrice P

A l’opération intervertir deux lignes du système : Li ←→ L j correspond le produit de Ax = b avec la


matrice élémentaire P (matrice de permutation) obtenue en permutant les lignes i et j de la matrice identité
 
1 0 ... ... 0
 .. 
 0 . 0 ... 0 
P = j →  0 ...
 
0 1 0 
i→  0
 
1 0 ... 
0 ... ... 1

Puisque PP = I la matrice P est inversible et son inverse P−1 = P. On a aussi que det P = −1

1.2.11 Opérations sur les lignes : matrice T

A l’opération addition de deux lignes Li + λL j −→ Li correspond le produit de Ax = b avec la matrice


élémentaire T

tkk = 1 k = 1, ..., n tij = λ tkl = 0 sinon

2014-2015 Anal.Num. 2. Année Cycle Préparatoire EPST-Annaba


1.2 Elimination de Gauss 13

On sait que det T = 1 alors T est inversible (il suffit d’enlever ce que l’on a ajouter)
   
1 0 ... ... 0 1 0 ... ... 0
.
 0 .. 0 . . . 0 
 
 0 ... 0 . . . 0
 

−1
T = j →  0 ... 1 ... 0  T =  0 ... 1 ... 0
   

i→  0
   
λ 1 ...   0 −λ 1 . . . 
0 ... ... 1 0 ... ... 1

1.2.12 Elimination de Gauss

La méthode d’élimination de Gauss consiste à utiliser les opérations élémentaires afin de réduire le système
sous la forme triangulaire supérieure.

On distingue deux cas :


– Sans pivotement : on ne permet pas la permutation de deux lignes (la transformation P est interdite) ; dans
certain cas on ne pourra pas obtenir de matrice triangulaire sup. !
– Avec pivotement : on permet la permutation des lignes ; dans ce cas on obtiendra toujours une matrice
triangulaire sup. si la matrice est inversible.
Dans la pratique on ne construit pas les matrices (de types M,T et P) nécessaires à la transformation.

Cependant la méthode de Gauss est valide parce qu’elle consiste à multiplier le système de départ par une
suite de matrices inversibles. On verra plus tard comment ces matrices nous seront utiles.
Dans l’application de la méthode de Gauss on procède par élimination des termes sous la diagonale en
utilisant la notion de matrice augmentée.

Définition 1.2.3. La matrice augmentée du système Ax = b est la matrice de dimension n × n + 1 obtenu


en ajoutant le membre de droite b à la matrice A :

a11 ... a1i ... a1n b1


 
 .. . . ..
. .
. . ..
. .
 .


 ai1 ... aii ... ain bi 
 
 . . . .. . . .. 
 .. . . . . 
an1 ... ani ... ann bn

Cette notation est très utile puisque les opérations élémentaires doivent être faites sur la matrice A et sur b
simultanément.

1.2.13 Retour

– Un système Ax = b a une solution unique ssi

2014-2015 Anal.Num. 2. Année Cycle Préparatoire EPST-Annaba


14 Systèmes d’équations algébriques

– det A 6= 0
– A est inversible (non singulière)
– nombre équations = nombre d’inconnues et pas déquations répétées
– Les systèmes diagonaux et trinagulaires (inf. et sup.) peuvent être résolus par “remontée” ou “descente”
triangulaire.
– Transformation d’un système quelconque en système triangulaire : on veut passer de Ax = b vers

Ãx = b̃

avec
– Ã triangulaire
– la solution des deux systèmes doit être la même

Ax ∗ = b ⇔ Ãx ∗ = b̃

– On a montrer que les bonnes transformations sont des produits par des matrices inversibles et que les 3
opérations de bases :
– multiplication d’une ligne par un scalaire mène à une matrice M inversible
– addition de deux lignes mène à une matrice T inversible
– permutation de deux lignes mène à une matrice P inversible
Avec ces trois opérations on peut transformer un système en système triangulaire.
– Méthode de Gauss : utilisation de combinaisons de M, T et P pour obtenir une matrice triangulaire
supérieure. Deux choix :
– Pas de permutations permises : peux mener à des matrices non-triangulaires
– avec permutation : on peut toujours obtenir une matrice traingulaire.
Dans la pratique cette méthode ne tient pas compte des matrices de transformation. Elles ne sont là que
pour démontrer que la méthode de Gauss transforme de la bonne manière le système de départ.

Méthode d’éliminations de Gauss (Carl Friedrich Gauss 1777-1855)

La méthode de Gauss consiste à effectuer des éliminations jusqu’à obtenir d’un système équivalent à matrice
triangulaire supérieure.

 
a11 a12 a13 .... a1n b1
 a21 a22 a23 a2n b2 
 
 ... ... ... ... ... ... 
an1 an2 an3 ... ann bn

2014-2015 Anal.Num. 2. Année Cycle Préparatoire EPST-Annaba


1.2 Elimination de Gauss 15

(k)
La méthode comporte (n-1) transformations sur le système, on notera aij l’élément aij à l’étape k.
Etape n◦ =1 :
- On transforme A en une matrice dont les termes sous diagonaux de la première colonne sont nuls .
− a21
 
Pour éliminer le terme a21 on multiplie la ligne l1 par
a11

− a21
 
(1)
l2 ← l2 + l1
a11
on obtient ainsi  
 
(1) a21
a2j = a2j − a1j
 a11 
 
 
 (1) a21 
b2 = b2 − b1
a11
− a31
 
Pour éliminer le terme a31 on multiplie l1 par
a11

− a31
 
(1)
l3 ← l3 + l1
a11
on obtient ainsi    
(1) a31
= a3j −
a3j a1j
 a11 
 
 
 (1) a31 
b3 = b3 − b1
a11
D’une manière générale pour éliminer tout les termes ai1 on utilise la transformation

− ai1
 
(1)
li ← li + l1
a11

   
(1) ai1
= aij −
aij aij
 a11 
 
 
 (1) ai1 
bi = bi − b1
a11
A la fin de la première étape le système d’équations aura la forme suivante :
 
a11 a12 a13 .... a1n b1
(1) (1) (1) (1) 
 0 a22 a23 a2n b2 

 ... ... ... ... ... ... 
 
(1) (1) (1) (1)
0 an2 an3 ... ann bn

Etape n◦ =2 :
Nous éliminons ensuite les termes sous-diagonaux de la seconde colonne.
Comme à la première étape pour éléiminer le terme a32 on doit utiliser la transformation élémentaire

(1)
!
(2) (1) − a32 (1)
l3 ← l3 + (1)
l2
a22

2014-2015 Anal.Num. 2. Année Cycle Préparatoire EPST-Annaba


16 Systèmes d’équations algébriques

on obtient ainsi
(1)
 !
 ( 2 ) ( 1 ) a 32 (1)
a32 = a32 − a22 = 0


(1)




 a22
(1)
 !
a

(1)
  ! 
 (2) (1) 32 (1) a32

a = a − a (2) (1) (1)
 a3j = a3j −

 33 33 (1) 23 a2j
a22

 (1) 
a22
  
........................... ⇔ (1)
! 
a32
 
(1)  (2) (1) (1)
 !
a b3 = b3 − b1
 
(2) (1) (1)

32


 a = a a (1)
 3n


 3n a22 2n a22

(1)

 !

 (2) (1) a32 (1)
 b3 = b3 − b2


(1)

a22
En continuant de la même étape qu’à la première étape on obtient la fin de la seconde étape le système
d’équations aura la forme suivante :
a11 a12 a13 .... a1n b1
 
(1) (1) (1) (1)

 0 a22 a23 ... a2n b2 

 (2) (2) (2) 
 0 0 a33 ... a3n b3 
... ... ... ... ... ...
 
 
(2) (2) (2)
0 0 an3 ... ann bn
Etape n◦ =k :
Pendant une étape k (k quelconque) Nous éliminons les termes sous-diagonaux de la k − i ème colonne

 
( k −1)
( k −1) ak+1,k
(k)
l k +1 ← l k +1 −   l ( k −1)
( k −1) k
akk
on obtient ainsi
  
( k −1)

 (k) ( k −1) a k +1,k ( k −1)
ak+1,k = ak+1,k −  (k−1)  akk =0




a
   
 ( k −1)
kk a


 a(k) = a(k−1) −  k+1,k  a(k−1)
 
 ( k −1)
a
 

 (k) ( k −1) k+1,k ( k −1)  k+1j k +1,j ( k −1) k,j
akk
 
ak+1,k+1 = ak+1,k+1 −  (k−1)  ak,k+1  
akk ⇔
 
( k −1)
 
ak+1,k
 
  (k) ( k −1) 
 .......................... bk + 1 = bk + 1 −  b1

   
( k −1)

a
 
 ( k − 1 )
a kk


 (k) ( k −1)  k+1,k  a(k−1)
a = a −


 k+1,n+1 k+1,j ( k −1) k,n+1

akk

A la fin de la dernière étape on obtiendra une matrice triangulaire supérieure équivalente à la matrice de
départ.
(k)
Remarque 1.2.3. Les opérations précédentes supposent que les termes akk appelés pivots sont non nuls.

Exemple 1.2.3. Soit le système d’équations représenté par la matrice augmenté suivante :
 
2 1 2 10
 6 4 0 26 
8 5 1 35

2014-2015 Anal.Num. 2. Année Cycle Préparatoire EPST-Annaba


1.2 Elimination de Gauss 17

  
6
 l2 ← l2 − l1


2
8
 l3 ← l3 − l

2 1

 
2 1 2 10
 0 1 −6 −4 
0 1 −7 −5
 
1
l3 ← l3 − l2
1
 
2 1 2 10
 0 1 −6 −4 
0 0 −1 −1
la solution du système est

x3 = 1, x2 = 2, x1 = 3

1.2.14 Pivot partiel / Pivot total

Si au cours d’une étape k un pivot nul apparait on ne peut plus effectuer de division pour éliminer les
éléments sous diagonaux, dans ce cas on effectue une permutation de lignes pour contourner cette difficulté.
Deux choix sont possibles, le pivotage partiel et le pivotage total.

Pivot partiel

On cherche le plus grand élément en valeur absolue des éléments sous le pivot, notons l’indice de sa ligne s
(k) (k)
et on échange les lignes Lk et Ls .

n o
(k) (k) (k) (k)
| ask | = max | aik |, i ≥ k ⇒ Lk ←→ Ls

Pivot total

On cherche le plus grand élément en valeur absolue dans le rectangle formé par les lignes Lk et Ln et les
(k) (k) (k)
colonnes Ck et Cn , notons l’indice de cet élément par ast , on échange alors les lignes Lk et Ls et ensuite
les colonnes Ck et Cs en faisant attention au fait que ce dernier changement implique un autre sur l’ordre
des solutions qui seront donnés dans l’ordre du changement.
(
(k) (k)
(k)
n
(k)
o Lk ←→ Ls
| ast | = max | aij |, i ≥ k, j ≥ k ⇒ (k) (k)
Ck ←→ Cs

Le vecteur solution X est donné par :

X = ( x1 , ...xk−1 , xs , xk+1 , ..xs−1 , xk , xs+1 , ..., xn )

2014-2015 Anal.Num. 2. Année Cycle Préparatoire EPST-Annaba


18 Systèmes d’équations algébriques

Exemple 1.2.4. Soit le système d’équations à résoudre par la méthode de Gauss :



x − 2x2 + x3 − x4 = −4
 1


x1 − 2x2 − x3 + x4 = −2

 2x 1 − x2 + x3 − 2x4 = −5

− x1 + x2 − 2x3 + x4 = −1
La matrice augmentée du système est donnée par :
 
1 −2 1 −1 −4
 1 −2 −1 1 −2 
 
 2 −1 1 −2 −5 
−1 1 −2 1 −1
Les opératios de la première étape sont données par :

 l2 ← l2 − l1
l ← l3 − 2l1
 3
l4 ← l4 + l1
Le système est donc équivalent à  
1 −2 1 −1 −4
 0 0 −2 2 2 
 
 0 0 1 −2 −5 
0 −1 −1 0 −5
(1)
comme le pivot a22 est nul, on doit effectuer un changement de pivot.
1- Pivot partiel
Si on opte pour le pivot partiel on doit effectuer le changement l2 ← l4 et le système est équivalent à :
 
1 −2 1 −1 −4
 0 −1 −1 0 −5 
 
 0 0 −2 2 2 
0 0 1 −2 −5
On peut donc passer directement à l’étape suivante, l’opération de la dernière étape est donnée par : l4 ←
1
l4 + l3 et on obtient :
2  
1 −2 1 −1 −4
 0 −1 −1 0 −5 
 
 0 0 −2 2 2 
0 0 0 −1 −4
La solution du système est donnée par : x4 = 4, x3 = 3, x2 = 2, x1 = 1.

1.3 Calcul du déterminant d’une matrice par la méthode de


Gauss.
Les modifications apportées à la matrice en appliquant la méthode de Gauss (ou plus généralement toute
méthode directe ) ne change rien aux propriétés de la matrice, ainsi la matrice triangulaire obtenue à la fin
de l’application de la méthode de Gauss possède le même déterminant que la matrice de départ, en pratique
en se sert des méthodes directes également pour calculer le déterminant d’une matrice.

2014-2015 Anal.Num. 2. Année Cycle Préparatoire EPST-Annaba


1.4 Résolution de plusieurs systèmes d’équations ayant la même matrice des coefficients. 19

Exemple 1.3.1. dans l’exemple précédent, le calcul du déterminant selon la méthode classique (dévelop-
pement selon la 3ème colonne) et ensuite calculant le déterminant issue de l’application de la méthode de
Gauss.

2 1 2
= 2 6 4
2 1
6 4 0 + = 2 (30 − 32) + (8 − 6) = −2
8 5 6 4
8 5 1


2 1 2

0 1 −6 = 2.1. (−1) = −2

0 0 −1

1.4 Résolution de plusieurs systèmes d’équations ayant la même


matrice des coefficients.

Si on veut résoudre plusieurs systèmes d’équations possédant la même matrice A des coefficients mais à
second membres bi différents, il suffit d’ajouter tout les seconds membres à la matrice pour former une seule
matrice augmenté.

Exemple 1.4.1. Soit les systèmes d’équations suivants :

  
 2x1 + x2 + 2x3 = 10  2x1 + x2 + 2x3 = 5  2x1 + x2 + 2x3 = 1
6x1 + 4x2 = 26 , 6x1 + 4x2 = 2 , 6x1 + 4x2 = 6
8x1 + 5x2 + x3 = 35 8x1 + 5x2 + x3 = 3 8x1 + 5x2 + x3 = 5
  

 
2 1 2 10 5 1
Il suffit de former la matrice augmenté suivante  6 4 0 26 2 6  .
8 5 1 35 3 5

1.4.1 Inversion matricielle par résolution de systèmes d’équations.

On peut calculer l’inverse d’une matrice sans recourrir à la méthode des cofacteurs de l’algèbre linéaire, en
effet la matrice inverse d’une matrice A vérifie : AA−1 = Id notons le terme général de la matrice A−1
(−1)
par aij on a alors :

  (−1) (−1) (−1) (−1)



a11 a12 a13 .... a1n
  
a11 a12 a13 .... a1n 1 0 0 .... 0
 a21 a22 a23 a2n  (−1) (−1) (−1) (−1)
  0 1 0 0 
  

 ...
 a21 a22 a23 a2n = 
... ... ... ...   ... ... ... ... ...  ... ... ... ... ... 
an1 an2 an3 ... ann (−1)
an1
(−1)
an2
(−1)
an3
(−1)
... ann 0 0 0 ... 1

2014-2015 Anal.Num. 2. Année Cycle Préparatoire EPST-Annaba


20 Systèmes d’équations algébriques

D’où on obtient :
  (−1) 
a
 
a11 a12 a13 .... a1n 1
 a21 a22 a23  11(−1)
a  0 

2n 
 a21  = 
 ...  ........ (1)
   
 ... ... ... ... ...   ...


an1 an2 an3 ... ann (−1)
an1 0
  (−1) 
a
  
a11 a12 a13 .... a1n 0
 a21 a22 a23  12(−1)
a2n   a22  1 
 
 = 
 ...  ........ (2)
  
 ... ... ... ... ...  
 ... 
an1 an2 an3 ... ann (−1)
an2 0
...............
  (−1) 
a
  
a11 a12 a13 .... a1n 0
 a21 a22 a23  1n(−1)
a2n   a2n  0 
 
 = 
 ...  ........ (n)
  
 ... ... ... ... ...   ...


an1 an2 an3 ... ann (−1)
ann 1

Ainsi la recherche de la matrice inverse revient à résoudre n système d’équations ayant la même matrice des
coefficients A et ayant pour second membres les n colonnes de la matrice identité

1.5 Décomposition LU
La décomposition A = LU nous permet de résoudre le système :

Ax = b ⇔ ( LU ) x = b ⇔ L(Ux ) = b

en deux étapes.
Si on pose y = Ux alors la résolution de Ax = b peut se faire en deux temps :

(i ) résoudre Ly = b par une descente triangulaire

(ii ) résoudre Ux = y par une remontée triangulaire

1.5.1 Décompositions de Crout et de Doolittle

Pour éviter les ambiguités possibles, on voudrait assurer l’unicité de la décomposition. Pour se faire on va
imposer une condition supplémentaire à notre décomposition.
Deux méthodes classiques :
– Décomposition de Doolittle (de type Matlab ) : Lii = 1 ∀i (pas de division dans la descente)
– Décomposition de Crout : Uii = 1 ∀i (pas de division dans la remontée)
Décomposition de DOOLITTLE.

lii = 1, i = 1, ..., n

2014-2015 Anal.Num. 2. Année Cycle Préparatoire EPST-Annaba


1.5 Décomposition LU 21

pour k = 1, ..., n
k −1
ukj = akj − ∑ lkr urj , j = k, ..., n
r =1
!
k −1
1
lik =
ukk
aik − ∑ lir urk , i = k + 1, ..., n
r =1
Décomposition de CROUT.
uii = 1, i = 1, ..., n

pour k = 1, ..., n
k −1
lik = aik − ∑ lir urk , i = k, ..., n
r =1
!
k −1
1
ukj =
lkk
akj − ∑ lkr urj , j = k + 1, ..., n
r =1
Remarque 1.5.1. L’algo ne fonctionne que si Lii 6= 0 ∀i.
– Si on a pas fait de permutations alors det A = det L × det U mais det U = 1 et

det A 6= 0 ⇔ det L 6= 0 ⇔ Lii 6= 0 ∀i

– Si on a fait des permutations det A = det Pdet Ldet U Puisque det P 6= 0 alors

det A 6= 0 ⇔ det L 6= 0 ⇔ Lii 6= 0 ∀i

Donc si A est inversible l’algorithme va bien.

Remarque 1.5.2. D’un point de vue pratique une fois la factorisation LU faite on a plus de raison de conser-
ver la matrice A. En fait notre procédure de factorisation est faite pour que l’on puisse ”écraser“ A au fur et à
mesure de la factorisation. Ce qui permet de minimiser l’espace de stockage puisqu’on a pas simultanément
A, L et U

1.5.2 Factorisation de Cholesky

Dans le cas d’une matrice symétrique il est possible déconomiser de l’espace en imposant une condition
supplémentaire à la décomposition LU. On impose que

U = L T ⇒ A = LL T

A étant symétrique on ne stocke que sa partie inférieure et sa diagonale. Alors on peut faire la même chose
sur la décomposition et ne stocke que L.
La construction est basée sur Crout.
Algorithme de Cholesky

2014-2015 Anal.Num. 2. Année Cycle Préparatoire EPST-Annaba


22 Systèmes d’équations algébriques

1
– L11 = ( A11 ) 2

Ai1
– Li1 = i = 2, ..., n
Lii

– k = 2, ..., n i = k + 1, ..., n
k −1 1
– Lkk = ( Akk − ∑ L2kj ) 2
j =1

k −1
Aik − ∑ Lij Lkj
j =1
– Lik =
Lii
Remarque 1.5.3. – Tout comme pour la décomposition LU on peut introduire une notation compacte et
”écraser“ A lors de la création de L
– La factorisation n’est pas unique : A = (− L)(− L T ) = L̃ L̃ T on rend la factorisation unique en imposant
des pivots positifs : Lii > 0.

1.5.3 Existence de la factorisation de Cholesky

Existence de la factorisation de Choleski Soit


 
−1 2
A=
2 6
p
On ne peut pas faire Cholesky car L11 = A11 n’est pas réels.

En fait on aura pas existence de la factorisation si une des racines (les pivots) n’est pas réelles

Définition 1.5.1. Une matrice A ∈ Mn (R) est définie positive si :

x T Ax = h Ax, x i > 0 ∀ x 6= 0,


n
h x, yi = ∑ xi yi (produit scalaire)
i =1
Théorème 1.5.1. Soit A ∈ Mn (R) une matrice symétrique. Alors, A est définie positive ⇐⇒ les valeurs
propres de A sont strictement positives.

Théorème 1.5.2. Soit A ∈ Mn (R) une matrice symétrique. Alors, A est inversible.

Condition pour l’existence de la factorisation de Cholesky

Théorème 1.5.3. Si A est symétrique définie positive, alors A admet une factorisation de Cholesky :

A = LL T

2014-2015 Anal.Num. 2. Année Cycle Préparatoire EPST-Annaba


1.6 Effets de l’arithmétique flottante 23

1.6 Effets de l’arithmétique flottante


1.6.1 Propagation d’erreurs

Soit  
1.012 −2.132 3.104
A =  −2.132 4.096 −7.013 
3.104 −7.013 0.014
On veut appliquer la factorisation LU mais avec une mantisse fixe de 4 chiffres.

Cette restriction engendre des “perturbations” par rapport à la factorisation “humaine” (mantisse infinie).
Quel est l’impact de cette perturbation lors de la résolution ?

1.7 Conditionnement d’une matrice


On veut étudier le comportement de la solution calculée par rapport à la solution exacte pour un système
linéaire. On va d’abord introduite une mesure de la distance dans l’espace Rn .

Définition 1.7.1. Une norme vectorielle est une application de Rn dans R notée kk vérifiant

(i ) Positivité stricte :
k x k> 0 ∀ x ∈ Rn , x 6= 0

(ii ) ∀α ∈ R
kαx k= |α|k x k ∀ x ∈ Rn

(iii ) Inégalité du triangle


k x + yk6 k x k+kyk ∀ x, y ∈ Rn

Définition 1.7.2. La norme euclidienne d’un vecteur x notée k x k2 est définie par
 1
2
k x k2 = x12 + x22 + ... + xn2

évidemment la norme euclidienne est une norme vectoriel.

Définition 1.7.3. Il existe d’autre norme sur Rn .


n
– La norme l1 : k x k1 = ∑ | xi |
i =1
n
– La norme l∞ : k x k∞ = max | xi |
i =1

2014-2015 Anal.Num. 2. Année Cycle Préparatoire EPST-Annaba


24 Systèmes d’équations algébriques

Définition 1.7.4. On peut aussi introduire une norme matricielle. On l’a définie comme une application
A :→ k Ak vérifiant

(i ) Positivité stricte :
k Ak> 0 ∀ A, A 6= 0

(ii ) ∀α ∈ R
kαAk= |α|k Ak ∀ A

(iii ) Inégalité du triangle

k A + Bk6 k Ak+k Bk ∀ A, B de dimensions compatibles

(iv)
k ABk6 k Akk Bk ∀ A, B de dimensions compatibles

Une norme matricielle DOIT vérifier 1-4.

Norme induite
On peut construire une norme matricielle à partir d’une norme vectorielle :

k Ak= sup k Ax k
k x k=1

Une telle norme est dite norme matricielle induite par la norme vectorielle. On dit aussi que cette norme
est subordonnée à la norme vectorielle
La norme de Frobenius définie par
!1
n n 2
k Ak F = ∑∑ A2ij
i =1 j =1

est une norme matricielle, s’apparentant à la norme euclidienne mais elle n’est induite par aucune norme.

Théorème 1.7.1. Les normes induites par les normes l1 et l∞ sont


n
– k Ak1 = sup k Ax k1 = max ∑ | Aij |
16 j6n i =1
k x k1 =1
n
– k Ak∞ = sup k Ax k∞ = max
16i6n
∑ | Aij |
k x k ∞ =1 j =1

La norme k Ak1 consiste à trouver la colonne dont la somme des éléments (en valeur absolue) est la plus
grande.

La norme k Ak∞ consiste à trouver la ligne dont la somme des éléments (en valeur absolue) est la plus
grande.

2014-2015 Anal.Num. 2. Année Cycle Préparatoire EPST-Annaba


1.7 Conditionnement d’une matrice 25

Norme induite par la norme euclidienne La norme induite par la norme euclidienne est définie par
 1
2
k Ak2 = sup k Ax k2 = ρ( AA T )
k x k2 =1

où ρ est la plus grande valeur propre (en valeur absolue) de la matrice AA T .


Pourquoi s’intéresser au norme matricielle ? On va manipuler des vecteurs résultants de produit matrice
vecteur. Ce qui nous amène à une définition très importante

Définition 1.7.5. On dit que la norme matricielle et la norme vectorielle sont compatibles si

k Ax k6 k Akk x k

pour toutes matrice A et vecteurs x de dimensions cohérentes.

Attention au mélange de normes : à gauche norme vectorielle, à droite matricielle et vectorielle (respective-
ment).

Remarque 1.7.1. (Normes compatibles) On peut montrer que


– k Ax k1 6 k Ak1 k x k1 la norme 1 des matrices et vecteurs est compatible
– k Ax k∞ 6 k Ak∞ k x k∞ la norme ∞ des matrices et vecteurs est compatible
– k Ax k2 6 k Ak F k x k2 la norme Frobenius des matrices est compatible avec la norme euclidienne.
La dernière relation montre qu’il n’y a pas de lien entre norme induite et norme compatible.

Soit le système Ax = b et x ∗ une solution obtenue par arithmétique flottante. On veut étudier l’erreur par
rapport à la solution exacte :
e = x − x∗

Si tout va bien kek= k x − x ∗ k est petit.


Posons r = b − Ax ∗ r est le résidu de notre résolution.

r = b − Ax ∗ = Ax − Ax ∗ = A( x − x ∗ ) = Ae

On cherche à avoir une borne inférieure et supérieure sur kek. On va se servir de la compatibilité des normes
(on choisit une norme compatible)

A−1 r = e ⇒ kek= k A−1 r k6 k A−1 kkr k

On a aussi
kr k= k Aek6 k Akkek

2014-2015 Anal.Num. 2. Année Cycle Préparatoire EPST-Annaba


26 Systèmes d’équations algébriques

Ce qui nous donne


kr k
6 kek6 k A−1 kkr k
k Ak
On veut faire apparaître x dans cette relation (on voudrait l’“erreur relative“) alors on revient au système :

1 k Ak
kbk = k Ax k6 k Akk x k⇒ 6
kxk kbk
1 1
k x k= k A−1 bk6 k A−1 kkbk⇒ 6
k A−1 kkbk kxk
En combinant ces deux inégalités on a

1 1 k Ak
6 6
k A−1 kkbk kxk kbk

On multiplie la dernière relation par kek

kek kek k Ak
6 6 kek
k A−1 kkbk kxk kbk

et on a
kr k kek k A−1 kk Akkr k
6 6
k Akk A−1 kkbk kxk kbk
Définition 1.7.6. Le conditionnement d’une matrice A noté cond(A) est défini par

cond( A) = k A−1 kk Ak

Remarque 1.7.2. – cond(A) dépend de la norme matricielle utilisée


– Puisque 1 = k I k on a
1 = k I k= k AA−1 k6 k A−1 kk Ak

et
1 6 cond( A) < ∞

Théorème 1.7.2.
1 kr k kek kr k
6 6 Cond( A)
cond( A) kbk kxk kbk
Remarque 1.7.3.
1 kr k kek kr k
6 6 Cond( A)
cond( A) kbk kxk kbk
(i ) le terme du milieu représente l’erreur relative

(ii ) Si cond(A) est près de 1 alors


kek kr k

kxk kbk
est la solution est bonne si kr k est petit.

2014-2015 Anal.Num. 2. Année Cycle Préparatoire EPST-Annaba


1.7 Conditionnement d’une matrice 27

(iii ) si cond(A) est grand alors l’erreur relative peut être grande.

(iv) même si kr k est petit il est possible que l’erreur soit grande (manque le conditionnement petit)

(v) Plus cond(A) augmente plus l’algorithme de résolution doit être précis (pour réduire kr k)
1 kr k kek kr k
6 6 Cond( A)
cond( A) kbk kxk kbk
(i ) Même si cond(A) est petit si la résolution est imprécise on pourra avoir des résultats erronés (manque
kr k est petit).

(ii ) On peut montrer que


kekkbk kr kk x k
 
max , 6 cond( A)
k x kkr k kekkbk
(iii ) cond(A) dépend de la norme matricielle choisie (géneralement la norme ∞) mais ne dépend pas de
l’algorithme de résolution du système. C’est une mesure de la sensibilité de la matrice au perturbation
lors de manipulations matricielles.

Erreurs dans A On veut résoudre le système Ax = b mais à cause d’erreur de troncature ou dans la
mesure des éléments de A on résout plutôt le système

( A + E) x = b

Soit x ∗ solution du système perturbé et x la solution du système original.

x = A−1 b = A−1 (( A + E) x ∗ ) = ( I + A−1 E) x ∗ = x ∗ + A−1 Ex ∗

Donc si les normes sont compatibles

kek= k x − x ∗ k= k A−1 Ex ∗ k6 k A−1 kk Ekk x ∗ k

Et on a
k x − x∗ k k Ek
6 cond( A)
k x∗ k k Ak

k x − x∗ k k Ek

6 cond( A)
kx k k Ak
k x − x∗ k
– approxime l’erreur relative
k x∗ k
k Ek
– ressemble à l’erreur relative sur les entrées de la matrice A
k Ak
– Si cond(A) est petit et k Ek est petit alors l’erreur relative sera petite : bonne approximation de x
– Si cond(A) est grand on ne peut rien dire

2014-2015 Anal.Num. 2. Année Cycle Préparatoire EPST-Annaba


28 Systèmes d’équations algébriques

k x − x∗ k k Ek

6 cond( A)
kx k k Ak

– Si E représente l’erreur de troncature sur une machine alors

| Eij | 6 em | Aij |

par définition de la troncature donc

∑ |Eij | 6 em ∑ | Aij | ⇔ k Ek∞ 6 em k Ak∞


j j

d’où
k x − x∗ k
6 em cond( A)
k x∗ k

Si le conditionnement est mauvais il faut plus de précision sur les nombres

Quoi faire de cond(A) ? le conditionnement mesure la sensibilité de la solution par rapport aux perturba-
tions des données.
Exemples :

– Le conditionnement de A = 270.51 correspond à une matrice sensible aux perturbations. Ne veut pas dire
que je n’aurai pas la bonne solution mais que j’ai de bonne chance d’obtenir une solution erronnées sans
un bon algorithme
– cond(A) = 4, ce qui est faible indiquant que si tout va bien j’aurai une bonne solution.

   
1. 2 −1 −10. 10.
A= A =
1.1 2 −5.5 5.

cond (A) = 62 indiquant un mauvais conditionnement.

РEst-ce que je peux diminuer le conditionnement en changeant de norme ? Non, on a ӎquivalence des
normes“ faisant en sorte que rien ne changera en prenant d’autre norme.
– Alors quoi ?
– Mauvais conditionnement == appliquer les recettes du conditionnement et être critique des résultats
obtenus et choisir avec soin l’algorithme de résolution (contrôler la qualité autrement, de manière ad
hoc)
– Bon conditionnement == les recettes ne sont pas nécessaires, on peut croire que tout va bien mais on
doit encore être critique des résultats obtenus (contrôler la qualité autrement, de manière ad hoc).

2014-2015 Anal.Num. 2. Année Cycle Préparatoire EPST-Annaba


1.8 Méthodes itératives 29

1.8 Méthodes itératives


1.8.1 Introduction

Les méthodes itératives consistent comme c’est le cas pour les équations à une variable à se donner un
vecteur estimé  (0) 
x1
 (0) 
 x 
 T  2 
(0) (0) (0) .
X (0)
 
= x1 , x2 , ..., xn = 
 .
 

 . 
 
(0)
xn
de la solution et une relation de réccurence
 
X ( k +1) = F X ( k −1) ,

où  (k) 
x1
 (k) 
 x 
 T  2 
(k) (k) (k)
X (k) = .
 
= x1 , x2 , ..., xn  
 .


 . 
 
(k)
xn
On définit ainsi une suite vectorielle et on parlera de convergence si la suite tend vers la solution exacte
quand k tend vers l’infini.

1.8.2 Principe des méthodes itératives

Soit le système d’équations suivant :


A.X = b

Ecrivons la matrice A sous la forme suivante

A = M−N

la matrice M doit être inversible, alors le système peut s’écrire :

−1 −1
( M − N ) .X = b ⇒ MX = NX + b ⇒ X = |M{z N} X + |M{z b}
T V

La méthode itérative associée à l’égalité précédente consiste à partir d’un vecteur initial X (0) à générer la
suite X (1) , X (2) , ..., X (k+1) ... par la relation itérative suivante :

X (k+1) = TX (k) + V

2014-2015 Anal.Num. 2. Année Cycle Préparatoire EPST-Annaba


30 Systèmes d’équations algébriques

avec T = M−1 N , V = M−1 b.

1.8.3 Le choix de la décomposition

Les différentes méthodes itératives ne diffèrent re que par le choix de la décomposition de la matrice A.

Soit A la matrice  
a11 a12 ... a1n
 a21 a22 ... a2n 
A=
 ...

... ... ... 
an1 an2 ... ann
Définissons les matrices suivantes

 
 a11 0 ... 0
dii = aii : ∀i  0 a 22 ... 0 
⇐⇒ D =  
dij = 0 : ∀i 6= j  ... ... ... ... 
0 0 ... ann
 
 0 0 ... 0
lij = − aij : ∀i > j  − a21 0 ... 0 
⇐⇒ L =  
0 : ∀i ≤ j  ... ... ... ... 
− an1 − an2 ... 0
 
 0 − a12 ... − a1n
uij = − aij : ∀i < j  0 0 ... − a2n 
⇐⇒ U =  
0 : ∀i ≥ j  ... ... ... ... 
0 0 ... 0
A partir de ces matrices on a A = D − L − U, selon les différentes possibilités d’écrire cette égalité sous la
forme A = M − N

1.8.4 Méthode de Jacobi

La matrice A étant décomposée en

A = M − N = D − (L + U) , ( D = M)

Le système A.X = b peut s’écrire donc sous la forme

D.X = ( L + U ) .X + b

La méthode de Jacobi s’écrit donc

D.X (k+1) = ( L + U ) X (k) + b

Soit :
X ( k +1) = D −1 ( L + U ) X ( k ) + D −1 b

2014-2015 Anal.Num. 2. Année Cycle Préparatoire EPST-Annaba


1.8 Méthodes itératives 31

La méthode de Jacobi suppose des pivots aii non nuls sinon un simple échange de ligne suffit à résoudre le
problème (pour avoir D inversible).
Notation. La matrice J = D−1 (L + U) s’appelle la matrice de Jacobi associée à A.

1.8.5 Méthode de Gauss-Seidel

La matrice A étant décomposée en :

A = M − N = ( D − L) − U

Le système A.X = b peut s’écrire donc sous la forme

( D − L) .X = U.X + b

La méthode de Gauss-Seidel s’écrit donc

( D − L) .X (k+1) = UX (k) + b

Soit :
X (k+1) = ( D − L)−1 UX (k) + ( D − L)−1 b

L’inverse de la matrice D − L peut être compliqué à calculer, alors on décompose de la manière suivante :

D.X (k+1) = L.X (k+1) + UX (k) + b ⇒

X (k+1) = D −1 L.X (k+1) + D −1 UX (k) + D −1 b

Notation. La matrice G = (D − L)−1 U s’appelle la matrice de Gauss-Seidel associée à A.

Formules de calculs pour les méthodes de Jacobi et de Gauss Seidel


Méthode de Jacobi

Soit X (0) un vecteur initial, chaque élément du vecteur X (n+1) est donné par :
n a
bi ij (k )
− ∑ x j pour k = 1, 2, ...
( k +1)
xi =
aii j=1 aii
j 6 =i

Méthode de Gauss Seidel

Soit X (0) un vecteur initial, chaque élément du vecteur X (k+1) est donné par :
i −1 a n aij (k)
bi ij (n+1)
− ∑ Xj − ∑
( k +1)
xi = x pour k = 1, 2, ...
aii j=1 aii a j
j=i +1 ii

2014-2015 Anal.Num. 2. Année Cycle Préparatoire EPST-Annaba


32 Systèmes d’équations algébriques

1.9 Critère de convergence des méthodes itératives


1.9.1 Rappel d’algèbre linéaire.
Valeurs propres et vecteurs propres.

Définition 1.9.1. On dit que le scalaire λ est une valeur propre de la matrice A s’il existe un vecteur X
vérifiant

A.X = λ.X

On dit que X est le vecteur propre associé à la valeur propre λ.

Définition 1.9.2. Le polynôme | A − λI | est dit polynôme caractéristique associé à la matrice A, les valeurs
propres sont toutes racines du polynôme caractéristique.
 
0 2
Exemple 1.9.1. Trouver les valeurs propres et les vecteurs propres associés à la matrice
1 0
Les valeurs propres sont solution du polynôme caractéristique :
     
0 2 1 0 −λ 2
P (λ) = det ( A − λI ) = det −λ = det = λ2 − 2.
1 0 0 1 1 −λ

√ √
λ2 − 2 = 0 ⇒ λ1 = 2, λ2 = − 2
√ 
x

Cherchons le vecteur propre associé à λ1 = 2 on doit chercher le vecteur v = qui vérifie :
y
Av1 = λ1 v
( √ ( √ ( √

0 2

x
 √  x  2y = √ 2x − 2y = 0
2x √ x − √2y = 0
= 2 ⇒ ⇒ ⇒
1 0 y y x = 2y x − 2y = 0 x − 2y = 0

Donc nous avons un système d’équations avec une infinité de solutions , on écrit l’une des inconnues en
fonction de l’autre et on trouve

x= 2y

donc les vecteurs propres s’écrivent sous la forme


 √   √ 
2y 2
=y
y 1

On peut choisir n’importe quel vecteur comme vecteur propre on prend en général le vecteur qui s’obtient
 √ 
2
en donnant la valeur 1 à la variable
1

2014-2015 Anal.Num. 2. Année Cycle Préparatoire EPST-Annaba


1.9 Critère de convergence des méthodes itératives 33


Cherchons le vecteur propre associé à λ1 = − 2 on doit chercher le vecteur v qui vérifie : Av2 = λ2 v et
on trouve
( √ ( √

0 2

x
 √  x  2y = −√ 2x x + √2y = 0
=− 2 ⇒ ⇒
1 0 y y x = − 2y x + 2y = 0

Donc nous avons un système d’équations avec une infinité de solutions , on écrit l’une des inconnues en
fonction de l’autre et on trouve

x = − 2y

donc les vecteurs propres s’écrivent sous la forme


 √   √ 
− 2y − 2
=y
y 1

On peut choisir n’importe quel vecteur comme vecteur propre on prend en général le vecteur qui s’obtient
 √ 
− 2
en donnant la valeur 1 à la variable
1

Définition 1.9.3. Soit A une matrice réelle de dimesion n et λ1 , ...λn ses valeurs propres alors le nombre
réel positif défini par ρ ( A) = max |λi | est le rayon spectral de la matrice A.
i

Normes vectorielles et matricielles.

La norme d’un espace vectoriel est un concept qui généralise celui de la valeur absolue pour l’ensemble des
nombres réels, la définition rappelle les propriétés de la valeur absolue dans R.

Définition 1.9.4. Soient E un espace vectoriel sur R , une norme sur E est une application de E dans R+
qui vérifie pour tout x, y ∈ E et tout α dans R.
1- Homogénéité :∀α ∈ R ,∀ x ∈ E : kαx k = |α| k x k .
2- Inégalité triangulaire ∀ x, y ∈ E : k x + yk ≤ k x k + kyk .
3- Séparation ∀ x, y ∈ E : k x k = 0R ⇔ x = 0E .

Définition 1.9.5. Soit x un vecteur de Rn , Les normes vectorielles classiques sont définies par :
n
1- k x k1 = ∑ | xi | .
i =1
2- k x k∞ = max | xi | .
q1≤ i ≤ n

3- k x k2 = x12 + x22 + ... + xn2

Définition 1.9.6. Soit A une matrice carrée, les normes matricielles classiques sont définies par :
n
1- k Ak1 = max ∑ aij .
j i =1

2014-2015 Anal.Num. 2. Année Cycle Préparatoire EPST-Annaba


34 Systèmes d’équations algébriques

n
2- k Ak∞ = max ∑ aij .
i j =1
n n
3- k Ak2 = ∑ ∑ a2ij
i =1 j =1

La norme kk1 consiste à calculer les sommes en valeur absolues de chaque colonne de la matrice A et de
prendre le maximum des résultats, la norme kk∞ consiste à faire la même chose pour les lignes, la norme
kk2 est un équivalent de la norme euclidienne sur les vecteurs.

1.9.2 Théorème de convergence des méthodes itératives

Théorème 1.9.1. La suite définie par X (0) et X (k+1) = TX (k) + V converge vers la solution du système
X ∗ quelque soit X (0) si et seulement si ρ ( T ) < 1.

Lemme 1.9.1. Quelque soit la norme matricielle choisie le rayon spectral d’une matrice T vérifie :

ρ (T ) ≤ kT k .

Définition 1.9.7. Une matrice A est dite à diagonale strictement dominante si :


n


| aii | > aij ∀i
j=1,j6=i

Proposition 1.9.1. Soit AX = b un système d’équations linéaires à résoudres, si la matrice A est à diago-
nale dominante alors les méthodes de Jacobi et de Gauss-Seidel sont convergentes quelque soit le vecteur
initial X 0 choisit.

Définition 1.9.8. Une matrice A ∈ Mn (K) (K = R ou C, n ≥ 3) est dite tridiagonale si aij = 0 = 0 si


|i − j| > 1.

 
a1 b2
 c2 a2 b3 
 
A=
 .. .. .. 
 . . . 

 c m −1 a m − 1 bm 
cm am

Théorème 1.9.2. Soit A une matrice tridiagonale. Alors les rayons spectraux des matrices de Jacobi et de
Gauss-Seidel sont liés par la relation
ρ ( G ) = ρ ( J )2 .

Donc les deux méthodes convergent ou divergent simultanément. Lorsqu’elles convergent, la méthode de
Gauss-Seidel converge plus rapidement que la méthode de Jacobi.

2014-2015 Anal.Num. 2. Année Cycle Préparatoire EPST-Annaba


1.10 Conditionnement d’un système linéaire 35

1.10 Conditionnement d’un système linéaire


Un système mal conditionné augmente les erreurs d’arrondi à cause de la soustraction de nombres proches.

Définition 1.10.1. On appelle nombre de condition ou conditionnement de la matrice A et on note Cond ( A)


la valeur

Cond ( A) = k Ak . A−1

Un système d’équations linéaires est bien conditionné si le conditionnement de sa matrice des coefficients
est proche de 1 et mal conditionné si Cond ( A) est très grand par rapport à 1.

Exemple 1.10.1. Soit le système



x=3
3y = 1
Le conditionnement ici est égal à 1.
Si on résout le système d’équations la solution donnée est exacte si on excepte les erreurs de représentation
on trouve x = 3 et y = 0.3333333333.
A présent on va modifier à chaque fois très légèrement le second membre et résoudre le système obtenu :

x=3
: la solution est donnée par x = 3.0 et y = 0.333 33.
3y = 0.9999999999

x = 2.999999999
: la solution est donnée par x = 3.0 et y = 0.333 33.
3y = 1.000000001

On constate que de légers changements sur le second membre du système n’influe pas sur la solution.

Exemple 1.10.2. Soit le système d’équations linéaires :



2.000000001x + 3.000000001y = 3.000000002
2x + 3y = 2.999999999

Le conditionnement de ce système matrice est 2. 6 × 1010 , la solution de ce système est donnée par x = 6.0
et y = −3.0.
A présent on va modifier à chaque fois très légèrement le second membre et résoudre le système obtenu :

2.000000001x + 3.000000001y = 3.000000001
: la solution est donnée par : x = 0.0 et y = 1.0
2x + 3y = 3

2.000000001x + 3.000000001y = 3.000000003
: la solution est donnée par : x = 12.0 et y = −7.0
2x + 3y = 2.999999998
On constate donc que quand le conditionnement est elevé le moindre petit changement dans le système a
des résultats importants sur la solution.

2014-2015 Anal.Num. 2. Année Cycle Préparatoire EPST-Annaba


36 Systèmes d’équations algébriques

1.11 Système d’équations non linéaires à plusieurs variables


Un système d’équations non linéaires est composé d’équations qui ne sont pas toutes linéaires, ces systèmes
représentent une grande difficulté par rapport aux systèmes d’équations linéaires, nous aborderons dans
cette partie la méthode du point fixe qui généralise celle qu’on a abordé au chapitre 2 au cas de plusieurs
équations.
Soit le système d’équations non linéaires suivant :

f ( x , x , ..., xn ) = 0
 1 1 2


f 2 ( x1 , x2 , ..., xn ) = 0

 ....
f n ( x1 , x2 , ..., xn ) = 0

− → − →
Qu’on peut écrire sous notation vectorielle F X = 0 .
−→ − →
On peut réecrire ce système sous la forme G X = X ainsi cette écriture permet de voir la solution du
système d’équations comme un point fixe de la fonction G.

Définition 1.11.1. La matrice jacobienne de la fonction G au point (r1 , r2 , ...rn ) est définie par :
  
∂g1 − →  ∂g1 − →  ∂g1 − →
r r ... r
 ∂x1 ∂x2 ∂xn 
2 − → 2 − → 2 − →
 ∂g  ∂g  ∂g  

→ r r ... r 
   
J r =  ∂x1 ∂x2 ∂x2 

 ... ... ... ... 

 ∂gn


r
 ∂gn − →
r

...
∂gn − →
r
 
∂x1 ∂x2 ∂xn
−
→
−→
Théorème 1.11.1. Soit r un point fixe de l’application G X on a alors :
1- Si ρ J −→ < 1 alors −


r r est un point fixe attractif.
2- Si ρ J − → > 1 alors −


r r est un point fixe répulsif.
3- La situation ρ J −→ 
r = 1 ne peut pas être tranché avec ce critère, le point peut être répulsif ou attractif.

Remarque 1.11.1. Comme le calcul du rayon spectral peut être compliqué, on a souvent recours à l’inégalité
ρ J −
→  −
≤ J →

r r

Remarque 1.11.2. Comme dans le cas en dimension 1 le fait que le point fixe soit attractif ne garantit pas
la convergence, il faut en plus que la condition initiale appartienne au bassin d’attraction du point fixe, dans
les dimensions supérieures le bassin d’attraction d’un point fixe est difficile à localiser, on se limitera dans
les exercices à déterminer si un point fixe est attractif ou répulsif.

Exemple 1.11.1. Soit le système d’équations donné par :



3x − cos (y) − 0.5 = 0
x2 − 2y2 + 1 = 0

2014-2015 Anal.Num. 2. Année Cycle Préparatoire EPST-Annaba


1.11 Système d’équations non linéaires à plusieurs variables 37

   
x F1 ( x, y) = 3x − cos (y) − 0.5
Le système s’écrit donc sous la forme F = il faut réecrire ce
   
y F2 ( x, y) = x2 − 2y2 + 1
x x
système sous la forme =G .
y y
On a :
cos (y) + 0.5

 3x − cos (y) − 0.5 = 0 ⇔ x =


s 3
1−x 2
 x2 − 2y2 + 1 = 0 ⇔ y =


2
Donc la fonction G est donnée par

cos (y) + 0.5


 
  g1 ( x, y) =
x  3 
G =
s 
y  1−x 2 
g2 ( x, y) =
2

La matrice Jacobienne est donnée par :


  
∂g1 ( x, y) ∂g1 ( x, y) 1

0 − siny

J ( x, y) = 
∂x ∂y  
= 3 
 ∂g2 ( x, y) ∂g2 ( x, y)  1 x 
−√ √ 0
∂x ∂y 2 1 − x2


1 1
On a d’un coté : |siny| ≤ 1 ⇒ − siny ≤ .

3 3
On a également :

−1 + 0.5 cos (y) + 0.5 1 + 0.5


≤ ≤ ⇒ −0.166 67− ≤ x ≤ 0.5
3 3 3

x
La fonction √ est croissante et atteint donc son maximum au point 0.5 d’où :
1 − x2

x 0.5 1 x 1
√ ≤√ = 0.577 35 ⇒ √ √ ≤ √ ∗ 0.577 35 = 0.408 25
1− x2 1 − 0.52 2 1−x 2 2
On obtient donc
   
1 1 x 1
k J ( x, y )k 1 = max −
3 siny , − √ √ ≤ max , 0.408 25 = 0.408 25.
2 1 − x2 3

Comme on a ρ J − → 
r ≤ k J ( x, y)k1 ≤ 0.408 25 alors cette écriture est convergente.

Méthode de NEWTON. On présentera la méthode de Newton (la plus utilisée) et on se limitera à n = 2.


Soit un système avec n = 2 possédant une solution

f 1 ( x1 , x2 ) = 0
f 2 ( x1 , x2 ) = 0

2014-2015 Anal.Num. 2. Année Cycle Préparatoire EPST-Annaba


38 Systèmes d’équations algébriques

Soit x0 = ( x10 , x20 ) un point de départ et (δx1 , δx2 ) une correction à x0 (comme au chap. 1) tel que

f 1 ( x10 + δx1 , x20 + δx2 ) = 0


f 2 ( x10 + δx1 , x20 + δx2 ) = 0

Appliquons Taylor aux deux fonctions (avec Taylor à deux variables) en x0 :

∂ f1 0 0 ∂f
0 = f 1 ( x10 + δx1 , x20 + δx2 ) = f 1 ( x10 , x20 ) + ( x1 , x2 )δx1 + 1 ( x10 , x20 )δx2 + ...
∂x1 ∂x2

∂ f2 0 0 ∂ f2 0 0
0 = f 2 ( x10 + δx1 , x20 + δx2 ) = f 2 ( x10 , x20 ) + ( x1 , x2 )δx1 + ( x , x )δx2 + ...
∂x1 ∂x2 1 2

Comme toujours on néglige les termes d’ordres supérieures en δxi : on fait une linéarisation en δxi . et on
obtient comme approximation

∂ f1 0 0 ∂f
− f 1 ( x10 , x20 ) = ( x , x )δx1 + 1 ( x10 , x20 )δx2
∂x1 1 2 ∂x2

∂ f1 0 0 ∂f
− f 1 ( x10 , x20 ) = ( x1 , x2 )δx1 + 1 ( x10 , x20 )δx2
∂x1 ∂x2
Introduisant les matrices et vecteurs appropriés on a

∂ f1 0 0 ∂ f1 0 0
 
( x1 , x2 ) ( x1 , x2 ) 
f 1 ( x10 , x20 )
  
 ∂x1 ∂x 2  δx1
− =  ∂f
f 2 ( x10 , x20 ) 2
( x 0 0
, x )
∂ f 2 0 0  δx2
( x , x ) | {z }
| {z } ∂x1 1 2 ∂x2 1 2
R( x10 ,x20 ) | {z } δx
J ( x10 ,x20 )

J ( x10 , x20 ) est la matrice Jacobienne en ( x10 , x20 ) et R( x10 , x20 ) le résidu en ( x10 , x20 ).
Si le déterminant de J appelé Jacobien est non nul on peut inverser J et on peut résoudre en δx :

δx = − J ( x10 , x20 )−1 R( x10 , x20 )

Comme en dimension 1, la solution proposée x0 + δx n’est pas parfaite puisqu’on a négligé des termes dans
Taylor. Alors on applique la méthode de points fixes :
– x0 donné
– résoudre J ( x n )δx = − R( x n )
– x n+1 = x n + δx
Forme compacte d’un système non linéaire

F(x) = 0

où x = ( x1 , x2 , x3 , . . . , xn ) et F = ( f 1 , f 2 , f 3 , . . . , f n )

2014-2015 Anal.Num. 2. Année Cycle Préparatoire EPST-Annaba


1.11 Système d’équations non linéaires à plusieurs variables 39

Vecteurs : correction, résidu

δx = (δx1 , δx2 , δx3 , . . . , δxn ) R( x ) = ( f 1 ( x ), f 2 ( x ), f 3 ( x ), . . . , f n ( x ))

Matrice : jacobienne
∂ f1 ∂ f1 ∂ f1
 
 ∂x1 ...  
∂x2 ∂xn  ∇ f1 (x) · · ·
 ∂ f2 ∂ f2 ∂ f2  
 
 ...  ∇ f2 (x) · · · 
J (x) =  ∂x ∂x2 ∂xn  =  
 .1 ..
.. .. ..  
 
.

 .. . . . 


 ∂ fn ∂ fn ∂ fn  ∇ f n ( x ) · · ·
...
∂x1 ∂x2 ∂xn
– Étant donné ea , un critère d’arrêt
– Étant donné N, le nombre maximal d’itérations
– Étant donné x0 , une valeur initiale de la solution

(i ) Résoudre le système linéaire


J ( x k ) δx = − R( x k )

Mettre à jour la solution


x k+1 = x k + δx
||δx ||
(ii ) Si < ea et || R( x k+1 )|| 6 ea :
|| x k+1 ||
– convergence atteinte
– écrire la solution x k+1 : arrêt

(iii ) Si le nombre maximal d’itérations N est atteint :


– convergence non atteinte en N itérations : arrêt

(iv) retour à l’étape 1

Remarques
– l’étape 1 de l’algorithme s’écrit aussi

x k +1 = x k − J ( x k ) −1 R ( x k )

soulignant le lien avec la méthode de Newton en dimension 1.


– Encore une fois la convergence de l’algorithme de Newton dépend de la qualité de x0
– On peut montrer que si l’algorithme converge alors en général

k x − x n+1 k≈ C k x − x n k2 ⇔ ken+1 k≈ C ken k2

Donc en général la convergence est quadratique.

2014-2015 Anal.Num. 2. Année Cycle Préparatoire EPST-Annaba


40 Systèmes d’équations algébriques

– Si la matrice jacobienne est singulière au point solution (det J = 0) alors on perd la convergence qua-
dratique. C’est l’analogue du cas en dimension 1 : on perd la convergence quadratique si la racine est de
multiplicité supérieure à 1 ( f 0 (r ) = 0).
Remarques
– Pour avoir la convergence quadratique on doit construire et décomposer (au sens de Crout) une matrice
n × n à chaque itération. Pour cela on doit fournir en plus des n fonctions les n gradients de ces fonctions
(n2 dérivée partielles). Peut être coûteux lorsque n est grand.
– La méthode de Newton modifiée évite le calcul des dérivées partielles en les remplaçant par des approxi-
mations appelées différences centrées :

∂ fi f i ( x1 , . . . , x j−1 , x j + h, . . . , xn ) − f i ( x1 , . . . , x j−1 , x j − h, . . . , xn )

∂x j 2h

Introduit une erreur dans le calcul de la matrice mais la convergence est généralement bonne.

2014-2015 Anal.Num. 2. Année Cycle Préparatoire EPST-Annaba

Vous aimerez peut-être aussi