Académique Documents
Professionnel Documents
Culture Documents
Didier Schmitt
IECL
Printemps 2022
Introduction
Description du problème
Description du problème
Nous savons résoudre explicitement certaines équations.
Description du problème
Nous savons résoudre explicitement certaines équations.
Par exemple l’équation
x2 − x − 1 = 0
√ √
1+ 5 1− 5
admet deux solutions : et
2 2
Description du problème
Nous savons résoudre explicitement certaines équations.
Par exemple l’équation
x2 − x − 1 = 0
√ √
1+ 5 1− 5
admet deux solutions : et
2 2
En revanche, si nous considérons l’équation
cos x = x,
Description du problème
Nous savons résoudre explicitement certaines équations.
Par exemple l’équation
x2 − x − 1 = 0
√ √
1+ 5 1− 5
admet deux solutions : et
2 2
En revanche, si nous considérons l’équation
cos x = x,
Description du problème
Soit l’équation
f (x) = 0
où f une fonction d’une variable réelle à valeur réelle.
Description du problème
Soit l’équation
f (x) = 0
où f une fonction d’une variable réelle à valeur réelle.
On suppose que cette équation admet (au moins) une racine r .
Description du problème
Soit l’équation
f (x) = 0
où f une fonction d’une variable réelle à valeur réelle.
On suppose que cette équation admet (au moins) une racine r .
L’idée est de construire une suite (xn ) qui converge vers r la solution
de notre équation.
Description du problème
Soit l’équation
f (x) = 0
où f une fonction d’une variable réelle à valeur réelle.
On suppose que cette équation admet (au moins) une racine r .
L’idée est de construire une suite (xn ) qui converge vers r la solution
de notre équation.
Ainsi, par définition de la convergence, le terme xn de la suite sera
une approximation de r , la précision dépendant du choix de n.
Description du problème
Soit l’équation
f (x) = 0
où f une fonction d’une variable réelle à valeur réelle.
On suppose que cette équation admet (au moins) une racine r .
L’idée est de construire une suite (xn ) qui converge vers r la solution
de notre équation.
Ainsi, par définition de la convergence, le terme xn de la suite sera
une approximation de r , la précision dépendant du choix de n.
Question
Comment construire cette suite (xn ) qui converge vers cette solution de
notre équation ?
Objectifs du chapitre
Objectifs du chapitre
Décrire les méthodes numériques les plus fréquemment utilisées.
Objectifs du chapitre
Décrire les méthodes numériques les plus fréquemment utilisées.
Étudier la convergence de ces méthodes.
Objectifs du chapitre
Décrire les méthodes numériques les plus fréquemment utilisées.
Étudier la convergence de ces méthodes.
Évaluer la performance de ces méthodes i.e. la vitesse de
convergence des suites associées.
Objectifs du chapitre
Décrire les méthodes numériques les plus fréquemment utilisées.
Étudier la convergence de ces méthodes.
Évaluer la performance de ces méthodes i.e. la vitesse de
convergence des suites associées.
Adapter quelques méthodes pour traiter le problème plus général
f (x) = 0
Soit l’équation
f (x) = 0
où f une fonction d’une variable réelle à valeur réelle.
Soit l’équation
f (x) = 0
où f une fonction d’une variable réelle à valeur réelle.
Soit l’équation
f (x) = 0
où f une fonction d’une variable réelle à valeur réelle.
Soit l’équation
f (x) = 0
où f une fonction d’une variable réelle à valeur réelle.
Soit l’équation
f (x) = 0
où f une fonction d’une variable réelle à valeur réelle.
Théorème
Soient a et b deux réels tels que a < b et f une application de [a, b] dans
R, continue et strictement monotonesur [a, b].
Si f (a)f (b) ≤ 0 alors il existe un unique r ∈ [a, b] tel que f (r ) = 0.
Exemple 1 :
Résoudre sur R
x − 0.2 sin (x) − 0.5 = 0.
Exemple 1 :
Résoudre sur R
x − 0.2 sin (x) − 0.5 = 0.
Exemple 1 :
Résoudre sur R
x − 0.2 sin (x) − 0.5 = 0.
Exemple 1 :
Résoudre sur R
x − 0.2 sin (x) − 0.5 = 0.
Exemple 1 :
Résoudre sur R
x − 0.2 sin (x) − 0.5 = 0.
Exemple 2 :
Résoudre sur R
cos (x) = e −x .
Exemple 2 :
Résoudre sur R
cos (x) = e −x .
Exemple 2 :
Résoudre sur R
cos (x) = e −x .
Exemple 2 :
Résoudre sur R
cos (x) = e −x .
Exemple 2 :
Résoudre sur R
cos (x) = e −x .
Exemple 2 :
Résoudre sur R
cos (x) = e −x .
Exemple 2 :
Résoudre sur R
cos (x) = e −x .
Exemple 2 :
Résoudre sur R
cos (x) = e −x .
0,5
0 1 2 3 4 5 6 7 8 9 10
-0,5
-1
Méthode de dichotomie
Le principe de la dichotomie
1,6
1,2
0,8
0,4
-0,4
-0,8
Méthode de dichotomie
Le principe de la dichotomie
1,6
1,2
0,8
0,4
-0,4
-0,8
Méthode de dichotomie
Le principe de la dichotomie
1,6
1,2
0,8
0,4
-0,4
-0,8
Méthode de dichotomie
Le principe de la dichotomie
1,6
1,2
0,8
0,4
-0,4
-0,8
Méthode de dichotomie
Le principe de la dichotomie
1,6
1,2
0,8
0,4
-0,4
-0,8
Méthode de dichotomie
Le principe de la dichotomie
1,6
1,2
0,8
0,4
-0,4
-0,8
Méthode de dichotomie
Le principe de la dichotomie
1,6
1,2
0,8
0,4
-0,4
-0,8
Méthode de dichotomie
Le principe de la dichotomie
On part d’un intervalle contenant une racine et on construit une suite
d’intervalles vérifiant :
la racine appartient à tous les intervalles ;
la longueur des intervalles tend vers 0.
On obtient ainsi un encadrement de plus en plus fin de la racine.
Méthode de dichotomie
Algorithme de la dichotomie
Soit f : [a, b] → R continue et telle que f (a) f (b) ≤ 0.
a0 = a, b0 = b;
pour tous les n de 0 à N faire
m := (an +b2
n)
;
si f (a) f (m) ≤ 0 alors
an+1 := an , bn+1 := m;
sinon
an+1 := m, bn+1 := bn ;
Méthode de dichotomie
On montre alors que ces deux suites (an ) et (bn ) vérifient par
construction :
∀ n ∈ N, an ≤ an+1 ≤ bn+1 ≤ bn .
∀ n ∈ N, |an − bn | = |a−b|
2n
.
∀ n ∈ N, f (an )f (a) ≥ 0, f (bn )f (a) ≤ 0.
Méthode de dichotomie
On montre alors que ces deux suites (an ) et (bn ) vérifient par
construction :
∀ n ∈ N, an ≤ an+1 ≤ bn+1 ≤ bn .
∀ n ∈ N, |an − bn | = |a−b|
2n
.
∀ n ∈ N, f (an )f (a) ≥ 0, f (bn )f (a) ≤ 0.
Par conséquent, les deux suites (an ) et (bn ) sont adjacentes et elles
convergent vers une même limite r ∈ [a, b].
Méthode de dichotomie
On montre alors que ces deux suites (an ) et (bn ) vérifient par
construction :
∀ n ∈ N, an ≤ an+1 ≤ bn+1 ≤ bn .
∀ n ∈ N, |an − bn | = |a−b|
2n
.
∀ n ∈ N, f (an )f (a) ≥ 0, f (bn )f (a) ≤ 0.
Par conséquent, les deux suites (an ) et (bn ) sont adjacentes et elles
convergent vers une même limite r ∈ [a, b].
Comme f est continue sur [a, b], les suites (f (an )) et (f (bn ))
convergent vers f (r ).
Méthode de dichotomie
On montre alors que ces deux suites (an ) et (bn ) vérifient par
construction :
∀ n ∈ N, an ≤ an+1 ≤ bn+1 ≤ bn .
∀ n ∈ N, |an − bn | = |a−b|
2n
.
∀ n ∈ N, f (an )f (a) ≥ 0, f (bn )f (a) ≤ 0.
Par conséquent, les deux suites (an ) et (bn ) sont adjacentes et elles
convergent vers une même limite r ∈ [a, b].
Comme f est continue sur [a, b], les suites (f (an )) et (f (bn ))
convergent vers f (r ).
Suivant le signe de f (a), elle vérifient de plus, pour tout n ∈ N
Méthode de dichotomie
On montre alors que ces deux suites (an ) et (bn ) vérifient par
construction :
∀ n ∈ N, an ≤ an+1 ≤ bn+1 ≤ bn .
∀ n ∈ N, |an − bn | = |a−b|
2n
.
∀ n ∈ N, f (an )f (a) ≥ 0, f (bn )f (a) ≤ 0.
Par conséquent, les deux suites (an ) et (bn ) sont adjacentes et elles
convergent vers une même limite r ∈ [a, b].
Comme f est continue sur [a, b], les suites (f (an )) et (f (bn ))
convergent vers f (r ).
Suivant le signe de f (a), elle vérifient de plus, pour tout n ∈ N
Méthode de dichotomie
Remarques
Dès que f est continue sur [a, b] et que f (a)f (b) ≤ 0, cette
méthode converge.
Méthode de dichotomie
Remarques
Dès que f est continue sur [a, b] et que f (a)f (b) ≤ 0, cette
méthode converge.
Une seule évaluation de la fonction f est nécessaire par itération
Méthode de dichotomie
Remarques
Dès que f est continue sur [a, b] et que f (a)f (b) ≤ 0, cette
méthode converge.
Une seule évaluation de la fonction f est nécessaire par itération
Comme nous avons
an ≤ r ≤ bn , ∀n ≥ 0,
Méthode de dichotomie
Remarques
Dès que f est continue sur [a, b] et que f (a)f (b) ≤ 0, cette
méthode converge.
Une seule évaluation de la fonction f est nécessaire par itération
Comme nous avons
an ≤ r ≤ bn , ∀n ≥ 0,
|a − b|
|aN − r | ≤ |aN − bN | =
2N
Didier Schmitt IECL
Analyse Numérique - 1
Résolution des équations non linéaires
Quelques algorithmes classiques
Méthode de dichotomie
Remarques
On peut, en fonction de la précision souhaitée , déterminer a priori
le temps d’arrêt N
|a − b|
|aN − bN | = <
2N
ln (|a − b|) − ln ()
N≥E +1
ln (2)
Méthode de dichotomie
Remarques
On peut, en fonction de la précision souhaitée , déterminer a priori
le temps d’arrêt N
|a − b|
|aN − bN | = <
2N
ln (|a − b|) − ln ()
N≥E +1
ln (2)
Cette méthode converge même si la fonction f a plusieurs racines
dans l’intervalle de départ.
Méthode de dichotomie
Exemple :
-1
-2
-3
Méthode de dichotomie
Exemple :
-1
-2
-3
Méthode de dichotomie
Exemple :
-1
-2
-3
Méthode de dichotomie
Exemple :
-1
-2
-3
Méthode de dichotomie
Exemple :
-1
-2
-3
Méthode de dichotomie
Exemple :
-1
-2
-3
Méthode de dichotomie
Exemple :
-1
-2
-3
Méthode de dichotomie
Exemple :
-1
-2
-3
Principe
La recherche d’une solution de l’équation f (x) = 0 peut être vue comme
la recherche d’une solution de l’équation :
g (x) = x
Principe
La recherche d’une solution de l’équation f (x) = 0 peut être vue comme
la recherche d’une solution de l’équation :
g (x) = x
Principe
La recherche d’une solution de l’équation f (x) = 0 peut être vue comme
la recherche d’une solution de l’équation :
g (x) = x
Ainsi, si la suite (xn ) générée par cet algorithme converge (et sous ces
hypothèses), alors sa limite sera un point fixe de la fonction g et donc
une racine de la fonction f .
Ainsi, si la suite (xn ) générée par cet algorithme converge (et sous ces
hypothèses), alors sa limite sera un point fixe de la fonction g et donc
une racine de la fonction f .
En particulier
Théorème du point fixe
Supposons I fermé, g contractante sur I de rapport k et I stable par g .
Alors, nous avons :
la fonction g admet sur I un unique point fixe r ∈ I .
pour toute condition initiale a ∈ I , la suite (xn ), définie par x0 = a et
la relation de récurrence xn+1 = g (xn ), converge vers ce point fixe r .
les estimations suivantes :
kn
∀ n ∈ N, |xn − r | ≤ |x1 − x0 |
1−k
k
∀ n ∈ N, |xn − r | ≤ |xn − xn−1 |
1−k
Exemple
Soit f la fonction définie sur I = [0, +∞[ par
f (x) = x − e −(1+x)
Exemple
Soit f la fonction définie sur I = [0, +∞[ par
f (x) = x − e −(1+x)
1,6
1,2
0,8
0,4
-0,4
-0,8
Exemple
Soit f la fonction définie sur I = [0, +∞[ par
f (x) = x − e −(1+x)
g (x) = e −(1+x)
Exemple
Soit f la fonction définie sur I = [0, +∞[ par
f (x) = x − e −(1+x)
g (x) = e −(1+x)
On vérifie aisément que I est stable par g , que g est une contraction sur
I et que I est fermé
Exemple
Soit f la fonction définie sur I = [0, +∞[ par
f (x) = x − e −(1+x)
g (x) = e −(1+x)
Exemple
Soit f la fonction définie sur I = [0, +∞[ par
f (x) = x − e −(1+x)
h(x) = x 2 e (1+x)
Exemple
Soit f la fonction définie sur I = [0, +∞[ par
f (x) = x − e −(1+x)
h(x) = x 2 e (1+x)
Exemple
Soit f la fonction définie sur I = [0, +∞[ par
f (x) = x − e −(1+x)
Exemple
Soit f la fonction définie sur I = [0, +∞[ par
f (x) = x − e −(1+x)
On montre que :
si a ∈ [0, r [ alors la suite (xn ) converge vers 0
si a = r alors la suite (xn ) est constante
si a ∈]r , +∞[ la suite (xn ) diverge vers +∞
Exemple
Soit f la fonction définie sur I = [0, +∞[ par
f (x) = x − e −(1+x)
On montre que :
si a ∈ [0, r [ alors la suite (xn ) converge vers 0
si a = r alors la suite (xn ) est constante
si a ∈]r , +∞[ la suite (xn ) diverge vers +∞
Théorème
Soit g une application de I dans I admettant un point fixe r ∈ I . On
suppose g dérivable en r .
si |g 0 (r )| < 1, alors r est un point fixe attractif.
si |g 0 (r )| > 1, alors r est un point fixe répulsif.
si |g 0 (r )| = 1, alors les deux cas peuvent se produire
Théorème
Soit g une application de I dans I admettant un point fixe r ∈ I . On
suppose g dérivable en r .
si |g 0 (r )| < 1, alors r est un point fixe attractif.
si |g 0 (r )| > 1, alors r est un point fixe répulsif.
si |g 0 (r )| = 1, alors les deux cas peuvent se produire
Remarque
Dans l’exemple précédent, nous avons |h0 (r )| > 1
Vitesse de convergence
Vitesse de convergence
Vitesse de convergence
Vitesse de convergence
|xn+1 − r | ≤ C |xn − r | ∀n ≥ 0
Vitesse de convergence
Vitesse de convergence
Signification pratique
Posons pour tout n ∈ N, en = |xn − r |. Le nombre en représente l’erreur
commise lorsqu’on approche le nombre r par le nombre xn .
Vitesse de convergence
Signification pratique
Posons pour tout n ∈ N, en = |xn − r |. Le nombre en représente l’erreur
commise lorsqu’on approche le nombre r par le nombre xn .
Si la convergence est linéaire alors il existe 0 < C < 1 tel que
en+1 ∼ Cen
Vitesse de convergence
Signification pratique
Posons pour tout n ∈ N, en = |xn − r |. Le nombre en représente l’erreur
commise lorsqu’on approche le nombre r par le nombre xn .
Si la convergence est linéaire alors il existe 0 < C < 1 tel que
en+1 ∼ Cen
Ceci signifie qu’asymptotiquement l’erreur est réduite d’un facteur C
à chaque itération.
Vitesse de convergence
Signification pratique
Posons pour tout n ∈ N, en = |xn − r |. Le nombre en représente l’erreur
commise lorsqu’on approche le nombre r par le nombre xn .
Si la convergence est linéaire alors il existe 0 < C < 1 tel que
en+1 ∼ Cen
Ceci signifie qu’asymptotiquement l’erreur est réduite d’un facteur C
à chaque itération.
Plus petite sera la vitesse de convergence, plus rapide sera donc la
convergence de la suite.
Vitesse de convergence
Signification pratique
Si la convergence est d’ordre q > 1, alors il existe 0 < C tel que
en+1 ∼ Cenq .
Vitesse de convergence
Signification pratique
Si la convergence est d’ordre q > 1, alors il existe 0 < C tel que
en+1 ∼ Cenq .
Posons alors pour tout n ∈ N, λn = − log10 en .
Vitesse de convergence
Signification pratique
Si la convergence est d’ordre q > 1, alors il existe 0 < C tel que
en+1 ∼ Cenq .
Posons alors pour tout n ∈ N, λn = − log10 en .
Le nombre λn est une ”mesure” du nombre de décimales exactes de
xn .
Vitesse de convergence
Signification pratique
Si la convergence est d’ordre q > 1, alors il existe 0 < C tel que
en+1 ∼ Cenq .
Posons alors pour tout n ∈ N, λn = − log10 en .
Le nombre λn est une ”mesure” du nombre de décimales exactes de
xn .
En effet si en = 10−5 alors λn = 5, si en = 10−10 alors λn = 10,
etc...
Vitesse de convergence
Signification pratique
Si la convergence est d’ordre q > 1, alors il existe 0 < C tel que
en+1 ∼ Cenq .
Posons alors pour tout n ∈ N, λn = − log10 en .
Le nombre λn est une ”mesure” du nombre de décimales exactes de
xn .
En effet si en = 10−5 alors λn = 5, si en = 10−10 alors λn = 10,
etc...
Nous avons
λn+1 ∼ qλn .
ce qui signifie qu’asymptotiquement, le nombre xn+1 possède q fois
plus de ”décimales exactes” que le nombre xn .
Vitesse de convergence
Signification pratique
Si la convergence est d’ordre q > 1, alors il existe 0 < C tel que
en+1 ∼ Cenq .
Posons alors pour tout n ∈ N, λn = − log10 en .
Le nombre λn est une ”mesure” du nombre de décimales exactes de
xn .
En effet si en = 10−5 alors λn = 5, si en = 10−10 alors λn = 10,
etc...
Nous avons
λn+1 ∼ qλn .
ce qui signifie qu’asymptotiquement, le nombre xn+1 possède q fois
plus de ”décimales exactes” que le nombre xn .
Plus grand sera l’ordre de convergence, plus rapide sera donc la
convergence de la suite
Didier Schmitt IECL
Analyse Numérique - 1
Résolution des équations non linéaires
Quelques algorithmes classiques
Soit (xn ) une suite définie par la relation de récurrence xn+1 = g (xn ) et
soit r un point fixe de g .
Soit (xn ) une suite définie par la relation de récurrence xn+1 = g (xn ) et
soit r un point fixe de g .
Si g est une fonction 3 fois dérivable sur I , alors d’après la formule
Taylor-Young, nous avons pour tout n ∈ N :
xn+1 − r = g (xn ) − g (r )
g 00 (r ) g 000 (r )
= g 0 (r )(xn − r ) + (xn − r )2 + (xn − r )3 + o((xn − r )3 ).
2 6
Soit encore :
g 00 (r ) 2 g 000 (r ) 3
en+1 = g 0 (r )en + e + en + o(en3 ).
2 n 6
g 00 (r ) 2 g 000 (r ) 3
en+1 = g 0 (r )en +
e + en + o(en3 )
2 n 6
Plusieurs cas se présentent alors à nous :
g 00 (r ) 2 g 000 (r ) 3
en+1 = g 0 (r )en +
e + en + o(en3 )
2 n 6
Plusieurs cas se présentent alors à nous :
si g 0 (r ) 6= 0 et |g 0 (r )| < 1, alors en+1 ∼ Cen avec C = |g 0 (r )|.
La suite (xn ) converge linéairement vers r .
g 00 (r ) 2 g 000 (r ) 3
en+1 = g 0 (r )en +
e + en + o(en3 )
2 n 6
Plusieurs cas se présentent alors à nous :
si g 0 (r ) 6= 0 et |g 0 (r )| < 1, alors en+1 ∼ Cen avec C = |g 0 (r )|.
La suite (xn ) converge linéairement vers r .
|g 00 (r )|
si g 0 (r ) = 0 et g 00 (r ) 6= 0, alors en+1 ∼ Cen2 avec C = 2 .
La suite (xn ) est convergente d’ordre 2.
g 00 (r ) 2 g 000 (r ) 3
en+1 = g 0 (r )en +
e + en + o(en3 )
2 n 6
Plusieurs cas se présentent alors à nous :
si g 0 (r ) 6= 0 et |g 0 (r )| < 1, alors en+1 ∼ Cen avec C = |g 0 (r )|.
La suite (xn ) converge linéairement vers r .
|g 00 (r )|
si g 0 (r ) = 0 et g 00 (r ) 6= 0, alors en+1 ∼ Cen2 avec C = 2 .
La suite (xn ) est convergente d’ordre 2.
si g 0 (r ) = g 00 (r ) = 0 et g 000 (r ) 6= 0, alors en+1 ∼ Cen3 avec
000
µ = |g 6(r )| .
La suite (xn ) est convergente d’ordre 3.
g 00 (r ) 2 g 000 (r ) 3
en+1 = g 0 (r )en +
e + en + o(en3 )
2 n 6
Plusieurs cas se présentent alors à nous :
si g 0 (r ) 6= 0 et |g 0 (r )| < 1, alors en+1 ∼ Cen avec C = |g 0 (r )|.
La suite (xn ) converge linéairement vers r .
|g 00 (r )|
si g 0 (r ) = 0 et g 00 (r ) 6= 0, alors en+1 ∼ Cen2 avec C = 2 .
La suite (xn ) est convergente d’ordre 2.
si g 0 (r ) = g 00 (r ) = 0 et g 000 (r ) 6= 0, alors en+1 ∼ Cen3 avec
000
µ = |g 6(r )| .
La suite (xn ) est convergente d’ordre 3.
et ainsi de suite, si on suppose plus de régularité sur g .
La méthode de Newton
La méthode de Newton
Description de la méthode
Si f est une fonction affine
f (x) = ax + b (a 6= 0)
b
alors, il est facile de déterminer la racine : r = − .
a
La méthode de Newton
Description de la méthode
Si f est une fonction affine
f (x) = ax + b (a 6= 0)
b
alors, il est facile de déterminer la racine : r = − .
a
Dans le cas général, l’idée est de substituer à la fonction f une
approximation affine
La méthode de Newton
Description de la méthode
Si f est une fonction affine
f (x) = ax + b (a 6= 0)
b
alors, il est facile de déterminer la racine : r = − .
a
Dans le cas général, l’idée est de substituer à la fonction f une
approximation affine
Pour cela nous pouvons utiliser sa tangente.
La méthode de Newton
Description de la méthode
Supposons que f soit une fonction définie sur un intervalle I , dérivable
sur I et qu’elle possède une racine r dans I .
La méthode de Newton
Description de la méthode
Supposons que f soit une fonction définie sur un intervalle I , dérivable
sur I et qu’elle possède une racine r dans I .
Soit x0 un point I assez proche de la racine r .
La méthode de Newton
Description de la méthode
Supposons que f soit une fonction définie sur un intervalle I , dérivable
sur I et qu’elle possède une racine r dans I .
Soit x0 un point I assez proche de la racine r .
On a alors
La méthode de Newton
Description de la méthode
La fonction affine fx0 admet une racine x1 si et seulement si
f 0 (x0 ) 6= 0, et dans ce cas
f (x0 )
x1 = x0 − .
f 0 (x0 )
La méthode de Newton
Description de la méthode
La fonction affine fx0 admet une racine x1 si et seulement si
f 0 (x0 ) 6= 0, et dans ce cas
f (x0 )
x1 = x0 − .
f 0 (x0 )
La méthode de Newton
Description de la méthode
La fonction affine fx0 admet une racine x1 si et seulement si
f 0 (x0 ) 6= 0, et dans ce cas
f (x0 )
x1 = x0 − .
f 0 (x0 )
La méthode de Newton
Description de la méthode
La fonction affine fx0 admet une racine x1 si et seulement si
f 0 (x0 ) 6= 0, et dans ce cas
f (x0 )
x1 = x0 − .
f 0 (x0 )
La méthode de Newton
Description de la méthode
2,5
La méthode de Newton
Description de la méthode
2,5
La méthode de Newton
Description de la méthode
2,5
La méthode de Newton
Description de la méthode
2,5
La méthode de Newton
Description de la méthode
2,5
La méthode de Newton
Description de la méthode
2,5
La méthode de Newton
Description de la méthode
2,5
La méthode de Newton
Description de la méthode
2,5
La méthode de Newton
Description de la méthode
2,5
La méthode de Newton
Algorithme de Newton
x0 donné;
pour tous les n de 0 à . . . faire
xn+1 = xn − ff0(x(xnn))
La méthode de Newton
Algorithme de Newton
x0 donné;
pour tous les n de 0 à . . . faire
xn+1 = xn − ff0(x(xnn))
Remarques
Pour que la suite (xn ) soit bien définie, il faut que f 0 (xn ) 6= 0 pour
tout n ∈ N.
La méthode de Newton
Algorithme de Newton
x0 donné;
pour tous les n de 0 à . . . faire
xn+1 = xn − ff0(x(xnn))
Remarques
Pour que la suite (xn ) soit bien définie, il faut que f 0 (xn ) 6= 0 pour
tout n ∈ N.
À chaque itération, nous devons faire deux évaluations de fonction :
calcul de f (xn ) et calcul de f 0 (xn )
La méthode de Newton
Algorithme de Newton
x0 donné;
pour tous les n de 0 à . . . faire
xn+1 = xn − ff0(x(xnn))
Remarques
Pour que la suite (xn ) soit bien définie, il faut que f 0 (xn ) 6= 0 pour
tout n ∈ N.
À chaque itération, nous devons faire deux évaluations de fonction :
calcul de f (xn ) et calcul de f 0 (xn )
La méthode de Newton est une méthode de point fixe avec
f (x)
g (x) = x −
f 0 (x)
La méthode de Newton
Théorème
Soient f une application de I dans I et r ∈ I une racine de la fonction f .
On suppose que f est deux fois dérivable sur un voisinage de r et que
f 0 (r ) 6= 0.
Alors, il existe η > 0 tel que, pour tout x0 ∈]r − η, r + η[∩I , la méthode
de Newton génère une suite (xn ) qui est bien définie et qui converge au
moins quadratiquement vers r .
La méthode de Newton
Théorème
Soient f une application de I dans I et r ∈ I une racine de la fonction f .
On suppose que f est deux fois dérivable sur un voisinage de r et que
f 0 (r ) 6= 0.
Alors, il existe η > 0 tel que, pour tout x0 ∈]r − η, r + η[∩I , la méthode
de Newton génère une suite (xn ) qui est bien définie et qui converge au
moins quadratiquement vers r .
En effet
2
(f 0 (x)) − f (x)f 0 (x)
g 0 (x) = 1 − 2
(f 0 (x))
et donc g 0 (r ) = 0 !
Didier Schmitt IECL
Analyse Numérique - 1
Résolution des équations non linéaires
Quelques algorithmes classiques
La méthode de Newton
Remarques
La méthode de Newton
Remarques
Ce résultat indique que si x0 est choisi assez proche de r (et si
f 0 (r ) 6= 0) alors la méthode converge.
La méthode de Newton
Remarques
Ce résultat indique que si x0 est choisi assez proche de r (et si
f 0 (r ) 6= 0) alors la méthode converge.
Lorsqu’il y a convergence, elle est rapide (au moins d’ordre 2).
La méthode de Newton
Remarques
Ce résultat indique que si x0 est choisi assez proche de r (et si
f 0 (r ) 6= 0) alors la méthode converge.
Lorsqu’il y a convergence, elle est rapide (au moins d’ordre 2).
Si x0 n’est pas choisi assez proche de r , alors il peut y avoir
divergence .
La méthode de Newton
Remarques
Ce résultat indique que si x0 est choisi assez proche de r (et si
f 0 (r ) 6= 0) alors la méthode converge.
Lorsqu’il y a convergence, elle est rapide (au moins d’ordre 2).
Si x0 n’est pas choisi assez proche de r , alors il peut y avoir
divergence .
Dans la pratique, il n’y a généralement aucun moyen de savoir dans
quelle mesure x0 est assez voisin de r !
La méthode de Newton
x x0
x2 x0 1
x1
La méthode de Newton
Exemple : x 2 = a
Soit a > 0
La méthode de Newton
Exemple : x 2 = a
Soit a > 0
√
On cherche à obtenir une approximation de a.
La méthode de Newton
Exemple : x 2 = a
Soit a > 0
√
On cherche à obtenir une approximation de a.
2
Ici f (x) = x − a et l’algorithme de Newton s’écrit dans ce cas :
xn2 − a
1 a
xn+1 = xn − = xn + .
2xn 2 xn
La méthode de Newton
Exemple : x 2 = a
Soit a > 0
√
On cherche à obtenir une approximation de a.
2
Ici f (x) = x − a et l’algorithme de Newton s’écrit dans ce cas :
xn2 − a
1 a
xn+1 = xn − = xn + .
2xn 2 xn
La méthode de Newton
Exemple : x 2 = a
Soit a > 0
√
On cherche à obtenir une approximation de a.
2
Ici f (x) = x − a et l’algorithme de Newton s’écrit dans ce cas :
xn2 − a
1 a
xn+1 = xn − = xn + .
2xn 2 xn
La méthode de Newton
Exemple : x 2 = a
Pour a = 2 et x0 = 1, on obtient :
x0 = 1
3
x1 = = 1.5
2
17
x2 = = 1.41666666666666...
12
577
x3 = = 1.41421568627450...
408
665857
x4 = = 1.41421356237468...
470832
La méthode de Newton
Exemple : x 2 = a
Pour a = 2 et x0 = 1, on obtient :
x0 = 1
3
x1 = = 1.5
2
17
x2 = = 1.41666666666666...
12
577
x3 = = 1.41421568627450...
408
665857
x4 = = 1.41421356237468...
470832
√
Pour mémoire : 2 = 1.414213562373095...
Didier Schmitt IECL
Analyse Numérique - 1
Résolution des équations non linéaires
Quelques algorithmes classiques
La méthode de Newton
Remarque
f (xn )
xn+1 = xn −
f 0 (xn )
La méthode de Newton
Remarque
f (xn )
xn+1 = xn −
f 0 (xn )
La méthode de Newton
Remarque
f (xn )
xn+1 = xn −
f 0 (xn )
f (x + h) − f (x)
f 0 (x) ' .
h
x0 donné;
pour tous les n de 0 à . . . faire
f (xn )hn
xn+1 = xn − f (xn +h n )−f (xn )
x0 donné;
pour tous les n de 0 à . . . faire
f (xn )hn
xn+1 = xn − f (xn +h n )−f (xn )
Remarques
Cette méthode est bien définie si à chaque itération
f (xn + hn ) − f (xn ) 6= 0.
x0 donné;
pour tous les n de 0 à . . . faire
f (xn )hn
xn+1 = xn − f (xn +h n )−f (xn )
Remarques
Cette méthode est bien définie si à chaque itération
f (xn + hn ) − f (xn ) 6= 0.
Le pas de calcul hn peut être différent à chaque itération.
x0 donné;
pour tous les n de 0 à . . . faire
f (xn )hn
xn+1 = xn − f (xn +h n )−f (xn )
Remarques
Cette méthode est bien définie si à chaque itération
f (xn + hn ) − f (xn ) 6= 0.
Le pas de calcul hn peut être différent à chaque itération.
À chaque itération, nous devons toujours faire deux évaluations :
calcul de f (xn ) et calcul de f (xn + hn ).
hn = xn−1 − xn ∀n ≥ 0.
hn = xn−1 − xn ∀n ≥ 0.
La méthode de la sécante
Description de la méthode
Supposons que f soit une fonction définie sur un intervalle I et qu’elle
possède une racine r dans I .
La méthode de la sécante
Description de la méthode
Supposons que f soit une fonction définie sur un intervalle I et qu’elle
possède une racine r dans I .
Soient x0 et x1 deux points de I assez proches de la racine r .
La méthode de la sécante
Description de la méthode
Supposons que f soit une fonction définie sur un intervalle I et qu’elle
possède une racine r dans I .
Soient x0 et x1 deux points de I assez proches de la racine r .
Nous substituons au voisinage de x1 la fonction f par la droite
passant par les points (x1 , f (x1 )) et (x0 , f (x0 )) d’équation :
f (x1 ) − f (x0 )
fx1 (x) = (x − x1 ) + f (x1 ).
x1 − x0
La méthode de la sécante
Description de la méthode
La fonction affine fx1 admet une racine x2 si et seulement si
f (x1 ) − f (x0 ) 6= 0, et dans ce cas :
x1 − x0
x2 = x1 − f (x1 ) .
f (x1 ) − f (x0 )
La méthode de la sécante
Description de la méthode
La fonction affine fx1 admet une racine x2 si et seulement si
f (x1 ) − f (x0 ) 6= 0, et dans ce cas :
x1 − x0
x2 = x1 − f (x1 ) .
f (x1 ) − f (x0 )
La méthode de la sécante
Description de la méthode
La fonction affine fx1 admet une racine x2 si et seulement si
f (x1 ) − f (x0 ) 6= 0, et dans ce cas :
x1 − x0
x2 = x1 − f (x1 ) .
f (x1 ) − f (x0 )
La méthode de la sécante
Description de la méthode
La fonction affine fx1 admet une racine x2 si et seulement si
f (x1 ) − f (x0 ) 6= 0, et dans ce cas :
x1 − x0
x2 = x1 − f (x1 ) .
f (x1 ) − f (x0 )
La méthode de la sécante
Description de la méthode
2,5
La méthode de la sécante
Description de la méthode
2,5
La méthode de la sécante
Description de la méthode
2,5
La méthode de la sécante
Description de la méthode
2,5
La méthode de la sécante
Description de la méthode
2,5
La méthode de la sécante
Description de la méthode
2,5
La méthode de la sécante
Description de la méthode
2,5
La méthode de la sécante
Description de la méthode
2,5
La méthode de la sécante
Algorithme de la sécante
x0 x1 donnés;
pour tous les n de 0 à . . . faire
(xn − xn−1 )
xn+1 = xn − f (xn )
f (xn ) − f (xn−1 )
La méthode de la sécante
Algorithme de la sécante
x0 x1 donnés;
pour tous les n de 0 à . . . faire
(xn − xn−1 )
xn+1 = xn − f (xn )
f (xn ) − f (xn−1 )
Remarques
Pour que la suite (xn ) soit bien définie, il faut que f (xn ) 6= f (xn−1 )
pour tout n ∈ N.
La méthode de la sécante
Algorithme de la sécante
x0 x1 donnés;
pour tous les n de 0 à . . . faire
(xn − xn−1 )
xn+1 = xn − f (xn )
f (xn ) − f (xn−1 )
Remarques
Pour que la suite (xn ) soit bien définie, il faut que f (xn ) 6= f (xn−1 )
pour tout n ∈ N.
À chaque itération, nous devons faire une unique évaluation : calcul
de f (xn ).
La méthode de la sécante
Théorème
Soient f une application de I dans I et r ∈ I une racine de la fonction f .
On suppose que f est deux fois continument dérivable sur un voisinage
de r et que f 0 (r ) 6= 0.
Alors, il existe η > 0 tel que pour tout x0 ∈]r − η, r + η[∩I et pour tout
x0 ∈]r − η, r + η[∩I la méthode de la sécante génère une suite (xn ) qui
est bien définie et qui converge vers r . √
Dans ce cas la convergence est au moins d’ordre 1+2 5 = 1.618...
Méthode de dichotomie
Avantages :
La convergence est assurée.
Un seul calcul de fonction à chaque itération.
Inconvénients
Vitesse de convergence linéaire, donc lente.
Méthode de Newton
Avantages :
Converge très rapidement lorsqu’il y a convergence.
Relativement stable et peu sensible aux erreurs d’arrondis si f 0 (r )
n’est pas trop petit.
Inconvénients
Peut diverger si la donnée initiale est mal choisie.
Nécessite le calcul de la dérivée de la fonction.
Deux évaluations de fonctions à chaque itération.
Méthode de la Sécante
Avantages :
Convergence relativement rapide lorsqu’il y a convergence.
Nécessite une seule évaluation de fonction à chaque itération.
Inconvénients
Peut diverger si la donnée initiale est mal choisie.
Accélération de convergence
Principe
Étant donné une suite (xn ) convergeant vers r , accélérer sa convergence
consiste à la remplacer par une suite (yn ) convergeant plus vite vers r ,
i.e ; vérifiant
yn − r
lim = 0.
n→+∞ xn − r
Principe
Étant donné une suite (xn ) convergeant vers r , accélérer sa convergence
consiste à la remplacer par une suite (yn ) convergeant plus vite vers r ,
i.e ; vérifiant
yn − r
lim = 0.
n→+∞ xn − r
Exemple
Si (xn ) converge linéairement alors (yn ) aura une meilleure vitesse de
convergence ou un ordre de convergence supérieur.
Méthode de relaxation
Soit une méthode de point fixe
xn+1 = g (xn )
Méthode de relaxation
Soit une méthode de point fixe
xn+1 = g (xn )
L’équation que nous cherchons à résoudre ici x = g (x) peut aussi s’écrire
pour tout α 6= −1 :
x + αx = g (x) + αx.
Soit encore :
g (x) + αx
x= = G (x).
1+α
Méthode de relaxation
Soit une méthode de point fixe
xn+1 = g (xn )
yn+1 = G (yn )
avec
g (x) + αx
G (x) = .
1+α
Méthode de relaxation
D’après les résultats vus précédemment, cette méthode va converger dès
que y0 est proche du point fixe r et dès que
0
0
g (r ) + α
|G (r )| = < 1.
α+1
Méthode de relaxation
D’après les résultats vus précédemment, cette méthode va converger dès
que y0 est proche du point fixe r et dès que
0
0
g (r ) + α
|G (r )| = < 1.
α+1
Méthode de relaxation
D’après les résultats vus précédemment, cette méthode va converger dès
que y0 est proche du point fixe r et dès que
0
0
g (r ) + α
|G (r )| = < 1.
α+1
Accélération d’Aı̈tken
Accélération d’Aı̈tken
Le principe
Soit (xn ) une suite convergeant vers r et telle que :
Accélération d’Aı̈tken
Le principe
Soit (xn ) une suite convergeant vers r et telle que :
On a :
xn+1 − r = k (xn − r ) ,
xn+2 − r = k (xn+1 − r ) .
Accélération d’Aı̈tken
Le principe
Soit (xn ) une suite convergeant vers r et telle que :
Accélération d’Aı̈tken
Le principe
Soit (xn ) une suite convergeant vers r et telle que :
Comme
2
(xn+1 − xn )
r = xn − ,
xn+2 + xn − 2xn+1
on remarque que trois termes consécutifs de la suites suffisent donc pour
obtenir r !
Accélération d’Aı̈tken
Le principe
Mais l’hypothèse est très forte et peu réaliste.
Accélération d’Aı̈tken
Le principe
Mais l’hypothèse est très forte et peu réaliste.
Accélération d’Aı̈tken
Le principe
Mais l’hypothèse est très forte et peu réaliste.
Accélération d’Aı̈tken
Théorème
Soit une suite (xn ) convergeant linéairement vers une limite r . Alors la
suite (yn ) définie par :
2
(xn+1 − xn )
yn := xn −
xn+2 + xn − 2xn+1
vérifie :
yn − r
lim = 0.
n→∞ xn − r
Accélération d’Aı̈tken
Théorème
Soit une suite (xn ) convergeant linéairement vers une limite r . Alors la
suite (yn ) définie par :
2
(xn+1 − xn )
yn := xn −
xn+2 + xn − 2xn+1
vérifie :
yn − r
lim = 0.
n→∞ xn − r
Accélération d’Aı̈tken
Remarque :
Pour les calculs, on utilisera l’expression équivalente
1
yn = xn+1 + 1 1
xn+2 −xn+1 − xn+1 −xn
Algorithme de Steffensen
Le principe
Soit (xn ) définie par :
xn+1 = g (xn ) ∀n ≥ 0
Algorithme de Steffensen
Le principe
Soit (xn ) définie par :
xn+1 = g (xn ) ∀n ≥ 0
Algorithme de Steffensen
Le principe
Soit (xn ) définie par :
xn+1 = g (xn ) ∀n ≥ 0
Algorithme de Steffensen
Algorithme de Steffensen
Remarques
Algorithme de Steffensen
Remarques
Cet algorithme est à nouveau un algorithme de point fixe
2
(g (x) − x)
xn+1 = G (xn ) avec G (x) = x − .
g (g (x)) − 2g (x) + x
Algorithme de Steffensen
Remarques
Cet algorithme est à nouveau un algorithme de point fixe
2
(g (x) − x)
xn+1 = G (xn ) avec G (x) = x − .
g (g (x)) − 2g (x) + x
Algorithme de Steffensen
Remarques
Cet algorithme est à nouveau un algorithme de point fixe
2
(g (x) − x)
xn+1 = G (xn ) avec G (x) = x − .
g (g (x)) − 2g (x) + x
Algorithme de Steffensen
Remarques
Cet algorithme est à nouveau un algorithme de point fixe
2
(g (x) − x)
xn+1 = G (xn ) avec G (x) = x − .
g (g (x)) − 2g (x) + x
Description du problème
Soit l’équation
F (X ) = 0
où F : RN 7→ RN ou encore de façon développée
f1 (x1 , x2 , . . . , xN ) = 0
f2 (x1 , x2 , . . . , xN ) = 0
.. ..
. .
fN (x1 , x2 , . . . , xN ) = 0 .
La méthode de Newton-Raphson
F 0 (Xn ) = ... .. .. .. ,
. . .
∂fN ∂fN ∂fN
∂x1 ∂x2 . . . ∂x N
La méthode de Newton-Raphson
F 0 (Xn ) = ... .. .. .. ,
. . .
∂fN ∂fN ∂fN
∂x1 ∂x2 . . . ∂x N
La méthode de Newton-Raphson
La méthode de Newton-Raphson
Remarques :
Encore plus qu’en dimension 1, le choix de l’initialisation est crucial
et le risque de divergence, si on ne démarre pas à proximité de la
solution cherchée, est grand.
La méthode de Newton-Raphson
Remarques :
Encore plus qu’en dimension 1, le choix de l’initialisation est crucial
et le risque de divergence, si on ne démarre pas à proximité de la
solution cherchée, est grand.
La convergence est là aussi d’ordre 2, donc très rapide (quand il y a
convergence !)
La méthode de Newton-Raphson
Remarques :
Encore plus qu’en dimension 1, le choix de l’initialisation est crucial
et le risque de divergence, si on ne démarre pas à proximité de la
solution cherchée, est grand.
La convergence est là aussi d’ordre 2, donc très rapide (quand il y a
convergence !)
La méthode de Newton-Raphson s’avère assez coûteuse puisqu’il
faut à chaque itération :
évaluer N 2 + N fonctions (les N 2 dérivées partielles de la matrice
Jacobienne, plus les N fonctions coordonnées).
résoudre un système linéaire N × N (dont la matrice est en général
pleine).
La méthode de Broyden
Principe
Dans la méthode de Newton-Raphson, le calcul de la matrice
Jacobienne est très coûteux.
La méthode de Broyden
Principe
Dans la méthode de Newton-Raphson, le calcul de la matrice
Jacobienne est très coûteux.
On va donc se contenter de déterminer une valeur approchée Bn à
chaque itération.
La méthode de Broyden
Principe
Dans la méthode de Newton-Raphson, le calcul de la matrice
Jacobienne est très coûteux.
On va donc se contenter de déterminer une valeur approchée Bn à
chaque itération.
Nous avons vu que la méthode de la sécante pouvait être déduite de
la méthode de Newton en approchant
f (xn ) − f (xn−1 )
f 0 (xn ) par .
xn − xn−1
La méthode de Broyden
Principe
Dans la méthode de Newton-Raphson, le calcul de la matrice
Jacobienne est très coûteux.
On va donc se contenter de déterminer une valeur approchée Bn à
chaque itération.
Nous avons vu que la méthode de la sécante pouvait être déduite de
la méthode de Newton en approchant
f (xn ) − f (xn−1 )
f 0 (xn ) par .
xn − xn−1
La méthode de Broyden
Remarques :
Cette relation ne permet pas de définir de manière unique la matrice
Bn (n équations pour n2 inconnues).
La méthode de Broyden
Remarques :
Cette relation ne permet pas de définir de manière unique la matrice
Bn (n équations pour n2 inconnues).
Elle n’impose que sa valeur dans une direction.
La méthode de Broyden
Remarques :
Cette relation ne permet pas de définir de manière unique la matrice
Bn (n équations pour n2 inconnues).
Elle n’impose que sa valeur dans une direction.
Broyden a proposé de passer de Bn à Bn+1 en ajoutant simplement
une matrice de rang 1 :
La méthode de Broyden
Remarques :
Cette relation ne permet pas de définir de manière unique la matrice
Bn (n équations pour n2 inconnues).
Elle n’impose que sa valeur dans une direction.
Broyden a proposé de passer de Bn à Bn+1 en ajoutant simplement
une matrice de rang 1 :
La méthode de Broyden
Algorithme de Broyden :
X0 etB0 donnés;
pour tous les n de 0 à . . . faire
Résolution du système linéaire Bn δn = −F (Xn );
Xn+1 = Xn + δn ;
δFn = F (Xn+1 ) − F (Xn );
(δFn − Bn δn )(δn )T
Bn+1 = Bn + ;
kδn k2
La méthode de Broyden
Remarques :
On peut prendre comme matrice initiale B0 = Id, il faut évidemment
attendre un certain temps avant d’avoir une approximation
raisonnable de la matrice Jacobienne.
On peut démontrer qu’en général, comme pour la méthode de la
sécante, la convergence est superlinéaire.
La suite de matrices (Bn ) ne converge pas forcément vers la matrice
Jacobienne de F .