Académique Documents
Professionnel Documents
Culture Documents
Matlab
ξ
−div ∧ ξ, grad uε = Q
ε
u(x, y) = sin(4Πx)sin(2Πy)
DONFACK HUBERT
Doctorat/PhD en Analyse Numérique UYI
Année Académique 2017-2018
2
Table des matières
2 Systèmes linéaires 7
2.1 INTRODUCTION . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.2 Méthodes directes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.2.1 Résolution d’un système triangulaire . . . . . . . . . . . . . . . . . . . . 8
2.2.2 Méthode d’élimination de Gauss et Factorisation LU . . . . . . . . . . . 9
2.2.3 Opérations élémentaires sur les lignes . . . . . . . . . . . . . . . . . . . . 9
2.2.3.1 Multiplication d’une ligne par un scalaire . . . . . . . . . . . . 9
2.2.3.2 Permutation de deux lignes . . . . . . . . . . . . . . . . . . . . 10
2.2.3.3 Opération (Li ← Li + λLj ) . . . . . . . . . . . . . . . . . . . . 10
2.2.4 Méthode d’élimination de Gauss et Factorisation LU . . . . . . . . . . . 11
2.2.4.1 Méthode d’élimination de Gauss . . . . . . . . . . . . . . . . . 11
2.2.5 Factorisation LU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.2.6 Méthode de Cholesky . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.2.7 Méthode de Gauss-Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.3 Méthodes itératives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.3.1 Définition et propriété . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.3.2 Exemples de méthodes itératives . . . . . . . . . . . . . . . . . . . . . . 17
2.3.2.1 Méthode de Richardson . . . . . . . . . . . . . . . . . . . . . . 17
2.3.3 Méthode de Jacobi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.3.4 Méthode de Gauss-Seidel . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
4 Interpolation 29
4.1 Interpolation polynômiale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
4.1.1 Polynôme de Lagrange . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
4.1.2 Erreur d’interpolation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
4.1.3 Instabilité de l’interpolation de Lagrange . . . . . . . . . . . . . . . . . . 33
4.2 Interpolation de Newton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
4.2.1 Détermination du polynôme d’interpolation de Newton . . . . . . . . . . 34
4.2.2 Erreur d’interpolation avec les différences divisées . . . . . . . . . . . . . 37
3
4 TABLE DES MATIÈRES
5 Intégration numérique 41
5.1 Formules d’intégration simples . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
5.2 Liens avec l’interpolation polynomiale . . . . . . . . . . . . . . . . . . . . . . . . 42
5.2.1 Formalisme de l’intégration approchée . . . . . . . . . . . . . . . . . . . 43
5.2.2 Formules de Newton-Cotes . . . . . . . . . . . . . . . . . . . . . . . . . . 44
5.2.3 Estimation de l’erreur et Stabilité . . . . . . . . . . . . . . . . . . . . . 44
5.2.4 Formules composites de Simpson . . . . . . . . . . . . . . . . . . . . . . 45
5.2.5 Autres approches . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
1.1 Introduction
Les cours traditionnels de mathématiques nous familiarisent avec des théories et des mé-
thodes qui permettent de résoudre de façon analytique un certain nombre de problèmes. C’est
le cas notamment des techniques d’integration et de résolution d’équations algébriques ou dif-
férentielles. Bien qu’on puisse proposer plusieurs méthodes pour résoudre un problème donné,
celles-ci conduisent à un même résultat, précis et unique.
C’est ici que l’analyse numérique se distingue des autres champs plus classique des ma-
thématiques. En effet, pour un problème donné, il est possible d’utiliser plusieurs techniques
de résolution qui résultent en différents algorithmes. Ces algorithmes dépendent de certains
paramètres qui influent sur la précision du résultat. De plus, on utilise en cours de calcul des
approximations plus ou moins précises. Par exemple, on peut remplacer une dérivée par une
différence finie de façon à transformer une équation différentielle en une équation algébrique.
Le résultat final et son degré de précision dépendent des choix que l’on fait.
Une partie de l’analyse numérique consiste donc à contenir les effets des erreurs ainsi intro-
duites, qui proviennent de trois sources principales
– Les erreurs de modélisation ;
– Les erreurs de représentation sur ordinateur ;
– Les erreurs de troncature.
Les erreurs de modélisation, comme leur nom l’indique, proviennent de l’étape de mathémati-
sation du phénomène physique auquel on s’intéresse. Cette étape consiste à faire ressortir les
causes les plus déterminantes du phénomène observé et à les mettre sous forme d’équations
(différentielles le plus souvent). Si le phénomène observé est très complexe, il faut simplifier et
négliger ses composantes qui paraissent moins importantes ou qui rendent la résolution numé-
rique trop difficile. C’est ce que l’on appelle les erreurs de modélisation.
La seconde catégorie d’erreurs est liée à l’utilisation de l’ordinateur. En effet, la représen-
tation sur ordinateur (généralement binaire) des nombres introduit souvent des erreurs. Même
infimes au départ, ces erreurs peuvent s’accumuler lorsqu’on effectue un très grand nombre
d’opérations. Par exemple 1/3 n’a pas de représentation binaire exacte, car elle ne possède
pas de représentation décimale finie. Ces erreurs se propagent au fil des calculs et peuvent
compromettre la précision des résultats.
Enfin, les erreurs de troncature proviennent principalement de l’utilisation du développement
de Taylor, qui permet par exemple de remplacer une équation différentielle par une équation
algébrique. Le développement de Taylor est le principal outil mathématique du numéricien. Il donc
primordial d’en maitriser l’énoncé et ses conséquences.. Ce chapitre traite donc principalement
d’erreurs numériques, et non des inévitables erreurs de programmation qui font, hélas, partie
5
1.2. DIFFERENTES SOURCES D’ERREURS
du quotidien du numéricien. Il devrait permettre au lecteur de mieux gérer les erreurs au sein
des processus numériques afin d’être en mesure de mieux interpreter les résultats.
4x = |x − x? | (1.2.1)
L’erreur relative est définie par :
|x − x? | 4x
Er (x) = = (1.2.2)
|x| |x|
En pratique, il est difficile d’évaluer les erreurs absolue et relative, car on ne connait géné-
ralement pas la valeur exacte de x et on n’a que x? . Dans le cas de quantités mésurées dont
on ne connait que la valeur approximative, il est impossible de calculer l’erreur ; on dispose en
revanche d’une borne supérieur pour cette erreur qui dépend de la précision des instruments
de mesure utilisés. Cette borne est quand même appelée erreur absolue, alors qu’en fait on a :
|x − x? | ≤ 4x
x? − 4x ≤ x ≤ x? + 4x (1.2.3)
et que l’on note parfois x = x? ± 4x. On peut interpréter ce résultat en disant que l’on a
estimé la valeur exacte x à partir de x? avec une incertitude de 4x de part et d’autre.
L’erreur absolue donne une mesure quantitative de l’erreur commise et l’erreur relative en
mesure l’importance. Par exemple si on fait usage d’un chronomètre dont la précision est de
l’ordre du dixième de seconde, l’erreur absolue est bornée par 0, 1 s. Mais est-ce une erreur
importante ? Dans le contexte d’un marathon d’une durée de 2h20min, l’erreur relative liée au
0,1
chronométrage est très faible : 2×60×60+20×60 = 0, 0000119 et ne devrait pas avoir de conséquence
sur le classement de coureurs. Par contre, s’il s’agit d’une course de 100m d’une durée d’environ
10s, l’erreurrelative est beaucoup plus importante : 0,1
10
= 0, 01 soit 1% du temps de course. Avec
une telle erreur, on ne pourra vraisemblablement pas faire la difference entre le premier et le
dernier coureur.Cela nous amène à parler de précision et de chiffres significatifs au sens de la
définition suivante
6
Chapitre 2
Systèmes linéaires
2.1 INTRODUCTION
Les systèmes d’équations jouent un rôle très important en ingeniérie. On peut classer les
systèmes algébriques en deux grandes familles : les systèmes linéaires et les systèmes non li-
néaires. Beaucoup de problèmes se réduisent à la résolution numérique d’un système d’équations
linéaires. Par exemple calculer l’écoulement de l’air autour d’un avion ou l’écoulement de l’eau
dans une turbine hydraulique. On peut également analyser la resistance de la carlingue d’un
avion à différentes contraintes extérieurs et en vérifier numériquement la solidité. Il y a deux
grandes classes de méthodes :
Méthodes directes :Déterminent explicitement la solution après un nombre fini d’opérations
arithmétiques.
Méthodes indirectes ou iteratives : Consistent à générer une suite qui convergent vers la
solution du système après un nombre infini d’itérations.
On note Mn (R) l’ensemble des matrices carrées d’ordre n. Soit A ∈ Mn (R) une matrice
inversible, b ∈ Rn . On se propose de résoudre le système linéaire Ax = b c’est -à-dire
(
x ∈ Rn
(2.1.1)
Ax = b
4j
xj = j = 1, 2, 3, ..., n (2.1.2)
det(A)
7
2.2. MÉTHODES DIRECTES
Une matrice triangulaire supérieure est la transposée d’une matrice triangulaire inférieure.
Les systèmes triangulaires faciles à résoudre. Il suffit en effet de commencer par l’équation
qui se trouve à la pointe du triangle ( la prémière pour une matrice triangulaire inférieure et la
dernière pour une matrice triangulaire supérieure) et de résoudre une à une les équations. On
parle de descente triangulaire ou de remontée triangulaire, selon le cas.
Considérons un système inversible 3 × 3 triangulaire inferieur.
l11 0 0 x1 b1
l21 l22 0 x2 = b2 (2.2.1)
l31 l32 l33 x3 b3
La matrice étant inversible, ses termes diagonaux lii i = 1, 2, 3 sont non nuls. On peut donc
déterminer successivement les valeurs inconnues xi pour i = 1, 2, 3
x1 = b1 /l11
x2 = (b2 − l21 x1 ) /l22
x3 = (b3 − l31 x1 − l32 x2 ) /l33
Cet algorithme de substitution directe peut être étendu aux système n × n. Dans le cas d’un
système (
x ∈ Rn
Lx = b
où L est une matrice inversible triangulaire inférieur d’ordre n (n ≥ 2) la méthode (Formule de
descente) s’écrit :
x1 = b1 /l11 !
P
i−1 i = 2, 3, ..., n (2.2.2)
xi = bi − lij xj /lii
j=1
Cet algorithme effectue n(n + 1)/2 divisions et multiplications, n(n − 1)/2 additions et sous-
tractions.
Lemme 4. La résolution d’un système d’équations linéaires triangulaire se fait en n2 opérations
à virgule flottante.
8
2.2. MÉTHODES DIRECTES
dont la solution →
−x = (1; 1; 1)T . Si on souhaite multiplier la ligne 2 par un facteur 3, cela
revient à multiplier le système par la matrice
1 0 0
N = M (L2 ← 3L2 ) = 0 3 0
0 0 1
9
2.2. MÉTHODES DIRECTES
on obtient :
3 1 2 x1 6
18 12 3 x2 = 33
5 4 1 x3 10
La solution de ce nouveau système reste la même que celle du système de depart.
et on obtient. La matrice P (Li ←→ Lj )est inversible. Pour obtenir son inverse, il suffit de
réfléchir une seconde. En effet , quelle est l’opération inverse de celle qui inverse deux lignes,
sinon l’inverse des deux mêmes lignes ? P −1 (Li ←→ Lj ) = P (Li ←→ Lj )
Cela signifie que pour revenir en arrière il suffit de soustraire la ligne que l’on vient d’ajouter.
Exemple 9. Dans le système (2.2.5), on souhaite remplacer la deuxième la ligne par la deuxième
ligne (i = 2) moins deux fois (λ = −2) la première ligne (j = 1). Il suffit alors de multiplier le
système par :
1 0 0
M (L2 ← L2 − λL1 ) = −2 1 0
0 0 1
ce qui donne :
3 1 2 x1 6
0 2 −3 x2 = −1
5 4 1 x3 10
10
2.2. MÉTHODES DIRECTES
A(k) x = b(k) 1 ≤ k ≤ n
(i)
où on a supposé aii 6= 0 pour i = 1, 2, 3, ..., k − 1. Il est clair que pour k = n on obtient alors
un système triangulaire supérieur A(n) x = b(n) avec
(1) (1) (1)
(1)
a11 a12 . . . a1n b1
(2) (2) (2) x1
0 a22 . . . a2n b2 x2
. . . . . . . .
(n) (n)
A = . . . . . . b = . x=
.
. . . . . . . .
(n−1) (n−1) (n−1)
0 0 . . an−1n−1 an−1n bn−1
(n) (n)
xn
0 0 . . 0 ann bn
11
2.2. MÉTHODES DIRECTES
2.2.5 Factorisation LU
La méthode de Gauss est équivalente à la factorisation de la matrice sous forme d’un produit
de deux matrices L et U , A = L × U avec U = A(n) . Une fois calculées les matrices L et U ,
résoudre le système (2.1.1) consiste simplement à résoudre successivement les deux systèmes
triangulaires Ly = b et U x = y.
– Les matrices L et U ne dépendent que A et non du second membre.
– Le nombre d’opérations est alors considérablement reduit puisque l’éffort de calcul le plus
important est environ 2n3 /3 flops
est dédié à la procedure d’élimination
1 0 . . . 0
m21 1 . . . 0
m31 m32 1 . . .
L= . . . . . .
. . . . . .
. . . . 1 0
mn1 mn2 . . . 1
(k)
aik
mik = (k)
i = k + 1, k + 2, ..., n k = 1, 2, ..., n
akk
(k+1) (k) (k)
aij = aij − mik aik i, j = k + 1, k + 2, ..., n
(k+1) (k) (k)
bi = bi − mik bk i = k + 1, k + 2, ..., n
12
2.2. MÉTHODES DIRECTES
fk = L
soit par blocs A fk A
fk , or d’une part par hypothèse det A
fk 6= 0 et d’autre part det A fk =
(1) (2) (k−1) (k) (r) (k)
a11 a22 ....ak−1k−1 akk . Par hypothèse de récurrence arr 6= 0 pour 1 ≤ r ≤ k − 1, donc akk est
aussi different de zéro.
Remarque 11. Une fois utilisés, les coefficients de la matrice A ne servent plus à rien, ils peuvent
être détruits au fur et à mesure que la décomposition progresse. De fait on peut les remplacer
par les valeurs de Lij ou Uij selon le cas. C’est ce que l’on nomme la noatation compacte. La
notation compacte évite de garder inutilement en memoire des matrices de grande taille.
Définition 12. La notation compacte de la décomposition LU est la matrice de coefficients
U11 U12 U13 U14
l21 U22 U23 U24
(2.2.7)
l31 l32 U33 U34
l41 l42 l43 U44
dans le cas d’une matrice de dimension 4 sur 4. La matrice initiale A est tout simplement
détruite. Les coefficients 1 sur la diagonale de la matrice ne sont pas indiqués explicitement
mais doivent tout de même être pris en compte de façon plus rigoureuse la notation compacte
revient à mettre en memoire la matrice L + U − I et à détruire la matrice A.
13
2.2. MÉTHODES DIRECTES
Remarque 15. En fait n’importe quelle matrice carrée admet une décomposition de la forme
P A = LU , mais si la matrice A n’est pas inversible, son échelonnement va nous donner des
zeros pour les dernieres lignes. La décomposition LU n’est pas dans ce cas unique.
La matrice étant symétrique, il suffit par exemple que les relations ci-dessus soient vérifiées
pour j ≤ i et l’on construit alors les colonnes de la matrice B à partir de celles de A. En fixant
l’indice j à 1 et en faisant varier l’indice i de 1 à n. On trouve
√
a11 = (b11 )2 d0 où b11 = a11
a21 = b11 b21 d0 où b21 = ab11
21
. . .
. . .
. . .
an1 = b11 bn1 d où bn1 = abn1
0
11
P
j−1
aj+1,j − bjk bj+1,k
0 k=1
aj+1,j = bj1 bj+1,1 + bj2 bj+1,2 + ... + bjj bj+1,j d où bj+1,j =
bjj
. . .
P
j−1
an,j − bjk bn,k
0 k=1
an,j = bj1 bn,1 + bj2 bn,2 + ... + bjj bn,j d où bn,j =
bjj
. . .
P
j−1
ai,j − bjk bi,k
k=1
bi,j = ∀i = j + 1, j + 2, ...n ∀j = 2, 3...n
bjj
14
2.2. MÉTHODES DIRECTES
1. Transformation de la matrice
transf ormation (n)
A en la matrice identité :
(A, b) → In , b où In est la matrice identité dans Mn (R)
2. Résolution du système :
AX = b ⇐⇒ In X = b(n) ⇐⇒ X = b(n)
Algorithme de Gauss-Jordan
On pose A(1) = A et b(1) = b
(1) (1) (1) (1)
a11 a12 . . . a1n : b1
(1) (1) (1) (1)
a21 a22 . . . a2n : b2
. . . . . . : .
A(1) : b(1) =
. . . . . . : .
. . . . . . : .
(1) (1) (1) (1)
an1 an2 . . . ann : bn
(1)
A la 1ère étape : si a11 6= 0 (sinon on fait une permutation de lignes) on fait les affectations
suivantes :
( (2) 1 (1)
L1 ← (1) L1
a11
(2) (1) (1) (2)
Li ← Li − ai1 Li 2≤i≤n
On obtient
(2) (2) (2)
1 a12 . . . a1n : b1 (2)
(2) (2) (2) L1
0 a22 . . . a2n : b2 (2)
L
. . . . . . : . 2
A(2) :b (2)
= .
. . . . . . : .
.
. . . . . . : . (2)
(2) (2) (2) Ln
0 an2 . . . ann : bn
où
(1)
(2) a1j (2)
(2)
b1
a 1j = (1) 2 ≤ j ≤ n; b1 = (1)
(2) a11 a11
ai1 = 0 2≤i≤n
(2) (1) (1) (2)
aij = aij − ai1 a1j 2 ≤ i, j ≤ n
b(2) = b(1) − a(1) b(2)
i i i1 1 2≤i≤n
(k)
A la k ième étape (1 ≤ k ≤ n) : Si akk 6= 0 ( sinon on fait une permutation de lignes) on fait les
affectations suivantes :
( (k+1) 1 (k)
Li ← (k) Li
akk
(k+1) (k) (k) (k+1)
Li ← Li − aik Lk 1 ≤ i ≤ n i 6= k
15
2.3. MÉTHODES ITÉRATIVES
On obtient donc
(k+1) (k+1) (k+1)
1 0 . . 0 a1k+1 . . a1,n : b1
0 1 . . .
(k+1)
a2k+1 . . :
(k+1)
: b2 L(k+1)
1
. 0 . . 0 . . . : : . (k+1)
L2
A(k+1) :b (k+1)
= . . . . 1
(k+1)
ak,k+1 .
(k+1)
. ak,n : . .
. . . . . . . . : : . :
(k+1)
. . . . 0 . . . . : . Ln
(k+1) (k+1) (k+1)
0 0 . . 0 an,k+1 . . an,n : bn
où (k)
a(k+1) = akj
kj (k)
akk k + 1 ≤ j ≤ n;
a (k+1) (k+1)
= aij
(k) (k+1)
− aik akj i = 1, 2, .., n, i 6= k
ij (k)
b(k+1) = bk
k (k)
akk 2 ≤ i, j ≤ n
b(k+1) = b(k+1) − a(k) b(k+1) i = 1, 2, .., n, i 6= k
i i ik k
Remarque 17. Pour résoudre un système d’ordre n, la méthode de Gauss-Jordan nécessite O (n3 )
opérations (moins rapide que celle de Gauss).
transf ormation
Elle est conseillée pour inverser une matrice (A, In ) → (In , A−1 )
L’idée naturelle est de travailler avec une matrice P inversible qui soit proche de A, mais
plus facile que A à inverser. On appelle cette matrice de préconditionnement cette matrice P.
On écrit alors A = P − (P − A) = P − N avec N = P − A on écrit le système linéaire Ax = b
sous la forme
b = P x − N x =⇒ P x = N x + b =⇒ x = P −1 N x + P −1 b
On pose
16
2.3. MÉTHODES ITÉRATIVES
avec B = P −1 N et c = P −1 b. Evidement si la suite x(k) k∈N
converge, elle converge bien vers
la solution du système (2.1.1)
Remarque 19. La quantité e(k) = x(k) − x représente l’erreur d’approximation à l’itération k.
où encore (
x(0) ∈ Rn donné
(2.3.3)
x(k+1) = x(k) + αr(k) avec r(k) = b − Ax(k)
Cette méthode est connue sous le nom de méthode de Richardson. r(k) = b − Ax(k) est le residu.
La valeur qui minimise le rayon spectral dans l’exemple précédent est α = 1/2
où
D la diagonale de A
−E la partie au dessous de la diagonale de A
−F la partie au dessus de la diagonale de A
17
2.3. MÉTHODES ITÉRATIVES
a11 0 . . . 0 0 0 . . . 0
0 a22 0 . . . a21 0 0 . . .
. 0 . . . . a31 a32 0 . . .
D=
−E =
. . . . . . . . . . . .
. . . 0 an−1,n−1 0 . . . an−1n−2 0 0
0 . . . 0 ann an1 an2 . . ann−1 0
0 a12 a13 . . a1,n
0 0 a23 . . a2n
. 0 . . . .
−F =
. . . . an−2n−1 an−2n
. . . 0 0 an−1n
0 . . . 0 0
La méthode de Jacobi s’écrit donc
(
x(0) ∈ Rn donné
(k+1) (k)
(2.3.4)
Dx = (E + F ) x + b
où encore (
x(0) ∈ Rn donné
(k+1) −1 (k) −1
(2.3.5)
x = D (E + F ) x + D b
soit (
x(0) ∈ Rn donné
(2.3.6)
x (k+1)
= BJ x + D b avec BJ = D−1 (E + F )
(k) −1
18
2.3. MÉTHODES ITÉRATIVES
(k) (k+1)
Ici on remplace les composantes xj pour j < i par xj
x ∈ R
(0) n
" #
(k+1) 1
P
i−1
(k+1) P
n
(k)
xi = aii
bi − aij xj − aij xj ∀i = 1, 2, 3, ..., n
j=1 j=i+1
P x(k+1) = (P − A) x(k) + b
où encore (
x(0) ∈ Rn
x(k+1) = Bx(k) + c avec B = (D − E)−1 F
19
2.3. MÉTHODES ITÉRATIVES
20
Chapitre 3
EQUATIONS NON LINEAIRES
Résolution des équations non linéaires
ectif : trouver les zéros de fonctions (ou systèmes) non
Objectif Trouver les zéros de fonctions (ou systèmes) non linéaires c’est-à-dire les valeurs
aires, c-à-d lesα valeurs
∈ R telles que R telles
α ∈f (α) =0 que f (α) = 0.
y
f(x)
α1 α2
α3 x
Motivation
On veut calculer le taux de rente moyen T d’un fond de placement sur plusieurs années. On
a investi dans le fond v = 1000000CF A chaque année et on se retrouve après 5 ans avec un
montant M = 6000000F CF A 2
Réponse on sait que
X5
v (1 + T )
M = v (1 + T )k = (1 + T )5 − 1
k=1
T
d’où
(1 + T )
6= (1 + T )5 − 1
T
Posons
(1 + T )
f (T ) = 6 − (1 + T )5 − 1 = 0
T
Il s’agit donc de résoudre une équation non linéaire, dont on n’est capable de trouver une
solution exacte
21
3.2. MÉTHODES DES POINTS FIXES
a+b
1. On pose x0 = 2
2. si f (x0 ) = 0 alors x0 est le zéro cherché
3. si f (x0 ) 6= 0
i) Soit f (a) × f (x1 ) > 0 et alors le zéro α ∈ ]x0 , b[et on définit a = x0 et x1 = a+b2
pour
ce nouveau a
ii) Soit f (a) × f (x0 ) < 0 et alors α ∈ ]a, x0 [et on pose b = x0 et x1 = a+b
2
pour ce nouveau
b.
Par des divisions de ce type, on construit la suite x0 , x1 , x2 , ...., xm qui vérifie pour tout m
b−a
|xm − α| ≤ (3.1.1)
2m+1
Définition 23. Un point fixe d’une fonction g(x) est une valeur de x qui reste invariante pour
cette fonction, c’est-à-dire toute solution de : g(x) = x est un point fixe de la fonction g(x).
Il existe un algorithme très simple permettant de determiner les points fixes. Il suffit en effet
d’éffectuer les itérations de la façons suivante :
(
x0 donné
xn+1 = g(xn )
à partir d’une valeur initiale x0 . L’interêt de cet algorithme réside dans sa généralité et dans la
relative facilité avec laquelle on peut en faire l’analyse de la convergence, il en esulte l’algorithme
plus complet suivant.
Algorithme des points fixes
1. Etant donné ε, un critère d’arrêt
2. Etant donné N , le nombre maximal d’itérations
3. Etant donné x0 , une valeur extimée initiale du point fixe
4. Effectuer xn+1 = g(xn )
5. si |xn+1 −xn |
|xn+1 |
<ε
-convergence atteinte
- écrire la solution xn+1
-arrêt
6. si le nombre maximal d’itérations N est atteint
-convergence non atteinte en N itérations
-arrêt
7. retour à l’étape 4
On peut résoudre des équations non linéaires de la forme f (x) = 0 en utlisant l’algorithme des
points fixes. Il suffit pour ce faire de transformer l’équation f (x) = 0 en un problème équivalent
de la forme x = g(x). L’ennui, c’est qu’il y a une infinité de façons différentes de le faire. Nous
verrons que certains choix donnent lieu à des algorithmes convergents et d’autres pas.
22
3.3. MÉTHODE DE NEWTON
√
1. isolons le x2 et posons g1 (x) = 2x + 3 = x
3
2. factorisons les deux premiers termes puis posons g2 (x) = x−2
=x
x2 −3
3. isolons le x de −2x ce qui donne g3 (x) = 2
=x
L’algorithme semble converger vers la racine r1 = 3 pour x0 = 4 avec g1 (x). Cependant avec
g2 (x) pour x0 = 4 les itérations convergent vers r2 = −1 en ignorant la racine r2 = 3. En
dernier lieu essayons l’algorithme avec la fonction g3 (x)avec la même valeur initiale x0 = 4, on
constate que les itérations tendent vers l’infini et aucune des deux solutions possibles ne sera
atteintes.
23
3.4. SYSTÈMES D’ÉQUATIONS NON LINÉAIRES
Pour déterminer (δx1 , δx2 ), il suffit maintenant de faire un développement de Taylor en deux
variables pour chacune des deux fonctions
∂f1 0 0 ∂f1 0 0
0 = f1 x01 , x02 + x , x δx1 + x , x δx2 + ...
∂x1 1 2 ∂x2 1 2
∂f2 0 0 ∂f2 0 0
0 = f2 x01 , x02 + x , x δx1 + x , x δx2 + ...
∂x1 1 2 ∂x2 1 2
Dans les relations précédents, les pointillés désignent des termes d’ordre supérieur ou égal à deux
et faisant intervenir les dérivées partielles d’ordre correspondant. Pour déterminer (δx1 , δx2 ), il
suffit de négliger les termes d’ordre superieur et d’écrire :
∂f1 0 0 ∂f1 0 0
x , x δx1 + x , x δx2 = −f1 (x01 , x02 )
∂x1 1 2 ∂x2 1 2
∂f2 0 0 ∂f2 0 0
x , x δx1 + x , x δx2 = −f2 (x01 , x02 )
∂x1 1 2 ∂x2 1 2
où encore sous forme matricielle :
" #
∂f1 ∂f1
∂x1
(x01 , x02 ) ∂x2
(x01 , x02 ) δx1 f1 (x01 , x02 )
∂f2 ∂f2 =−
∂x1
(x01 , x02 ) ∂x2
(x01 , x02 ) δx2 f2 (x01 , x02 )
24
3.4. SYSTÈMES D’ÉQUATIONS NON LINÉAIRES
où J (x01 , x02 )désigne la matrice des dérivées partielles ou matrice jacobienne évaluée au point
(x01 , x02 ) , où δx est le vecteur de corrections relatives à chaque variable et −R (x01 , x02 ) est le
vecteur résidu évalué en (x01 , x02 ). Le déterminant de la matrice jacobienne est appelé le jacobien.
Le jacobien doit être différent de zéro pour que la matrice jacobienne soit inversible. On pose
ensuite :
qui est la nouvelle approximation de la solution du système non linéaire. On cherchera par la
suite à corriger (x11 , x12 )d’une nouvelle quantité δx, et ce jusqu’à la convergence.
De manière générale, on pose :
∂f1
∂f1
∂x1
xk . . . ∂xn
xk
. . .
J x k
=
. . .
. . .
∂fn k ∂fn
∂x1
x . . . ∂xn
xk
c’est-à-dire la matrice jacobienne évaluée au point xk = xk1 , xk2 , ..., xkn . De plus on pose :
(k) (k) (k)
f1 x1 , x2 , ..., xn
δx1
. .
R x k
=
. δx =
.
. .
(k) (k)
fn x1 , x2 , ..., xn
(k) δxn
25
3.4. SYSTÈMES D’ÉQUATIONS NON LINÉAIRES
26
3.4. SYSTÈMES D’ÉQUATIONS NON LINÉAIRES
Remarque 27. La méthode de Newton-Raphson converge rapidement si x0 n’est pas trop éloigné
de x? .
27
3.4. SYSTÈMES D’ÉQUATIONS NON LINÉAIRES
28
Chapitre 4
Interpolation
Définition 28. Approcher une fonction f consiste à la remplacer par une autre fonction Φ
dont la forme est plus simple et dont on peut se servir à la place de f . La forme de la fonction
Φ dépend du problème et du but de l’interpolation. En effet, Φ peut être un polynôme, on parle
d’interpolation polynômiale, ou bien un polynôme trigonométrique, ou une fonction polynômiale
par morceaux, et on dit que Φ est une interpolation polynômiale par morceaux. On verra dans
le prochain chapitre l’importance de cette strategie en intégration ou en équation differentielle
ou même en analyse des données.
Πm (xi ) = am xm
i + ... + a1 xi + a0 = yi i = 0, ..., n
Les points xi sont appelés noeuds d’interpolation. Si n 6= m le problème est sûr ou sous
déterminé. Si n = m, nous avons le théorème suivant :
Théorème 29. Etant donnée (n+1) points distincts x0 , ..., xn et (n+1) valeurs correspondantes
y0 , ..., yn , il existe un unique polynôme Πn ∈ Pn tel que Πn (xi ) = yi pour i = 0, ..., n qu’on peut
écrire sous la forme
n
X
Πn (x) = yi li (x) (4.1.1)
i=0
Démonstration. (Unicité ) Supposons que qn ∈ Pn soit une autre solution du problème alors
Q
n
Πn (xi ) = qn (xi ) = yi donc xi est racine Πn − qn , par suite le polynôme Πn+1 (x) = (x − xj )
j=0
divise Πn − qn comme deg(Πn+1 ) = n + 1 et deg(Πn − qn ) ≤ n la seule possibilité est que
Πn − qn = 0 =⇒ Πn = qn
Q
n
0 Q
n
On a Πn+1 (x) = (x − xi ) (x − xj ) d’où Πn+1 (xi ) = (xi − xj ) ceci donne la formule
j6=i j6=i
29
4.1. INTERPOLATION POLYNÔMIALE
n
Y (x − xj )
Πn+1 (x)
li (x) = 0 = (4.1.2)
(x − xi ) Πn+1 (xi ) j=0
(xi − xj )
j6=i
Définition 30. Le polynôme nodal de degré n+1, noté ωn+1 est définit par :
n
Y
ωn+1 (x) = (x − xi )
i=0
Q
n
0
Q
n
Démonstration. Nous avons ωn+1 (x) = (x − xi ) (x − xj ) d’où ωn+1 (xi ) = (xi − xj ) ceci
j=0 j=0
j6=i j6=i
donne
Y (x − xj )n
ωn+1 (x)
0
= li (x) =
(x − xi ) ωn+1 (xi ) j=0
(xi − xj )
j6=i
par consequent
n
X n
X ωn+1 (x)
Πn (x) = yi li (x) = 0
yi
i=0 i=0
(x − xi ) ωn+1 (xi )
Remarque 31. Pour démontrer ce théorème on peut également poser Πn (x) = an xn +...+a1 x+a0
et résoudre le système linéaire de (n + 1) équations
n
X
aj xji = yi 0 ≤ i ≤ n
j=0
30
4.1. INTERPOLATION POLYNÔMIALE
Exemple 32. Considérons les couples de points (0; 0) , (1; 2) , (2; 0) avec
(x0 = 0; y0 = 0) , (x1 = 1; y1 = 2) , (x2 = 2; y0 = 0) pour un degré de polynômiale n = 2.
Après avoir calculé les polynômes caractéristiques nous obtenons les résultats suivants
x2 − 3x + 2
Jeudi 5 juin 2014 l0 (x) = 2. Interpolation
2
Exemple
Pour m = 2 le polynôme de L AGRANGE s’écrit
l1 (x) = −x2 + 2x
(x − x 1 )(x − x 2 ) (x − x 0 )(x − x 2 ) (x − x 0 )(x − x 1 )
P (x) = y 0 + y1 + y2
(x 0 − x 1 )(x 0 − x 2 ) (x 1 − x 0 )(x 1 − x 2 ) (x 2 − x 0 )(x 2 − x 1 )
x2 − x
Exemple l2 (x) =
On cherche le polynôme d’interpolation de L AGRANGE qui en −1 vaut 8, en 02vaut 3 et en 1 vaut 6. On a
Exemple 33. On considère la fonction définie sur R par f (x) = exp(x), déterminer l’interpolant
Remarque
Si m est petit il est souvent plus simple de calculer directement les coefficients a 0 , a 1 , . . ., a m avec la méthode “naïve” en
de f aux points −1,
résolvant 0, 1linéaire (2.2).
le système
Soit f : R → R une fonction continue donnée et soit x 0 , x 1 , x 2 , . . . , x m , (m+1) points distincts donnés. Interpoler la fonction
f aux points x i , 0 ≤ i ≤ m signifie chercher un polynôme P m de degré m tel que
(x P− (x i ) −pour
x =)f (x
m (x i )1
x2 )0 ≤ i ≤ m. (x − x0 ) (x − x2 )(2.3)
P (x) = f (x0 ) + f (x1 )
La solution de ce problème est donc donnée (x0 − par x1 ) (x0 − x2 ) (x1 − x0 ) (x1 − x2 )
P m (x) =
(x f−
Xm
x (x)) (x
(x i )L i0
−x )
∈ Rm [x] 1où L i (x) =
Ym x −x
j
+ f (x 2 ) i =0 j =0 x i − x j
(x2 − x0 ) (x2 − x1 ) j 6=i
1
et le polynôme P m est appelée interpolant de f de edegré m2 aux points
e x0, x1,1x2, . . . , xm .
Exemple = −1+ x + − x+1
Soit f : R → R la fonction définie 2e 2 l’interpolant 2de f aux2e
par f (x) = e x . On cherche points −1, 0, 1. On a
La figure ci-dessous montre le graphe de la fonction f et de son interpolant aux points −1, 0, 1.
y
e
f
P2
1
e
−1 0 1 x
Proposition Erreur
Si y i = f (x i ) pour i = 0, 1, . . . , n, f : I → R étant une fonction donnée de classe C n+1 (I ) où I est le plus petit intervalle
Figure 4.1.1 – Comparaison de la fonction f avec son interpolant
© G. Faccanoni 63
31
4.1. INTERPOLATION POLYNÔMIALE
Théorème 34. Soient x0 , x1 , ..., xn , n+1 noeuds distincts et soit x un point appartenant au
domaine de définition de f. On suppose que f ∈ C n+1 (Ix ) est le plus petit intervalle contenant
les noeuds x0 , x1 , ..., xn et x. L’erreur d’interpolation au point x est donnée par
f (n+1) (ξ)
En (x) = f (x) − Πn f (x) = ωn+1 (x) (4.1.4)
(n + 1)!
Démonstration. Le résultat est trivial si x coincide avec l’un des noeuds d’interoplation car
ωn+1 (xi ) = 0 ∀i = 0, 1, ..., n. Autrement, définissons pour t ∈ Ix la fonction G(t) = En (t) −
ωn+1 (t) En (x)/ωn+1 (x). Comme nous savons que f ∈ C n+1 (Ix ) et que ωn+1 est un polynôme
alors G ∈ C n+1 (Ix ) possède au moins (n+2) zéros distincts dans Ix . En effet,
(n + 1) !
G(n+1)
n (t) = f (n+1) (t) − En (x)
ωn+1 (x)
Corollaire 35. Soient x0 , x1 , ..., xn ∈ [a, b], n+1 noeuds équirépartis avec x0 = a et xn = b. on
suppose que f ∈ C n+1 ([a, b]). L’erreur d’interpolation sur [a, b] est estimée par
n+1
1 b−a
|En (f )| = max |f (x) − Πn f (x)| ≤ max f (n+1) (x) (4.1.5)
x∈[a,b] 4(n + 1) n x∈[a,b]
Démonstration. Notons kf k∞ = max |f (x)|. Le théorème (4.1.4) nous donne déjà que
x∈[a,b]
f (n+1) ∞
En (f ) ≤ kωn+1 k∞ (4.1.6)
(n + 1)!
32
4.2. INTERPOLATION DE NEWTON
a+b b−a π
xi = − cos i pour i = 0, 1, ..., n
2 2 n
Pour cette distribution particulière de noeuds, il est possible de montrer que si f est dérivable
sur [a, b], alors Pn converge vers f quand n tends vers +∞ pour tout x ∈ [a, b].
2. Interpolation Jeudi 5 juin 2014
1.0 1.0
0.8 0.8
0.6 0.6
0.4 0.4
0.2 0.2
0.0 0.0
f f
0.2 p_3 0.2 p_3
p_5 p_5
0.4 p_10 0.4 p_10
4 2 0 2 4 4 2 0 2 4
(a) Distribution équirepartie des nœuds (b) Nœuds de C HEBYSHEV-G AUSS -L OBATTO
(n + 1)(en ajoutant
où
un point de collocation), on doit reprendre pratiquement tout le processus
n
X
à zéro. C’est en revanche ce que permetΛla n (x) méthode
≡ max |ϕi (x)| d’interpolation de Newton.
x∈I i =0
est appelée constante de L EBESGUE (noter que cette constante dépend des nœuds d’interpolation). Des petites perturba-
tions sur les valeurs nodales f (x i ) entraînent des petites variations sur le polynôme d’interpolation quand la constante
33
de L EBESGUE est petite. La constante de L EBESGUE mesure donc le conditionnement du problème d’interpolation. Pour
l’interpolation de L AGRANGE avec des nœuds équirépartis
2n+1
Λn (x) '
(ln(n) + γ)ne
où e ' 2.71834 (nombre de N EPER) et γ ' 0.547721 (constante d’E ULER). Quand n est grand, l’interpolation de L AGRANGE
4.2. INTERPOLATION DE NEWTON
Pn (x) = a0 + a1 x + a2 x2 + a3 x3 + ... + an xn
qui est la plus utilisée. Il en résulte cependant d’autres qui sont plus appropriées au cas de
l’interpolation, par exemple :
Pn (x) = a0
+ a1 (x − x0 )
+ a2 (x − x0 ) (x − x1 )
. .
. .
. .
+ an−1 (x − x0 ) (x − x1 ) (x − x2 ) ... (x − xn−2 ) (4.2.1)
+ an (x − x0 ) (x − x1 ) (x − x2 ) ... (x − xn−1 )
Pn (x0 ) = f (x0 ) = a0
34
4.2. INTERPOLATION DE NEWTON
ou encore :
En isolant a2 , on obtient :
f [x1 , x2 ] − f [x0 , x1 ]
a2 =
x2 − x0
Cela nous donne donc une expression qui fait intervenir une différence divisée de différences
divisées.
Définition 39. Les deuxième différences divisées de la fonction f sont définies à partir des
premières différences divisées par la relation :
De même, les n-ièmes différences divisées de la fonction f sont définies à partir des (n − 1) −
ièmes différences divisées de la façon suivantes :
passe par les trois premiers points de collocation. On remarque de plus que ce polynôme de degré
2 s’obtient simplement par l’ajout d’un terme de degré 2 au polynôme P1 (x) déjà calculé. En
raison de cette propriété, cette méthode est dite récursive et peut être résumée par le théorème
suivant :
Théorème 41. L’unique polynôme de degré n passant par les (n + 1)points de collocation
(xi , f (xi ))pour i = 0, 1, 2, ..., n peut s’écrire selon la formule d’interpolation de Newton (4.2.1)
ou encore sous la forme récursive :
35
4.2. INTERPOLATION DE NEWTON
D’ après l’unicité du polynôme d’interpolation, cette expression définit le même polynôme que
la formule de Lagrange. La forme (4.2.7) est communément , appelée formule de différences
divisées de Newton du polynôme d’interpolation.
La manière la plus simple consiste à construire une table dite de différences divisées de la
façons suivante.
La construction de cette table est simple. Nous sous sommes arrêtés aux troisièmes diffé-
rences divisées, mais les autres s’obtiendraient de la même manière. Pour obtenir par exemple
f [x0 , x1 , x2 ] , il suffit de soustraire les 2 termes adjacents f [x1 , x2 ]−f [x0 , x1 ] et de diviser le résul-
tat par (x2 − x0 ). De même pour obtenir f [x0 , x1 , x2 , x3 ] , on soustrait f [x1 , x2 , x3 ]−f [x0 , x1 , x2 ]
et on divise le résultat par (x3 − x0 ). La formule de Newton utilise la diagonale principale de
cette table.
x 0 2 3 5
f(x) -1 2 9 87
Corrigé :
x0 = 0 f (x0 )=-1
3/2
x1 = 2 f (x1 ) =2 11/6
7 53/30
x2 = 3 f (x2 ) =9 32/3
39
x3 = 5 f (x3 ) =87
36
4.3. INTERPOLATION À L’AIDE DE FONCTIONS SPLINES CUBIQUES
Xn
f (xi )
f [x0 , x1 , ..., xn ] = 0
(4.2.8)
ω (x )
i=0 n+1 i
f (n+1) (ξ)
f [x0 , x1 , ..., xn , x] = (4.2.10)
(n + 1) !
37
4.3. INTERPOLATION À L’AIDE DE FONCTIONS SPLINES CUBIQUES
fonction est différentiable, plus la courbe qui lui est associée est lisse et plus la fonction est ré-
gulière. Le problème, losqu’on utilise des polynômes de faible degré, provient du fait qu’il faut
en utiliser plusieurs pour relier tous les points. C’est le cas de l’interpolation par morceaux, qui
consiste à relier chaque paire de points par un segment de droite. On utilise aussi l’appellation
splines linéaires. On imagine assez mal comment une telle courbe pourrait permettre de faire la
conception d’une carrosserie de voiture ou d’une aile d’avion. Une voie très populaire consiste
à utiliser dans chaque intervalle intervalle [xi , xi+1 ] un polynôme de degré 3 de la forme :
et à relier ces différents polynômes de façon à ce que la courbe résultante soit deux fois diffé-
rentiable. C’est ce que l’on appelle l’interpolation par splines cubiques.
Le principe de la méthode
Soit une fonction f connue sur le support {x0 < x1 < x2 < ... < xn } et continue sur [a, b] on
cherche les polynômes Pi pour i = 1, ..., n de degré 3 tels que
1. Le polynôme P1 passe par la prémière extrémité (x0 , f (x0 )), i.e :P1 (x0 ) = f (x0 ) pour
l’autre extrémité Pn (xn ) = f (xn )
2. Pour chaque point intérieur, soit pour i = 1, 2, ..., n − 1, les polynômes Pi et Pi+1 pas
sant par le point (xi , f (xi )) : Pi (xi ) = f (xi ) pour i = 1, ..., n − 1 Pi+1 (xi ) = f (xi ) pour
i = 1, ..., n − 1
3. Pour la régularité de la courbe, les dérivées premières et seconde de ces deux polynômes
0 0 00
sont continues aux points intérieurs : Pi (xi ) = Pi+1 (xi ) pour i = 1, ..., n − 1 Pi (xi ) =
00
Pi+1 (xi ) pour i = 1, ..., n − 1
4. Et pour compléter le système à résoudre, on fixe de manière arbitraire deux des inconnues.
00 00
Par exemple en posant P0 (x0 ) = 0 et Pn (xn ) = 0 on parle alors de spline naturelle.
On peut alors montrer (confère livre André Fortin ) que la détermination du polynôme P définie
par morceaux sur chaque intervalle [xi , xi+1 ] (i = 0, 1, ..., n − 1) revient alors à la résolution d’un
système tridiagonal de (n + 1) équations à (n + 1) inconnues suivant
”
f 0 = 0
h
hi ”
fi−1 + 2fi” + hih+h
i+1
f”
i+1 i+1
= 6f [xi−1 , xi , xi+1 ] ∀i = 1, 2, ..., n − 1 (4.3.1)
”
i +h i+1
fn = 0
− xi )3
” (x (x − xi−1 )3 f (xi−1 ) hi fi−1 ”
Pi (x) = −fi−1 + fi ” − − (x − xi )
6hi 6hi hi 6
f (xi ) hi fi ”
+ − (x − xi−1 )
hi 6
Remarque :
Ce procédé supprime << les effets de bords >> et fournit une courbe approchée <<lisse>>.
Dans le cas où les abscisses sont équidistantes, c’est-à-dire hi = h ∀i = 0, 1, ..., n − 1, n.
La matrice du système linéaire (4.3.1) se trouve simplifiée de beaucoup. En effet, on obtient
38
4.3. INTERPOLATION À L’AIDE DE FONCTIONS SPLINES CUBIQUES
alors une matrice dont la diagonale principale ne contient que des 2, tandis que les deux autres
diagonales sont constituées de coefficients valant 1/2 . Cette matrice ne depend donc pas de la
valeur de h, qui n’affecte pas le terme de droite.
39
4.3. INTERPOLATION À L’AIDE DE FONCTIONS SPLINES CUBIQUES
40
Chapitre 5
Intégration numérique
Objectif
´b
On veut approcher de façon numérique la valeur d’intégrales de la forme I (f ) = a f (x)dx
En pratique, on ne connait pas forcément l’expression symbolique de f .
La plupart des fonctions n’admettent pas de primitives pouvant s’exprimer à l’aide de fonc-
tions élémentaires, voici quelques exemples :
ˆ 1 ˆ 1 ˆ π
p
2
−x2 2
e dx cos(x )dx 1 + cos2 (x)dx
0 0 0
Dans ces cas, on peut appliquer des méthodes numériques pour évaluer la valeur de l’intégrale
donnée.
On obtient également la formule des rectangles à droite en posant ξj = xj+1 ce qui conduite
à la formule composite suivante :
n−1
X
Ird(f ) = f (xj+1 ) (xj+1 − xj ) (5.1.3)
j=0
41
Formule des rectangles à gauche
Pn−1 AVEC L’INTERPOLATION POLYNOMIALE
5.2. LIENS
ξj = xj Irg (f ) = j=0 f (xj ) (xj+1 − xj )
0 a x1 x2 x3 x4 x5 x6 x7 b x
xj +xj+1
Pour ξj = on obtient la formule du point milieu qui est plus précise que les deux
2
précédentes, dont la formule composite s’écrit :
n−1
X
xj + xj+1
Ipm(f ) = f (xj+1 − xj ) (5.1.4)
j=0
2
Ces formules sont qualifiées de rectangles parceque dans chaque sous-intervalles Ij = [xj , xj+1 ] , j =
0, 1, 2, ...n − 1 la fonction f est interpolée par un polynôme constant, et par consequent ces for-
mules ne seront exactes que pour les fonctions constantes sur [a, b].
Enfin la méthode des trapèzes
n−1
X f (xj ) + f (xj+1 )
It (f ) = (xj+1 − xj ) (5.1.5)
j=0
2
42
Formule du point milieu
xj +xj+1 Pn−1 xj +xj+1 5.2. LIENS AVEC L’INTERPOLATION POLYNOMIALE
ξj = 2 Ipm (f ) = j=0 f 2 (xj+1 − xj )
0 a x1 x2 x3 x4 x5 x6 x7 b x
où les λj sont à déterminer. La formule (5.2.1) est encore appelée formule de quadrature ou
méthode d’intégration numérique . Notons également que les λj sont appelés les poids de la
formule de quadrature et les xj les noeuds ou points d’intégration. On définit l’erreur comme
étant R (f ) = I (f ) − I˜(n) (f ) . Une formule de quadrature est dite exacte sur une ensemble V
si ∀f ∈ V ,R (f ) = 0.
Définition 44. Une méthode d’intégration numérique est dite d’ordre N (N ∈ N) si elle est
exacte sur PN (polynôme de degré N)
En pratique : connaissant les valeurs de f aux points x0 , x1 , x2 , ..., xn de l’intervalle [a, b],
Pn
(n)
on remplace f par le polynôme d’interpolation f (xj )Lj (x) écrit dans la base de Lagrange,
j=0
alors la formule d’intégration approchée est sur PN ([a, b]) est :
n
X (n)
I˜(n) (f ) = f (xj )Aj
j=0
(n) ´b (n)
où Aj = a
Lj (x)dx
Théorème 45. Soit f ∈ C n+1 ([a, b]) et I˜(n) (f ) donnée ci-dessus. Alors on a la majoration
suivante de l’erreur d’integration :
ˆ b
˜(n) Mn+1
I (f ) − I (f ) ≤ |πn+1 (x)| dx
(n + 1) ! a
n
avec Mn+1 = supx∈[a,b] f (n+1) (x) et πn+1 (x) = Π (x − xj )
j=0
43
5.2. LIENS AVEC L’INTERPOLATION POLYNOMIALE
(n)
Calcul pratique des coefficients Ak
En pratique, utiliser le fait que que I˜(n) est exacte sur PN ([a, b])
(1) (1)
Pour n = 1, a = −1, b = 1 on a donc ´ :I˜(1) (f ) = A0 f (−1) + A1 f (1),
´ I˜(1) est exacte
1 1
sur P1 ([−1, 1]) d’où I˜(1) (1) = I (1) = −1 1dx = 2 ,I˜(1) (x) = I (x) = −1 xdx = 0=⇒
(
(1) (1)
A0 + A1 =2 (1) (1)
(1) (1) d’où A0 = A1 = 1
−A0 + A1 =0
´1
Remarque 47. Cette formule n’est pas exacte sur P2 ([−1, 1])puisque I (x2 ) = −1 x2 dx = 2/3
alors que I˜(1) (x2 ) = 2.
44
5.2. LIENS AVEC L’INTERPOLATION POLYNOMIALE
Théorème 49. (Admis) Le degré de précision des formules de Newton-Cotes à n+1points est :
(
n si n est impair
n + 1 si n est pair
L’erreur dans les formules de Newton à n + 1 points est en
(
hn+2 si n est impair
hn+3 si n est pair
où h = b − a
Définition 50. On dira ici qu’une formule de quadrature est stable si les poids intervenant
dans la formule sont strictement positifs.
N.B : A partir de n ≥ 9 les formules de Newton-Cotes sont inutilisables car elles deviennent
instables ie les poids intervenant dans les formules peuvent être négatifs.
Supposons les valeurs calculées de f (xk ) non exactes, alors
X
n
(n)
X
n
(n)
X
n
(n)
Aj (f (xj ) + Ej (f )) − Aj f (xj ) = Aj f (xj )Ej (f )
j =0 j =0 j =0
n
X X
n
(n) (n)
=⇒ Aj f (xj )Ej (f ) ≤ max |Ej (f )| Aj
0≤j≤
j=0 j=0
P
n
(n)
et le terme Aj dépend de la méthode.
j=0
P
n
(n)
Définition 51. La formule d’intégration numérique I˜(n) (f ) = f (xj )Aj est dite stable s’il
j=0
existe M ∈ R tel que :
P
n
(n)
∀n ∈ N,∀ (E0 , E1 , ..., En ) ∈ Rn+1 Aj f (xj )Ej (f ) ≤ M max |Ej (f )|
j =0 0 ≤j ≤n
Théorème 52. Avec les notations précedentes, une condition nécessaire et suffisante de stabilité
P
n
(n)
est qu’il existeM ∈ R (indépendant de n) tel que : Aj ≤ M.
j=0
(n)
Les Formules de Newton-Cotes : pour certaines valeurs de j, lim Aj = +∞ donc pour
n−→+∞
de grandes valeurs de n ces formules ne sont pas stables
b−a
avec h = k
,a0 = a,ak = b et ai = h + ai−1 . si f ∈ C 4 ([a, b]), alors l’erreur d’approximation
(4)
commise par la formule de Simpson vaut −k.h5 f 180(ξ) où h = b−a
k
et ξ ∈ [a, b]
45
5.2. LIENS AVEC L’INTERPOLATION POLYNOMIALE
46
Chapitre 6
Position du problème
On appelle équation différentielle une équation reliant une fonction et ses dérivées succes-
sives. Si l’équation ne fait intervenir que sa dérivée , on parle d’équation du premier ordre. Soit
Ω un ouvert de R × RN . Etant donnés f : Ω ⊂ R × RN −→ RN qui à un couple (t, u) ∈ Ω
associe f (t, u) continue, un point quelconque t0 ∈ R, un point quelconque U0 ∈ RN , nous cher-
chons une fonctionu : I −→ RN , où I est un voisinage de t0 dans R, qui à t ∈ I associe u(t),
continûment dérivable, telle que u vérifie le problème de Cauchy suivant :
(
u0 (t) = f (t, u(t))
(6.0.1)
u(t0 ) = U0 Condition initiale ou de Cauchy
On dit que qu’il y a unicité au problème de Cauchy en (t0 , U0 ) s’il existe au moins une solution
à ce problème et si pour toutes solutions ϕ : I −→ RN et ψ : J −→ RN , les fonctions ϕet
ψcoincident sur I ∩ J.
L’étude mathématique de l’existence et de l’unicité d’une solution u est délicate et constitue
une branche entière des mathématiques. Nous nous contenterons de donner une condition suffi-
sante d’existence et d’unicité d’une solution au problème de Cauchy. Nous ne nous intéresserons
ensuite qu’à la résolution numérique de ces équations différentielles.
alors pour tout (t0 , u0 ) ∈ Ω, il existe I voisinage de t0 dans R et une application u, continûment
dérivable, de I dans RN solution unique de :
(
u0 (t) = f (t, u(t))
u(t0 ) = U0
Remarque 54. Si f est de classe C 1 alors f est localement lipschitzienne par rapport à sa
deuxième variable, et le théorème de Cauchy-Lipschitz s’applique.
47
6.1. RÉSOLUTION NUMÉRIQUE : MÉTHODE D’EULER
(
u0 (t) = −u(t)
tlnt
+ 1
lnt
t ∈ [e, 5] t
Exemple la fonction u(t) = ln(t)
est solution unique car :
u(e) = e
v−u v−u 1
|f (t, u) − f (t, v)| = ≤ ≤ |v − u|
tlnt e e
ˆ tj+1
u(tj+1 ) − u(tj ) = f (t, u(t))dt
tj
| {z }
intégration numérique
On obtient alors le schéma d’Euler explicite (explicite car on a directement uj+1 en fonction de
uj )
(
uj+1 = f (t, u(t)) + (tj+1 − tj ) f (tj , uj ) ∀j = 0, 1, 2, ..., n − 1
(6.1.1)
u0 = U0
On obtient alors le schéma d’Euler implicite (implicite car uj+1 est des deux côtés de l’équation) :
(
uj+1 = uj + (tj+1 − tj ) f (tj+1 , uj+1 ) ∀j = 0, 1, 2, ..., n − 1
(6.1.2)
u0 = U 0
Remarque 55. Le schéma d’Euler explicite est plus simple à utiliser mais moins précis que le
schéma d’Euler implicite. De plus, le schéma d’Euler implicite est plus stable que le schéma
d’Euler explicite.
(
u0 (t) = −αu(t)
Exemple Soit α > 0 et l’équation : La fonction u(t) = exp(−αt) est
u(0) = 1
solution .
48
6.2. MÉTHODES À UN PAS GÉNÉRIQUE
Remarque 56. Par le schéma d’Euler explicite :uj+1 = (1 − αh) uj ⇐⇒ uj = (1 − αh)j . Donc
comme u(t) tend vers 0 quand t tend vers l’infini,|1 − αh| < 1, soit la condition de stabilité
h < 2/α
1
Par le schéma d’Euler implicite :(1 + αh) uj+1 = uj ⇐⇒ uj = (1+αh) j alors uj tend vers 0
u?j+1 = uj + hf (tj , uj )
h
uj+1 = uj + f (tj+1 , u?j+1 ) + f (tj , uj )
2
h
uj+1 = uj + [f (tj+1 , uj + hf (tj , uj )) + f (tj , uj )]
2
u0 = U0
Le schéma-d’Euler modifié
h
uj+1/2 = uj + f (tj , uj )
2
uj+1 = uj + hf (tj+1/2 , uj+1/2 )
u0 = U0
avec φcontinue par rapport aux trois variables. Choisir une méthode revient à choisir la fonction
φ !. Quelles conditions imposer à φpour que la méthode fonctionne ?
Exemples
Schéma d’Euler φ (t, u, h) = f (t, u)
Schéma de Heun φ (t, u, h) = 1/2 (f (t + h, u + hf (t, u) + f (t, u))
On pose ej (h) = u(tj ) − uj , j = 0, 1, 2, ..., n : l’erreur à l’étape j Objectif1 :Quand h tend
vers 0, u(tj ) doit tendre vers uj ie on a la convergence de la solution approchée trouvée uj vers
la solution exacte au point tj , u(tj ).
Définition 57. Un méthode à un pas est dite convergente sur [0, T ] si quelle que soit U0
condition initiale :
Lim max |ej (h)| = 0
h−→00≤j≤n
49
6.2. MÉTHODES À UN PAS GÉNÉRIQUE
Objectif2 :
Il faut que la méthode approche bien l’équation différentielle.
Définition 58. Une méthode à un pas est dite consistante si pour tout u solution de u0 =
f (t, u) :
1
Lim max (u(tj+1 ) − u(tj )) − φ (tj , u(tj ), h) = 0
h−→00≤j≤n h
ug ej + hφ (tj , u(tj ), h) + εj
j+1 = u
vérifient !
j−1
X
|uj − u
ej | ≤ K f0 +
U0 − U |εj | ∀0 ≤ j ≤ n
i=0
k1 = f (t, u)
k2 = f (t + h/2, u + (h/2) k1 )
k3 = f (t + h/2, u + (h/2) k2 )
k4 = f (t + h, u + (h/2) k3 )
Cette méthode est d’ordre 4 et donne d’excellents résultats. Son défaut est qu’elle demande
l’évaluation de f quatre fois.
50
6.3. MÉTHODES À PAS MULTIPLES
où on a posé fj = f (tj , uj ).
si βk = 0, la méthode est explicite et implicite sinon.
Pour définir ces méthodes à pas multiples, on utilise les formules d’intégration ou de diffé-
rentiation ou d’interpolation.
Exemples ˆ ˆ
tj+1 tj+1
u0 (t)dt = f (t, u(t))dt
tj−1 tj−1
ˆ tj+1
u(tj+1 ) − u(tj−1 ) = f (t, u(t))dt
tj−1
| {z }
P oint milieu
k+1
k
yi+1 = yi + (h/2) f (xi , yi ) + f xi+1 , yi+1
y1 donné par Runge-Kutta de même ordre que le schéma pour conserver la précision. On peut
montrer que si la prédiction est bien choisie, une itération de correction suffit.
51