Vous êtes sur la page 1sur 35

Table des matières

1 Transformée de Laplace 3
1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.1.1 Définition et propriétés . . . . . . . . . . . . . . . . . . . . . 3
1.1.2 Conditions d’existence . . . . . . . . . . . . . . . . . . . . . 4
1.1.3 Exemples : . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.1.4 Conditions suffisantes d’existence de L[f ] . . . . . . . . . . . 5
1.1.5 Transformée de Laplace inverse . . . . . . . . . . . . . . . . 6
1.1.6 Théorèmes de translations et dérivée de la transformation de
Laplace . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.1.7 Fonction etagée unitaire (Heaviside) . . . . . . . . . . . . . . 9
1.1.8 Forme inverse du second théorème de translation . . . . . . 11
1.1.9 Dérivée de la Transformée de Laplace . . . . . . . . . . . . . 12
1.2 Transformée de Laplca des : dérivées, des convolutions et des fonc-
tions périodiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.3 Fonction de Dirac et sa transformée de Laplace . . . . . . . . . . . 14
1.3.1 Impulsion unité . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.3.2 Fonction de Dirac . . . . . . . . . . . . . . . . . . . . . . . . 14
1.3.3 Transformée de Laplace de δ . . . . . . . . . . . . . . . . . . 14
1.3.4 Application . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

1
2
Chapitre 1

Transformée de Laplace

1.1 Introduction
La transfomée de Laplace est un outil mathématique de grande utilité en in-
génierie. Elle permet de transformée une équation différentielle linéaire (resp un
systéme différentiel linéaire) en une équation algébrique (resp système algébrique).
La transformée de Laplace permet egalement la résolution de certaines équations
aux dérivées partielles et aussi des équations intégrales.

1.1.1 Définition et propriétés


Soit f une fonction réelle définie sur R+ , l’intégrale suivante :
Z +∞
L[f (t)] = F (p) = e−pt f (t)dt (1.1)
0

définie pour p = s + iu ∈ C est appellée transformée de Laplace de f , pourvue que


l’intégrale converge.
Propriétés :
— La transformation de Laplace est une opération linéaire :
∀f, g , ∀α, β ∈ R , L[αf + βg] = αL[f ] + βL[g]
En effet :
Z +∞
L[αf + βg] = e−pt (αf (t) + βg(t))dt
0
Z +∞ Z +∞
−pt
= α e f (t)dt + β e−pt g(t)dt (linéarité de l’intégrale)
0 0
αL[f ] + βL[g] (1.2)
— Si F [p] = L[f (t)] est la transformée de Laplace de f (t), pour tout α ∈ R on
a:
1 p
L[f (αt)] = F[ ] (1.3)
α α
3
4

Preuve :
Z +∞
L[f (αt)] = e−pt f (αt)dt , u = αt
0
1 +∞ − p u
Z
= e α f (u)du
p 0
1 p
= F[ ] (1.4)
α α

1.1.2 Conditions d’existence


1.1.3 Exemples :
— Transformée de Laplace de f (t) = 1 :
Z +∞ Z r
−pt
L[1] = = e dt = lim e−pt dt
0 r→+∞ 0
1 −pt +∞
= [e ]0
−p
1
= si p > 0 (1.5)
p

— Transformée de Laplace de f (t) = sin ωt :


+∞
e−pt ω +∞ −pt
Z Z
−pt +∞
L[sin ωt] = = e sin ωtdt = [− sin ωt]0 + e cos ωtdt
0 p p 0
ω +∞ −pt ωe−pt ω 2 +∞ −pt
Z Z
+∞
= e cos ωtdt = [− 2 cos ωt]0 − 2 e sin ωtdt
p 0 p p 0
ω ω2
= 2 − 2 L[sin ωt] (1.6)
p p

On a utilisé limt→+∞ e−pt cos 2t = 0


— Transformée de Laplace de f (t) = ekt :
Z +∞ Z r
kt −pt kt
L[e ] = = e e dt = lim e(k−p)t dt
0 r→+∞ 0
1
= [e(k−p)t ]+∞
0 si p > k
k−p
1
= (1.7)
p−k

en particulier, pour k = 0 on retrouve

1
L[1] = si p > 0
p
5

— Transformée de Laplace de f (t) = tn ; n ∈ N :


Z +∞
n
L[t ] = = e−pt tn dt
0
1 −pt n +∞ n +∞ −pt n−1
Z
= [− e t ]0 + e t dt (1.8)
p p 0

pour p > 0, limt→+∞ e−pt tn = 0 on conclut donc que


n n−1
L[tn ] = L[t ]
p
Par récurrence sur n, on montre que
n! n!
L[tn ] = n
L[1] = n+1
p p

— Transformée de Laplace de f (t) = t − 3 sin 2t. Par linéarité de la transfor-


2
mation de Laplace, il est immediat que L[f ] = L[t] − 3L[sin 2t] = p1 − 3 p2 +22
2
— Transformée de Laplace de f (t) = sin t. On peut toujour ramener cette
fonction a la somme de fonctions usuelles par linéarisation de la puissance
sinn t :
1 − cos 2t
sin2 t =
2

1.1.4 Conditions suffisantes d’existence de L[f ]


Définition :
une fonction f est dite de type c-exponentielle si il existe des constantes c, M et
T > 0 tel que :

∀t > T |f (t)| ≤ M ect (1.9)

Si f est une fonction croissante, la condition |f (t)| ≤ M ect pour t > T signifie
que le graphe de f sur [T, +∞[ ne croit pas plus rapidement que M ect .

Exemples :
— ∀t ≥ 0 , |t| ≤ et
— ∀t ≥ 0 , |e−t | ≤ et
— ∀t ≥ 0 , |2 cos t| ≤ 2et
2
— la fonction et n’est pas du type c-exponentielle car pour t suffisament grand
2
on peut montrer toujours que et > ect pour tout c > 0.
— la fonction tn est du type c-exponentielle car limt→+∞ tn e−ct = 0 pour c > 0.
On peut donc toujours trouver un M tel que : ∀t > T , |tn e−ct | < M et par
suite |tn | < M ect
6

Conditions suffisantes d’existence de L[f ]


Proposition : Si la fonction f est continue par morceaux sur [0, +∞[ et est du
type c-exponentielle pour t > T alors L[f ](p) existe pour p > c.

Preuve :
Z +∞ Z T Z +∞
−pt −pt
L[f (t)] = e f (t)dt = e f (t)dt + e−pt f (t)dt = I1 + I2
0 0 T

I1 existe car f (et aussi e−pt f (t)) est continue par morceaux sur [0, T ].
Pour I2 :
Z +∞ Z +∞ Z +∞
−pt −pt ct
|I2 | = | e f (t)dt| ≤ M e e dt = M e(c−p)t dt
T T T
Z +∞
M (c−p)t +∞
= M e(c−p)t dt = [e ]T
T c−p
R +∞
il est claire que pour p > c, T e(c−p)t dt est convergente.
I1 et I2 existent, donc L[f ] existe pour p > c
Proposition : Si la fonction f est continue par morceaux sur [0, +∞[ et est du
type c-exponentielle pour t > T alors limp→∞ L[f ](p) = 0.

Preuve : f est continue par morceau sur [0, T ] elle est donc bornée sur cet in-
tervalle : |f (t)| < M1 = M1 e0t . De plus sur [T, +∞[ on a : |f (t)| ≤ M2 eαt . Si on
prend M = max(M1 , M2 ) et c = max(0, α) alors :

Z +∞ Z +∞
−pt M
|L[f (t)](p)| ≤ e |f (t)|dt ≤ M e−pt ect dt = (1.10)
0 0 p−c

pour p > c, pour p → +∞ on a |L[f (t)](p)| → 0 et donc L[f (t)](p) → 0

1.1.5 Transformée de Laplace inverse


Dans la section précédente nousR nous sommes interessés à transformer une fonc-
+∞
tion f (t) en une fonction F (p) = 0 e−pt f (t)dt. On a noté symboliquement que
L[f (t)] = F (p). A présent on s’interesse au problème inverse, étant donné une fonc-
tion F (p) on cherche la fonction f (t) telle que L[f (t)] = F (p) on dit alors que f (t)
est la transformée inverse de F (p) et on écrit :

f (t) = L−1 [F (p)] (1.11)

Proposition :
L−1 est une transformation linéaire :
∀α, β ∈ R, étant donné deux fonctions : F et G alors :
7

L−1 (αF (p) + βG(p)) = αL−1 (F (p)) + βL−1 (G(p)) = αf (t) + βg(t)

où f et g sont les transformations inverse de F et G.


D’apès ce qui précéde on a :
1
L−1 [ ] = 1
p
n!
L−1 [ n+1 ] = tn
p
1
L−1 [ ] = eαt
p−α
−1 ω
L [ 2 ] = sin ωt
p + ω2
p
L−1 [ 2 ] = cos ωt
p + ω2
ω
L−1 [ 2 ] = sinh ωt
p − ω2
p
L−1 [ 2 ] = cosh ωt
p − ω2
(1.12)

Exemples :
— L−1 [ p14 ] = 1 −1 3!
3!
L [ p3+1 ] = 16 t3

2p + 5 p 5 3
L−1 [ 2
] = 2L−1 [ 2 2
] + L−1 [ 2 ]
p +9 p +3 3 p + 32
5
= 2 cos 3t + sin 3t (1.13)
3
— Dans le cas ou F (p) est une fraction rationnelle, on procède à la décompo-
sition en éléments simples. Par exemple, si on veut chercher la transformée
1
inverse de F (p) = p(p+1)(p−1) , d’après la technique de la décomposition :

1 a b c
F (p) = = + + (1.14)
p(p + 1)(p − 1) p p+1 p−1

on trouve a = −1, b = c = 12 .
donc la transformée de Laplace inverse :
1 1 1 1 1
L−1 [F (p)] = −L−1 [ ] + L−1 [ ] + L−1 [ ]
p 2 p+1 2 p−1
1 1
= −1 + e−t + et
2 2
8

— L−1 [ p2 +16
1
].
On va appliquer L−1 [ p2 +ω
ω
2 ] = sin ωt. En effet ;

1 1 −1 4
L−1 [ ] = L [ 2 ]
p2 + 16 4 p + 42
1
= sin 4t (1.15)
4

1.1.6 Théorèmes de translations et dérivée de la transforma-


tion de Laplace
Premier théorème de translation

Si on connait la transformation de Laplace F (p) de f (t) on peut calculer la


transformation de Laplace de eat f (t) sans aucun autre effort de calcul juste par
translation de F (p) en F (p − a).

Premier Théorème de translation

Si F (p) = L(f (t)) et a ∈ R alors :

L(eat f (t)) = F (p − a) (1.16)

Preuve

la démonstration est immédiate, en effet :


Z +∞
at
L(e f (t)) = e−pt eat f (t)dt
Z0 +∞
= e−(p−a)t f (t)dt
0
= F (p − a) (1.17)

Ce résultat peut être aussi exprimé de cette manière

L(eat f (t)) = L(f (t))p→p−a (1.18)

Cas de la transformée inverse

Si f (t) = L−1 (F (p)) et a ∈ R alors :

L−1 (F (p − a)) = L−1 (F (p))p→p−a = eat f (t) (1.19)


9

Exemples
2
— L(e4t t2 ) = L(t2 )p→p−4 = (p−4) 3

— L(e sin 3t) = L(sin 3t)p→p−2 = (p−2)3 2 +9


2t

p−2
— L(e2t cos 3t) = L(cos 3t)p→p−2 = (p−2) 2 +9

— L ( (p−2)4 + p2 −2p+5 ) = L ( (p−2)4 ) + 3L−1 ( (p−1)1 2 +4 )


−1 1 3 −1 1

or : L−1 ( (p−2)
1 1 −1
4 ) = 3! L ( (p−2) 3! 1 t 3
3+1 = 6 e t

L−1 ( p2 −2p+5
1
) = L−1 ( (p−1)1 2 +4 ) = 12 L−1 ( (p−1)22 +22 ) = 1 −1
2
2
L ( p2 +22 )p→p−1 =
1 t
2
e sin 2t

1.1.7 Fonction etagée unitaire (Heaviside)


Définition
La fonction etagée unitaire, dite de Heaviside, (ou echelon unité) est définit de
la manière suivante :

0 , si t < 0
U(t) = (1.20)
1 , si t ≥ 0

et ∀a ∈ R

0 , si 0 ≤ t < a
U(t − a) = (1.21)
1 , si t ≥ a

noter que U(t − a) est définie uniquement pour les valeurs non-négatives puisque
c’est ce qui nous interesse pour la transformée de Laplace.

Exemples et applications
On peut utiliser la Fonction etagée pour ecrire certaines fonctions définies par
morceaux sur des intervalles. Voici des exemples :
1.) soit la fonction f définie par :

0 , si 0 ≤ t ≤ π
f (t) = (1.22)
sin t , si t ≥ π

cette fonction s’écrit donc : f (t) = sin tU(t − π)


2.) soit la fonction f définie par :

 0 , si 0 ≤ t ≤ a
f (t) = g(t) , si a ≤ t ≤ b (1.23)
0 , si t ≥ b

cette fonction s’écrit donc : f (t) = g(t)[U(t − a) − U(t − b)]


10

Second théorème de translation


Si F (p) = L(f (t)) et a > 0, alors

L(f (t − a)U(t − a)) = e−ap F (p) (1.24)

Preuve :
Z +∞
L(f (t − a)U(t − a)) = e−pt f (t − a)U(t − a))dt
0
Z a Z +∞
−pt
= e f (t − a) U(t − a))dt + e−pt f (t − a) U(t − a))dt
0 | {z } a | {z }
0 1
Z +∞
= e−pt f (t − a))dt
a

on pose : z = t − a, dz = dt donc :
Z +∞ Z +∞
−p(z+a) −pa
L(f (t − a)U(t − a)) = e f (z)dz = e e−pz f (z))dz
0 0
−pa
= e L(f (t)) (1.25)

Autre forme du second théorème de translation


Dans plusieurs cas de figure, on cherche a calculer la transformée de Laplace du
produit d’une fonction g avec la fonction etagée : g(t)U(t − a). En effet :

Z +∞
L(g(t)U(t − a)) = e−pt g(t)U(t − a))dt
Z0 a Z +∞
−pt
= e g(t) U(t − a))dt + e−pt g(t) U(t − a))dt
0 | {z } a | {z }
0 1
Z +∞
= e−pt g(t))dt
Za +∞
= e−p(z+a) g(z + a))dt t = z + a
0
−pa
= e L(g(t + a) (1.26)

conclusion :

L(g(t)U(t − a)) = e−pa L(g(t + a)) (1.27)

Exemples
1.) Calculer L(U(t − a)).
On applique L(f (t − a)U(t − a)) = e−pa L(f (t)) avec f (t) = 1, donc L(U(t − a)) =
11

−pa
e−pa L(1) = e p .
2.) Calculer L((t − 1)2 U(t − 1)).
On applique le résultat précedent on a :

2!
L((t − 1)2 U(t − 1)) = e−t L(t2 ) = e−t
p3

3.) Representer graphiquement la fonction

f (t) = 3 − 4U (t − 2) + U (t − 3) pour t>0

et calculer sa transformée
 de Laplace.
 2 , si 0 ≤ t ≤ 2
La fonction f (t) = −1 , si 2 ≤ t ≤ 3 Sa transformée de Laplace est :
0 , si t ≥ 3

L(f (t)) = L(2) − 3L(U (t − 2)) + L(U (t − 3))


2 e−2p e−3p
= −3 + (1.28)
p p p

4.) Calculer L(sin tU(t − 2π)).


On applique l’équation 1.27 avec g(t) = sin t et a = 2π, donc g(t+2π) = sin(t+2π) =
sin t.

L(sin tU(t − 2π)) = e−2πp L(sin t)


e−2πp
= 2 (1.29)
p +1

1.1.8 Forme inverse du second théorème de translation


Si f (t) = L−1 (F (p)), la forme inverse du second théorème de translation est
donnée par :

L−1 (e−ap F (p)) = f (t − a)U(t − a) (1.30)

−πp
Exemple : Calculer L−1 ( ep2 +9
4
).
−1 1 −1
On a : L ( p2 +9 ) = 3 L ( p2 +32 = 31 sin 3t.
1 3

On applique la formule 1.30 avec a = π4 et F (p) = 1


p2 +9
, donc :

π
−1 e− 4 p 1 −1 1 π
L ( 2 ) = (L ( 2 ))t→t− π4 U(t − )
p +9 3 p +9 4
1 π π
= sin 3(t − )U(t − ) (1.31)
3 4 4
12

1.1.9 Dérivée de la Transformée de Laplace


Si F (p) = L(f (t)) alors :
dn
L(tn f (t)) = (−1)n F (p) (1.32)
dpn
Preuve : :
Pour n = 1,
Z +∞
d d
F (p) = e−pt f (t)dt
dp dp
Z +∞0 Z +∞
d −pt
= (e f (t))dt = − e−pt tf (t)dt
0 dp 0
= −L(tf (t)) (1.33)
donc
d
L(tf (t)) = − F (p)
dp
Pour n = 2
d
L(t2 f (t)) = L(t tf (t)) = − L(tf (t))
dp
d d d2
= − (− L(f (t))) = 2 L(f (t)) (1.34)
dp dp dp
Exemples : Calculer : a.) L(te2t ) , b.) L(t2 sin 4t)
a.) On applique le résultat de la dérivée de la Transformée de Laplace.
d d 1
L(te2t ) = − L(e2t ) = − ( )
dp dp p − 2
1
= (1.35)
(p − 2)2
b.) dans ce cas, n = 2
d2 d2 4
L(t2 sin 4t) = 2
L(sin 4t) = ( 2 )
dp dp p + 42
2

d −8p 8(−16 + 3p2 )


= ( 2 ) = (1.36)
dp (p + 42 )2 (p2 + 42 )3

1.2 Transformée de Laplca des : dérivées, des convo-


lutions et des fonctions périodiques
Transformée de Laplca des dérivées
Notre but c’est d’utiliser la transformée de Laplace pour résoudre certaines équa-
tions différentielles. Pour cela on a besoin d’évaluer des quantités telles que : L(f ′ )
13

et L(f ′′ ). Par exemple, si f ′ est continue pour t ≥ 0 alors :


Z +∞ Z +∞
′ −pt ′ −pt
L(f ) = +∞
e f (t)dt = [e f (t)]0 + p e−pt f (t)dt
0 0
−f (0) + pL(f ) (1.37)
on a supposer que : e−pt f (t) → 0 pour t → +∞. donc
L(f ′ ) = pF (p) − f (0) (1.38)
de même
Z +∞ Z +∞
′′ −pt ′′ −pt ′
L(f ) = e f (t)dt = [e f (t)]+∞
0 +p e−pt f ′ (t)dt
0 0
′ ′ ′
f ′ (0)
= −f (0) + pL(f ) = −f (0) + p(pF (p) − f (0)) = p2 F (p) − pf (0) −(1.39)
ou a également supposer que : e−pt f ′ (t) → 0 pour t → +∞.
On montre de même que :
L(f (3) ) = p3 F (p) − p2 f (0) − pf ′ (0) − f ′′ (0) (1.40)
le thhéorème suivant donne le résultat dans le cas général :
Théorème : Si f , f ′ , ... , f (n−1) sont continues sur [0, +∞[ et sont de type expo-
nentielles et f (n) est continue par morceaux sur [0, +∞[ alors :
L(f (n) ) = pn F (p) − pn−1 f (0) − pn−2 f ′ (0) − . . . − f (n−1) (0) (1.41)
avec F (p) = L(f (t))

Exemple : Calculer la transformée de Laplace de te2t + 2e2t .


L(te2t + 2e2t ) = L((te2t )′ ) = pL(te2t )
d d 1
= p(− L(e2t )) = p(− ( )
dp dp p − 2
p
= (1.42)
(p − 2)2

Convolution
Définition : Si f et g sont deux fonctions continues par morceaux sur [0, +∞[,
le produit de convolution de f et g noté f ∗ g est défini par :
Z t
(f ∗ g)(t) = f (u)g(t − u)du (1.43)
0

Proprieté : Le produit de convolution est commutatif, c.à.d f ∗ g = g ∗ f .

Z t Z 0
(f ∗ g)(t) = f (u)g(t − u)du = − f (t − v)g(v)dv (t − u = v)
0 t
Z t
= f (t − v)g(v)dv = (g ∗ f )(t) (1.44)
0
14

1.3 Fonction de Dirac et sa transformée de Laplace


1.3.1 Impulsion unité
On définit la fonction δa (t − t0 ) par :

 0 , si 0 ≤ t ≤ t0 − a
1
δa (t − t0 ) = , si t0 − a ≤ t ≤ t0 + a (1.45)
 2a
0 , si t ≥ t0 + a

avec a > 0 et t0 > 0.


Pour des petites valeurs de a, la fonction δa (t − t0 ) est une constante de magnitude
assez importante pour une courte péride entre [t0 − a, t0 + a]. Le comportement de
δa (t − t0 ) est illustré sur la figure.

1.3.2 Fonction de Dirac


La fonction de Dirac est définie à partir de δa (t − t0 ) pour a → 0, on a :

δ(t − t0 ) = lim δa (t − t0 ) (1.46)


a→0

et admet les propriétés suivantes :



∞ , si t = t0
δ(t − t0 ) = (1.47)
0 , si t ̸= t0

Z ∞
δ(t − t0 )dt = 1 (1.48)
0

1.3.3 Transformée de Laplace de δ


Pour trouver la transformée de Laplace de δ de Dirac, il est facile de se convaincre
que
1
δa (t − t0 ) = (U (t − (t0 − a)) − U (t − (t0 + a)) (1.49)
2a
En utilisant la linéarité de la transformation de Laplace on obtient :

1
L(δa (t − t0 )) = (L(U (t − (t0 − a))) − L(U (t − (t0 + a))))
2a
1 e−p(t0 −a) e−p(t0 +a)
= ( − )
2a p p
epa − e−pa
= e−pt0 ( ) (1.50)
2pa
15

en passant à la limite a → 0 :

L(δ(t − t0 )) = lim L(δa (t − t0 )) = e−pt0 (1.51)


a→0

en particulier pour t0 = 0 on a :

L(δ(t)) = 1 (1.52)

1.3.4 Application
Soit à résoudre y ′′ + y = δ(t − 2π) avec les conditions initiales :
a. y(0) = 1 et y ′ (0) = 0.
b. y(0) = 0 et y ′ (0) = 0.
a.) On applique la transformée de Laplace avec y(0) = 1 et y ′ (0) = 0 on trouve :

p e−2pπ
p2 Y (p) − p + Y (p) = e−2pπ → Y (p) + (1.53)
p2 + 1 p2 + 1
En utilisant la transformation inverse on a :

y(t) = cos t + sin(t − 2π)U (t − 2π) (1.54)

qu’on peut écrire :



cos t si 0 ≤ t ≤ 2π
(1.55)
cos t + sin t si t ≥ 2π

b) Avec les conditions y(0) = 0 et y ′ (0) = 0, la transformation de Laplace donne :

e−2pπ
p2 Y (p) + Y (p) = e−2pπ → Y (p) (1.56)
p2 + 1
et donc 
0 si 0 ≤ t ≤ 2π
y(t) = sin(t − 2π)U (t − 2π) =
sin t si t ≥ 2π
Théorème : Si F (p) est une fraction rationnelle de pôles p1 , p2 , ... , pk alors la
transformée de laplace inverse de F (p) est f (t) est donnée par :
k
X
f (t) = res(F (p)ept ) (1.57)
i=0

avec
— pôle simple :

(res(F (p)ept ))p=pk = lim (p − pk )F (p)ept (1.58)


p→pk
16

— pôle d’ordre m :

1 dm−1
(res(F (p)ept ))p=pk = ((p − pk )m F (p)ept ) (1.59)
(m − 1)! dpm−1

Exemples :
1
1.) Calculer la transformée de Laplace inverse de F (p) = p2 +1
.
F admet deux pôles simples p1 = i et p2 = −i.
(res(F (p)ept ))p=i = limp→i ((p − i) p21+1 ept ) = 2i1 eit .
(res(F (p)ept ))p=−i = limp→−i ((p + i) p21+1 ept ) = −1 2i
e−it .
Donc f (t) = 2i1 eit + −1
2i
e−it = sin t.

1
1.) Calculer la transformée de Laplace inverse de F (p) = (p2 +1) 2.

F admet deux pôles doubles p1 = i et p2 = −i.


1 d 1 −2ept tept −ieit
(res(F (p)ept ))p=i = (2−1)! dp
((p − i)2 (p2 +1) pt
2 e ) = ( (p2 +i)3 + (p2 +i)2 )(p → i) = ( 4 −
teit
4
)
1 d 1 −2e pt tept
(res(F (p)ept ))p=−i = (2−1)! dp
((p + i)2 (p2 +1) pt
2 e ) = ( (p2 −i)3 + (p2 −i)2
)(p → i) =
−it te−it
( ie 4
− 4
)
it teit −it te−it
Donc f (t) = ( −ie4 − 4
) + ( ie 4 − 4
) = 21 sin t − 21 t cos t.

1
Une autre méthode consiste à écrire F (p) = (p2 +1) 2 = F1 (p)F2 (p) avec F1 (p) =
1 1
(p2 +1)
et F2 (p) = (p2 +1) et d’appliquer le résultat du produit de convolution. Dans
ce cas L−1 (F1 F2 ) = f ∗ f avec f (t) = L−1 (F1 ) = sin t. En effet :
Z t Z t
f ∗ f (t) = sin u sin(t − u)du = sin u(sin t cos u − cos t sin u)du
0 0
Z t Z t
= sin t sin u cos udu − cos t sin2 udu
0 0
1 1
= sin t − t cos t (1.60)
2 2
Chapitre 2

Méthodes itératives

2.1 Introduction
La méthode d’élimination de Gauss ou la factorisation LU sont efficaces pour la
résolution des systèmes d’ordre pas trop grand. Dans les théories des équations aux
dérivées partielles on tombe facilement sur des systèmes d’ordre 104 ou 105 . Dans
ce cas, l’application de la méthode d’élimination de Gauss ou la factorisation LU
devient très coûteuse en terme de temps de calcul.
Comme pour la recherche de zéro de fonction non linéaie f (x) = 0, on a ramené
le problème à la recherche de point fixe x = g(x) par les méthodes itératives en
regardant la convergence de la suite xn+1 = g(xn ) pour un x0 initialement choisi.
De manière similaire, le système d’ordre n : Ax = b peut être écrit sous la forme :
x = Bx + c où B est une matrice n × n et c un vecteur. On genére la suite :

x(0) donne
x(k+1) = Bx(k) + c , pour k = 0, 1, 2, . . . (2.1)

et étudié sa convergence.
Avant d’exposer ses méthodes itératives, nous présentons d’abord quelques notions
sur les normes vectorielles et normes matricielles.

2.2 Normes vectorielles et normes matricielles


2.2.1 Introduction
Lorsque nous avons étudié les solutions de f (x) = 0, nous avons utilisés |xn − s|
pour comparer la solution approximative xn calculer par itération et la valeur exacte
s. Nous avons également calculé |xn+1 − xn | comme test d’arrêt des itérations.
Lorsqu’on s’intéresse à la résoluton des systèmes du type Ax = b par méthode
itérative, on doit se poser la question suivante :
Comment peut on définir la limite limk→+∞ x(k) = x ?
Dans le cas à une variable, on a pu définir l’erreur relative comme étant |xn −
xn−1 |/|xn |, dans le cas des vecteurs la division n’est pas définie.

17
18

On a donc besoin d’un moyen pour mesurer les écarts entre deux vecteurs. Nous
allons donc étendre la notion de valeur absolue dans le cas à une dimension au cas
vectoriel.

2.2.2 Norme vectorielle


A présent nous allons définir une norme vectorielle sur

Rn = {x|x = (x1 , x2 , . . . , xn )t ; x1 , x2 , . . . , xn ∈ R}

Par norme vectorielle sur Rn nous sous entendons une fonction réelle ∥∥ de Rn vers
R+ qui satisfait les conditions suivantes :
(i) ∥x∥ ≥ 0 pour tout x ∈ Rn et ∥x∥ = 0 ssi x = 0
(ii) ∥λx∥ = λ∥x∥ pour tou λ ∈ R et x ∈ Rn
(iii) ∥x + y∥ ≤ ∥x∥ + ∥y∥, pour tout x, y ∈ Rn
Dans le cas de Rn , les normes les plus utilisées en pratique sont : pour tout x =
(x1 , x2 , . . . , xn )t ∈ Rn
n
X
∥x∥1 = |x1 | + |x2 | + . . . + |xn | = |xi |
i=1
q
∥x∥2 = x21 + x22 + . . . + x2n
∥x∥∞ = max{|x1 |, |x2 |, . . . , |xn |}

∥x∥2 est ce qu’on appelle la norme Euclidienne. En fait, toutes ces normes provienent
de la norme lp définie par
Xn
p p p 1/p
∥x∥p = (|x1 | + |x2 | + . . . + |xn | ) =( |xi |p )1/p
i=1

La norme ∥∥1 correspond à p = 1, alors que ∥∥2 correspond à p = 2. On montre


aussi que ∥x∥∞ = limp→∞ ∥x∥p .
La norme d’un vecteur donne la mesure de la distance entre ce vecteur et les
vecteurs d’origine 0Rn = (0, 0, . . . , 0)t , la distance entre deux vecteurs peut être
définie comme la norme de la différence des deux vecteurs.
Définition : Si x = (x1 , x2 , . . . , xn )t et y = (y1 , y2 , . . . , yn )t sont deux vecteurs
de Rn , la distance entre x et y est d(x, y) = ∥x − y∥ avec x − y = (x1 − y1 , x2 −
y2 , . . . , xn − yn )t . Dans le cas de l2 et l∞ , on a :
n
X
∥x − y∥2 = { (xi − yi )2 }1/2 et ∥x − y∥∞ = max1≤i≤n |xi − yi |
i=1

Exemples
1.) Soit x = (2, −3, 5)t un vecteur 3
p de R . √
∥x∥1 = |2|+|−3|+|5| = 10, ∥x∥2 = 22 + (−3)2 + (5)2 = 38, ∥x∥∞ = max{|2|, |−
19

3|, |5|} = 5.
t t t
2.) Si x = (2,√ −3, 5) , y = (1, 3, 0) on a x − y = (1, −6, 5) , alors ∥x − y∥1 = 12,
∥x − y∥2 = 62 et ∥x − y∥∞ = 6.

Limite d’une suite vectorielle


Dans R2 , on définit la suite de vecteurs x(k) = (1/2k , 1 + 10−k )t . On a x(1) =
(1/2, 1.1)t , x(2) = (1/22 , 1.01)t , x(3) = (1/23 , 1.001)t , x(4) = (1/24 , 1.0001)t , . . .. On
(k)
remarque que la suite converge vers (0, 1)t car limk→∞ x1 = limk→∞ 1/2k = 0 et
(k)
limk→∞ x2 = limk→∞ (1 + 10−k ) = 1.
En général, dans Rn , on dit que la suite x(k) converge vers x (limk→∞ x(k) = x)
(k)
si et seulement si limk→∞ xi = xi pour chaque i = 1, 2, . . . , n.
(k) (k)
Comme pour chaque i = 1, ..., n, limk→∞ xi = xi alors limk→∞ |xi − xi | = 0. Ce
(k)
qui donne limk→∞ max|xi − xi | = 0 et par suite limk→∞ ∥x(k) − x∥∞ = 0. Le résul-
tat reste vraie pour n’importe quelle norme, du fait que les normes sont équivalentes.

Théorème : limk→∞ x(k) = x ssi limk→∞ ∥x(k) − x∥ = 0, où ∥∥ représente une


norme quelconque.

2.2.3 Norme matricielle


On suppose que Mn est l’ensemble des matrices n×n. Mn est un espace vectoriel
2
de dimension n2 et donc on peut introduire une norme comme dans un espace de Rn .
Cependant Mn n’est pas uniquement un espace vectoriel de dimension supérieur, il a
aussi une opération de multiplication. Il est utile de relier la mesure du produit AB
à la mesure de A et de B. Par conséquent, pour la norme matricielle on imposera
la condition :
∥AB∥ ≤ ∥A∥∥B∥
Avec cette condition suplémentaire, toutes les normes vectorielles definies ci-dessus
ne sont pas des normes matricielles.
Définition : Une norme matricielle est une application de Mn vers R+ qui vérifie
les propriétés suivantes :
(1) ∥A∥ ≥ 0 pour tout A ∈ Mn and ∥A∥ = 0 ssi A = 0.
(2) ∥αA∥ = α∥A∥ pour tout α ∈ R et A ∈ Mn
(3) ∥A + B∥ ≤ ∥A∥ + ∥B∥ pour tout A, B ∈ Mn
(4) ∥AB∥ ≤ ∥A∥∥B∥ pour tout A, B ∈ Mn .
Il y a plusieurs façons de définir des normes matricielles qui satisfont les conditions
précédentes. Cependant, les seules normes que nous considérons sont ceux qui sont
une conséquence naturelle des normes vectorielles.
Théorème : Si ∥.∥ est une norme vectorielle de Rn , alors

∥A∥ = max∥x∥=1 ∥Ax∥ (2.2)

est une norme matricielle, elle est appelée norme matricielle naturelle.
20

Corollaire : Pour tout x ∈ Rn , x ̸= 0, A ∈ Mn une matrice d’ordre n et ∥.∥


une norme matricielle naturelle de Mn , on a :

∥Ax∥ ≤ ∥A∥∥x∥

Preuve :
x
Pour tout x ̸= 0, la norme ∥ ∥x∥ ∥ = 1 donc :
x
∥A( )∥ ≤ ∥A∥
∥x∥
x 1
or A( ∥x∥ )= ∥x∥
Ax et par suite :

1 1 x
∥Ax∥ = ∥ Ax∥ = ∥A( ) ≤ ∥A∥
∥x∥ ∥x∥ ∥x∥
ce qui implique que :
∥Ax∥ ≤ ∥A∥∥x∥
Nous donnons dans le tableau suivant, les principaux normes vectorielles et les
normes matricielles associées
Norme vectorielle norme matricielle
Pnassociée
∥x∥1 = ni=1 |xi |
P
∥A∥1 = maxj i=1 |aij |
le max porte sur la p somme des colonnes
∥x∥2 = ( ni=1 x2i )1/2
P
∥A∥2 = ρ(At A)
t
ρ est le rayon spectral
Pn de A A
∥x∥∞ = maxi |xi | ∥A∥∞ = maxi j=1 |aij |
le max porte sur la somme des lignes

Exemples
Calculer ∥A∥1 , ∥A∥2 et ∥A∥∞ si
 
3 1 −1
A= 1 5 1 
1 −1 8

∥A∥1 = max{|3|
p + |1| + |1|, |1| + |5| + | − 1|, | − 1| + |1| + |8|} = 10
∥A∥2 = pρ(At A), les√valeurs propres de At A sont : 66.9142, 29.5613, 7.52451. Donc
∥A∥2 = ρ(At A) = 66.9142 = 8.18011.
∥A∥∞ = max{|3| + |1| + | − 1|, |1| + |5| + |1|, |1| + | − 1| + |8|} = 10

2.3 Méthode de Jacobi (1804-1851)


On expose d’abords cette méthode itérative sur un exemple, le cas général sera
traité juste après.
21

2.3.1 Exemple
Soit à résoudre le système suivant :


4x1 + x2 = 5
(2.3)
x1 − 5x2 = −4

La solution exacte est x1 = x2 = 1. Ce système est équivalent à :

0 − 41 5
      
x1 x1 4
= 1 + 4 (2.4)
x2 5
0 x2 5
| {z }
c

(k) (k)
A ce niveau, on introduit la suite x(k) = (x1 , x2 )t ou x = (x1 , x2 )t avec une valeur
d’initialisation x(0) = (0, 0) :

x(k+1) = Bx(k) + c (2.5)

pour x(0) = (0, 0), on a x(1) = (1.25, 0.8), x(2) = (1.05, 1.5) ... les valeurs de la suite
x(k) pour k = 0, 1, ..., 10 sont données dans le tableau suivant :

(k) (k) ∥x(k+1) −x(k) ∥


k x1 x2 ∥x(k+1) ∥
∥x(k) − (1, 1)t ∥
0 0 0 1 1.00069
1 1.25 0.8 0.23793 0.25
2 1.05 1.05 0.0618812 0.0500347
3 0.9875 1.01 0.0125226 0.0125
4 0.9975 0.9975 0.00312217 0.00250173
5 1.00063 0.9995 0.000624489 0.000625
6 1.00013 1.00013 0.000156142 0.000125087
7 0.999969 1.00003 0.0000312285 0.00003125
8 0.999994 0.999994 7.80709 10−6 6.2543310−6
9 1.000002 0.999999 1.56142 10−6 1.562510−6

On voit clairement que pour k grand la suite x(k) converge vers la solution exacte.
(k+1) −x(k) ∥
Sur ce tableau nous avons illustrés également l’erreur relative ∥x ∥x(k+1) ∥
et l’erreur
∥x(k+1) −x(k) ∥
absolue ∥x(k) −(1, 1)t ∥. Il est clair d’après ce tableau que ∥x(k+1) ∥
et ∥x(k) −(1, 1)t ∥
(k+1) −x(k) ∥
sont du même ordre de grandeur, on pourra donc utiliser ∥x ∥x(k+1) ∥
comme test
d’arrêt des itérations.
Par la suite, nous allons introduire le principe général des méthodes itératives.
22

2.3.2 Méthode de Jacobi (1804-1851)


Considèrons le système d’ordre n suivant :

 a11 x1 + a12 x2 + . . . + a1n xn = b1



 a21 x1 + a22 x2 + . . . + a2n xn = b2
 .. .. ..


. . .
(2.6)
 a i1 1x + a i2 2 x + . . . + a x
in n = b i
.. .. ..





 . . .

an1 x1 + an2 x2 + . . . + ann xn = bn
Si tous les éléments diagonaux aii sont non nuls, alors on peut reécrire le système
(2.6) comme suit :
x1 = (b1 − a12 x2 − . . . − a1n xn )/a11





 x2 = (b2 − a21 x1 − . . . − a2n xn )/a22
 .. .. ..


. . .
(2.7)
 xi = (bi − ai1 x1 − ai2 x2 − . . . − ain xn )/aii
.. .. ..





 . . .
xn = (bn − an1 x1 − an2 x2 − . . . − ann−1 xn−1 )/ann

ce qu’on peut écrire de manière compacte comme


n
1 X
xi = (bi − aij xj ) , i = 1, 2, . . . , n (2.8)
aii j=1,j̸=i

si aii ̸= 0.
La méthode itérative de Jacobi est définie par :
n
(k+1) 1 X (k)
xi = (bi − aij xj ) , i = 1, 2, . . . , n et k = 0, 1, ... (2.9)
aii j=1,j̸=i

ce qui est facile à programmer sur un ordinateur.


Il est plus utile d’écrire l’équation (2.9) sous forme matricielle. Pour cela, la
matrice A du système peut se mettre sous la forme :
 
a11 a12 . . . a1n
 a21 a22 . . . a2n 
A =  .. ..  = L + D + U (2.10)
 
.. ..
 . . . . 
an1 an2 . . . ann
avec D matrice diagonale, L matrice strictement supérieure et U matrice strictement
inférieure et sont données par :
     
a11 0 . . . 0 0 0 ... 0 0 a12 . . . a1n
 0 a22 . . . 0   a21 0 . . . 0   0 0 . . . a2n 
D =  .. ..  , L =  .. .. ..  , U =  .. .. (2.11)
     
.. .. .. .. .. 
 . . . .   . . . .   . . . . 
0 0 . . . ann an1 an2 . . . 0 0 0 ... 0
23

Le système Ax = b qui est en fait (D + L + U )x = b devient :


Dx = −(L + U )x + b (2.12)
ce qui donne :
x = −D−1 (L + U )x + b (2.13)
La méthode itérative de Jacobi peut être écrite comme :
x(k+1) = −D−1 (L + U )x(k) + D−1 b , pour k = 0, 1, ... (2.14)

Exemple
Soit à résoudre par la méthode de Jacobi le système suivant :

 3x1 + x2 − x3 = 8
x1 + 5x2 + x3 = −2 (2.15)
x1 − x2 + 8x3 = 4

La solution exacte est x1 = 3, x2 = −1 et x3 = 0.


On applique l’algorithme de l’équation avec
 1     
3
0 0 0 0 0 0 1 −1
−1 1
D =  0 5 0  , L=  1 0 0  , U = 0 0 1 
1
0 0 8 1 −1 0 0 0 0
1 1
     8 
8 0 3
−3 3
−1 1 1  −1  − 2(2.16)
b=  −2  , D (L + U ) = 
5
0 5
, D b = 5

1 1 1
4 8
−8 0 2
On a alors :
 (k+1)
   (k)   8 
0 31 − 13

x1 x1 3
 (k+1)  1 1   (k)   −2 
 x2  = − 
5
0 5  x 2  + 5
(2.17)
1
(k+1)
x3 8
− 81 0 x3
(k) 1
2

On choisit x(0) = (0, 0, 0)t pour initialiser, on obtient pour x(1) et x(2) les valeurs
suivantes : x(1) = ( 83 , − 52 , 12 )t , x(2) = ( 89
30
, − 31 , 7 )t . Les résultats des 10 premières
30 60
itérations de Jacobi sont donnés dans le tableau suivant
(k) (k) (k)
k x1 x2 x3
0 0 0 0
1 2.6666667 -0.4 0.5
2 2.9666667 -1.033333 0.1166667
3 3.0500000 -1.016667 0
4 3.0055556 -1.010000 -0.0083333
5 3.0005556 -0.999444 -0.0019444
6 2.9991667 -0.999722 0.0000000
7 2.9999074 -0.999833 0.0001389
8 2.9999907 -1.000009 0.0000324
9 3.0000139 -1.000005 0.0000000
10 3.0000015 -1.000003 -2.314815 10−6
20 2.9999999 -1.000000 2.5006 10−12
24

On remarque que la suite x(k) converge vers la solution exacte x1 = 3, x2 = −1 et


x3 = 0.

2.4 Méthode de Gauss-Seidel


Dans le but de résoudre l’équation (2.6) par la méthode de Gauss-Seidel (1821-
1896), on reécrit l’équation (2.8) de la façon suivante :
i−1 n
1 X X
xi = (bi − aij xj − aij xj ) , i = 1, 2, . . . , n (2.18)
aii j=1,j̸=i j=i+1,j̸=i

Le principe de la méthode Gauss-Seidel est le suivant : Lors de la première itération,


(1) (0) (1)
pour calculer x1 on aura besoin de x2,...,n qui sont donnés, le x1 est ainsi stocké.
(1) (0) (0)
De même, pour calculer x2 , on aura besoin de x1 et x3,...,n . Dans le cas de la
(0) (1)
méthode de Gauss-Seidel on utilisera au lieu de x1 la valeur déja stocké de x1 et
(0)
pour le reste on utilise x3,...,n .
(1) (1)
et ainsi de suite pour le calcul de xi on utilise x1,2,...,i−1 qui sont déja stocké et
(0)
xi+1,...,n .
On procède de la même façon pour la kème itération, c’est à dire que pour le calcul
(k) (k) (k−1)
de xi on utilise les valeurs de x1,2,...,i−1 déja évaluées et xi+1,...,n de l’itération
précédente.
La méthode itérative de Gauss-Seidel peut être écrite comme :
i−1 n
(k+1) 1 X (k+1)
X (k)
xi = (bi − aij xj − aij xj ) , i = 1, 2, . . . , n , k = 0, 1, (2.19)
...
aii j=1,j̸=i j=i+1,j̸=i

Cette équation peut être écrite de la manière suivante :


(k+1) (k)
a11 x1 = b1 − a12 x2 − . . . − a1n x(k)
n
(k+1) (k+1) (k)
a21 x1 + a22 x2 = b2 − a13 x3 . . . − a2n xn(k)
..
.. ..
.. .
(k+1) (k+1) (k+1)
an−11 x1 + an−12 x2 + ... + an−1n−1 xn−1 = bn−1 − an−1n x(k)
n
(k+1) (k+1) (k+1)
an1 x1 + an2 x2 + an3 x3 + . . . + ann x(k+1)
n = bn (2.20)
en notation matricielle, (2.20) devient :
   (k+1)       (k) 
a11 0 ... 0 x1 b1 0 a12 . . . a1n x1
 a21 a22 ... 0   x(k+1)   b2   0 0 . . . a2n   x(k) 
 2  2
= − (2.21)
     
 .. .. .. ..   . .. .. .. .. ..   ..
..

 . . . .    .   . . . .  . 
an1 an2 . . . ann (k+1) bn 0 0 ... 0 (k)
xn xn
en utilisant les matrices D, L et U , on aura :
(D + L)x(k+1) = b − U x(k) (2.22)
25

d’ou l’algorithme de Gauss-Seidel :

x(0) donne (2.23)


x(k+1) = −(D + L)−1 U x(k) + (D + L)−1 b (2.24)

Exemple
On reprend l’exemple précédent :

 3x1 + x2 − x3 = 8
x1 + 5x2 + x3 = −2 (2.25)
x1 − x2 + 8x3 = 4

On choisit x(0) = (0, 0, 0)t pour initialiser, on trouve x(1) = ( 38 , − 14 , 1 )t , x(2) =


15 20
539 227 1 t
( 180 , − 225 , − 2400 ) . Les résultats des 10 premières itérations de Gauss-Seidel sont
donnés dans le tableau suivant
(k) (k) (k)
k x1 x2 x3
0 0 0 0
1 2.666666667 -0.933333333 0.05000000000
2 2.994444444 -1.008888889 -0.0004166666667
3 3.002824074 -1.000481481 -0.0004131944444
4 3.000022762 -0.999921913 6.91550925910−6
5 2.999976276 -0.999996638 3.38565779310−6
6 3.000000008 -1.000000679 -8.58430587710−8
7 3.000000198 -1.000000022 -2.74984561210−8
8 2.999999998 -0.999999994 9.44512624110−10
9 2.999999998 -1.000000000 2.21282862510−10
10 3.000000000 -1.000000000 -9.71496238810−12

On remarque qu’il y a convergence vers x = (3, −1, 0), la convergence dans le cas
de Gauss-Seidel est relativement plus rapide que dans le cas de Jacobi.

2.5 Méthode de relaxation


Les méthodes de Jacobi et Gauss-seidel etudiées précédement convergent. Il est
possible d’améliorer la convergence de la méthode de Gauss-Seidel. Dans le but de
résoudre Ax = b par la méthode de Gauss-Seidel nous avons introduit la méthode
itérative :
i−1 n
(k+1) 1 X (k+1)
X (k)
x̃i = (bi − aij xj − aij xj (2.26)
aii j=1 j=i+1

pour i = 1, 2, . . . , n.
On pourra généraliser la méthode de Gauss-Seidel en introduisant un paramètre de
26

relaxation ω pour former une combinaison qui converge plus vite que Gauss-Seidel
pour un choix approprié de ω. Le paramètre ω est introduit de telle sorte à ce que
(k+1) (k) (k+1) (k)
xi = xj + ω(x̃j − xj ) (2.27)

si ω = 1, la méthode de relaxation (2.27) se réduit a Gauss-Seidel.


En injectant la relation (2.26) dans (2.27) on trouve

i−1 n
(k+1) (k) ω X (k+1)
X (k)
xi = (1 − ω)xj + (bi − aij xj − aij xj (2.28)
aii j=1 j=i+1

pour i = 1, 2, . . . , n. Cette dernière équation peut être réarrangée comme :


i−1
X n
X
(k+1) (k+1) (k) (k)
aii xi +ω aij xj = (1 − ω)aii xj −ω aij xj + ωbi (2.29)
j=1 j=i+1

pour i = 1, 2, . . . , n. En utilisant les matrices D, L et U introduites précédement,


on peut écrire (2.29) sous la forme matricielle suivante :
(k+1) (k) (k)
(D + ωL)xi = (1 − ω)Dxj − ωU xj + ωb
(k)
= [(1 − ω)D − ωU ]xj + ωb (2.30)

Si les aii ̸= 0 pour tout i, D + ωL est une matrice triangulaire inférieure et donc
det(D + ωL)=detD = Πni=1 aii ̸= 0. La matrice D + ωL est donc inversible et la
relation (2.30) devient :
(k+1) (k)
xi = (D + ωL)−1 [(1 − ω)D − ωU ]xj + ω(D + ωL)−1 b (2.31)

c’est ce qui définit la méthode de relaxation.


On verra plus loin que le paramètre de relaxation ω doit être compris entre 0 et 2.
Si ω < 1 la méthode est dite sous-relaxation.
Si ω > 1 la méthode est dite sur-relaxation.

Exemple
On reprend l’exemple précédent :

 3x1 + x2 − x3 = 8
x1 + 5x2 + x3 = −2 (2.32)
x1 − x2 + 8x3 = 4

On choisit x(0) = (0, 0, 0)t pour initialiser et trois valeurs de ω = 0.5, 1.073, 1.2. Le
résultat des 10 premières itérations est affiché dans le tableau suivant :
27

(k) (k) (k) ∥x(k+1) −x(k) ∥


k ω x1 x2 x3 ∥x(k+1) ∥
0 0.5 0 0 0 1
1 0.5 1.33333 -0.333333 0.145833 0.358932
2 0.5 2.07986 -0.589236 0.156098 0.167218
3 0.5 2.49749 -0.759976 0.124458 0.0849963
4 0.5 2.72948 -0.865382 0.0875498 0.0445988
5 0.5 2.8569 -0.927136 0.0572729 0.0235669
6 0.5 2.92585 -0.96188 0.0356533 0.012376
7 0.5 2.96251 -0.980757 0.0213723 0.00640525
8 0.5 2.98161 -0.990677 0.0124181 0.00324604
9 0.5 2.99132 -0.995712 0.00701942 0.00160023
10 0.5 2.99612 -0.99817 0.00386684 0.000760862
0 1.073 0 0 0 1
1 1.073 2.86133 -1.04324 0.0127988 0.0557175
2 1.073 3.03017 -1.00606 -0.00579371 0.010765
3 1.073 2.99789 -0.997862 0.000992092 0.000817353
4 1.073 2.99974 -1.00031 -0.0000801913 0.000119466
5 1.073 3.0001 -0.999982 -5.43266 10−6 0.0000394121
6 1.073 2.99998 -0.999997 2.96731 10−6 5.65722 10−6
7 1.073 3.000001059 -1.000001102 -5.064132382 10−7 4.20535 10−7
8 1.073 3.000000136 -0.9999998400 4.02450375510−8 6.276610−8
9 1.073 2.999999947 -1.000000009 2.927139159 10−9 2.0281510−8
10 1.073 3.000000008 -1.000000002 -1.531886463 10−9 2.8810910−9
0 1.2 0 0 0 1
1 1.2 3.200000000 -1.248000000 -0.06720000000 0.100903
2 1.2 3.032320000 -0.9420288000 0.01728768000 0.0229263
3 1.2 2.977262592 -1.010286305 -0.001589870592 0.0102271
4 1.2 3.008026055 -0.9994874233 -0.0008090477003 0.00338905
5 1.2 2.997866139 -0.9993962173 0.0005724560746 0.00084925
6 1.2 3.000414242 -1.000357564 -0.0002302620366 0.000164002
7 1.2 2.999968072 -0.9998655617 0.00007100728045 0.0000579373
8 1.2 2.999981013 -1.000039373 -0.00001725930399 0.0000161183
9 1.2 3.000012643 -0.9999910175 2.902834171 10−6 5.867710−6
10 1.2 2.999995040 -1.000001303 -3.190910224 10−8 2.1536 10−6

2.6 Convergence et test d’arrêt


2.6.1 Test d’arrêt
Comme pour toute méthode itérative, on doit se préoccuper d’un test d’arrêt.
Soit x la solution du système Ax = b. On peut introduire le vecteur erreur e(k) =
x(k+1) − x et étudier son comportement au cours des itérations.
Dans les deux cas, Jacobi et Gauss-Seidel, la méthode itérative est de la forme
x(k+1) = Bx(k) + c
28

On aura donc

e(k) = x(k+1) − x = Bx(k) + c − Bx − c = Be(k−1) = B 2 e(k−2)


= . . . = B k e(0) (2.33)

La convergence est réalisée lorsque l’erreur e(k+1) est toujours inférieur à e(k) , ou si
limk→+∞ ∥e(k) ∥ = 0.
Comme x(0) est arbitrairement choisi alors e(0) est aussi arbitraire, on conclut qu’on
a convergence de la méthode si limk→+∞ ∥B k ∥ = 0.
Ils existent plusieurs tests pour arrêter les itérations. Elles sont tous basés sur
le vecteur d’erreur qui doit atteindre un critère prédéfini et tendant vers une valeur
proche de zéro.
On utilise le test d’arrêt basé sur :
∥x(k+1) − x(k) ∥

∥x(k) ∥
On peut aussi se contanter du critère d’arrêt suivant :

∥x(k+1) − x(k) ∥ < ϵ

2.6.2 Convergence
Comme on vient de voir, l’algorithme x(k+1) = Bx(k) +c converge si limk→+∞ ∥e(k) ∥ =
0 ce qui est équivalent à dire que limk→+∞ ∥B k ∥ = 0. Cette condition s’applique
aussi bien à la méthode de Jacobi qu’à la méthode de Gauss-Seidel. Une condition
nécessaire et suffisante pour que limk→+∞ ∥B k ∥ = 0 est que le rayon spectrale de B
vérifie ρ(B) = maxi=1,...,n |λi | < 1. Où les λi , i = 1, . . . , n sont les valeurs propres de
B. On a donc les théorèmes suivants :
Théorème : Pour tout choix de x(0) ∈ Rn , la suite x(k) définie par x(k+1) =
(k)
Bx + c pour tout k ≥ 1 converge vers l’unique solution de x = Bx + c si et
seulement si ρ(B) < 1.

Exemple : On reprend l’exemple dy système :



4x1 + x2 = 5
(2.34)
x1 − 5x2 = −4

La matrice de la méthode de Jacobi est B = D−1 (L + U ) avec


     
4 0 0 0 0 1
D= , L= , U=
0 −5 1 0 0 0
 
0 1/4
B = D−1 (L + U ) = (2.35)
−1/5 0
√ √
Les valeurs propres de B sont ±i/(2 5), le rayon spectral de B est ρ(B) = 1/(2 5) <
1, la méthode de Jacobi est bien convergente dans ce cas.
29


0 1/4
La matrice de la méthode de Gass-Seidel est B = (D + L)−1 U = . Les
0 1/20
valeurs propres de B sont : 0, 1/20. Le rayon spectral de B est ρ(B) = 1/20 < 1.
Comme nous l’avons vu, la méthode de Gauss-Seidel est bien convergente dans ce
cas.
Corollaire : Si ∥B∥ < 1 pour une norme matricielle naturelle et c ∈ Rn , alors
pour tout x(0) ∈ Rn la méthode itérative x(k+1) = Bx(k) + c , pour tout k ≥ 1,
converge vers x et on les relations suivantes :
(i) ∥x(k) − x∥ ≤ ∥B∥k ∥x(0) − x∥
∥B∥k
(ii) ∥x(k) − x∥ ≤ ∥x(1) − x(0) ∥ (2.36)
1 − ∥B∥
Définition : Une matrice A est dite à diagonale strictement dominante si
n
X
|aii | > |aij | , ∀i = 1, . . . , n (2.37)
j=1,i̸=j

 
3 1 1
Exemples : 1.) La matrice :  1 4 −1  est à diagonale strictement domi-
2 3 8
nante car : 3 > 1 + 1, 4 > |1|
 + | − 1| et 8 > 2 + 3.
4x1 + x2 = 5
2.) La matrice du système est aussi à diagonale strictement do-
x1 − 5x2 = −4
minante car : 4 > 1 et 5 > 1.
Théorème : Si la matrice du système Ax = b est à diagonale strictement do-
minante alors les méthodes de Jacobi et de Gauss-Seidel convergent vers l’unique
solution de Ax = b pour n’importe quelle valeur d’initialisation x(0) .

Exemples : 
4x1 + x2 = 5
1.) La matrice du système est à diagonale strictement domi-
x1 − 5x2 = −4
nante, donc la méthode de  Jacobi étudiée précédement est convergente.
 3x1 + x2 − x3 = 8
2.) La matrice du système x1 + 5x2 + x3 = −2 est à diagonale strictement do-
x1 − x2 + 8x3 = 4

minante, donc la méthode de Gauss-Seidel étudiée précédement est convergente.
3.) La condition “à diagonale strictement dominante” est suffisante pour garantir la
convergence de la méthode de Jacobi et Gauss-Seidel, mais elle n’est pas necessaire,
c’est à dire on peut avoir des systèmes avec des matrices qui ne sont pas à diago-
nale strictement dominante mais la méthode itérative de Jacobi et/ou Gauss-Seidel
converge. C’est ce qu’illustre l’exemple suivant :

 −3x1 + x2 = −4
−x1 − 2x2 − 2x3 = −1
x2 − 2x3 = −3

30

La matrice du système n’est pas à diagonale strictement dominante et pourtant les


méthodes de Jacobi et Gauss-Seidel convergent.  
0 −1/3 0
−1
La matrice de la méthode de Jacobi est BJ = D (L + U ) =  1/2 0 1 .
0 −1/2 0

Le spectre de la matrice BJ est : σ(BJ ) = 0, ±i √23 . Le rayon spectral est ρ(BJ ) =

√2 < 1, donc la méthode de Jacobi converge.
3
Partant de x(0) = (0, 0, 0)t , on donne dans le tableau suivant les résultats des itté-
(k+1) −x(k) ∥
ration xi , k = 1, . . . , 10, 20, 40 ainsi que l’erreur relative : ∥x ∥x(k+1)
(k)

en norme
infinie.

(k) (k) (k) ∥x(k+1) −x(k) ∥


k x1 x2 x3 ∥x(k+1) ∥
0 0 0 0 1
1 1.333333333 0.5000000000 1.500000000 1.238095238
2 1.500000000 -1.666666667 1.750000000 0.5416666667
3 0.7777777778 -2.000000000 0.6666666667 2.166666667
4 0.6666666667 -0.5555555556 0.5000000000 0.5909090909
5 1.148148148 -0.3333333333 1.222222222 0.7222222222
6 1.222222222 -1.296296296 1.333333333 0.3333333333
7 0.9012345679 -1.444444444 0.8518518519 0.7536231884
8 0.8518518519 -0.8024691358 0.7777777778 0.2921348315
9 1.065843621 -0.7037037037 1.098765432 0.3727598564
10 1.098765432 -1.131687243 1.148148148 0.1786941581
20 0.9869938526 -0.9826584701 0.9804907788 0.02793620306
40 0.9997744535 -0.9996992713 0.9996616803 0.0004881632774

On

remarque que la convergence est très lente, car le rayon spectral est ρ(BJ ) =
2
√ ≈ 0.82 < 1 qui est proche de 1.
3

 De même, la matrice
 de la méthode de Gauss-Seidel est BG = (D + L)−1 U =
0 −1/3 0
 0 1/6 1 . Le spectre de la matrice BG est : σ(BG ) = 2/3, 0, 0, le rayon
0 1/12 1/2
spectral est ρ(BG ) = 2/3 < 1, donc la méthode de Gauss-Seidel converge.
31

(k) (k) (k) ∥x(k+1) −x(k) ∥


k x1 x2 x3 ∥x(k+1) ∥
0 0 0 0 1
1 1.333333333 -0.1666666667 1.416666667 0.8928571429
2 1.277777778 -1.555555556 0.7222222222 0.7812500000
3 0.8148148148 -0.6296296296 1.185185185 0.4950495050
4 1.123456790 -1.246913580 0.8765432099 0.3802281369
5 0.9176954733 -0.8353909465 1.082304527 0.2472187886
6 1.054869684 -1.109739369 0.9451303155 0.1764446405
7 0.9634202103 -0.9268404207 1.036579790 0.1162621712
8 1.024386526 -1.048773053 0.9756134736 0.07998800180
9 0.9837423157 -0.9674846314 1.016257684 0.05304248248
10 1.010838456 -1.021676912 0.9891615438 0.03586901084
20 1.000187955 -1.000375911 0.9998120446 0.0006258746386
40 1.000000057 -1.000000113 0.9999999435 1.882050576 10−7

Dans le cas de la méthode de Gauss-Seidel, la convergence est plus vite que celle de
Jacobi mais est relativement lente aussi.
Théorème : Si A est une matrice symétrique, définie positive et tridiago-
nale, alors les méthodes de Jacobi, Gauss-Seidel et de ralaxation avec 0 < ω < 2
convergent pour tout x(0) ∈ Rn . Pour la méthode de relaxation, le choix optimal de
ω est donné par :
2
ωo = p
1 + 1 − ρ(BJ )2
Exemple : soit le système suivant

 2x1 + x2 = 2
x1 + 2x2 + x3 = 3
x2 + 2x3 = 2

la matrice du système est :  


2 1 0
A 1 2 1 
1 2
Cette matrice est symétrique, définie positive et tridiagonale, donc les méthodes
Jacobi, Gauss-Seidel et de la relaxation convergent.
 
0 1/2 0
La matrice de Jacobi est : BJ = D−1 (L + U ) =  1/2 0 1/2 . Le spectre de
0 1/2 0
√ √
cette matrice est ±1/ 2, 0, Le rayon spectrale est 1/ 2 < 1, la méthode
 converge. 
0 1/2 0
−1
La matrice de la méthode de Gauss-Seidel est BG = (D+L) U =  0 −1/4 1/2 .
0 1/8 −1/4
Le spectre de la matrice BG est : σ(BG ) = −1/2, 0, 0, le rayon spectral est ρ(BG ) =
1/2 < 1, donc la méthode de Gauss-Seidel converge.
32

Pour la méthode de ralaxation, le choix optimal de ω est


2 2
ωo = p = q √ = 1.17
1+ 1 − ρ(BJ )2 1 + 1 − (1/ 2)2

2.7 Conditionnement d’une matrice


2.7.1 Exemple
Considérons le système linéaire suivant :
     
x1 + 3x2 = 4 1 3 x1 4
⇔ = ⇔ Ax = b
1.0001x1 + 3x2 = 4.0001 1.0001 3 x2 4.0001

La solution exacte et unique du système est x = (1, 1)t .

Considérons
 le sysème
 original
 avecune petite perturbation du second membre
4 0
b′ = b + δb = + . Le système devient donc
4.0001 0.0004

x1 + 3x2 = 4
1.0001x1 + 3x2 = 4.0004

et x̃ = (4, 0) est la solution exacte.


On remarque que pour ∥b − b̃∥∞ = 0.0003 on a ∥x − x̃∥∞ = 3. Ce qui se traduit en
terme d’erreur relative sur x et b par :

∥b − b̃∥ 0.0003
= = 0.7510−4 (2.38)
∥b∥ 4.0001
∥x − x̃∥ 3
= =3 (2.39)
∥x∥ 1

pour une petite erreur relative sur le second membre du système, on a une grande
erreur relative sur x.
Pour comprendre ce phénomène, on a tracé sur la figure (2.1) les droites d1
d’équation x1 + 3x2 = 4 et la droite d2 d’équation 1.0001x1 + 3x2 = 4.0001. Evi-
dement, l’unique solution du système est le point d’intersection de d1 et d2 . Après
perturbation du second membre, les droites d˜1 d’équation x1 + 3x2 = 4 et la droite
d˜2 d’équation 1.0001x1 + 3x2 = 4.0004 seront complètement confondues avec d1 et
d2 . Cependant, la solution exacte x̃ = (4, 0)t est sur la droite d1 , qui est très proche
de d2 . Ce qui implique que x̃ est aussi sur la droite d2 (voir figure (2.1)).
Cet exemple nous montre bien les difficultés qui peuvent apparaître. Pour savoir
quand ce genre de phénomème pourra apparaître, il est necessaire de considérer la
norme de la matrice A et celle de A−1 . Ceci nous conduit à introduire la notion de
conditionnement d’une matrice.
33

d2 4
d1 3
2
1

1 2 3 4

Figure 2.1 – La solution du système est le point d’intersection de d1 et d2

2.7.2 Conditionnement d’une matrice


Théorème : Soient Ax = b un système linéaire, δb une petite perturbation du
second membre b et δx la perturbation obtenue sur la solution x. Alors on a :

(i) ∥δx∥ ≤ ∥A−1 ∥∥δb∥


1 ∥δb∥ ∥δx∥ ∥δb∥
(ii) −1
≤ ≤ ∥A−1 ∥∥A∥
∥A∥∥A ∥ ∥b∥ ∥x∥ ∥b∥

ou ∥.∥ norme matricielle naturelle.


Dans le cas d’une perturbation δA sur la matrice du système, (A + δA)(x + δx) = b,
alors
∥δx∥ ∥δA∥
(iii) ≤ ∥A−1 ∥∥A∥
∥x + δx∥ ∥A∥

Preuve :
i) On a A(x+δx) = b+δb = Ax+A(δx) ce qui donne A(δx) = δb et donc δx = A−1 δb.
En passant à la norme : ∥δx∥ = ∥A−1 δb∥ ≤ ∥A−1 ∥∥δb∥ d’où le résultat.
ii) Puisque b = Ax est équivalent à x = A−1 b, alors on a ∥b∥ = ∥Ax∥ ≤ ∥A∥∥x∥ et
∥x∥ ≤ ∥A−1 ∥∥b∥. On a aussi ∥δx∥ =≤ ∥A−1 ∥∥δb∥ et ∥δb∥ =≤ ∥A∥∥δx∥ donc :

∥δx∥ ∥A−1 ∥∥δb∥


∥δx∥ ≤ ∥A−1 ∥∥δb∥ ⇒ ≤
∥A∥∥x∥ ∥b∥
∥δx∥ ∥δb∥
⇒ ≤ ∥A∥∥A−1 ∥ (2.40)
∥x∥ ∥b∥

d’où l’inégalité à droite. L’inégalité à gauche se démontre de la même façon.


iii) Si (A+δA)(x+δx) = b alors Aδx+δA(x+δx) = 0. Donc δx = −A−1 (δA(x+δx)).
On passe a la norme : ∥δx∥ = ∥A−1 (A(x + δx)∥ ≤ ∥A−1 ∥∥δA∥∥x + δx∥. Ce qui
34

donne :
∥δx∥
≤ ∥A−1 ∥∥δA∥
∥x + δx∥
∥δA∥
≤ ∥A∥∥A−1 ∥ (2.41)
∥A∥

Définition : On appelle conditionnement d’une matrice carrée A, relatif à une


norme naturelle, le nombre réel

κ(A) = ∥A∥∥A−1 ∥

Remarque : ∥I∥ = ∥AA−1 ∥ ≤ ∥A∥∥A−1 ∥ = κ(A), donc κ(A) ≥ 1.

Définition : Un système est dit :


— bien conditionné si κ(A) est proche de 1
— mal conditionné si κ(A) est grand.
Soit AX=B un système linéaire, de ce qui précéde on a les relations suivantes :

∥δx∥ ∥δb∥
≤ κ(A) , perturbation du second membre (2.42)
∥x∥ ∥b∥
∥δx∥ ∥δA∥
≤ κ(A) perturbation de la matrice (2.43)
∥x + δx∥ ∥A∥

Ses deux relations nous montrent que si une matrice A est mal conditionnée, κ(A)
est grand, alors des petites variations sur les données A ou b entraînent de très
fortes variations sur le résultat x équations (2.42,2.43).
Le conditionnement est donc l’outil mathématique permettant de quantifier l’insta-
bilité numérique des résolutions des systèmes linéaires. Le conditionnement mesure
la dépendance de la solution d’un problème numérique par rapport aux données du
problème, ceci afin de contrôler la validité d’une solution calculée par rapport à ces
données.
Propriétés :
(i) κ(αA) = κ(A) pour toute matrice A et tout scalaire α non nul.
(ii) κ(αA) = κ(αA−1 )
(iii) κ(AB) ≤ κ(A)κ(B)
(iv) Si A est une matrice symétrique définie positive alors si Λ et λ représentent
respectivement la plus grande et la plus petite valeur propre de A alors κ(A)
pour la norme 2 est égale à : κ(A) = Λ/λ
(v) Si A est une matrice unitaire (AA∗ = A∗ A = I) ou orthogonale réelle
(AAt = At A = I) alors pour la norme ∥.∥2 on a : κ(A) = 1.
Remarques :
1.) La propriété (v) montre que les systèmes à matrice unitaire ou orthogonale sont
bien conditionnés.
2.) La propriété (iv) est utile pour trouver une valeur approchée de κ(A) sans passer
35

par le calcul de la norme de A et A−1 , surtout que le calcul de A−1 est très coûteux
O(n3 ).
Exemple : La matrice du système considérée dans l’exemple précédent est
 
1 3
A=
1.0001 3

sa norme est ∥A∥∞ = 4.0001, cette norme ne sera pas considerée très grande.
Cependant, la norme de A−1 est :
 
−1 −10000 10000
A = donc ∥A−1 ∥∞ = 20000
3333.67 −3333.33

donc pour la norme infinie : κ(A) = (20000)(4.0001) = 80002 qui est un grand
nombre.
Comme nous l’avons vu dans l’exemple si ∥δb∥
∥b∥
= 0.7510−4 , à partir de la majoration
∥δx∥ ∥δx∥
de ∥x∥
donnée par ∥x∥
≤ κ(A) ∥δb∥
∥b∥
, on trouve : ∥δx∥
∥x∥
≤ 6.00015. On a calculé ∥δx∥
∥x∥
=3
∥δx∥
ce qui est consistent avec ce qu’on a trouvé à partir de la majoration de ∥x∥
.

Vous aimerez peut-être aussi