Vous êtes sur la page 1sur 17

Equations aux dérivées partielles EDP

1. Introduction.

Les équations aux dérivées partielles (EDP) sont omniprésentes dans toutes les sciences,
puisqu’elles apparaissent aussi bien en dynamique des structures, mécanique des fluides que
dans les théories de la gravitation ou de l’électromagnétisme (Exemple: les équations de
Maxwell). Elles sont primordiales dans des domaines tels que la simulation aéronautique, la
synthèse d’images, la prévision météorologique, la démographie, ou les finances. Enfin, les
équations les plus importantes de la relativité générale et de la mécanique quantique sont
également des EDP. Ce sont des équations indispensables pour la résolution de presque la
totalité des problèmes dans ces domaines.
Nous pouvons citer par exemple:

a) l’équation de Schrdinger indispensable à la mécanique quantique:


2 2
h ∂u ∂u
2
+ih −U (x )u=0
2m ∂ x ∂x

b) l’équation d’advection qui décrit comment une quantité est transportée dans un
courant (par exemple un polluant dans de l’eau):
∂u ∂u
( x, t )+c ( x, t )=f ( x, t )
∂t ∂x
,

c étant la vitesse du milieu qui est souvent une constante.

c) l’´equation de Black-Scholes utilisée en finances:


2 2
∂c σ ∂ c ∂c
+S 2
+rS −rc=0
∂t 2∂ S ∂S

c=c(t ,S) est un prix,

σ , r  : sont des constantes.

d) L’équation d’ondes décrivant les phénomènes de propagation des ondes sonores et des
ondes électromagnétiques comme la lumière dans des milieux comme l’air ou le
vide physique:
1 ∂2 u ∂2 u ∂2 u ∂2 u 1 ∂2 u
Δu− =0 ⇒ + + =
c 2 ∂ t2 ∂ x 2 ∂ y 2 ∂ z 2 c 2 ∂t 2

Le nombre c : représente la célérité pour le cas de la lumière ou la vitesse de


propagation de l’onde u.
e) L’équation de Fourrier ou équation de la chaleur qui décrit l’évolution de la
température en fonction du temps et de l’espace:
∂2 u ∂2 u ∂2 u 1 ∂ u
+ + =
∂ x 2 ∂ y 2 ∂ z 2 α ∂t
Le nombre α est appelé diffusivité thermique du milieu.
Certaines de ces EDP ont été résolues analytiquement et leurs solutions sont connues.
Toutefois, un nombre important d’autres existent sans solutions analytiques. C’est
dans cette optique que les recherches se sont penchées sur les méthodes numériques
pour arriver à approximer les solutions de ces équations.
Notons que malgré ces efforts indéniables, il n’existe pas de méthodes universelles
pour la résolution numérique des EDP. L’algorithme de résolution dépend très
étroitement du type de problème posé. . On exigera que l’équation satisfasse quelques
propriétés comme la linéarité pour que la résolution soit possible.

2. Définition.

En mathématiques, plus précisément en calcul différentiel, une équation aux dérivées


partielles ou équation différentielle partielle (EDP) est une équation dont les solutions sont
les fonctions inconnues vérifiant certaines conditions concernant leurs dérivées partielles.
C’est une équation mathématique contenant en plus de la variable dépendante ( u dans les
cas suivants) des variables indépendantes ( (x, y ,....) ) ∈ R n et une ou plusieurs dérivées
∂ u ∂u ∂2 u ∂2 u
F( x , y,.....,u, , , 2 , 2 ,...)=0
partielles qu’on peut écrire sous la forme: ∂x ∂ y ∂x ∂ y
Exemple :

∂2 u ∂2 u
2
− 2 =0
a) L’équation aux dérivées partielles : ∂ x ∂y qui admet comme solutions:
3
u( x , y )=( x+ y) .u( s, y)=sin( x− y)....
b) L’équation de la Laplace Δ(u )=0 , en dimensions 2 2D, qui admet aussi au moins
deux solutions dont u( x , y )=x 2 + y 2 et v( x , y )=e x sin( y)

les conditions étant moins strictes que dans le cas d’une équation différentielle ordinaire; les
problèmes incluent souvent des conditions aux limites qui restreignent l’ensemble des
solutions. Pour assurer donc l’unicité de la solution, comme on le fait avec les équations
différentielles ordinaires EDO, on tiendra compte des conditions pré données comme les
conditions aux limites et les conditions initiales.

3. Classification des EDP linéaires du second ordre.


Comme il est dit en haut, il n’existe pas de méthodes universelles pour la résolution des
EDP, nous allons nous contenter de celles qui sont linéaires et du second ordre.
X =( x 1 , x 2 ,. ... , x n )∈ Rn , une équation aux dérivées partielles du second
Quand on pose
n n n
∂2 u
∑ ∑ A i, j ( X ) ∂ x ∂ x ( X )+∑ B i ( X ) ∂∂ xu ( X )+Cu=G( x )
i=1 j=1 i j i=1 i
ordre qui sera de la forme:

Avec
A i, j ,
B i , C et G , sont des fonctions indépendantes de u ne s’annulant
n n
pas toutes simultanément dans R . Si nous nous limitons dans R , c’est à dire
X =( x , y )∈ R n l’égalité précédemment posée prend la forme de:
∂2 u ∂2 u ∂2 u ∂u ∂u
A 2 +B +C 2 +D +E +Fu=G( x , y )
∂x ∂x∂ y ∂ y ∂x ∂ y
une telle équation est déterminée par le calcul de
La classe d’
Δ=B2 ( x 0 , y 0 )−4 A( x 0 , y 0 )C( x 0 , y 0 )
Δ≺0
Si on parle d’une équation élliptique,

Δ=0
Si l’EDP est dite parabolique,

Δ≻0
Si on a une équation hyperbolique.

Remarque:
Notons que les méthodes numériques passent toujours par des discrétisations des problèmes
analytiques en des problèmes numériques et qu’il existe une infinité des méthodes de
discrétisation d’une équation. Nous ne pouvons jamais les énumérer toutes mais les plus
couramment utilisées pour la résolution des équations aux dérivées partielles sont:
a) La méthode des différences finies,
b) La méthode des éléments finis,
c) La méthode des volumes finis,
d) La méthode des caractéristiques.
Nous allons utiliser la méthode des différences finies.
La méthode consiste à remplacer les dérivées partielles par des différences divisées ou
combinaisons de valeurs ponctuelles de la fonction en un nombre fini de points discrets ou
nœuds du maillage. L’avantage de cette méthode est qu’il y a une grande simplicité d’ecriture
et un faible cout de calcul. Elle est couramment pratique et facile d’accès. Elle repose sur
deux notions : la discrétisation des operateurs de dérivation ou différentiation et la
convergence du schéma numérique ainsi obtenu. Son inconvénient est qu’on se limite à des
géométries simples, et qu’il y a des difficultés de prise en compte des conditions aux limites
de type Neumann.

4. Maillage:
Puisqu’on a évoqué le mot maillage précédemment et qu’on en aura tout le temps
besoin, définissons-le ici.

On appelle maillage un ensemble de points ou nœuds du domaine de définition sur lequel on


va appliquer la méthode des différences finies. Pour une application définie sur un segment de
R on ajoutera en général les deux extrémités du segment; pour un maillage en dimension
supérieure, on sera amené à choisir, éventuellement, des points du contours du domaine de
définition. On appelle le pas ou élément du maillage la distance entre deux points successifs
du maillage voisins. En dimension 1, cela se simplifie en faisant la différence des abscisses.
Ce pas n’est pas nécessairement constant, il peut même être judicieux de ne pas le fixer
comme tel. Le pas (global) de l’approximation peut être défini comme le plus grand pas du
maillage. Ainsi, si ce pas global tend vers 0, cela veut dire que la répartition des points du
maillage dans l’intervalle choisi tend à se faire sur tout le domaine d’étude par densité.

Exemple: Pour un intervalle de validité [ 0,2 ] , avec n le nombre des pas, on aura n
éléments et n+1 points ou nœuds qui sont donnés par la relation
x i=ixh avec
2
h=
n 0≤i≤n .

5. Exemple d’équation aux dérivées partielles d’un système continu:

En appliquant les principes de la mécanique des corps déformables, nous pouvons écrire
l’équation aux dérivées partielles qui régit le mouvement du système continu.
L’application des conditions aux limites et des conditions initiales nous permet de
résoudre l’équation aux dérivées partielles pour connaître le comportement naturel du
système.

 Équation de la poutre en flexion.


A constante. La poutre est soutenue
Considérons une poutre homogène de section
par un ou deux appuis et est soumise à un chargement distribué p( x) . La vibration
transversale de la poutre est donnée par sa flèche y( x,t ) par rapport à l’axe neutre
longitudinal x et au temps t
. L’équilibre dynamique est établi sur un élément de poutre de longueur dx .
Les propriétés de la poutre sont définies comme suit :

ρ : Masse linéique (kg/m),


L : Longueur de la poutre (m),
2
E : Module d’élasticité (N/ m ),
 
I  : Second moment de la surface selon
4
l’axe x ( m ),
p( x) : Chargement distribué (N/m)
y( x,t ) : flèche de la poutre (m) à partir de sa position d’équilibre statique (axe
neutre
longitudinal x ),
V : Effort tranchant (N)
M  : Moment fléchissant (Nm)
ρ. ÿ : inertie de l’élément de poutre (N/m)

Hypothèses appliquées :
 déplacements transversaux y( x,t ) très faibles,
 longueur ( L )de la poutre constante dans le temps,
 inertie en rotation négligée,
 déformation en cisaillement négligée,
 section ( A ) constante dans le temps et sur la longueur de la poutre,
 rigidité EI constante dans le temps et sur la longueur de la poutre,
 dissipation (amortissement) négligeable, tant à l’intérieur de la poutre qu’aux
appuis.

Résistance des matériaux :


2
dV ∂ y
p( x )= +ρ
dx ∂ t2
Equilibre dynamique en y :

dV ∂2 y ∂4 y ∂2 y ∂4 y ∂2 y
+ρ 2 =0=EI 4 + ρ 2 EI 4 + ρ 2 =0
En vibrations libres, on a p( x) = 0 → dx ∂t ∂x ∂t
∂x ∂t
Comme dans le cas des systèmes à paramètres groupés, l’équation comprend un terme
∂4 y
de rigidité ( EI ) associé au déplacement ∂ x 4 et un terme de masse ( ρ ) associé
∂2 y
à l’accélération ∂t 2 du corps continu.

 Équation d’amplitude.
Appliquons la méthode de séparation des variables pour trouver la flèche y( x,t ) .
Pour ce faire, on suppose que le mouvement est harmonique (sinusoïdal dans le
temps).
∂4 y ∂2 y
EI 4 + ρ 2 =0
∂x ∂t (a)
y( x, t )=Y ( x )xG(t ) (b) ou Y ( x): représente l’amplitude des vibrations

selon l’axe des x ,


G(t )=G1 sin( ϖt )+G2 cos(ϖt ) (c).

G̈( t )=−ϖ 2 (G1 sin( ϖt )+G 2 cos( ϖt ))=−ω2 . G(t )


En utilisant (a) , (c) et en dérivant (b) l’équation du mouvement de la poutre (a)
devient :

4 2 4
∂ y ∂ y ∂ y
EI 4
+ρ =0 EI + ρϖ 2 Y =0
∂x ∂ t2 ∂x 4
(d)

L’équation d’amplitude est donnée par la solution de l’équation différentielle d’ordre 4


(d). Elle se lit comme suit :
Y n (x )= A cosh( β n x )+B sinh ( βn x )+C cos(β n x )+D sin (β n x ) ou :
2
ρϖ n
βn=
EI√
4

 : représente le nombre d’onde.

Bien sur, il existe une infinité de valeurs qui permettent à β n de répondre à la

solution du système. Chacune de ses valeurs ( β 1 , β 2 , β 3 .. . ) correspond à un mode


de vibration.
y n ( x , t )=Y n ( x ) X [G1 sin (ϖ n t )+G 2 cos( ϖ n t )]

6. Résolution d’une EDP elliptique.

a) Discrétisation de l’EDP:
∂2 u ∂2 u
2
+ 2 =0
Soit : ∂ x ∂ y ∀ (x , y) ∈ [ a , b ] x [ c , d ]

On prendra
h x et h y les pas de discrétisation des intervalles [ a,b ] et [ c,d ]
- Discrétisation de l’intervalle [ a,b ]
,
b−a
h x=
nx (n x étant le nombre d’intervalle dans [ a,b ]

x (i )=x i=a+i. h x , i=0,1 , .. . ., n x ,


- Discrétisation de l’intervalle [ c,d ]
d−c
h y=
ny (n y étant le nombre d’intervalle dans [ c,d ]
y ( j )= y j=c + j. h y , j=0,1 ,. .. . , n y

Remarque :
Constatons que =x i +1 =a+(i+ 1)h x , x i +1 =( a+ih x )+h x =xi + h x . Dans la suite,
nous remplacerons chaque fois
x i +h x , x i−h x , y j +h y , y j −h y successivement

par
x i+1 ,
x i−1 ,
y i+1 ,
yi−1 .

b) Méthode des différences finies:


Cette méthode consiste à approximer les dérivées partielles d’une équation au moyen des
développements de Taylor et ceci se déduit directement de la définition de la dérivée.
¿
Soit f (x , y) une fonction continue et dérivable de classe C , alors la dérivée
partielle première de f par rapport à x est calculée par la formule:
f ( x+ hx , y )−f (x , y )
f 'x ( x , y )=lim
hx
Si
h x≺¿≺1 , le développement de Taylor au voisinage de 0 de f (x +h x , y) donne:
∂f ∂f
f (x +h x , y )=f ( x , y )+h x +θ(h x )≈f ( x , y )+h x
∂x ∂x (1) avec une erreur de
h,
l’ordre de x . De (1) je tire  :
∂f (x , y ) f ( x +h x , y )−f ( x , y )

∂x hx Ceci est appelé le schéma avant.
schéma arrière qui est de la forme:
De la même manière, nous pouvons aussi donner le

∂f (x , y ) f ( x , y )−f ( x−h x , y )
=lim
∂x hx
Avec la formule de Taylor, ceci nous donne :
∂ f ( x, y ) ∂f (x, y )
f (x , y )=f ( x−h x , y )+h +θ(h x )≈f ( x−h x , y )+h
∂x ∂x
hx
Avec une erreur de .

∂f (x , y ) f ( x , y )−f ( x−h x , y )

∂x hx
La somme de ces deux schémas nous donne le schéma centré suivant:
∂f (x , y ) f ( x +h x , y )−f ( x−hx , y )

∂x 2 hx
En résumé, on a les trois approximations suivantes pour la dérivée partielle première de
f (x , y) par rapport à x avec la formule de Taylor:
f ( x +h x , y )−f ( x , y )

{
schéma avant
hx
f ( x +h x , y )−f ( x , y ) f ( x , y )−f ( x −h x , y )
f ' ( x , y )= lim ≈ schéma arriére
hx hx
f ( x+ h x , y )−f ( x−h x , y )
schéma centré
2 hx
''
f x de f (x , y) sera alors de la forme:
La dérivée seconde
f ( x i+1 , y j )−f ( x i , y j ) f ( x i , y j )−f ( x i−1 , y j )

∂2 f hx hx

∂ x2 hx (2)

Nous utiliserons tour à tour ces égalités dans la suite pour approximer les dérivées partielles.

c) Approximation de l’équation différentielle partielle.

∂2 u ∂2 u ∂2 u ∂ 2 u
Δu=0 ⇔ + =0 ou Δu= + =0
Soit l’équation de Laplace: ∂ x2 ∂ y2 ∂ x2 ∂ y 2 (3)

Posons
u( x i , y j )=uij (en notation indicielle). Compte tenu de la relation (2) du
∂ 2 u ui+1 , j −2 ui, j +ui−1 , j

paragraphe précédent, ∂ x2 h2x ici ui+1 , j =f (x i+1 , y j )

Puisque
x i et y j jouent un role symétrique dans l’équation du potentiel (de Laplace), un
''
raisonnement analogue à celui de l’approximation de f y nous donne:
∂2 u ui , j+1−2 ui , j +ui , j−1

∂ y2 h2y

Rapportons ces approximations dans l’EDP (3):


ui+1, j−2 ui , j +ui−1 , j ui , j +1 −2 ui, j +ui , j−1
⇔ Δu≈ + =0
h 2x h2y
Dans le cas particulier ou x y h =h =h on obtient finalement :
u i+1 , j +u i , j +1 −4 ui , j +u i−1, j +ui , j−1

{
Δu=0 ⇔
h2
i=0,1 , .. . . ,n x et j=0,1 ,. . .. , n y
=0

ui, j
Remarque 2. : A chaque étape, nous remarquons que pour calculer la valeur de au
point
( xi , y j ) nous avons besoin de connaitre les points
ui−1, j ,
ui, j−1 ,
ui+1, j et
ui, j+1 comme l’indique le schéma ci dessous:
C’est pour cela que nous appelons cette
formule la formule à 5 points qui peut être
représentée comme suit:
u i+1 , j +ui , j +1−4 ui , j +u i−1, j +ui , j−1

{
Δu=0⇔
h2
i=0,1 ,. . .. , n x et j=0,1 , .. .. , n y
=0

1
h
1
Δu=0 ⇒ 2 1 −4
1 { 1 ¿¿

Résolution de l’EDP:

Soit à résoudre l’équation de Laplace : u ici est une fonction de x et de y,


u(xi , y j )
[ ][ ]
{
Δu=0 dans le domaine ( x , y ) ∈ 0 , 20 10 , 0
u ( x , 0 )=u( x ,10 )=u(0 , y )=0 et u(20 , y )=100
{
h x =h y=h ∈ 5 , 2. 5 , 1 . 25 , 0 .625 , 0 .3125 }

Tout en variant h , résoudre cette EDP:


* En utilisant la méthode directe.
* En utilisant la méthode de relaxation de Liebmann.
* Faire une conclusion.

 Méthode directe,

 Cas ou h = 5 :

b−a b−a 20−0 d−c 10−0


h x= n x= = =4 n y= = =2
On a
nx hx 5 et
hy 5 la
grille maillée contient alors
(n x +1) x(n y +1) mailles vu que nous avons à rajouter les
points ou
x i=0 et ceux ou y j =0 c’est `a dire les points d’intersection de la
courbe avec les axes. Mais comme les conditions aux limites nous donnent les images
sur les bords, alors les points inconnus restent seulement ceux de l’intérieur du
quadrillage. Ce qui fait donc que le nombre l’inconnues est alors
(n x−1)x(n y−1)=3 x1=3 . Nous obtenons le système de trois équations à trois
inconnues suivant:
−4u 1,1 +u2,1 +0u 3,1=0

{ u1,1−4 u2,1 +u3,1=0


0u 1,1 +u2,1 −4 u 3,1=−100
Il nous reste maintenant à résoudre le système matriciel: AxU =B avec:
−4 1 0 0 u1,1

[
A= 1 −4 1
0 1 −4 ] [ ],
B= 0
−100
, et
[]
U= u2,1
u3,1

AU =B
A=[-4 1 0; 1 -4 1; 0 1 -4]
C=inv(A)
d=[0 0 -100]
B=transpose(d)
U=[C]*[B]

Avec une des méthodes d’analyse numérique (résolution des systèmes linéaires), nous
obtenons la solution:
u1,1 1 .786

[ ][ ]
U= u2,1 = 7 . 143
u3,1 26 .786

 Cas ou h = 2.5
b−a b−a 20−0
h x= n x= = =8
 Nous avons aussi
nx hx 2.5 et
d−c 10−0
n y= = =4
hy 2 .5 , ce qui nous donne un système à
n=(n x−1)x(n y −1)=7 x 3=21 équations à 21 inconnues de la forme:

Les conditions aux limites nous ont ramenée à avoir la grille suivante dans laquelle nous
allons chercher les inconnus de l’équation:
Avec un petit programme sur Matlab, nous transformons la matrice U en un vecteur ⃗v
pour
pouvoir bien résoudre le système sans erreur puisque la résolution du système AU =B
exige que U soit un vecteur. Voici le programme qui a assurée la transformation:

for j=1:ny-1
for i=1:nx-1
v(k)=u(i,j);
k=k+1;
end
end

Ce qui nous donne après, le système:

−4v 1+v 2+....+v 8+.....=0

{
v 1−4 v 2+v 3+....+v 9 +....=0
:
:
...............+v 6−4v 7 +....=−100

v 1+...............−4 v 8+v 9+...=0


:
:

Il nous reste maintenant à résoudre le système matriciel suivant: Ax { ⃗v =B¿ , avec


−4 v1 v 2 v3 v4 v5 v6 v7 v8 v 9 v 10 v 11 v12 v 13 v 14 v15 v16 v 17 v 18 v 19 v20 v21
v 1 −4 v1 v3 v4 v5 v6 v7 v8 v 9 v 10 v 11 v12 v 13 v 14 v15 v16 v 17 v 18 v 19 v20 v21

[ ]
v1 v 2 −4v 1 v 4 v5 v6 v7 v8 v 9 v 10 v 11 v12 v 13 v 14 v15 v16 v 17 v 18 v 19 v20 v21
v1 v2 v3 −4 v 1 v 5 v6 v7 v v v v v v v v v v v v v v
v1 v2 v3 v 4 −4 v1 v 6 v7 v8 v 9 v 10 v 11 v12 v v v v v v v v v
v1 v2 v3 v v −4 v1 v v v v v v v v v v v v v v v
v1 v2 v v v v −4v 1 v v v v v v v v v v v v v v
v1 v2 −4 v 1
v1 v2 −4 v1
v1 v2 −4 v1
v v1 v2 −4v 1
v1 v2 −4 v 1
v1 v2 −4 v1
v1 v2 −4 v1
v1 v2 −4 v1
v1 v2 −4v 1
v1 v2 −4 v 1
v1 v2 −4 v1
v1 v2 −4 v1
v1 v2 −4v 1
v1 v2 −4 v 1

−4 1 1 0
1 −4 1 1 ;

( )
0 1 −4 1 1 :
¿¿ −100
A= ¿¿ 1 B=( : )
1 ¿¿ 0 −4 1 1 :
0 1 −100
: :
0 1 1 −4
−100
et

L’utilisation de la méthode de Jacobi ou Gauss-Seidel pourrait nous donner les solutions du


système. Toutefois, nous allons adapter la résolution directe comme le titre l’indique pour
résoudre ce système. voici le programme complet, expliqué, saisi en Matlab qui nous a
permis d’avoir la matrice U à partir des calculs des éléments du vecteur ⃗v .
*************************************************
clc;clear
h=2.5;
a=0;
b=20;
c=0; d=10;
nx=(b-a)/h;
ny=(d-c)/h;
n=(nx-1)*(ny-1);
%%% (remplissage des elements de la matrice A)
A=zeros(n);
for i=1:(n-1)
A(i,i)=-4;
A(i+1,i)=1;
A(i,i+1)=1;

if (mod(i,(nx-1))==0)
A(i+1,i)=0;
A(i,i+1)=0;
end
end
for i=1:n-nx+1
A(nx-1+i,i)=1;
A(i,nx-1+i)=1;
end
A(n,n)=-4;
%%% (remplissage des elements de la matrice B)
for i=1:n
B(i)=0;
if (mod(i,nx-1)==0)
B(i)=-100;
end
end
%%% (resolution du systeme Av=B et transformation du vecteur v en la matrice U).
C=inv(A)
V = C*B’;
k=1;
for j=1:ny-1
for i=1:nx-1
u(j,i)=V(k);
k=k+1;
end
end
%%% (d´ecallage des elements pour inserer les conditions aux limites)
for j=ny:-1:2
for i=nx:-1:2
u(j,i)=u((j-1),i-1);
end
end
for i=1:nx
for j=1:ny
u(1,i)=0;
u(j,1)=0;
u(ny+1,i)=0;
u(j,nx+1)=100;
end
end
u(1,nx+1)=0;
%%% les vecteurs x et y

x=0:h:b; y=0:h:d;
%%% (affichage la courbe en tenant compte des vecteurs x ,y et de la matrice U)
mesh(x,y,u)
**********************************************

Remarque 3. : Pour évaluer le système avec les autres valeurs de h, il suffit de remplacer 2.5
par les autres valeurs et compiler le programme, cela donnera la courbe correspondante
pour chaque valeur de h.
Voici en résumé, les courbes qu’on obtient en variant h:
Figure :

Malgré que cette méthode ait pu nous donner une solution approchée à l’EDP Δu=0 ,
2 2
∂ y ∂y
2 2
celle-ci est obtenue par une approximation des ∂ x et ∂ y par l’utilisation de la formule
2
de Taylor tronquée a l’ordre 2. Nous avons donc commis une erreur de l’ordre de h .
Non seulement cette erreur commise est considérable mais le calcul des éléments du vecteur
⃗v est de plus en plus couteux en mémoire. Par exemple pour h x=h y =h=1.25 , la
matrice A ∈ m . La résolution de ce système matriciel avec A une matrice carrée
nécessite une mémoire de 14000 bytes (octets) dans la machine. Or, pour affiner beaucoup
plus la solution numérique vers la solution analytique, nous devons faire tendre h vers zéro
pour qu’il soit très proche de la limite approximée par la méthode de Taylor. Ce qui
augmentera encore la nécessité de mémoire et qui risquera de planter la machine sinon nous
devons avoir des machines à mémoires gigantesques (qui ne sont pas à la portée de tout le
monde !).

 méthode de relaxation de Liebmann

Pour remédier le problème précédemment posé, Liebmann a pensé à la méthode itérative de


Gauss-Seidel puisque la matrice A est à diagonales dominantes, c’est à dire:

|Ai ,i ≻ ∑ |Ai , j||, ∀ 1≤i≤n


j=1 , j≠i

Méthode :

Le schéma numérique obtenu dans la partie 1 de ce projet nous donne:


ui−1 , j +u i, j−1−4 ui , j +u i+1 , j +ui , j+1=0
u +u +u +u =0
⇔ui , j = i−1 , j i , j−1 i+1 , j i, j+1
4
k +1 k+1 k+1 k +1
k +1
u i−1 , j
+u i, j−1
+u i+1 , j
+u i, j+1
=0
⇔ui , j =
4
Cette méthode est appelée méthode itérative de Liebmann. Une condition initiale est exigée,
comme pour toute autre méthode itérative, pour pouvoir commencer le processus.
Pour cette méthode, on a besoin de seulement 6000 bytes (octets) pour résoudre le système au
lieu de 14000 bytes pour la méthode directe, pour h=1.25 .
On peut aussi écrire:

k +1 k+1 k k
ui−1 , j +ui , j−1 +u i+ 1, j +ui, j+1
uk+1 k
i, j =ui, j + [ 4 ]
le terme entre crochets est appelé résidus connu comme un ajustement de la valeur
k k+1
précédente ui, j pour avoir la valeur ui, j .

Idée de relaxation :

Au lieu d’ajouter exactement le résidu, on ajoute un terme un peu plus grand en introduisant
un facteur de relaxation w compris entre 1 et 2 pour avoir la nouvelle relation :

k+1 k+1 k k
ui−1
uki,+1j =uki, j +wx [ ,j
+u i, j−1
+u
4
i+1 , j
+u i , j+ 1
]
w est appelé un optimum, et il est obtenu, dans les conditions de Dirichlet, par une estimation
plus raisonnable comme étant la plus petite valeur des solutions de l’équation :

π π
(cos +cos )2 w2 −16 w+16=0
nx ny

La résolution de cette équation du second degré nous donne:


4
w 0 pt =
π π

2+ 4−(cos +cos )2
nx ny

Nous reprenons ici le même exercice énoncé au début du projet et le résoudre en utilisant
cette nouvelle relation. voici, en Matlab, le programme à compiler avec h=0 .625 . Pour
avoir les autres courbes, il suffit de changer la valeur de h par les autres valeurs.

clear; clc;
a=0; b=20;
c=0; d=10;
h=0.625 ;
%%% les vecteurs ~ ox; ~ oy x=0:h:b; y=0:h:d;
nx=(b-a)/h; ny=(d-c)/h;
c=cos(pi/nx)+cos(pi/xy);
w=4/(2+sqrt(4-C*C));
u=zeros(ny+1,nx+1);
v=zeros(ny+1,nx+1);
for j=2:ny
u(j,nx+1)=100;
end
while (abs(norm(u-v) 1e-6))
v=u;
for j=2:nx
for i=2:ny
u(i,j)= u(i,j)+w/4*(u(i+1,j)+u(i-1,j)+u(i,j+1)+u(i,j-1)-4*u(i,j));
end
end
end
mesh(x,y,u)
*************************************************
Voici les courbes représentatives pour chaque valeur de h .

Conclusion
Nous remarquons que les deux méthodes convergent et tendent à former une vraie courbe
spatiale quand h tend vers zero. Ce qui est en commun accord avec les approximations car
si , h≺¿≺1 les approximations de Taylor sont presque égales aux dérivées partielles
respectives. Il faut donc tenir compte de la valeur de h et ne lui attribuer une valeur à son
gré. Il est aussi à noter qu’avec la méthode de relaxation le problème de mémoire qui a été un
fléau dans la méthode explicite est résolu puisqu’on est passé d’un besoin en mémoire de
14000 bytes pour la méthode directe à 6000 bytes pour la méthode de Liebmann avec
h=1.25 . Cette même méthode de relaxation de Liebmann converge vite que la méthode
directe, ceci se voit par comparaison simple des figures. Le choix de la méthode compte aussi
plus pour mieux mener la résolution numérique d’une
équation aux dérivées partielles.