Vous êtes sur la page 1sur 76

Université de M’SILA 28000 Algérie

Faculté : Technologie

Méthodes Numériques
Appliquées

Cours, TD , TP

Nouri_hamou
Introduction
• Cours d'analyse numérique: Qu'est-ce que c'est ?
9 Savoir transposer la connaissance mathématique pure à un ordinateur aux performances finies ;
9 Résoudre numériquement des problèmes dont la solution analytique est connue ou non ;
9 Analyser le comportement des méthodes ;

• Objectifs du cours :
Présenter et acquérir un ensemble de méthodes numériques permettant de résoudre des
problèmes impossibles par des approches analytiques.

• Définition générale :
On regroupe sous le terme générique de « méthodes numériques », toutes les techniques de
calcul qui permettent de résoudre de manière exacte ou, le plus souvent, de manière
approchée un problème donnée.

• Remarques :
9 Le concept de calcul est assez vaste et doit être pris au sens large. Il peut s’agir de déterminer
l’inconnue d’une équation, de calculer la valeur d’une fonction en un point ou sur un
intervalle, d’intégrer une fonction, d’inverser une matrice, etc.
9 Bien que la mise en équation d’un problème et sa résolution passent naturellement par les
Mathématiques, les problématiques sous-jacentes concernent des disciplines aussi variées que
la Physique, la Mécanique, le Génie -Electrique, l’´ Economie, etc.
9 Il existe ainsi une grande variété de problèmes possibles avec pour chacun d’eux, des
méthodes très spécifiques.
9 Une méthode numérique met en œuvre une certaine procédure, une suite d’opérations,
généralement en très grand nombre, que l’on transcrira ensuite dans un langage de
programmation.

• Pourquoi utiliser des méthodes numériques ?


9 Dans la nature, les systèmes et phénomènes physiques les plus intéressants sont aussi les plus
complexes à étudier. Ils sont souvent régis par un grand nombre de paramètres non-linéaires
interagissant entre eux (la météorologie, la turbulence des fluides, comportement des
matériaux, etc).
9 On ne sait généralement pas résoudre ces problèmes de façon analytique de part la trop grande
complexité physique, le trop grand nombre de paramètres à prendre en compte ou le nombre
d’opérations trop important à mener.

⇒ Il est indispensable pour les étudiants des sciences appliquées de posséder des notions de
base sur les méthodes numériques, afin de pouvoir éviter les pièges et remédier aux problèmes
les plus courants qui se posent lors de l’utilisation de modèles physiques. L’étude des
Méthodes Numériques a pour but de vous donner les connaissances de base nécessaires à la
compréhension et à l’utilisation des algorithmes les plus couramment utilisés dans les métiers
d’ingénieur.
Ce cours est une introduction aux méthodes d’analyse numérique très largement utilisées en
physique afin de résoudre les équations algébriques ou différentielles que l’on rencontre dans
la modélisation de phénomènes physiques, électriques ou mécaniques.
Ce domaine particulièrement vaste nécessite simultanément des connaissances
mathématiques, informatiques et physiques. De larges classes de problèmes numériques sont
abordées dans ces notes et montrent la nécessité de bien caractériser les propriétés
mathématiques du problème considéré afin de choisir la méthode numérique la mieux adaptée
pour le traitement numérique.

Nouri_hamou
Sommaire
I RÉSOLUTION DES SYSTÈMES LINÉAIRES

II CALCUL DE VALEURS ET DE VECTEURS PROPRES

III RÉSOLUTION DE SYSTÈMES NON-LINÉAIRES

IV RÉSOLUTION DE SYSTÈMES DIFFÉRENTIELS

V RÉSOLUTION DES EQUATIONS AUX DERIVEES PARTIELLES

Nouri_hamou
Chapitre I

RÉSOLUTION DES SYSTÈMES


LINÉAIRES
Chapitre I Résolution des systèmes d’équations linéaires

I.1 Introduction
On note Mn(IR), l’espace vectoriel des matrices carrées d’ordre n et à coefficients réels. Soit
A∈Mn(IR) et B∈IRn, on cherche le vecteur X∈IRn, solution du système linéaire AX = B. Ce
système admet une solution unique lorsque le déterminant de A est non nul, ce que nous
supposerons dans la suite.
Remarquons que la résolution de ce système à l’aide des formules de Cramer est impraticable
lorsque n est ‘grand’, car ces formules nécessitent approximativement ‘n !.n2’ opérations
arithmétiques élémentaires ; par exemple si n=15, cela représente de l’ordre de 4 mois de
calcul pour un ordinateur moyen effectuant opérations à la seconde. Ce temps de calcul
évolue de manière exponentielle avec n.

On sépare généralement les problèmes en deux classes suivant les caractéristiques de la


matrice A :
9 La matrice A est de taille réduite et est pleine. Par taille réduite, on comprend les
matrices d’ordre inférieur à 100, par matrice pleine, on signifie que A comporte peu
d’éléments nuls ;
9 La matrice A est éparse (creuse) et de grande taille. De grande taille nomme des
matrices d’ordres égaux à plusieurs centaines ou plusieurs milliers. La matrice éparse
possède peu d’éléments non nuls.
Il est à remarquer qu’il n’existe pas de règle définitive pour le choix entre les méthodes
directes et les méthodes itératives.
• Une méthode directe conduit à une solution en un nombre fini d’étapes, et sans
les erreurs arrondie.
• Une méthode itérative fait passer d’un estimé X(k) de la solution à un autre
estimé X(k+1) de cette solution. S’il ya convergence, la solution ne pourrait donc
être atteinte qu’après un nombre infini d’itérations.
Ce premier chapitre est consacré aux méthodes employées pour résoudre les problèmes les
plus fréquemment rencontrées pour les systèmes linéaires. Par définition, on peut écrire
celles-ci comme : A.X = b, où A est une matrice M×N :

⎡ a11 a12 .......... a1N ⎤ ⎡ b1 ⎤ ⎡ x1 ⎤


⎢a a 22 ............ a 2 N ⎥⎥ ⎢ b2 ⎥⎥ ⎢x ⎥
A= ⎢ 21
; b= ⎢ ; X =⎢ 2⎥
⎢ .... .... ... ...... ⎥ ⎢.....⎥ ⎢ .... ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎣a M 1 a M 2 ........... a MN ⎦ ⎣b N ⎦ ⎣ xM ⎦
Si N = M, il y autant d’équations que d’inconnues et si aucune des équations n’est une
combinaison linéaire des N-1 autres, la solution existe et est unique.

I.2 Méthodes directes


I.2.1 Méthodes de Cramer
La règle de Cramer (ou méthode de Cramer) est un théorème en algèbre linéaire qui donne la
solution d'un système d'équations linéaires en termes de déterminants. Elle est nommée
d'après Gabriel Cramer, mathématicien suisse (1704-1752). C’est la méthode la plus connue
de résolution des systèmes linéaires : A.X = b.
Le théorème affirme alors que :
det( Ak )
xk =
det( A)
où Ak est la matrice carrée formée en remplaçant la kème colonne de A par le vecteur colonne
b :

1
Chapitre I Résolution des systèmes d’équations linéaires

( ) ⎧a
Ak = a k i , j avec a k i , j = ⎨ i , j
si j ≠ k
⎩ bi si j = k

Par extension, un système de Cramer est un système qui répond à la condition que le
déterminant de la matrice A soit non nul.

Si le déterminant de A est nul :

• Le système admet une infinité de solutions si tous les déterminants des matrices Ak
sont nuls.
• Le système n'admet aucune solution si au moins un déterminant d'une matrice Ak est
non nul.

Exemple : résoudre :
⎧ 2 x + y − 3z = 5 ⎛ 2 1 − 3⎞
⎪ ⎜ ⎟
⎨3 x − 2 y + 2 z = 5 ⇒ A = ⎜ 3 − 2 2 ⎟ ⇒ det(A) = 26 ≠ 0
⎪ 5 x − 3 y − z = 16 ⎜ 5 − 3 − 1⎟
⎩ ⎝ ⎠
5 1 −3 2 5 −3 2 1 5
1 1 1
x= . 5 −2 2 =1 ; y = . 3 5 2 = −3 ; z = . 3 − 2 5 = −2
det( A) det( A) det( A)
16 − 3 − 1 5 16 − 1 5 − 3 16
⇒ S = {1;−3;−2}

I.2.2 Méthodes de Gauss


a) Théorème de Gauss :
Etant donnée une matrice carrée A quelconque, il existe des matrices inversibles S telles que
SA=A’ est une matrice triangulaire supérieure.

b) Description de la méthode
La méthode de Gauss se décompose en deux étapes :

1ère étape : élimination de Gauss : on forme le système triangulaire supérieur équivalent en


éliminant tous les termes situés sous la diagonale du système.

2ème étape : remontée : on résout le système triangulaire supérieur.

La méthode du pivot de Gauss est une méthode pour transformer un système en un autre
système équivalent (ayant les mêmes solutions) qui est triangulaire et est donc facile à
résoudre. Les opérations autorisées pour transformer ce système sont :

• échange de deux lignes.


• multiplication d'une ligne par un nombre non nul.
• addition d'un multiple d'une ligne à une autre ligne.

Prenons l'exemple suivant :

2
Chapitre I Résolution des systèmes d’équations linéaires

⎧ x + 2 y + 2z = 2 L1

⎨ x + 3 y − 2 z = −1 L2
⎪ 3x + 5 y + 8 z = 8 L3

On conserve la ligne L1, qui sert de pivot pour éliminer l'inconnue x des autres lignes; pour
cela, on retire L1 à L2, et 3 fois L1 à L3. On obtient :
⎧ x + 2 y + 2z = 2 L1

⎨ y − 4 z = −3 L2 ← L2 − L1
⎪− y + 2 z = 8 L3 ← L3 − 3L1

On conserve alors la ligne L2 qui sert de pivot pour éliminer y de la troisième ligne; pour cela,
on remplace la ligne L3 par L3-L2. On trouve :

⎧ x + 2 y + 2z = 2 L1
⎪ ⎧ 1⎫
⎨ y − 4 z = −3 L 2 ⇒ S = ⎨3;−1; ⎬
⎪− 2 z = −1 ⎩ 2⎭
⎩ L3 ← L3 + L2

Ce dernier système est facile à résoudre : la dernière ligne donne z, en reportant, la deuxième
ligne donne y, etc...

c) Algorithme de Gauss sans pivotation

1-Triangularisation : [A, b]→ [U, b’] :

w = aik / a kk ⎫
⎬ j = k + 1, n + 1} i = k + 1, n} k = 1, n − 1
aij = aij − w.a kj ⎭

2- Résolution du système résultant : [U, b’]

n
xi = (bi − ∑a
j =i +1
ij .x j ) / aii ; i = n,n-1,….,1

d) Algorithme de Gauss avec pivotation partielle implicite

1- Recherche du pivot :

p k = max[aik ] ; i = 1,…,n ; i ≠ l1 , l 2 ,....., l k −1 ; k = 1,…,n-1 ;

2- Triangularisation

a ik
aij = aij − .al j ;j = k,…,n+1 ; i ≠ l1 , l 2 ,....., l k ; k = 1,…,n-1 ;
pk k

3- Résolution de U.x = B

3
Chapitre I Résolution des systèmes d’équations linéaires

[
X n = aln ,n +1 / p n ]
⎡ n ⎤
xi = ⎢ali ,n +1 − ∑a li j .x j ⎥ / pi ; i = n-1,…,1
⎣ j =i +1 ⎦

Exemple

⎡1 3 3⎤ ⎡ x1 ⎤ ⎡ 0 ⎤
Résoudre le système : ⎢⎢2 2 0⎥⎥.⎢⎢ x 2 ⎥⎥ = ⎢⎢ 2 ⎥⎥
⎣⎢3 2 6⎦⎥ ⎢⎣ x3 ⎦⎥ ⎣⎢11⎦⎥

⎡1 3 3 0 ⎤ ⎡ 0 7 / 3 1 − 11 / 3 ⎤
La matrice augmentée est ⎢⎢ 2 2 0 2 ⎥⎥ ⇒ k = 1; p1 = a31 ; l1 = 3 ⇒ ⎢0 2 / 3 − 4 − 16 / 3⎥
⎢ ⎥
⎢⎣3 2 6 11⎥⎦ ⎢⎣ 3 2 6 11 ⎥⎦

⎡0 7 / 3 1 − 11 / 3 ⎤

⇒ k = 2; p 2 = a12 = 7 / 3; l 2 = 1 ⇒ ⎢ 0 0 − 30 / 7 − 30 / 7 ⎥⎥
⎢⎣3 2 6 11⎥⎦

⇒ … p3 = a 23 = −30 / 7; l 3 = 2

a 24 1
⇒ x3 = = 1 ; x2 = [a14 − a13 .x3 ] = −2 ; x1 = 1 [a34 − a32 .x2 − a33 .x3 ] = 3
p3 p2 p1

I.2.2 Méthodes de Jordan (Gauss-Jordan)

La méthode de Jordan consiste à transformer le système cramérien AX = b en un système :


A’X = b’, où A’ est la matrice identité d’ordre n. Cette diagonalisation est opérée en n étape
qui se composent d’une opération de normalisation suivie d’une opération de réduction.

a)Théorème de Jordan

Soit une matrice carrée A quelconque, il existe des matrices S telles que S.A=D, où D est une
matrice diagonale d’ordre n.

b) Algorithme de Jordan sans pivotation

1- Transformation [A, b] → [I, b’]

4
Chapitre I Résolution des systèmes d’équations linéaires

a kj( k ) = a kj( k −1) / a kk( k −1) } j = k + 1,...., n + 1

aij( k ) = aij( k −1) − aik( k −1) .a kj( k ) } j = k + 1,..., n + 1 }i ≠ k ; i = 1,..., n }k = 1,..., n

2- Solution du système résultant : xi = ai ,n +1 ; i = 1,2,..., n

Exemple

⎡1 3 3⎤ ⎡ x1 ⎤ ⎡ 0 ⎤
Résoudre le système : ⎢⎢2 2 0⎥⎥.⎢⎢ x 2 ⎥⎥ = ⎢⎢ 2 ⎥⎥
⎢⎣3 2 6⎥⎦ ⎢⎣ x3 ⎥⎦ ⎢⎣11⎥⎦

⎡1 3 3 0 ⎤ ⎡1 3 3 0⎤
k = 1 : Normalisation : ⎢⎢ 2 2 0 2 ⎥⎥ ⇒ k = 1 : Réduction : ⎢0 − 4 − 6 2⎥
⎢ ⎥
⎢⎣3 2 6 11⎥⎦ ⎢⎣0 − 7 − 3 11⎥⎦

⎡1 3 3 0 ⎤ ⎡1 0 − 3 / 2 3 / 2⎤
k = 2 : Normalisation : ⎢ 0 1 3 / 2 − 1 / 2 ⎥⎥ ⇒ k = 2 : Réduction :
⎢ ⎢ 0 1 3 / 2 − 1/ 2 ⎥
⎢ ⎥
⎣⎢0 − 7 3 11⎥⎦ ⎢⎣ 0 0 15 / 2 15 / 2 ⎦⎥

⎡ 1 0 − 3/ 2 3/ 2 ⎤ ⎡1 0 0 3⎤
k = 3 : Normalisation : ⎢⎢ 0 1 3 / 2 − 1 / 2 ⎥⎥ ⇒ k = 3 : Réduction : ⎢0 1 0 − 2 ⎥
⎢ ⎥
⎢⎣0 0 1 1⎥⎦ ⎢⎣ 0 0 1 1 ⎥⎦

La solution est xi = ai ,n +1 ⇒ xt = [3 -2 1].

c) Algorithme de Jordan avec pivotation totale implicite

¾ Choix du pivot

p k = alk ck où alk ck = max aij ; i = 1,2,….,n ; i ≠ l1, l2, ……,lk-1 ; k = 1,2,….,n ;

j = 1,2,….,n ; j ≠ c1, c2, ……,ck-1 ;

¾ Normalisation

a lk j = a lk j / p k ; j = 1,2,….,n +1;

¾ Réduction

w = aick

5
Chapitre I Résolution des systèmes d’équations linéaires

aij = aij − w.alk j ; j = 1,n+1; i= 1,n; i ≠ lk;

¾ Remise en ordre

xck = alk ,n +1 ; k = 1,2,….,n.

d) Inversion de la matrice par la méthode de Jordan

Transformation (A,I) → (I, A(-1))

a kj
a kj = ; i = 1,2,….,n ; j = 2n,….,k; k = 1,n ; i ≠ k.
a kk

Exemple

⎡1 3 3⎤
Calculer l’inverse de A = ⎢⎢2 2 0⎥⎥.
⎢⎣3 2 6⎥⎦

⎡1 3 3 1 0 0 ⎤ ⎡1 3 3 1 0 0 ⎤
N1 → ⎢⎢2 2 0 0 1 0⎥⎥ ⇒ R1 → ⎢0 − 4 − 6 − 2 1 0 ⎥
⎢ ⎥
⎢⎣3 2 6 0 0 1⎥⎦ ⎢⎣0 − 7 − 3 − 3 0 1⎥⎦

⎡1 3 3 1 0 0 ⎤ ⎡1 0 − 3 / 2 − 1 / 2 3 / 4 0 ⎤
N2 → ⎢0 1 3 / 2 1 / 2 − 1 / 4 0⎥⎥ ⇒ R2 →
⎢ ⎢0 1 3 / 2 1 / 2 − 1 / 4 0 ⎥
⎢ ⎥
⎢⎣0 − 7 − 3 − 3 0 1 ⎥⎦ ⎢⎣0 0 15 / 2 1 / 2 − 7 / 4 1 ⎥⎦

⎡1 0 − 3 / 2 − 1 / 2 3 / 4 0 ⎤ ⎡1 0 0 − 2 / 5 2 / 5 1/ 5 ⎤
N3 → ⎢⎢0 1 3 / 2 1 / 2 − 1 / 4 0 ⎥⎥ ⇒ R3 → ⎢0 1 0 2 / 5 1 / 10 − 1 / 5 ⎥
⎢ ⎥
⎢⎣0 0 1 1 / 15 − 7 / 30 2 / 15⎥⎦ ⎢⎣0 0 1 1 / 15 − 7 / 30 2 / 15⎥⎦

⎡ ⎤
⎢− 2 2 1⎥
1⎢ 1 ⎥
⇒ A−1 = ⎢ 2 − 1⎥
5⎢ 2 ⎥
⎢ 1 7 2⎥
_
⎢⎣ 3 6 3 ⎥⎦

6
Chapitre I Résolution des systèmes d’équations linéaires

I.2.3 Méthodes par factorisation LU de Doolittle et Crout

Nous allons maintenant montrer que la méthode de Gauss dans sa forme sans échange est
équivalente à la décomposition de la matrice A sous la forme d'un produit de deux matrices :
A = LU
Avec L une matrice triangulaire inférieure, qui est l'inverse de la matrice M des
transformations successives appliquées à la matrice A lors de l'élimination de Gauss sans
échange, et U une matrice triangulaire supérieure, avec U = A(n).
Commençons par donner des conditions suffisantes assurant qu’il n’y aura pas d’échange de
lignes durant l’élimination de Gauss, ce qui conduira bien à une telle factorisation pour la
matrice A. On va à cette occasion aussi établir que cette décomposition est unique si l’on
impose la valeur 1 aux éléments diagonaux de L.

Théorème
Soit A une matrice d’ordre n. La factorisation LU de A, avec lii = 1 pour i = 1; … ; n, existe
et est unique si toutes les sous-matrices principales :
⎡ a11 a12 .......... a1k ⎤
⎢a a22 ............ a2 k ⎥⎥ ; 1 ≤ k ≤ n
Ak = ⎢ 21
⎢ .... .... ... ......⎥
⎢ ⎥
⎣ak1 ak 2 ........... akk ⎦
extraites de A sont inversibles.

La factorisation LU est particulièrement avantageuse lorsque l’on doit résoudre plusieurs


systèmes linéaires ayant tous A pour matrice, mais des seconds membres différents. En effet,
il suffit de conserver les matrices L et U obtenues à l'issue de la factorisation pour ramener
ensuite la résolution de chaque système linéaire Ax = b à celle de deux systèmes triangulaires,
Ly = b; puis Ux = y.

Algorithme de factorisation de Doolittle (Forme 1)

lii = 1 ; i = 1, ….., n ;

r −1
urj = arj − ∑ lrk .ukj ; j = r, ….., n ; r = 1, ….., n ;
k =1

⎡ r −1

lir = ⎢air − ∑ lik .ukr ⎥ / urr ; i = r+1, ….., n ;
⎣ k =1 ⎦

Algorithme de factorisation LU (Forme 2)


pour k = 1 à n - 1 faire
pour i = k + 1 à n faire
aik = aik/akk
fin pour
pour j = k + 1 à n faire
pour i = k + 1 à n faire
aij = aij / aik akj
fin pour
fin pour
fin pour

7
Chapitre I Résolution des systèmes d’équations linéaires

Exemple d’application :
⎛1 4 7 ⎞
⎜ ⎟
Considérons la matrice A = ⎜ 2 5 8 ⎟
⎜ 3 6 10 ⎟
⎝ ⎠
En appliquant de l’algorithme de factorisation, on arrive à :
⎛1 0 0⎞ ⎛1 4 7 ⎞
⎜ ⎟⎜ ⎟
A = LU = ⎜ 2 1 0 ⎟.⎜ 0 − 3 − 6 ⎟
⎜3 2 1⎟ ⎜0 0 1 ⎟⎠
⎝ ⎠⎝
⎛ 1⎞ ⎛1⎞ ⎛ − 1⎞
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
Si b = ⎜1⎟ , la solution de Ly = b est y = ⎜ 1 ⎟ et celle de Ux = y est x = 1
3⎜
1 ⎟.
⎜ 1⎟ ⎜0⎟ ⎜0⎟
⎝ ⎠ ⎝ ⎠ ⎝ ⎠
Les différentes étapes de la triangularisation peuvent s’´ecrire sous forme matricielle. Si on
pose A = A(1) , la matrice A( 2) du second système est obtenue en multipliant à gauche A(1) par :
⎛ ⎞
⎜ ⎟ ⎛ a11 a12 a13 ⎞
⎜ 1 0 0⎟ ⎜ ⎟
⎜ a ⎟ A ( 2)
=M A =⎜ 0
(1) (1)
a( 2)
22
( 2)
a23 ⎟
M (1) = ⎜ − 21 1 0⎟
⎜ 0 ( 2) ( 2) ⎟
⎜ a11 ⎟ ⎝ a32 a33 ⎠
⎜ − a31 0 1 ⎟⎟
⎜ a
⎝ 11 ⎠
De même la matrice A( 2) du troisième système vérifie A( 3) = M ( 2) A( 2 ) :
⎛ ⎞
⎜1 0 0⎟ ⎛ a11 a12 a13 ⎞
⎜ ⎟ ⎜ ⎟
M ( 2) = ⎜ 0 1 0⎟ A( 3) = M ( 2) A( 2) = ⎜ 0 a22( 2) ( 2)
a23 ⎟
( 2)
⎜ a32 ⎟ ⎜ 0 ( 3) ⎟
0 a33 ⎠
⎜ 0 − a ( 2) 1 ⎟ ⎝
⎝ 22 ⎠
( )
−1
(
Ainsi A(1) = M ( 2 ) M (1) A( 3) = M (1) M ( 2 ) A( 3) )(
−1
)−1

Les matrices M (1) et M ( 2 ) sont inversibles car leurs déterminants sont tous égaux à 1 et leurs
inverses sont faciles à calculer. En effet, on peut vérifier qu’on les obtient en transformant en
leur opposé les termes figurant sous la diagonale, les autres termes restant inchangés. On
trouve alors :
⎛ ⎞
⎜ ⎟
⎜ 1 0 0⎟
⎜a ⎟
L= M( ) (M )
(1) −1 ( 2 ) −1
= ⎜ 21 1 0⎟
⎜ a11 ⎟
⎜ a31 ( 2)
a32 ⎟
⎜a ( 2)
1⎟
⎝ 11 a22 ⎠
Si on pose U = A(3) , qui est triangulaire supérieure, A peut alors s’´ecrire comme le produit
des deux matrices L et U:
A = L.U
Finalement, on obtient la solution X du système initial AX = B en résolvant successivement
les deux systèmes suivants :
⎧ LY = B

⎩UX = Y

8
Chapitre I Résolution des systèmes d’équations linéaires

Exercice:
Soit le système linéaire suivant :
⎧ 3 x1 − 2 x2 + x3 = 2

⎨ 2 x1 + x2 + x3 = 7
⎪4 x − 3 x + 2 x = 4
⎩ 1 2 3

a) Résoudre ce système par la méthode de Gauss.


b) Factoriser la matrice A du système en produit LU où L est une matrice triangulaire
inférieure (avec des 1 sur la diagonale principale) et U triangulaire supérieure, puis résoudre
ce système.

I.2.4 Factorisation LDMT


Cette méthode considère une décomposition sous la forme d’un produit d'une matrice
triangulaire inférieure, d’une matrice diagonale et d’une matrice triangulaire supérieure. Une
fois obtenue la factorisation de la matrice A (d’un coût identique à celui de la factorisation
LU), la résolution du système linéaire fait intervenir la résolution d’un système triangulaire
inférieur (par une méthode de descente), puis celle (triviale) d’un système diagonal et enfin la
résolution d’un système triangulaire supérieur (par une méthode de remontée), ce qui
représente un coût de n2 + n opérations.

Proposition
Sous les conditions du théorème, il existe une unique matrice triangulaire inférieure L, une
unique matrice diagonale D et une unique matrice triangulaire supérieure MT, les éléments
diagonaux de L et M étant tous égaux à 1, telles que :
A = LDM T
Î Si une matrice admet une factorisation LU, elle admet aussi une factorisation LDM où D
est une matrice diagonale et M une matrice unitaire triangulaire supérieure :
A = LU = L( DD −1 )U = LD ( D −1U ) ; Dii = Uii ; M = D −1U .

Algorithme

Exemple
⎛ 10 10 20 ⎞ ⎛ 1 0 0 ⎞⎛10 0 0 ⎞⎛ 1 1 2 ⎞
⎜ ⎟ ⎜ ⎟⎜ ⎟⎜ ⎟
A = ⎜ 20 25 40 ⎟ = ⎜ 2 1 0 ⎟⎜ 0 5 0 ⎟⎜ 0 1 0 ⎟ = LDM
⎜ 30 50 61 ⎟ ⎜ 3 4 1 ⎟⎜ 0 0 1 ⎟⎜ 0 0 1 ⎟
⎝ ⎠ ⎝ ⎠⎝ ⎠⎝ ⎠

9
Chapitre I Résolution des systèmes d’équations linéaires

⎛ D (1,1) ⎞ ⎛ 10 ⎞ ⎧ D (1,1) = 1
⎜ ⎟ ⎜ ⎟ ⎪
 v = D (1,1) ⇒ ⎜ D (1,1) L(2,1) ⎟ = ⎜ 20 ⎟ ⇒ ⎨ L(2,1) = 2
⎜ D (1,1) L(3,1) ⎟ ⎜ 30 ⎟ ⎪ L(3,1) = 3
⎝ ⎠ ⎝ ⎠ ⎩
⎛1 0 ⎞ ⎛ 10 ⎞ ⎛10 ⎞ ⎛ M (1,2) D(1,1) ⎞ ⎧ M (1,2) = 1
 ⎜⎜ ⎟⎟v = ⎜⎜ ⎟⎟ ⇒ v = ⎜⎜ ⎟⎟ = ⎜⎜ ⎟⎟ ⇒ ⎨
⎝2 1 ⎠ ⎝ 25 ⎠ ⎝ 5 ⎠ ⎝ D(2,2) ⎠ ⎩ D(2,2) = 2
⎛1 0 0 ⎞ ⎛ 20 ⎞ ⎛ 20 ⎞ ⎧ M (1,3) = 2
⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎪
 ⎜2 1 0 ⎟v = ⎜ 40 ⎟ ⇒ v = ⎜ 0 ⎟ ⇒ ⎨M (2,3) = 0
⎜3 4 1 ⎟⎠ ⎜⎝ 61 ⎟⎠ ⎜ 1 ⎟ ⎪ D (3,3) = 1
⎝ ⎝ ⎠ ⎩

1.2.5 Factorisation de Cholesky


Une matrice symétrique définie positive vérifie les conditions de la proposition et admet par
conséquent une factorisation LDLT, dont la matrice diagonale D est de plus à termes
strictement positifs. Cette observation conduit à une factorisation ne faisant intervenir qu’une
seule matrice triangulaire inférieure, appelée factorisation de Cholesky. Plus précisément, on
a le résultat suivant (Théo.):
Théorème 1
Soit A une matrice symétrique définie positive d’ordre n. Alors, il existe une unique matrice
triangulaire inférieure B dont les éléments diagonaux sont strictement positifs telle que :
A = BBT
Matrice définie positive
Une matrice A est dite définie positive si :
9 elle est symétrique
9 et si ∀X ≠ 0 , X T AX > 0 .

Exemple:
⎛ 2 −1 0 ⎞
⎜ ⎟
La matrice A = ⎜ − 1 2 − 1⎟ est définie positive.
⎜ 0 −1 2 ⎟
⎝ ⎠

Théorème 2
Si A est définie positive et si A = LDLT alors tous les Dii > 0.

Théorème 3 (factorisation de Cholesky)


Si A est définie positive alors il existe une unique matrice triangulaire inférieure G telle que :
A = GGT

10
Chapitre I Résolution des systèmes d’équations linéaires

Algorithme :

⎛1 2 3 ⎞
⎜ ⎟
Exercice : Appliquer la méthode de Cholesky pour la matrice A = ⎜ 2 5 10 ⎟
⎜ 3 10 26 ⎟
⎝ ⎠
1.2.6 Factorisation QR
Le principe de cette méthode n’est plus d’écrire la matrice A comme le produit de deux
matrices triangulaires, mais comme le produit d’une matrice orthogonale (unitaire dans le cas
complexe) Q, qu’il est facile d’inverser puisque Q-1 = QT, et d’une matrice triangulaire
supérieure R. Pour résoudre le système linéaire, on effectue donc tout d’abord la factorisation
de la matrice A, on procède ensuite au calcul du second membre du système Rx = QTb, qui est
enfin résolu par une méthode de remontée.

Théorème
Soit A une matrice réelle d’ordre n inversible. Alors il existe une matrice orthogonale Q et
une matrice triangulaire supérieure R, dont les éléments diagonaux sont positifs, telles que :
A = QR
Cette factorisation est unique.

1.3 Méthode itératives


On cherche à résoudre une équation de la forme : A.x = b

Les méthodes directes fournissent la solution x en un nombre fini d’opérations.

Mais :

Si la taille du système est élevée, le nombre d’opérations est important, or les erreurs
de calcul dépendent directement du nombre de calculs.
Elles utilisent des propriétés mathématiques nécessitant un calcul exact, il est difficile
de tenir compte des erreurs de calcul dans ce processus.

Donc le résultat n’est jamais rigoureusement égal à x . Il peut même en être très différent. De
manière générale avec les techniques itératives, il faut se poser des questions telles que :
• quelles sont les conditions d’emploi de ces techniques afin d’assurer la convergence vers
la solution cherchée ?
• quel critère d’arrêt des itérations employer ?
• quels sont les coûts de ces méthodes ?

11
Chapitre I Résolution des systèmes d’équations linéaires

Procédure :

On construit une suite de vecteurs (xk), k = 0, 1, ... qui tend vers x .

Le point de départ est une approximation x0 de x obtenue par exemple par une méthode
directe. Pour construire cette suite, on utilise la linéarité pour décomposer la matrice A en une
partie facilement inversible et un reste.

On décompose la matrice A : A = M − N, de telle façon que M soit facilement


inversible. Alors :
Ax = b ⇔ Mx = Nx + b

On calcule la suite de vecteurs (xi) à partir d’un vecteur x0 choisi arbitrairement et de


la relation :
Mxk+1 = Nxk + b ⇔ xk+1 = M−1Nxk +M−1b

C’est à dire :
⎧ x 0 donné
⎨ k +1 −1 −1
⎩x = M .N .x + M .b
K

Posons C = M−1N, et d = M−1b. Nous devons donc étudier la suite récurrente :

⎧ x 0 donné
⎨ k +1
⎩ x = C.x + d
K

Avec :
• x est point fixe de la fonction linéaire x → Cx + d
• cette fonction est C∞
• il faut démontrer que c’est une fonction contractante.

Question :
 Sous quelles conditions la suite va-t-elle converger ?
 Cela dépend-il de C ou d ?

Théorème1
∀C ∈ Mn(C), s’il existe une norme matricielle induite . telle que C < 1 alors :
1. L’équation x = Cx + d admet une solution unique x .
2. La suite xk → x quelle que soit x0.

Existence de la solution : ρ (C ) ≤ C < 1


⇒ Donc les valeurs propres λ de C sont telles que C < 1 .
⇒ Cela signifie que la matrice I − C est inversible
⇒ Donc il existe une solution unique à l’équation : x = Cx + d
⇒ On appel x cette solution.

Convergence : Soit e k = x k − x
On peut déduire une relation entre ek et ek−1 :

12
Chapitre I Résolution des systèmes d’équations linéaires

Ce k −1 = C ( x k −1 − x) = C ( x k −1 ) − C ( x) = C ( x k −1 ) + d − x
⇒ e k = Ce k −1 pour k = 1, 2, . . .
⇒ e k = C k e0

Soit la norme matricielle induite . et sa norme vectorielle . v telle C < 1 :


k
ek ≤ C e0
v v
k k
Donc e → 0 et x → x

Connaissant C, comment savoir si la suite va converger ?

Cas général :
Théorème2
Il y a équivalence entre les propositions suivantes :
9 C est une matrice convergente ( i.e. Ck tend vers 0)
9 ρ(C) < 1
9 Il existe une norme matricielle induite telle que C < 1

Théorème 3 :
Soit A une matrice symétrique définie positive, si :
A=M−N
et si M +t N est définie positive (elle est forcement symétrique) alors la suite :
x k +1 = M −1.N .x K + d est convergente
Question : Comment choisir M et N ?

1.3.1 Normes et rayon spectral:

1.3.1.1 Norme vectorielle :


x a x , R n → R+ vérifiant :
- x ≥ 0 et x = 0 ⇔ x = 0
- α .x = α . x
- x+ y ≤ x + y

Exemple de norme vectorielle :


- Norme 1 : X 1 = ∑ xi
i

∑x
2
- Norme 2 : X 2
= i = X,X
i

- Norme ∞ : X ∞
= Sup xi
i

Proposition: En dimension finie, toutes ces normes sont équivalentes ; en pratique, on choisit
celle qui nous arrange.

13
Chapitre I Résolution des systèmes d’équations linéaires

Définition de norme matricielle :


C’est une norme dans l’espace vectorielle Mn(R), avec en plus A × B ≤ A . B .

Norme matricielle induite :


A partir d’une norme vectorielle, on construit une norme matricielle induite:
⎛ AX ⎞
A = Sup⎜⎜ ⎟ = Sup ( AX ) .
X ⎟ X =1 ou X ≤1
X ≠0
⎝ ⎠
Notons de plus que I = 1 .
En particulier pour la norme 2, on a la relation : I 2
( )
= ρ A t A avec ρ le rayon spectral.

Propriétés :
- AX ≤ A . X et AB ≤ A . B
- Cas de A symétrique : A 2
= ρ ( A) = max λi
i

- Dans le cas général, A 2


= μ max , maximum des valeurs singulières μ i = λi avec λi les
valeurs propres (positives) de la matrice symétrique A t A . (?)
- Soit A une matrice carré quelconque n x n. Pour toutes normes de matrice induite, on a
ρ ( A) ≤ A .

1.3.1.1Conditionnement d’une matrice inversible


Considérons un système linéaire AX = b. L’expérience de Wilson met en évidence une
instabilité des calculs dans certains cas. Si l’on modifie sensiblement les paramètres de la
matrice A, ou du second membre b, on peut trouver des résultats complètement différents !
- Cond ( A) = A . A −1
- Cond (αA) = Cond ( A)
- Cond ( A) ≥ 1 avec Cond (Id ) = 1
- Soit une matrice Q orthogonale : QX 2
= X 2
et Cond (Q ) = 1
- Les bons conditionnements sont les petits conditionnements (au mieux 1 pour les matrices
orthogonales).
λ max μ
- Pour A symétrique : Cond 2 ( A) = ; dans la cas général : Cond 2 ( A) = max
λ min μ min
Théorème1:
ΔX Δb
AX = B et A( X + ΔX ) = b + Δb . On a ≤ Cond ( A)
X b
.
Théorème2 :
ΔX ΔA
AX = B et ( A + ΔA)( X + ΔX ) = b . On a ≤ Cond ( A) .
X + ΔX A
Remarque : Le conditionnement traduit l'amplification des grandeurs relatives.

14
Chapitre I Résolution des systèmes d’équations linéaires

1.3.1 Méthode de Jacobi


Pour les systèmes linéaires, cette méthode illustre bien les techniques de point fixe : si on
suppose connues toutes les inconnues sauf l’inconnue i, cette dernière peut être déterminée à
l’aide de l’équation i. Procédant ainsi sur toutes les inconnues, on obtient un nouvel itéré xk à
partir de l’ancien xk−1. Cependant, comme la méthode de Gauss-Seidel, elle peut présenter un
intérêt dans le cas de systèmes non-linéaires. Sous forme matricielle, cela se traduit par :
xk = (I−D−1A)xk−1 +D−1b

où D est la matrice diagonale, contenant la diagonale de A. La matrice d’itération est donc ici
B = I−D−1A. On peut noter l’utilisation d’un vecteur de stockage x supplémentaire.

Algorithme :
Vecteur de départ x(0)
Tant que R > ε
itération sur k
boucle sur i = 1,n
xi ← Ai ,1:i −1 x1k:i−−11 + Ai ,i +1:n xik+−11:n
xi ← (bi − xi ) / Ai ,i
fin
x(k) ← x
Fin
Convergence :
Si A est symétrique, définie positive, alors : ρ J = ρ ( B) < 1

1.3.2 Méthode de Gauss-Seidel


L’idée est similaire à celle de la méthode de Jacobi, à ceci près que l’on utilise les nouvelles
valeurs estimées dès qu’elles sont disponibles, et non pas à la fin de l’itération. Sous forme
matricielle, cela se traduit par:
x k = ( D − E ) −1 ( Fx k −1 + b)
où ‘−E’ est la partie triangulaire inférieure de A, et ‘−F’ sa partie triangulaire supérieure. La
matrice d’itération est ici :
B = ( D − E ) −1 F = ( I − D −1E ) −1 D −1F
Algorithme :
Vecteur de départ x(0)
Tant que R > ε
itération sur k
boucle sur i = 1,2,…..,n
k −1
xi ← 0
β ← Ai ,1:n x ( k −1)
xik ← (bi − β ) / Ai ,i
fin
Fin

Convergence :

15
Chapitre I Résolution des systèmes d’équations linéaires

Quand A est symétrique, définie positive, on est assuré de la convergence puisque ρGS < 1.
Mais l’estimation de la valeur du rayon spectral est difficile car il dépend en particulier de la
numérotation des degrés de liberté employée.

1.3.3 Méthode de relaxation


Cette technique, SOR pour successive over relaxation, est attribuée à Southwell et date de
1946. Elle utilise comme base la méthode de Gauss-Seidel ainsi qu’une technique maintenant
souvent utilisée avec d’autres approches : la technique de relaxation.
Le principe consiste à modifier (par relaxation) l’itéré xk fourni par l’algorithme de Gauss-
Seidel à chaque itération. Pour cela, il faut conserver l’itéré précédent xk−1 et modifier l’itéré
courant comme suit :
x k ← ω.x k + (1 − ω ) x k −1
où ω est appelé le paramètre de relaxation. Si ω < 1, on parle de sous-relaxation, et si ω> 1,
de sur-relaxation. On peut montrer que la matrice d’itération correspondante est :
B = ( I − ωD −1E ) −1[(1 − ω ) I + ωD −1F ]

Algorithme :
Vecteur de départ x(0)
Tant que R > ε
itération sur k
boucle sur i = 1,2,…..,n
α ← xi( k −1)
xi( k −1) ← 0
β ← Ai ,1:n x1(:kn−1)
xi(k ) ← (1 − ω )α + ωβ
fin
Fin

Convergence :
Concernant la convergence, le théorème de Kahan donne une condition nécessaire : 0 < ω < 2.
Si ω = 0, l’algorithme ne progresse plus. Le théorème d’Ostrowski-Reich permet de conclure
à la convergence ∀ω∈]0,2[ quand A est symétrique, définie positive.

1.3.4 Méthode de d’Uzawa


Dans certains cas de figures comme les problèmes de point selle ou les liaisons traitées par
multiplicateur de Lagrange par exemple, on peut être amené à résoudre des problèmes de la
forme :
⎡ k C ⎤ ⎡ x⎤ ⎡ f ⎤
⎢C T 0 ⎥.⎢0⎥ = ⎢ g ⎥
⎣ ⎦⎣ ⎦ ⎣ ⎦

Pour que le problème continue d’être inversible, il suffit que C soit injective. La méthode
d’Uzawa développée en 1958 consiste à résoudre itérativement de façon découplée, comme le
montre l’algorithme où α est un paramètre de la méthode. Pour analyser cet algorithme, on
peut condenser la variable x(k) sur la variable I(k) pour trouver:
I ( k ) = ( I − α .C T K −1C ) I ( k −1) + α .C T K −1 f − g

16
Chapitre I Résolution des systèmes d’équations linéaires

Si on appelle λ1, . . . ,λp, les valeurs propres de la matrice C T K −1C , on en déduit l’équivalence
suivante :
ρ ( B) < 1 ⇔ ∀i, 1 − αλi < 1
2
Avec C T K −1C symétrique, définie positive, λi > 0 donc il faut prendre: 0 < α < .
max λi

1.3.5 Exercice

Résoudre les systèmes d’équations suivants par les trois méthodes itératives ( ε = 10−3 ):

⎧ 4 x1 + 0,24 x2 − 0,08 x3 = 8

⎨ 0,09 x1 + 3 x2 − 0,15 x3 = 9
⎪0,04 x − 0,08 x + 4 x = 20
⎩ 1 2 3

⎧ 3x + y − z = 1

⎨ x + 2y =1
⎪− X + y + 4 z = 1

I.3 Conclusion
Avant de résoudre des systèmes linéaires de grande dimension, il est impératif de commencer
par une analyse des propriétés de la matrice afin de déterminer la méthode la plus adaptée afin
d’obtenir une solution avec une précision correcte et pour un temps de calcul qui sera
minimal. Les différentes méthodes présentées dans ce chapitre ne sont qu’une introduction à
ce très vaste sujet.

17
Chapitre II

CALCUL DE VALEURS ET DE
VECTEURS PROPRES
Chapitre 2 Valeurs et vecteurs propres : Analyse spectrale

I.2 Introduction
Ce chapitre est consacré aux opérations que l’on peut réaliser sur des matrices. Plus
spécifiquement, nous allons nous intéresser à la détermination des valeurs propres et/ou
vecteurs propres correspondants. Tout d’abord, quelques rappels utiles pour la suite de ce
chapitre : soit une matrice carrée A de dimension N, on appelle un vecteur propre x associé à
la valeur propre λ, un vecteur qui satisfait la relation :
Ax = λx
Si x est un vecteur propre, pour tout réel α ≠ 0, x est aussi un vecteur propre avec la même
valeur propre λ. Les valeurs propres d’une matrice peuvent être déterminées comme les
racines du polynôme caractéristique de degré N :
det( A − λI ) = 0
où I désigne la matrice identité.
Compte tenu du fait que dans C, tout polynôme de degré N a N racines, la matrice A possède
N valeurs propres complexes.
Quand une racine du polynôme caractéristique est multiple, on dit que la valeur propre est
dégénérée, et la dimension de l’espace associé à cette valeur propre est supérieure ou égale à
deux.
La détermination des valeurs propres d’une matrice à partir de l’équation caractéristique n’est
pas efficace sur le plan numérique. Des méthodes plus adaptées sont exposées dans la suite de
ce chapitre.

2.2 Définitions
• Si une matrice possède une valeur propre nulle, la matrice est dite singulière.
• Une matrice est hermitienne ou auto-adjointe si elle est égale au complexe conjugué de sa
transposée.
• Une matrice est orthogonale si son inverse est égale à sa transposée.
• Un scalaire est une valeur propre de A si et seulement s’il existe x ≠ 0 : Ax = λx .
• Soit A une matrice N × N . Alors C (λ ) = det(λE − A) est appelé le polynôme
caractéristique de A.
• Soit A une matrice N × N . A est diagonalisable si et seulement s’il existe une matrice
inversible P telle que P-1AP soit une matrice diagonale.

2.3 Théorèmes
Soit {x1 ,..., xn } un ensemble de vecteurs propres de A et supposons que les valeurs
propres correspondantes {λ1 ,..., λn } soient distinctes. Alors {x1 ,..., xn }sont indépendants.

Soit A une matrice symétrique. Alors il existe une matrice orthogonale qui diagonalise
A.

Soient f un endomorphisme d’un K espace vectoriel E de dimension n finie et A sa


matrice par rapport à une base (ei) de E. Alors son polynôme caractéristique vérifie les
relations :
Pf ( f ) = Pf ( A)
Soit A diagonalisable dont la valeur propre λ1 (de plus grand module) est unique. Soit
q0 un vecteur non orthogonal au sous-espace propre à gauche1 associé à λ, tel que

18
Chapitre 2 Valeurs et vecteurs propres : Analyse spectrale

k
x ⎛ λ1 ⎞
q0 = 1 . On suppose xn +1 = Aqn , qn +1 = n +1 . Alors, on a : ⎜ ⎟ qk → u1 le vecteur propre
xn +1 ⎜λ ⎟
⎝ 1⎠
xk +1 ( j )
associé à λ1 et → λ1 pour tout j tel que qk ( j ) ≠ 0 .
qk ( j )
Si A est diagonalisable en D = P −1 AP avec P la matrice de passage. Pour tout δA , pour
toute valeur propre λ de A + δA , il existe une valeur propre λ' de A telle que
λ − λ ≤ Cond (P ) δA . Le meilleur cas possible est A symétrique, la matrice de passage
est orthogonale et son conditionnement égale à 1.

Corollaire
Soit A une matrice carrée d’ordre n dont polynôme caractéristique admet u racines
λi multiples d’ordre hi telles que dim Ei = hi ; Ei désigne le sous espace associé à λi avec
h1 + h2 + ....... + hu = n . Alors A est diagonalisable.

2.3 Exercices :

1- Trouver les valeurs propres et les vecteurs propres de la matrice :


⎡ 7 −2 0 ⎤
⎢ − 2 6 − 2⎥
⎢ ⎥
⎢⎣ 0 − 2 5 ⎥⎦

2- a) Trouver les valeurs propres et les vecteurs propres de la matrice :


⎡1 1⎤
⎢8 3⎥
⎣ ⎦
b) Calculer le rayon spectral de cette matrice.

3- Soit l’application f(x,y,z) = ( x + y – z , - x + y – z , - 2x + 2y )


a) Calculer la matrice A associe à f ;
b) Calculer le polynôme caractéristique ;
c) Calculer les valeurs propres ;
d) Calculer les vecteurs propres ;
e) Est – ce – que A est diagonalisable ?
f) Déterminer le rayon spectral ρ ( A) .
g) Déterminer le rang de la matrice A.
h) Calculer : A1 ; A 2 ; A∞.
i) quel est le conditionnement de la matrice A ?

⎛5/3 3 1⎞
⎜ ⎟
4- Soit la matrice A = ⎜ 3 −1 4⎟
⎜ 2 / 5 − 2 2⎟
⎝ ⎠
Monter qu’elle n’est pas diagonalisable.

19
Chapitre 2 Valeurs et vecteurs propres : Analyse spectrale

⎛2 −1 1⎞
⎜ ⎟
5- Réduire la matrice B = ⎜ 1 0 1 ⎟ .
⎜ 1 −1 2⎟
⎝ ⎠
⎛5 2 4⎞
⎜ ⎟
6- Soit la matrice A = ⎜ 3 − 2 1 ⎟
⎜ 2 3 − 1⎟
⎝ ⎠
Calculer l’inverse de A par le théorème de Cayley Hamilton.

7- Un automorphisme f : ℜ3 → ℜ3 , admet dans une base (ei), la matrice :


⎛ 2 5 3⎞
⎜ ⎟
A = ⎜0 − 2 1⎟
⎜ 1 0 4⎟
⎝ ⎠
Calculer son automorphisme réciproque à l’aide du théorème de Cayley – Hamilton.

20
Chapitre III

RÉSOLUTION DE SYSTÈMES
NON-LINÉAIRES
Chapitre 3 Résolution des équations non linéaires

3.1 Introduction
Dans la pratique, la plupart des problèmes se ramènent à la résolution d’une équation de la
forme : f (α ) = 0 .
La résolution de cette équation dépend de la classe à laquelle appartient la fonction f. Si f est
un polynôme de degré n, on sait que l’équation possède n racines complexes. Si l’équation est
transcendante, elle peut avoir un nombre fini, voire nul, ou infini de racines. Le problème est
alors de trouver la racine dont on sait l’existence et dont, parfois, on connaît une valeur
approchée. Les méthodes de résolution sont toujours des méthodes itératives.
Objectif: trouver les zéros de fonctions non linéaires, c.-à-d. les valeurs α ∈ ℜ telles que
f (α ) = 0 . Donc, La recherche des racines d'une équation est un problème de base.
p
Une méthode itérative est convergente : X n → X solution, si ∃C , p / X n − X ≤ C X n −1 − X .
On dit que la méthode est dite d’ordre p.

Racine d'une équation


• Soit l’équation non linéaire f(x)=0
9 r est une racine de l’équation ou par abus de f si f(r)=0
• f à valeur dans Rq, x ∈ Rp
9 On considérera surtout p = q= 1
• Liens avec l’optimisation non linéaire : min f(x), x ∈ D
9 Un extremum de f est caractérisé par :
* f'(x) = 0 (p=1)
Minimum : f''(x) >0
Maximum : f ''(x)<0
* grad f = 0 (p>1), si f est à valeur dans R (q=1)
Matrice Hessienne H (symétrique) définie positive : minimum
Matrice Hessienne H (symétrique) définie négative : maximum
• La recherche des racines d’une équation est un problème de base.

3.2 Méthode du point fixe

Théorème :
Soit φ k-lipschitzienne contractante : φ ( y 2 ) − φ ( y1 ) ≤ k y 2 − y1 avec k < 1 . Soit X 0 et

X n +1 = φ ( X n ) . Alors on a X n → X tel que X = φ X . ( )


Pour appliquer ce théorème, il suffit de vérifier qu'il existe une boule B X , X 0 − X ( ) sur laquelle, on a la
propriété φ ( y 2 ) − φ ( y1 ) ≤ k y 2 − y1 avec 0 < k < 1 . L'inégalité des accroissement finis nous donne

∂φ i (c )
k = sup φ ′(c ) = sup .
c c ,i , j ∂x j

Méthode d'itérations successives pour résoudre F ( X ) = 0


Posons φ ( X ) = X − F ( X ) . Si X est point fixe de φ alors X est solution de F ( X ) = 0 . On
définit alors la récurrence suivante : X n +1 = X n − F ( X n ) .

21
Chapitre 3 Résolution des équations non linéaires

Algorithme :
Entrée
X0 : terme initiale ;
g : fonction définissant les itérés ;
Sortie
n : nombre d’itérations effectuées ;
X : vecteur des itérés X0, X1, X2,…., Xn.
Début de corps :
n←0
Initialisation du booléen d’arrêt
Tant que non (arrêt) faire
Xn+1 ← g(Xn)
n ← n+1
Mise à jour du booléen d’arrêt
Fin tant que
Fin de corps

Exemple : Soit l’´equation :


f ( x) = sin(2 x) − 1 + x = 0
On peut construire deux problèmes équivalents:
x = g1 ( x) = 1 − sin( 2 x)
1
x = g 2 ( x) = arcsin(1 − x) ; 0 ≤ x ≤ 1 .
2

3.3 Méthode de dichotomie


Considérons une fonction f en dimension 1. On isole une racine unique dans un intervalle
[a, b] . On divise l'intervalle en deux à chaque étape, on identifie le sous - intervalle contenant
la racine en comparant le signe du milieu f (m ) avec f (a ) . Et on réitère. La précision
b−a
obtenue au bout de k itérations est . La méthode de la dichotomie est robuste, mais
2k
n’est pas généralisable à la dimension n.

22
Chapitre 3 Résolution des équations non linéaires

S’il existe a, b avec fa)f(b) < 0, on sait alors qu’il existe au moins un zéro c de f dans l’intervalle [a, b].

• Avantage : l’algorithme n’utilise que des évaluations de la fonction f.

Exemple1 : Trouver le zéro de la fonction f(x) = sin(2x) − 1 + x pour x ∈ [− 3,+3] avec une
tolérance de 10−8.

>> f = inline(’sin(2*x) -1 + x’,’x’);


>> x = [-3:0.1:3];
>> grid on; hold on; plot(x,feval(f,x));
>> [zero,res,niter]=bisection(f,-1,1,1e-8,1000);
On trouve la valeur α = 0.352288462221622 après 27 it´erations.

Organigramme :
Début

a, b , ε,F

OUI b − a
≤ ε
2
a = x2 ; b= b NON
a = a ; b=x2
; F(x*) x1 = ( a + b − ε ) / 2
a+b
x* =
2 x2 = (a + b + ε ) / 2
x* , F(x*) F(x1) ; F(x2)

FIN
NON OUI
F(x1) > F(x2)

Recherche du maximum par Dichotomie

Exemple2 :
On utilise la méthode de dichotomie pour approcher la racine du polynôme :
f ( x) = x 3 + 2 x 2 − 3 x − 1 contenue dans l’intervalle [1, 2] (cette fonction est en effet continue
et on a f(1) = -1 et f(2) = 9), avec une précision égale à 10-4. Le tableau suivant donne les
valeurs respectives des bornes a(k) et b(k) de l'intervalle d'encadrement, de l'approximation x(k)
de la racine et de f(x(k)) en fonction du numéro k de l'itération.

23
Chapitre 3 Résolution des équations non linéaires

3.4 Méthode du nombre d’OR :


C’est le même principe que la méthode de Dichotomie avec :
x1 = a + Z * (b − a )
x2 = a + (1 − Z *)(b − a )
3− 5
Z= ≅ 0.382
2
Organigramme :
Début

a , b , ε , F , Z*≈ 0.382

a = x1 ; b= b OUI b − a
≤ ε
x1 = x2 2
x2= a+(1-Z*).(b-a)
NON a = a ; b=x2
x1= a+Z*.(b-a)
a+b x = a + Z * .(b − a ) x2 = x1
x* = ; F(x*) 1
2 x2 = a + (1 − Z *)(b − a )

x* , F(x*) F(x1) ; F(x2)

FIN
NON OUI
F(x1) < F(x2)

Recherche du minimum par nombre d’OR

3.5 Méthode de Newton

24
Chapitre 3 Résolution des équations non linéaires

Cette méthode s’applique à des équations du type f(x) = 0 pour lesquelles on peut calculer la
dérivée de f : f’(x).
Soit x1 une valeur approchée de la racine s inconnue.
Posons : x2 = x1+h, et cherchons l’accroissement h qu’il faut donner à x1, de façon à ce que :
f ( x2 ) = f ( x1 + h) = 0
Après développement en série de Taylor à l’ordre 2, on obtient :
h2
f ( x1 + h) = f ( x1 ) + h. f ' ( x1 ) + . f ' ' ( x1 + θ .h) = 0
2
ou au premier ordre : f ( x1 ) + h. f ' ( x1 ) = 0
f ( x1 )
c’est à dire: h = −
f ′( x1 )
Dans les itérations, on a: xn +1 − xn = h
f (xn )
En dimension 1 pour des réels, x n +1 = x n − . La méthode de la tangente est d’ordre 2.
f ′( x n )
Inconvénient : Si on part d’une certaine boule, la méthode converge, sinon l’algorithme peut osciller et ne pas
converger ! Cette méthode se généralise à la dimension n. Pour des complexes, on peut employer deux fois cette
méthode.

3.6 -Méthode de Newton – Raphson


L’une des méthodes numériques les plus anciennes a été proposée indépendamment par I.
Newton et J. Raphson à la fin du XVIIe siècle pour trouver les racines d’une fonction. Elle se
base sur le calcul différentiel et non sur un cadrage de la racine (voir la figure) :
a. On choisit une estimation initiale X1 de la racine.
b. On calcule la valeur de la fonction F1 = F(x1) et de sa dérivée F1' = F ' ( x1 ) .
c. On trace la droite de pente F1' passant par (X1, F1) et on trouve l’intersection de cette
droite avec l’axe des X. Il s’agit de la prochaine valeur X2 de l’estimateur :
F'
X 2 = X 1 − 1 ou, à l’étape n :
F1
Fn'
X n +1 = X n −
Fn
d. On répète jusqu’à convergence.

25
Chapitre 3 Résolution des équations non linéaires

⎛ ∂Fi ( X n ) ⎞
En dimension n, X n +1 = X n − Δ n où J (F ( X n )) × Δ n = F ( X n ) avec J (F ( X n )) = ⎜ ⎟ (matrice
⎜ ∂x ⎟
⎝ j ⎠
jacobienne). J (F ( X n )) est inversible et permet le calcul de Δ n à chaque itération. Si on part d'une certaine
boule au voisinage de la solution, la méthode est convergente d'ordre 2. Si on fait un choix au hasard pour X 0 ,
il faut prévoir un test d'arrêt au bout de 100 itérations par exemple pour éviter le cas d'oscillations ! La
complexité globale est en n3.

Variante si m grand
La complexité globale passe en n2 après la première utilisation… Factorisation PA=LU…

Méthode de Bairstow dans le cas des polynômes


On cherche à résoudre P ( x ) = 0 , avec P ( x ) = x + a n −1 x
n −1
n
+ K + a0 .

Méthode
( )
On cherche x + βx + α qui divise P. On a P ( x ) = x + βx + α Q( x ) + (r1 x + r0 ) (division euclidienne).
2 2

Pour déterminer les coefficients α et β, on cherche une racine de l'application F : (α , β ) a (r0 , r1 ) .


On veut appliquer la méthode de Newton - Raphston en dimension 2. Il faut d'abord calculer la matrice
jacobienne J : on établit des formules par récurrence assez complexes… Puis, on applique effectivement la
méthode de Newton - Raphston, à partir de (α 0 , β 0 ) , qui donne (α , β ) (sous réserve que l'on se trouve
initialement dans une boule suffisamment proche de la solution pour que la méthode soit effectivement
convergente).
Finalement, le polynôme A1 = x + βx + α fournit deux racines de P. On réitère la méthode sur Q1 tel que
2

P = A1Q1 . Cependant, les itérations successives entraînent une perte progressive de la précision.
Pour ne pas choisir (α 0 , β 0 ) complètement au hasard, une méthode consiste à sélectionner une centaine de
couples et à choisir, pour débuter l'algorithme, celui qui rend le polynôme minimum.

Amélioration de la précision
La racine obtenue étant assez proche de la racine réelle, on effectue la méthode de la tangente
pour améliorer la précision. Tous les 4 ou 5 coups, on améliore la précision avec la précision
avec la méthode de la tangente. Cette dernière méthode ne s'applique qu'aux racines réelles
(on applique deux fois la méthode pour les racines complexes).

26
Chapitre 3 Résolution des équations non linéaires

3.7 Résolution des systèmes d’équations non linéaires

La méthode Newton peut s’appliquer à la résolution d’un système de plusieurs équations non
linéaires :

⎧ f ( x, y ) = 0

⎩ g ( x, y ) = 0

A partir d’un couple de valeurs approchées (x1, y1) d’une solution du système, on peut
déterminer deux accroissements h et k à donner à x1 et y1 de manière à ce que :

⎧ f ( x1 + h, y1 + k ) = 0

⎩ g ( x1 + h, y1 + k ) = 0

En développant en 1er ordre, il vient :

⎧ f ( x1 + h, y1 + k ) = f ( x1 , y1 ) + hf ' ( x1 ) + kf ' ( y1 ) = 0

⎩ g ( x1 + h, y1 + k ) = g ( x1 , y1 ) + hg ' ( x1 ) + kg ' ( y1 ) = 0

Où l’on a posé :

⎧ ∂f ( x1 , y1 ) ⎧ ∂g ( x1 , y1 )
⎪⎪ f ' ( x1 ) = ∂x et ⎪⎪
g ' ( x1 ) =
∂x
⎨ ∂f ( x1 , y1 ) ⎨ ∂g ( x1 , y1 )
⎪ f ' ( y1 ) = ⎪ g ' ( y1 ) =
⎪⎩ ∂y ⎪⎩ ∂y

Les quantités h et k s’obtiennent donc, en résolvant le système linéaire suivant :

⎧ hf ' ( x1 ) + kf ' ( y1 ) = − f ( x1 , y1 ) ⎧ h = xn +1 − xn
⎨ avec ⎨
⎩hg ' ( x1 ) + kg ' ( y1 ) = − g ( x1 , y1 ) ⎩ k = y n +1 − y n

Le calcul est alors relancé jusqu’à ce que h et k deviennent inférieures à une valeur ε que l’on
se donne (selon la précision voulue pour le calcul).
Ainsi, l’algorithme correspondant est :

⎧ ⎛ f ( xn , yn ).g ' ( yk ) − g ( xn , yn ). f ' ( yk ) ⎞


⎪⎪ xn +1 = xn − ⎜ Δ

⎝ ⎠

⎪ yn +1 = yn − ⎛⎜ g ( x , y ). f ' ( y ) − f ( x , y ). g ' ( y k ⎞
)
n n k n n

⎪⎩ ⎝ Δ ⎠
Avec : Δ = f ' ( xn ).g ' ( yn ) − f ' ( yn ).g ' ( xn )

27
Chapitre 3 Résolution des équations non linéaires

Exercices

EXERCICE 1 :
Appliquer le théorème du point fixe sur l’équation : x 4 + 6 x 2 − 60 x + 36 = 0

EXERCICE 2 :

Trouver le maximum de la fonction : f(x) = 0.1 x³ - 2 x² + 10 x dans l’intervalle [0, 10] ave ε = 0.1
a) la méthode Dichotomie
b) La méthode du nombre d’OR

EXERCICE 3 :
Soit f ( x, y ) = x3 +y3 - 9 x.y –+27

a) Utiliser trois itérations de la méthode de Newton – Raphson pour minimiser f ( x, y ) en partant


de l’approximation initiale X(º) = [ 2 , 2 ]t ( Effectuer les calculs avec 4 décimales exactes ).

b) Comparer le résultat obtenu avec la valeur exacte X* = [ 3 , 3 ]t


Combien de chiffres significatifs exacts a – t – il ?

28
Chapitre IV

RÉSOLUTION DE SYSTÈMES
DIFFÉRENTIELS
Chapitre 4 Equations différentielles

4.1 Définitions et généralités :

La résolution numérique des équations différentielles est probablement le domaine de


l’analyse numérique où les applications sont les plus nombreuses. Que ce soit en mécanique
ou en génie électrique, on aboutit souvent à la résolution d’équations différentielles. On ne
sait cependant pas toujours donner une expression exacte de la solution, et il faut alors
l’approximer numériquement.

Les équations différentielles nous servent pour modéliser le processus physique (sous forme
d’une équation devinette), puis de trouver les expressions mathématiques (les solutions) qui
vont décrire le comportement futur de forme d’une équation différentielle (la devinette) et
ensuite à trouver l’expression de la réponse et analyser le comportement (résultats de
simulation), évitant un effondrement ultérieur du système qui porterait conséquences sur les
vies humaines. Très peu d’équations différentielles sont solubles analytiquement. De plus,
chaque type d’équation requiert une méthode particulière de résolution. Par suite, la résolution
de la plus part des équations différentielles nécessite l’utilisation de méthodes numériques
(exp : Euler, Runge-Kutta, Adams Moulton, …).

Une équation est dite différentielle si elle comporte une ou plusieurs dérivées de la variable à
résoudre.

Une équation différentielle est dite ordinaire lorsque la variable à résoudre ne dépend que
d’une seule autre variable.

L’ordre d’une équation différentielle est déterminé selon le plus haut degré de dérivée
apparaissant dans l’équation. Par exemple une équation différentielle du premier ordre ne
contient que la dérivée première et possiblement la fonction elle-même. Une équation du
2ème ordre contient obligatoirement la dérivée seconde et éventuellement la dérivée première
et/ou la fonction elle-même.

Une équation différentielle est dite linéaire si elle est formée par une combinaison linéaire de
la variable et de ses dérivées.
La forme implicite d’une équation différentielle est: F(x, y, y') = 0, Exemple: 2x + y '+ 2y = 0.

La forme explicite d’une équation différentielle est : F(x, y) = y', Exemple: −2x − 2y = y '.

4.2 Notion de solution :


La solution à une équation différentielle est une fonction h(x), c’est à dire une expression
explicite de la combinaison de la variable x (dans laquelle la dépendance envers la variable a
disparu), et qui substitué à y dans l’équation, satisfait cette équation dans une plage de valeurs
de la variable : a < x < b.

Exemple1 : Solution explicite


La devinette (l’équation différentielle) est: xy ' = 2y
Devinez alors une fonction h(x) qui une fois substituée à y vérifie bien cette équation.
Solution :

29
                                   

 
Chapitre 4 Equations différentielles

Bien sûr, pour l’instant, on essaie de deviner un peu au hasard, mais nous verrons que nous
sommes ici pour apprendre une méthode systématique de résolution de ce genre d’équations.
Donc si on essaie de substituer : y = h(x) = x2
Nous allons voir que : y' = h'(x) = 2x
Et alors : x(2x) = 2x2 : Donc, nous dirons que h(x) = x2 est une solution explicite de
l’équation.

Exemple2: Solution implicite


Soit à trouver une solution pour l’équation suivante : yy ' = −x

Solution :
Nous pouvons voir que l’expression suivante est solution implicite de l’équation ci-dessus :

h(x, y) = x2 + y2 −1 = 0.

En effet, il suffit de réarranger sous la forme y2 =1− x2 et de dériver les 2 membres de cette
égalité par rapport à la variable x pour voir qu’elle vérifie bien l’équation de départ :  

2y ' y = 0 − 2x

Remarque :

Quand on trouve une solution sous la forme : h(x, y) = 0, on parle de solution implicite. Si par
contre la solution se présente sous la forme : y = h(x), on parle alors de solution explicite.
Ainsi la solution implicite précédente : h(x, y) = y2 + x2 −1 = 0 a pour expression explicite :
y = h(x) = ± 1− x2. Mais on voit que le passage de la forme implicite à la forme explicite
n’est pas toujours biunivoque.

Différentes solutions

Dans ce cours nous allons distinguer les différentes formes de solution, car pour une même
équation, nous parlerons successivement de la solution homogène (ou aussi dite fonction
complémentaire), de la solution particulière, de la solution générale, puis de la solution
spécifique (que d’autres références désignent de nouveau sous le label de solution particulière,
ce qui constitue une certaine confusion avec la notion de solution particulière précédente).
Comme le libellé des différentes solutions a évolué pour en devenir plus précis, le tableau
suivant vous aidera à comprendre l’équivalent dans les anciennes références et vos collègues
ingénieurs de l’ancienne génération.
 

Ce qu’ils voulaient vous signifier  Ils utiliseront le terme  Ce qui signifie pour nous 

Solution de l’équation sans second Solution générale  Solution homogène


membre (membre de droite = zéro)  Solution complémentaire 

30
                                   

 
Chapitre 4 Equations différentielles

Solution insolite de l’équation avec Solution particulière  Solution particulière 


second membre.
Solution complète de l’équation Solution générale  Solution générale 
avec second membre
Solution avec les contraintes des Solution particulière  Solution spécifique 
conditions initiales 

La solution générale de l’´equation complète est la somme de la solution générale de


l’équation sans second membre et d’une solution particulière de l’équation complète.

Théorème : La solution générale de l’équation sans second membre ay ' '+by '+cy = 0 , où a, b
et c sont des réels et a ≠ 0 est

de la forme si l’équation ax2 + bx + c = 0 a

y ( x) = Ae r1x + Be r2 x deux racines réelles distinctes r1et r2

y ( x) = ( Ax + B)e r0 x une racine réelle double r0

y ( x) = eαx ( A cos( β x) + B sin( βx)) deux racines complexes conjuguées λ1,2 = α ± iβ

Où A et B sont des constantes réelles.

Exercice : Trouver la solution de y ' '−3 y '+2Y = e x + cos x vérifiant les conditions initiales :
y (0) = y ' (0) = 0
1 3 7
Réponse : ???? y = − xe x + (cos x − 3 sin x) − e x + e 2 x
10 2 5

4.3 Les classes des équations différentielles :


Les équations différentielles peuvent être classées en deux catégories:

- les équations différentielles aux conditions initiales et

- les équations différentielles aux conditions aux limites.

4.3.1 Equations différentielles aux conditions initiales

d2y dy
Soit l'équation différentielle suivante : A(t ). 2
+ B(t ). + C (t ). y = g (t ) où A, B, C et g
dt dt
sont des fonctions connues de t. On donne en plus de cette équation différentielle, les
⎛ dy ⎞
conditions initiales suivantes:  y (0) = y0 et ⎜ ⎟ = V0 .
⎝ dt ⎠ 0

31
                                   

 
Chapitre 4 Equations différentielles

Toute équation différentielle d’ordre n avec des conditions initiales peut être remplacée par un
dy
système de n équations différentielles couplées du 1er ordre. En posant = z , l’équation
dt
dz B(t ) C (t ) g (t ) ⎧ y ( 0) = y 0
précédente devient : =− .z − .y + avec : ⎨
dt A(t ) A(t ) A(t ) ⎩ z (0) = V0

Ainsi, une équation d’ordre n peut être ramenée à un système du 1ier ordre:

⎧d y
⎪ = f ( y, t )
⎨ dt  ;  y = {y1 , y2 ,...., yn } ; f = { f1 , f 2 ,...., f n }  
⎪ y (0) = y
⎩ 0

Soit par exemple l’équation: y’’’ + y’’ + y’ + y = f(t) avec les CI:
y(0)= y0, y’(0)= v0 et y’’(0) = g0

Pour simplifier la suite, écrivons plutôt: y1’’’ + y1’’ + y1’ + y1 = f(t) (a)

Et posons: y2 = y1’ (b)

(a) s’écrit maintenant: y2’’ + y2’ + y2 + y1 = f(t) (c)

Qui est encore du 2ième ordre, on pose alors : y3 = y2’ (d)

(c) devient : y3’ + y3 + y2 + y1 = f(t) (e)

Au final, (a) s’écrit comme le système de 3 équations du 1ier degré:

y1’ = y2 y1(0) = y0

y2’ = y3 CI: y2(0) = v0

y3’ = - y3 - y2 - y1 + f(t) y3(0) = g0

4.3.2 Problèmes à conditions aux limites

Exemple: l'équation de la propagation de la chaleur le long d'une barre de longueur L:

⎧d 2 y dy
⎪ dx 2 + D. dx + E. y = h( x)

⎨ y (0) = y0
⎪ y ( L) = y L

Ce problème est à conditions aux limites.

32
                                   

 
Chapitre 4 Equations différentielles

Si une condition aux limites est donnée en terme de gradient, par exemple v0=dy(0)/dt plutôt
que y(0) lui-même, on peut adopter l’une ou l’autre des techniques suivantes :

y1 − y0
• On écrit y0 en fonction de y1 à partir de = v0 et on réarrange les termes de la
h
première équation pour se ramener comme précédemment à une équation matricielle.

y−1 − y1
• On introduit un point « fantôme« y-1 tel que = v0 et on écrit une nouvelle
2h
équation correspondant à y-1, y0 et y1 en y remplaçant y-1 par y-1 = y1+2hv0. Après
réarrangement des termes, on obtient une matrice avec une colonne et ligne
supplémentaire qu’il ne reste qu’à inverser pour résoudre le système.

y y
y1
y1
Gradient
Ghost
spécifique
y0 point y0
y-1

x
h

4.4 Problème de Cauchy


Soit f : [x0 , x0 + a ]× R M → R M , continue, telle que ( x , y ) a f ( x, y ) . Etant donnée une
condition initiale y 0 , on cherche y : [x0 , x 0 + a ] → R M de classe C1 telle que
⎧ y ′( x ) = f ( x, y ( x ))
⎨ : est un problème de Cauchy dimension M et d’ordre 1.
⎩ y (x0 ) = y 0

Le problème de Cauchy de dimension M et d’ordre P est donnée par:

(
⎧⎪ y ( P ) (x ) = g x, y, y ′, L, y ( P −1) ) .

⎪⎩ y ( x 0 ) = y 0 , y ′( x0 ) = y 0′ , L , y ( P −1) (x 0 ) = y 0( P −1)

⎛ y ⎞
⎜ ⎟
⎜ y′ ⎟
On se ramène au problème de Cauchy d’ordre 1 en posant z = ⎜ , de dimension PM .
M ⎟
⎜ ( P −1) ⎟
⎜y ⎟
⎝ ⎠

33
                                   

 
Chapitre 4 Equations différentielles

Théorème (K - lipschitzienne)
S’il existe K tel que ∀x, y1 , y 2 , f ( x, y1 ) − f ( x, y 2 ) ≤ K y1 − y 2 , alors le problème de Cauchy
d’ordre 1 possède une solution unique.

4.5 Méthodes de résolution numérique


On se place dans le cadre de ce théorème, et l’on cherche à calculer une solution. On divise
a
l’intervalle [x0 , x0 + a ] en N de telle sorte que x N = x0 + a ; x n = x0 + nh avec le pas h = .
N
On voudrait que les y n soient proches de y ( x n ) . La formule générale employée pour la
⎧ y = y n + hΦ ( x n , y n , h )
résolution numérique des équations différentielles est ⎨ n +1 .
⎩ y0

Stabilité
⎧ z n +1 = z n + hΦ ( x n , z n , h ) + hε n
On introduit une perturbation, ⎨ , et l’on observe le
⎩ z0 = y0
comportement de la méthode. Posons ε = sup ε n . La méthode est stable si et seulement si
n

∃A / max z n − y n ≤ Aε .
n

Consistance
La méthode est consistante si et seulement si :

y ( x n +1 ) − y ( x n )
max − Φ (x n , y ( x n ), h ) ⎯h⎯
⎯→ 0 .
→0
n h

La méthode est consistante d’ordre p si et seulement si :

y ( x n +1 ) − y ( x n )
∃A / max − Φ ( x n , y ( x n ), h ) ≤ Ah p .
n h

Convergence
La méthode est convergente si et seulement si max y n − y ( x n ) ⎯h⎯
⎯→ 0 . Il y a convergence
→0 n

d’ordre p si et seulement si ∃A / max y n − y ( x n ) ≤ Ah p .


n

Si la méthode est stable et consistante [d’ordre p], alors la méthode est convergente [d’ordre
p].

34
                                   

 
Chapitre 4 Equations différentielles

Théorème stabilité
Si il existe K tel que ∀x, y1 , y 2 , Φ ( x, y1 , h ) − Φ ( x, y 2 , h ) ≤ K y1 − y 2 , c'est-à-dire si φ est K -
lipschitzienne, alors la méthode est stable.

Théorème consistance
- Si Φ ( x, y,0 ) = f ( x, y ) , on a consistance d’ordre 1.
⎛ ∂Φ ⎞ 1 ⎛ ∂f ⎞
- Si de plus, ⎜ ⎟( x, y,0) = ⎜ ⎟( x, y ) , alors on a consistance d’ordre 2.
⎝ ∂h ⎠ 2 ⎝ ∂x ⎠
⎛ ∂ 2Φ ⎞ 1 ⎛ ∂2 f ⎞
- Si de plus, ⎜⎜ 2 ⎟⎟( x, y,0 ) = ⎜ ⎟⎟( x, y ) , alors on a consistance d’ordre 3.
⎝ ∂h ⎠ 3 ⎜⎝ ∂x 2 ⎠

Etc. … …………………………………….
 

Choix de h
On se donne une tolérance ε > 0.

- On choisit arbitrairement h et on applique la méthode.


- On recommence avec h / 2 . Si le résultat obtenu pour un pas divisé par 2, est à ε près celui
obtenu pour un pas de h alors le pas est bon, sinon on réitère. Attention il faut comparer
h
x n = x0 + nh et x 2 n = x 0 + 2n. .
2
- ……………………………….

4.5.1 Méthode du développement de Taylor


Le but est de remplacer les expressions par des expressions équivalentes possédant les mêmes
ordres de précision (0(hn)).

1 ⎛ ∂f ⎞ 1 h 2 ⎛ ∂f ⎞
Φ ( x , y , h ) = f ( x , y ) + h⎜ ⎟ ( x , y ) + ⎜ ⎟( x , y ) + K ,
2 ⎝ ∂x ⎠ 3 2! ⎝ ∂x ⎠

C’est une méthode consistante de l’ordre que l’on veut, stabilité acquise. Mais en pratique les
calculs de dérivées rendent la méthode impraticable !

4.5.2 Méthode d’Euler


Φ ( x, y, h ) = f ( x, y ) , ordre 1, stabilité acquise (φ et f lipschitzienne).

y n +1 − y n
Intuitivement, on traduit la formule du taux d'accroissement : f ( x n , y n ) = .
h

La formule sera donc : y n +1 = y n + hf ( x n , y n ) .

35
                                   

 
Chapitre 4 Equations différentielles

a) Algorithme d’Euler général


Etant donné un pas de temps h, une condition initiale (x0,y0) et un nombre
maximal d’itérations N ;

Pour 0 ≤ n ≤ N

y (n + 1) = y (n) + h. f (t (n), y (n))

t (n + 1) = t (n) + h

Ecrire t(n+1) et y(n+1)

Arret ◘.

b) Algorithme d’Euler modifiée


9 Etant donné un pas de temps h, une condition initiale (x0,y0) et un nombre
maximal d’itérations N ;

9 Pour 0 ≤ n ≤ N


y = y (n) + h. f (t (n), y (n))

h ∧
y (n + 1) = y (n) + ( f (t (n), y (n)) + f (t (n + 1), y )
2

t (n + 1) = t (n) + h

Ecrire t(n+1) et y(n+1)

9 Arret ◘.

4.5.3 Méthode de Runge - Kutta

a) R-K d’Ordre 2
A partir du développement de Taylor On cherche :

Φ ( x, y, h ) = βf ( x, y ) + αf ( x + λh, y + μhf ( x, y )) .

L’ordre 1 impose α + β = 1

L’ordre 2 impose λ = μ et αλ = αμ = 1 / 2 .
36
                                   

 
Chapitre 4 Equations différentielles

Si α = 1 , alors β = 0 etλ = μ = 1 / 2 , d'où la formule :


⎛ h h ⎞
y n +1 = y n + hf ⎜ x n + , y n + f ( x n , y n )⎟ .
⎝ 2 2 ⎠
Soit le prédicteur y n +1 / 2 , la méthode s’écrit :
⎧ h
⎪ y n +1 / 2 = y n + f ( x n , y n )
⎨ 2
⎪⎩ y n +1 = y n + hf ( x n + h / 2, y n +1 / 2 )

La méthode est d’ordre 2, et correspond à une amélioration de la méthode d’Euler : le taux


d’accroissement est calculé pour le point milieu : ( x n + h / 2, y n +1 / 2 ) .

b) Algorithme de Runge-Kutta d’Ordre 4


Etant donné un pas de temps h, une condition initiale (x0,y0) et un nombre
maximal d’itérations N ;

Pour 0 ≤ n ≤ N

k1 = f ( x, y )

k 2 = f (x + h / 2, y + h / 2.k1 )

k3 = f ( x + h / 2, y + h / 2.k 2 )

k 4 = f (x + h / 2, y + h / 2.k1 )

1
y (n + 1) = y (n) + (k1 + 2k 2 + 2k3 + k4 )
6

t (n + 1) = t (n) + h

Ecrire t(n+1) et y(n+1)

Arret ◘.

Exercice d’application :
Résoudre le système suivant par la méthode de Runge-Kutta à l’ordre 4 :

37
                                   

 
Chapitre 4 Equations différentielles

avec les conditions initiales suivantes :

On donne :

Les constantes sont égales à :

Solution :
Si on définit : y4 = y1' ; y5 = y2' ; y6 = y3' , le système précédent devient :

Ce système peut s’écrire sous la forme matricielle suivant :


y ' = f ( y, t ) où y = [ y1 , y2 ,...., y6 ]' et

38
                                   

 
Chapitre 4 Equations différentielles

Le programme suivant ‘RK4.m’ permet la résolution du système précédent :


1)
%*****************
% Fonction f1m.m *
%*****************
function f=f1m(y,C,F);
f=C*y+F;
2)
%*************************************
% Méthode de Runge-Kutta à l'ordre 4 *
%*************************************
clear;clc;clf;
M1=1;M2=1;M3=1;
K1=1;K2=1;K3=1;
F1=0.01;F3=0;F=[0 0 0 F1/M1 0 F3/M3]';
B1=0.1;B3=0.1;h=0.1;
y(:,1)=[0 0 0 0 0 0]';t(1)=0;i=1;
C=[0 0 0 1 0 0;
0 0 0 0 1 0;
0 0 0 0 0 1;
-K1/M1 K2/M1 0 -B1/M1 B1/M1 0;
K1/M2 -(K1+K2)/M2 K2/M2 B1/M2 -B1/M2 0;
0 K2/M3 -(K2+K3)/M3 0 0 -B3/M3];
while t<=30
k1=h*f1m(y(:,i),C,F);
k2=h*f1m(y(:,i)+k1/2,C,F);
k3=h*f1m(y(:,i)+k2/2,C,F);
k4=h*f1m(y(:,i)+k3,C,F);
y(:,i+1)=y(:,i)+(1/6)*(k1+2*k2+2*k3+k4);
t(i+1)=i*h;
i=i+1;
end
plot(t,y(1:3,:));
grid on;
text(t(70),y(1,70),'y1');
text(t(70),y(2,70),'y2');
text(t(70),y(3,70),'y3');
xlabel('Temps (en s)');
ylabel('Solutions,y1, y2, y3');

39
                                   

 
Chapitre 4 Equations différentielles

EXERCICES
Exercice 1 :
Déterminer l’ordre de l’équation différentielle et précisez s’il s’agit d’une équation linéaire ou non-linéaire.

Exercice 2 :
Vérifier que la fonction qui suit chaque équation est bien la solution de ladite équation. 

Exercice 3 : Du double au triple

Une grandeur (non nulle) y évolue à une vitesse proportionnelle à elle-même. On sait que
cette grandeur double tous les dix ans. Combien de temps lui faut-il pour tripler ?

Exercice 4 :
40
                                   

 
Chapitre 4 Equations différentielles

La loi de refroidissement de Newton s'énonce ainsi :

"La vitesse de refroidissement d'un corps inerte est proportionnelle à la différence de


température entre ce corps et le milieu ambiant".

On suppose que la température de l'air ambiant est constante égale à 25°C. Dans ces
conditions, la température d'un corps passe de 100°C à 70°C en 15 minutes.

Au bout de combien de temps se trouvera-t-il à 40°C ?

Exercice 5 : Décharge d'un condensateur

On considère un circuit électrique constitué d'un condensateur (de capacité C) se déchargeant


dans une résistance R. On note uC(t) la tension aux bornes du condensateur (en Volts) à
l'instant t (en secondes). À l'instant t = 0, on sait que uC(0) = 3 V. Exprimer uC(t) en fonction
de t.

Exercice 6 :

On se propose d’intégrer sur l’intervalle le plus grand possible contenu dans ]0, ∞[ l’équation
différentielle :

y ( x)
y ' ( x) − − y 2 ( x) = −9 x 2 . (E)
x

1) Déterminer a ∉ ]0, ∞[ tel que y(x) = ax soit une solution particulière y0 de (E).

1
2) Montrer que le changement de fonction inconnue: y ( x) = y0 ( x) − transforme
z ( x)
l’équation (E) en l’équation différentielle :

1
z ' ( x ) + (6 x + ) z ( x ) = 1 (E1)
x

3) Intégrer (E1) sur ]0, ∞[ .

4) Donner toutes les solutions de (E) définies sur ]0, ∞[ .

EXERCICE 7 :

Résoudre par la méthode d’Euler, dans l’intervalle [0 , 5], l’équation : dy /dt + y² = 0 ;


y(0) = 1 .

EXERCICE 8 :

Soit l’équation : y ' (t ) = −t. y 2 (t ) ; y(0) = 1 ; t ∈ [0,4] ; h = 0,5.


41
                                   

 
Chapitre 4 Equations différentielles

Résoudre l’EDO par :

a) La méthode analytique

b) La méthode d’Euler ordinaire ; 

c) La méthode d’Euler modifiée ; 

d) La méthode de Runge‐Kutta d’ordre 2 ; 

Déterminer la précision pour chaque cas.

EXERCICE 9 :

Résoudre par la méthode de Runge - Kutta, l’équation : y '(t) = - y(t) + t + 1

sur le segment [0.0 , 1.0] satisfaisant aux conditions : y(ο) = 1 et Δt = 0.1 .

EXERCICE 10 : 

Soit l’équation différentielle suivante : y ' (t ) = −ty 2 ; y (t0 ) = y0 = 1 .

a) Calculer la solution analytique ;

b) Appliquer la méthode de Taylor avec un pas h = 0.1 et un ordre local en h3.

Exercice 11 :

Résoudre le système d’équations différentielles du premier ordre suivant :

⎧ dx
⎪ dt = xy + t
⎨ dy ; Conditions initiales : x(0) = 1 et y(0) = -1.
⎪ = ty + x
⎩ dt

Exercice 12

Résoudre le système d’équations différentielles du premier ordre suivant :

d 2x dx
2
− (1 − x 2 ) + x = 0
dt dt

Conditions initiales : x(0) = 0.5 et x’(0) = 0.

42
                                   

 
Chapitre V

RÉSOLUTION DES EQUATIONS


AUX DERIVEES PARTIELLES
Chapitre 5 Équations aux Dérivées partielles

5.1 Introduction
Les progrès de l’informatique ont permis de développer des méthodes numériques de calcul
afin de déterminer de façon précise la distribution des paramètres physiques dans la plus part
des systèmes électriques. Les méthodes numériques les plus connues et les plus utilisées dans
ce type de problème sont donc la méthode des différences finies (MDF), la méthode des
éléments finis (MEF), la méthode de simulation de charges (MSC), la méthode des éléments
finis de frontière (MEFF), la méthode des volumes finis (MVF), … etc.
Dans ce chapitre, nous allons rappeler quelques méthodes numériques qui permettent de
résoudre les équations différentielles gouvernantes les phénomènes physiques. Nous
présenterons, en particulier, la méthode des différences finies, la méthode des éléments finis,
la méthode de simulation de charges et la méthode des éléments finis de frontière.

5.2 Fonction scalaire ou champ scalaire


Un champ scalaire est une fonction de Rn dans R
Soit f un champ scalaire défini dans R3. Exemples : l'altitude, la température, la pression, …
On appelle gradient de f et on note grad(f) ou ∇f (on prononce nabla de f), le vecteur :

5.3 Fonction vectorielle ou champ vectoriel


Un champ vectoriel est une fonction de Rn dans Rp, p > 1.
Exemples : la force de gravitation, le champ électrique, la vitesse d'un fluide.
Soit f un champ vectoriel défini de R3 dans R3. On appelle matrice Jacobienne de f et on note
Jac(f) la matrice formée par les dérivées partielles de la fonction f.
⎡ ∂f ∂f ∂f ⎤
⎢ ∂x ∂y ∂ z ⎥⎥
⎛ f ( x, y , z ) ⎞ ⎢
⎜ ⎟ ∂g ∂g ∂g ⎥
K ( x , y , z ) = ⎜ g ( x , y , z ) ⎟ → Jac ( K ) = ⎢
⎢ ∂x ∂y ∂z ⎥
⎜ h ( x, y , z ) ⎟ ⎢ ∂h
⎝ ⎠ ∂h ∂h ⎥
⎢ ⎥
⎢⎣ ∂x ∂y ∂ z ⎥⎦ ( x 0 , y 0 , z 0 )
5.4 Opérateurs différentiels
Soit V une fonction vectorielle de 3 variables (x; y; z) définie sur un domaine Ω de R3 et à
valeurs X; Y; Z. On appelle divergence du vecteur V et on note div(V) ou ∇V, le scalaire :

5.5 Formule de la divergence : Ostrogradsky


Soit Ω ⊂ R3 de frontière ∂Ω régulière, et un champ vectoriel V défini sur Ω tout entier. Soit n
le vecteur unitaire normal à ∂Ω orienté vers l'extérieur de Ω. On a l‘égalité suivante :
la valeur de la divergence de V en un point M0 : (x0; y0; z0) est la limite, quand le volume
contenant le point M0 diminue et tend vers le point M0, du flux sortant de ce volume rapporté
à la mesure du volume :

43
Chapitre 5 Équations aux Dérivées partielles

5.6 Champs de gradients


Si V est un champ de gradients c'est à dire si V = grad f (on dit qu'il dérive d'un potentiel f), la
divergence de V est :

Cet opérateur s'appelle le Laplacien et se note Δf :

5.7 Définition des équation aux dérivées partielles ( EDP) :

Une ou edp, est une relation faisant intervenir une fonction inconnue u de Rn dans R , les
variables x , y, ... , ses dérivées partielles, ux, uy, ... , uxx, uxy, uyy, .... . Elle s'écrit de façon
générale :
f(x, y, …, u, ux, uy, …, uxx, uxy, …) = 0
Cette équation est considérée dans un domaine Ω de Rn. Les solutions de l'équation aux
dérivées partielles sont les fonctions qui vérifient cette équation dans Ω. L'ordre d'une
équation aux dérivées partielles est l'ordre de la dérivée partielle d'ordre le plus élevé
intervenant dans l'équation. Exemples : u2uxy + ux = y , uxx + 2y2uxy + 3xuyy = 1 ,
(ux)2 + (uy)2 = 1 , uxx - uyy = 0 , les fonctions u(x, y) = (x + y)3 et u(x, y) = sin(x - y) sont
toutes deux des solutions de cette dernière équation.

Les équations linéaires du second ordre sont souvent classées en 3 familles :

44
Chapitre 5 Équations aux Dérivées partielles

5.8 Choix du maillage


Le choix du maillage consiste à diviser le domaine de travail Ω en parties égales ou non afin
d’obtenir un espace discret. L’espace ainsi obtenu s’appellera espace d’interpolation et aura
toutes les propriétés d’un sous-espace vectoriel de Ω. Les solutions héritées seront de ce fait
approchées. Les sous-divisions obtenues sont appelées éléments finis. Les points de jonction
entre les éléments sont les nœuds. Il faut noter que plus on a d’éléments plus précise est la
solution.

* Schémas de discrétisation :

45
Chapitre V-1

La Méthode des différences finies


(MDF)
Chapitre 5-I : La Méthode des différences finies (MDF)

5.1.1 Introduction
La méthode des différences finies a été, historiquement, la première méthode connue
pour calculer sur ordinateur, la solution d'une équation différentielle. Elle consiste à remplacer
dans les équations aux dérivées partielles et dans les conditions aux limites, les dérivées par
des différences finies calculées sur les nœuds d’un maillage.
Selon l’utilisation des différences à gauche, à droite ou centrée, on obtient différents schémas
de discrétisation aux différences finies. Tous ne sont pas équivalents, et une étude fine est
nécessaire pour choisir le schéma représentant le meilleur compromis.
La générale de la méthode va nous permettre d’aborder les notions de consistance, de
stabilité et de convergence.
• Consistance : une méthode numérique est consistante si l’erreur de discrétisation de
l’équation tend vers zéros lorsque le pas de discrétisation tend vers zéros.
• Stabilité : une fois le schéma discret choisi, il va être nécessaire de résoudre les
équations. Le processus de résolution, à la vue des équations sera la plupart du temps
itératif. On calculera les valeurs de « Φ » de proche en proche : une valeur donnée
de « Φ » sera donc calculée en utilisant le résultat du calcul d’autres valeurs de «Φ».
Les erreurs d’arrondi être inévitables sur machine, la méthode sera stable si ces
erreurs ne s’amplifient pas (trop) au cours du calcul.
• Convergence : après s’être assuré que le schéma discret tend vers l’équation, que ce
schéma conduit à un calcul stable, on dispose d’une solution. Le schéma utilisé est
dit convergent si sa solution ainsi obtenue tend vers la solution de l’équation de
départ, lorsque les pas de discrétisation tendent vers zéros.
Donc, la consistance et la stabilité sont nécessaires et suffisantes pour assurer la convergence.

5.1.2 Principe de la méthode


La méthode des différences finies a d’abord été appliquée pour résoudre les équations
d’élasticité et de mécanique des structures. Plus tard elle a été adaptée à l’électromagnétisme.
L’idée de la méthode est de chercher une solution approchée à une équation différentielle. La
complexité des géométries fait qu'il est très difficile, le plus souvent impossible de trouver
une approximation de la solution dans tout un domaine d'étude. Pour contourner cette
difficulté on subdivise le domaine en sous domaines, appelés éléments, sur lesquels il est plus
facile de faire l'approximation.
L’idée principale de la MDF est de fournir une approximation des dérivées partielles qui
régissent les problèmes par des « différences » entre les valeurs nodales qui sont séparées par

46
Chapitre 5-I : La Méthode des différences finies (MDF)

une distance finie. Elle est, historiquement, la première méthode connue pour calculer, sur
ordinateur, la solution d’une équation différentielle.
La résolution d'une équation par la méthode des différences finies revient à remplacer la
recherche d'une solution continue par la solution en un certain nombre de points. Toute
distribution de points dans l'espace peut être utilisée. Elle consiste à décomposer le domaine
d’étude en une grille rectangulaire uniforme dont chaque nœud est à équidistance de son
voisin suivant les axes x et y et en chaque nœud, le système différentiel est satisfait.
L’utilisation d’un maillage régulier permet d’avoir, en tout point, la même forme pour les
équations. Le plus simple de ces maillages réguliers est le maillage carré.
L’équation aux dérivées partielles est alors remplacée par un système d’équations algébriques
pour les valeurs nodales. Dans le calcul du potentiel et du champ électrique, ces équations
sont linéaires et la solution de chaque valeur nodale est obtenue par itération ou inversion de
matrice.
Une illustration de cette présentation est donnée en prenant l’équation de Laplace (1.1)
en deux dimensions définie dans le domaine donné sur la figure.
∂ 2Φ ∂ 2Φ
+ =0 (1.1)
∂x 2 ∂y 2
Chaque point est situé sur un des sommets d'un carré. Il existe d'autres maillages réguliers
comme le maillage en triangles équilatéraux et en hexagones équi-angulaires.

Δy

Δx
Maillage carré

La méthode des différences finies exploite un maillage à pas constant (quelque soit le
type de coordonnées utilisées) et propose deux types de solutions : le premier est explicite,

47
Chapitre 5-I : La Méthode des différences finies (MDF)

c’est à dire que les inconnues aux nœuds du maillage sont données explicitement par les
équations. Le deuxième type est implicite, c’est à dire les inconnues constituent un système
linéaire qu’il convient d’inverser, ce dernier est basé sur une forme matricielle « creuse ».
Donc, on peut faire une approximation des opérateurs d’une équation différentielle par des
différences finies calculées aux nœuds d’un maillage. Aussi on peut faire une approximation
de la fonction inconnue d’une équation différentielle. Cette méthode est connue sous
l’appellation de méthode des éléments finis (MEF).

5.1.3 Transformation de l'équation différentielle


Soit les indices i et j, les coordonnées de la position d’un nœud quelconque avec Δx = Δy = h
dans le cas d’un maillage carré, et Φ i, j la valeur du potentiel en ce nœud qui est donné par :

Φ i , j = Φ( x0 + i ⋅ Δx, y 0 + j ⋅ Δy ) (1.2)

où x 0 et y 0 représentent les conditions initiales.

∂Φ
Comme sur la figure, l’approximation algébrique de la dérivée est donnée par :
∂x
∂Φ
⋅ (Φ i +1, j − Φ i , j )
1
≅ (1.3)
∂x Δx

Une approximation similaire donne :


∂ 2Φ
⋅ (Φ i +1, j − 2.Φ i , j − Φ i −1, j )
1
≅ (1.4)
∂x 2
Δx 2

Φ i , j +1

O
Φ i −1, j Φ i +1, j
Δx
Δy

Φi, j −1

48
Chapitre 5-I : La Méthode des différences finies (MDF)

Les expressions (1.3) et (1.4) sont exactes lorsque Δx tend vers 0. Mais dans l’analyse
numérique, Δx et Δy sont finis (d’où le terme de différences finies). De manière identique,
nous pouvons écrire les expressions équivalentes suivant la direction y, ce qui donne :
∂Φ
.(Φ i , j +1 − Φ i , j )
1
≅ (1.5)
∂y Δy

∂ 2Φ
.(Φ i , j +1 − 2.Φ i , j − Φ i , j −1 )
1
≅ (1.6)
∂y 2
Δy 2
L’utilisation de la notation indicielle permet une programmation et une évaluation
directe des expressions ainsi obtenues. Lorsque les équations (1.4) et (1.6) sont substituées
dans l’équation de Laplace, nous obtenons la formulation algébrique suivante :
⎛ ⎛ Δx ⎞ 2 ⎞ ⎛ Δx ⎞
2

2. 1 + ⎜⎜ ⎟⎟ Φ i , j ≅ Φ i −1, j + Φ i +1, j + ⎜⎜ ⎟⎟ .(Φ i , j −1 + Φ i , j +1 )


⎜ ⎟ (1.7)
⎜ ⎝ Δy ⎠ ⎟ ⎝ Δy ⎠
⎝ ⎠
Δx
où dépend du choix de la taille du maillage.
Δy

Pour un maillage carré (Δx= Δy), l’équation (1.7) se simplifie comme suit :
Φ i , j ≅ .(Φ i , j +1 + Φ i , j −1 + Φ i −1, j + Φ i +1, j )
1
(1.8)
4

On obtient ainsi un système d’équations linéaires implicites lorsque les formulations


analytiques sont considérées à chaque nœud. À partir du système d’équations, on obtient un
système algébrique qui peut s’écrire sous forme matricielle :
[A]{Φ} = {B} (1.9)
où {Φ} est le vecteur formé par les inconnues en potentiel de tous points intérieurs au
domaine et {B} le vecteur des conditions aux limites. La résolution du système (3.9) permet
ainsi d’évaluer le potentiel en chacun des nœuds.

5.1.4 Avantages de la MDF


™ La méthode des différences finies est une méthode simple à appliquer lorsque la
géométrie le permet et c’est une méthode raisonnablement exacte.
™ De plus, elle se programme facilement et nécessite peu de mémoire pour le stockage
des données.

5.1.5 Inconvénients de la MDF

49
Chapitre 5-I : La Méthode des différences finies (MDF)

™ Lorsque la géométrie est de frontière courbe, le schéma ne peut s’applique près des
frontières irrégulières et donc cette méthode devient difficilement applicable. On doit
alors rechercher à la place une méthode qui est valide indépendamment de la
géométrie.
™ Elle n’est pas applicable pour des problèmes en 3 dimensions.
™ Cette méthode nécessite la connaissance, sur toute la frontière entourant le domaine
étudié, du potentiel, ce qui n’est pas toujours le cas en général.

50
Chapitre V-2

La méthode des éléments finis


(MEF)
Chapitre 5-II La méthode des éléments finis (MEF)

5.2.1 Introduction
Les progrès de l’informatique ont permis de développer des méthodes numériques de calcul
afin de déterminer de façon précise les distributions des différents paramètres dans le domaine
des sciences appliquées tels que le champ électrique, le potentiel électrique, les forces
électromécaniques, la température, viscosité,…..
Les méthodes numériques les plus connues et les plus utilisées dans ce type de problème sont
donc la méthode des différences finies (MDF), la méthode des éléments finis (MEF), la
méthode de simulation de charges (MSC), la méthode des éléments finis de frontière (MEFF),
la méthode des volumes finis (MVF),… etc.
La méthode des éléments finis est l’un des outils les plus efficaces et plus généraux de la
simulation numérique. L'application des conditions d’équilibre et des lois de comportement de
la physique permet de construire des équations approchées dont les inconnues sont les valeurs
de la solution en un ensemble bien choisi de points, appelés les nœuds de la discrétisation.
Une simulation réaliste peut exiger des centaines de milliers de nœuds et d’éléments.
Dans ce chapitre, nous allons rappeler quelques propriétés de la méthode des éléments finis.
Une illustration de cette présentation est donnée en prenant l’équation de Poisson (2.1) en
deux dimensions définie dans le domaine donné sur la figure (2.1).
∂ 2Φ ∂ 2Φ
+ = G ( x, y ) (2.1)
∂x 2 ∂y 2

Δy

Δx
Figure 2.1 Maillage carré

Chaque point est situé sur un des sommets d'un carré. Il existe d'autres maillages réguliers
comme le maillage en triangles équilatéraux et en hexagones équi-angulaires.
La MEF, outil numérique très puissant, est beaucoup utilisé dans la résolution des
problèmes à domaine spatial fini, surtout en mécanique où elle a connu son plus fort
développement. Cette méthode a été appliquée avec succès dans les problèmes de calcul de
potentiel et de champs électriques.
L’idée de cette méthode est de chercher une solution approchée à une équation
différentielle après une reformulation sous forme d’identité intégrale appelée forme faible ou
variationnelle. Au lieu de rechercher à satisfaire l’équation aux nœuds, nous décomposons ici
le domaine en sous domaines appelés éléments finis, et nous imposons la satisfaction des
équations par sous domaine. L’introduction d’une approximation locale par sous domaine (dit

51
Chapitre 5-II La méthode des éléments finis (MEF)

élément fini), permet de contourner le problème de complexité des géométries car il suffit
alors de choisir une approximation ou une décomposition (maillage) qui respecte la
géométrie.
La méthode des éléments finis utilise des approximations simples à variables inconnues dans
chaque élément pour transformer les équations aux dérivées partielles en équations
algébriques. Les noeuds et les éléments n’ont pas forcement de signification physique
particulière, mais sont basés sur des considérations de précision de l’approximation.
L’approximation peut fournir une solution approchée en tout point (x, y) d'une fonction
difficile à évaluer ou connue seulement en certains points et une solution approchée d’une
équation différentielle ou aux dérivées partielles. Lorsque la frontière du domaine est
constituée par des courbes ou des surfaces plus complexes que celles qui définissent les
frontières des éléments, une erreur est inévitable. Cette erreur est appelée "erreur de
discrétisation géométrique". Elle peut être réduite en diminuant la taille des éléments.

5.2.2 Principe de la méthode


La MEF repose sur deux principes : d’une part, la formulation d’un problème approché
par la méthode de Galerkin, qui permet de remplacer un problème posé en dimension infinie
par un système linéaire. D’autre part, la construction d’un espace d’approximation (de
dimension finie) à l’aide d’un maillage, de fonctions polynomiales par morceaux et de degré
de liberté sur chaque maille.
La première étape dans la construction de l’espace d’approximation S b , consiste à mailler
l’intervalle Ω en une dimension d’espace (figure 2.2). Un maillage Ω = ]ak , bk [ est une
collection indexée d’intervalle {I i = [x1,i , x 2,i ]}1≤i ≤ N tous de mesure non nulle et formant une
ma

partition de Ω .

Figure 2.2 Le maillage en éléments finis triangulaires


En d’autres termes nous avons :

52
Chapitre 5-II La méthode des éléments finis (MEF)

]ak , bk [ = U [x1,i , x2,i ] ] [


et ]x1,i , x2,i [ I x1, j , x2, j = φ pour i ≠ j
N ma
(2.2)
i =1

Les intervalles I i sont appelés les mailles (ou les éléments ou les cellules de maillage), et
l’entier N ma désigné le nombre totale de mailles.
La façon la plus simple de construire un maillage est de choisir ( N ma + 1) points distincts de
Ω tels que :
ak = x1 < x2 < ... < xN ma < xN ma +1 = bk (2.3)
{
et de poser x1,i = xi et x1, j = x j pour tout i ∈ {1....N ma }. Les points de l’ensemble xi ...x N ma +1 }
sont appelés les sommets du maillage. Nous désignons par N s 0 le nombre de sommets du
maillage en une dimension d’espace. On a donc :
N s 0 = N ma + 1 (2.4)

Le maillage est à priori de pas variable, on pose pour tout i ∈ {1....N ma } :


bi = xi +1 − xi et bk = MAX bi (2.5)
1≤i ≤ N ma

On dit que le maillage est uniforme lorsque bk = bi pour tout i ∈ {1....N ma } par la suite, le
maillage est désigné sous la forme Tb = {I i }1≤i ≤ N ma .
La deuxième étape dans la construction de l’espace d’approximation consiste à choisir
des fonctions de forme sur chaque maille. Ces fonctions d’interpolation permettent alors de
~
donner une approximation du potentiel Φ , notée Φ , sur chaque élément en fonction de ses
valeurs aux nœuds de l’élément comme suit :
~
Φ = ∑i =e1 N i Φ i
N
(2.6)

avec N e le nombre de nœuds d’interpolation, N i les fonctions d’interpolation et Φ i les


valeurs nodales du potentiel.

Pour illustrer le principe de la MEF, on reprend l’exemple de l’équation de Poisson (2.1) en


deux dimensions définie dans le domaine donné. Et on recherche à minimiser la quantité RM
telle que :
~
RM = ∇ 2 Φ ( ) (2.7)
Parmi toutes les méthodes qui permettent d’annuler une grandeur dans un domaine Ω , la
méthode des résidus pondérés est bien connue et souvent utilisée. Elle consiste à choisir un
ensemble de fonctions linéairement indépendantes Wn , appelées fonctions de projection, et
annuler ainsi toutes les intégrales (2.7) sur chacun des éléments finis.
I n = ∫ Wn RM dΩ (2.8)
Ω

L’intégration par partie de l’équation (2.8) donne :

53
Chapitre 5-II La méthode des éléments finis (MEF)

~ ~
(
I n = − ∫ gradΦ.gradWn dΩ + ∫ gradΦ.n Wn dS e ) (2.9)
Ωe Se

Pour chaque élément, on annule les n intégrales I n (2.9) qui correspondent aux n fonctions

de projection. On obtient un ensemble de n équations à n inconnues formant ainsi un


système élémentaire pouvant s’écrire sous la forme matricielle suivante :
[Ae ]{Φ e } = {be } (2.10)

avec [ Ae ] : est la matrice associée à l’élément considéré ;

{Φ e } : ses composantes sont les inconnues du potentiel aux nœuds du même élément ;
{be } : est le vecteur qui tient compte des éventuelles conditions aux limites présentées
sur certains nœuds de l’élément considéré.

La résolution du système final est simple puisque les équations obtenues sont linéaires et
les matrices ainsi formées sont symétriques. Pour déterminer la distribution du champ
électrique, il faut calculer la dérivée du potentiel par une méthode numérique adaptée.

5.2.3 Les différentes étapes de la résolution par la MEF


Pour résoudre un problème par la méthode des éléments finis, on procède donc par les étapes
successives suivantes (figure 2.3) :

1. On pose un problème physique sous la forme d’une équation différentielle ou aux


dérivés partielles à satisfaire en tout point d’un domaineΩ, avec des conditions aux
limites sur le bord ∂Ω nécessaires et suffisantes pour que la solution soit unique.

2. On construit une formulation intégrale du système différentiel à résoudre et de ses


conditions aux limites : C’est la formulation variationnelle du problème.

3. On divise Ω en sous domaines : C’est le maillage. Les sous domaines sont appelés
mailles.

4. On choisit la famille de champs locaux, c’est à dire à la fois la position des nœuds
dans les sous domaines et les polynômes (ou autres fonctions) qui définissent le champ
local en fonction des valeurs aux nœuds (et éventuellement des dérivées). La maille
complétée par ces informations est alors appelée élément.

5. On ramène le problème à un problème discret : C’est la discrétisation. En effet,


toute solution approchée est complètement déterminée par les valeurs aux noeuds des
éléments. Il suffit donc de trouver les valeurs à attribuer aux nœuds pour décrire une
solution approchée.

6. On résout le problème discret: C’est la résolution

54
Chapitre 5-II La méthode des éléments finis (MEF)

7. On peut alors construire la solution approchée à partir des valeurs trouvées aux
nœuds et en déduire d'autres grandeurs : C’est le post-traitement.

8. On visualise et on exploite la solution pour juger de sa qualité numérique et juger si


elle satisfait les critères du cahier des charges : C’est l'exploitation des résultats.

Les étapes 1, 2, 3,4 et 5 sont souvent rassemblées sous le nom de prétraitement.

Système Physique

Modélisation par Eléments Finis

Caractéristique Elémentaires Bibliothèque d’éléments

Ke , Fe

Assemblage

K , F

Résolution du système linéaire

Conditions aux limites

E, J, I

Figure 2.3 Organigramme simplifié de l’analyse par la méthode des éléments finis.

55
Chapitre 5-II La méthode des éléments finis (MEF)

5.2.4 Définition des mailles de référence


De manière à simplifier la définition analytique des éléments de forme complexe,
introduisons la notion d’élément de référence (fig.2.4) : un élément de référence Ω r est un
élément de forme très simple, repéré dans un espace de référence, qui peut être transformé en
chaque élément réel Ω e par une transformation géométrique. Cette transformation dépend de
la forme et de la position de l’élément réel.

η y x2

x1
Ω1
Ω2 x3

0,1
3
x5 Ω3

x4
Ωr
1 2
x
0,0 1,0
ξ

(a) Eléments de références (b) Eléments réels

Figure 2. 4 Relation entre l’élément réel et l’élément de référence

Chaque transformation est choisie de manière à présenter les propriétés suivantes :


• Elle est bijective en tout point situé sur l’élément de référence ou sur sa
frontière : à tout point de Ω r .
• Les nœuds géométriques de l’élément de référence correspondent aux nœuds
de l’élément réel.
• Chaque portion de frontière de l’élément de référence, définie par les
nœuds géométriques de cette frontière, correspond à la portion de frontière
de l’élément réel définie par nœuds correspondants.

Soulignons que même l’élément de référence Ω r (par exemple un triangle à 3 nœuds) se


transforme en éléments réels Ω e de même type par des transformations différentes (fig. 3.5).
Nous présentons ci- dessous la forme et la définition analytique des éléments de référence

56
Chapitre 5-II La méthode des éléments finis (MEF)

correspondant aux éléments classiques. Dans un maillage, toutes les mailles ont des formes et
des dimensions différentes. On trouve des mailles linéiques, des mailles surfaciques et des
mailles volumiques de toutes formes et de toutes tailles. Dans le but d'uniformiser et
d'automatiser les calculs, on introduit la notion de maille de référence. Nous ne donnons ici
que les mailles les plus classiques. Par convention généralement admise.

La maille de référence linéique est le segment (figure 2.5) :

x1 ∈ [-1,1]

0 1 -1 0 1 0 1/3 2/3 1
Linéaire (2 nœuds) quadratique (3 nœuds) cubique (4 nœuds).

Figure 2.5 Eléments de referens à une dimension

La maille de référence surfacique triangulaire est le triangle (figure 2.6):

x1 ≥ 0 ; x 2 ≥ 0 ; x1 + x 2 ≤ 1

0,1 0,1 0,1

0,2/3 1/3,2/3

0,1/2 1/2,1/2
0,1/3 2/3,1/3

0,0 1,0 ξ 0,0 1/2,0 1,0 ξ 0,0 1/3,0 2/3,0 1,0 ξ

Linéaire quadratique cubique

Figure 2.6 Eléments de referens triangulaires

La maille de référence surfacique quadrangulaire est le carré (figure 2.7):

57
Chapitre 5-II La méthode des éléments finis (MEF)

x1 ∈ [−1,1] ; x 2 ∈ [−1,1]

η η
η -1/2,1 1/2,1
1,1 0,1
-1,1 -1,1 1,1 -1,1 1,1

-1,1/2 1,1/2
1,0
-1,0
ξ ξ ξ
-1,-1/2 1,-1/2

-1,-1 1,-1 1,-1 -1,-1 1,-1


-1,-1 0,-1 -1/2,-1 1/2,-1

Linéaire quadratique cubique

Figure 2.7 Eléments de références carrés

La maille de référence volumique tétraédrique est le tétraèdre (figure 2.8):

x1 ≥ 0 ; x 2 ≥ 0 ; x3 ≥ 0 ; x1 + x 2 + x3 ≤ 1.

ξ
ξ ξ
0,0,1

0,1,0
0,0,0 η η η
1,0,0
ε ε ε
Linéaire quadratique cubique

Figure 2.8 Eléments de référence tétraédrique

La maille de référence volumique hexaédrique est le cube (figure 2.9):

x1 ∈ [−1,1] ; x 2 ∈ [−1,1] ; x3 ∈ [−1,1]

Où x1, x2 et x3 sont les coordonnées d'un point courant m de la maille de référence.

58
Chapitre 5-II La méthode des éléments finis (MEF)

ξ ξ ξ
-1,-1,1
1,1,1
1,-1,1 η η η

-1,-1,-1 -1,1,-1 ε ε ε
1,1,-1
1,-1,-1

Hexaédrique - linéaire Hexaédrique - quadratique Hexaédrique -cubique

ξ ξ ξ

0,0,1 0,1,1

1,0,1

η η η

0,1,-1
0,0,-1
ε ε ε
1,0,-1

Prismatique- linéaire Prismatique- quadratique Prismatique- cubique

Figure 2.9 La maille de référence volumique hexaédrique

5.2.5 Interpolation polynomiale sur les mailles de référence


Les concepts de transformation géométrique et d’élément de référence simplifient la
construction des fonctions d’interpolation pour des éléments de formes compliquées. Les
fonctions Ф(x, y, a1 , a 2 ,……., a n ) sont souvent choisies de manière à être faciles à évaluer sur
ordinateur, à intégrer ou dériver explicitement. Ainsi l’approximation peut fournir :

- Une expression approchée en tout point (x, y) d’une fonction difficile à évaluer ou

connue seulement en certains points ;

- Une solution approchée d’une équation différentielle ou aux dérivées partielles.

Le polynôme d’interpolation d’ordre n à deux dimensions, est donné sous la forme:

φ ( x, y ) = a1 + a 2 x + a3 y + a 4 x 2 + a5 y 2 + a 6 xy + ..... + a 2 n +1 y n (2.11)

59
Chapitre 5-II La méthode des éléments finis (MEF)

Pour n=1, nous avons l’équation d’interpolation linéaire suivante (fig. 210) :

φ ( x, y ) = a1 + a 2 x + a3 y (2.12)

Φ1
Φ = α1 + α 2 x + α 3 y
Φ
Φ2

Φ3

X
P ( xp , y p ) t
( xt , yt )
Y

q
( xq , yq )

Figure 2.10 Paramètres de l’élément triangulaire linéaire

Pour n=2, nous avons l’équation d’interpolation quadratique sous la forme :

φ ( x, y ) = a1 + a2 x + a3 y + a4 x 2 + a5 y 2 + a6 xy. (2.13)

Pour notre cas, nous utilisons l’élément triangulaire comme élément de référence.
Alors nous pouvons utiliser une équation d’interpolation linéaire de premier ordre.

5.2.6 Avantages de la MEF


™ La flexibilité est l’un des plus importants avantages de la MEF. Les éléments peuvent
avoir plusieurs formes variées et peuvent donc s’adapter facilement à n’importe
quelles formes géométriques complexes et aussi tenir compte des propriétés
inhomogènes et non linéaires des matériaux.
™ La programmation de la méthode est assez simple surtout lorsqu’il s’agit de tenir
compte de l’introduction des conditions aux limites.

60
Chapitre 5-II La méthode des éléments finis (MEF)

™ La MEF a fait ses preuves dans beaucoup de domaine en ingénierie. De plus, avec son
développement important, il existe de très bons logiciels commerciaux qui sont basés
sur cette méthode et qui la rendent très accessible. Et par conséquent, elle est
applicable à beaucoup de problèmes sans que nous connaissions nécessairement la
MEF en détail.
™ Les matrices formant le système final d’équations sont symétriques ce qui simplifie
grandement la résolution de celui ci.

5.2.7 Inconvénients de la MEF


™ L’utilisation de la MEF pour la résolution d’un problème donné, nécessite la
connaissance parfaite de la géométrie du problème mais aussi des conditions aux
limites, ce qui n’est pas toujours le cas.
™ Une fois le potentiel connu en chaque nœud, il faut procéder à un autre calcul
numérique pour déterminer le champ électrique en tout point. Ce qui peut engendrer
d’autres erreurs.
™ Il a été dit que la MEF était une méthode flexible car elle s’adapte facilement aux
différentes géométries, mais ce n’est pas le cas du maillage car celui ci doit être
entièrement refait si une modification sur une partie de la géométrie du problème
considéré intervient.

5.2.8 Formulations matricielles de la MEF


Lorsque nous utilisons les techniques matricielles, nous sommes amenés
successivement à s’intéresser à deux niveaux de formulation :
- La formulation élémentaire au niveau de l’élément fini ;
- La formulation globale au niveau de la structure complète.
L’équation de Poisson pour deux dimensions, est donnée sous la forme:
∂ 2 Φ ( x , y ) ∂ 2 Φ ( x, y )
+ − G ( x, y ) = 0 (2.14)
∂x 2 ∂y 2

D’après le théorème d’Euler, la résolution de cette équation différentielle est équivalente à


minimiser la fonctionnelle d’énergie W qui s’écrit :

1 ∂ 2Φ ∂ 2Φ
W = ∫∫ [ [ 2 + 2 ] − ρ ]dxdy (2.15)
2 ∂x ∂y ε0
Ω

L’intégrale est étendu à un ensemble du domaine de calcul, que l’on subdivise en petits
éléments par maillage triangulaire où chaque triangle est repéré par ses trois sommets (nœuds)
Les polynômes d’interpolations du potentiel aux sommets du triangle sont donnés par le
système d’équations suivant :

61
Chapitre 5-II La méthode des éléments finis (MEF)

φ1 = α 1 + α 2 x1 + α 3 y1

φ 2 = α1 + α 2 x2 + α 3 y 2 (2.16)

φ 3 = α 1 + α 2 x3 + α 3 y 3

La résolution du système (2.16), nous donne les coefficients α i :

1
α1 = [ a 1 .φ 1 + a 2 .φ 2 + a 3 .φ 3 ]
2Δ e

1 (2.17)
α2 = [ b 1 .φ 1 + b 2 .φ 2 + b 3 .φ 3 ]
2Δ e

1
α3 = [ c1 .φ 1 + c 2 .φ 2 + c 3 .φ 3 ]
2Δ e

Avec : a1 = x 2 . y 3 − x3 y 2 b1 = y 2 − y3 c1 = x3 − x 2

a 2 = x3 . y1 − x1 y 3 ; b2 = y 3 − y1 ; c 2 = x1 − x3 (2.18)

a3 = x1 . y 2 − x 2 y1 b3 = y1 − y 2 c3 = x 2 − x1

1 x1 y1
2.Δ e = 1 x 2 y 2 = b1c 2 − b2 c1 : L’aire de l’élément triangulaire. (2.19)
1 x3 y3

Le potentiel en tout point d’un élément (e) est exprimé par la relation:

3
⎡φ1 ⎤
Φ ( x, y ) = ∑ φ i .N i ( x, y ) = [ N 1 N 2 N 3 ] ⎢⎢φ 2 ⎥⎥ (2.20)
i =1
⎢⎣φ 3 ⎥⎦

1
Avec: N i ( x, y ) = (ai + bi x + ci y ) ; i=1, 2, 3 . (2.21)
2.Δ e

Les fonctions N i sont appelées fonctions de formes. Elles doivent vérifier la condition
suivante :
0 Si i ≠ j
N i ( x j , y j ) = δ ij = (2.22)
1 si i= j

62
Chapitre 5-II La méthode des éléments finis (MEF)

La minimisation de la fonctionnelle W est réalisée quand les dérivées partielles par


∂W
rapport à tous les potentiels des nœuds sont nulles, c'est-à-dire : = 0 . Avec {φ } est le
∂{φ }
vecteur potentiel pour tous les nœuds du système.

L’équation (2.15) montre que nous pouvons restreindre l’intégrale double au domaine
formé des n éléments (ei ) n comportant le sommet i. Nous déduisons:

∂W ⎡⎛ ∂φ e ∂ ⎛ ∂φ( e ) ⎞ ∂φ( e ) ∂ ⎛ ∂φ( e ) ⎞ ⎞ ρ ∂φ( e ) ⎤


= ∑ ∫∫ ⎢⎜⎜ ( ) ⎜⎜ ⎟⎟ + ⎜⎜ ⎟⎟ ⎟ −
⎟ ⎥ dx.dy (2.23)
∂φi ⎢⎝
n ( ei ) n ⎣ ∂x ∂φi ⎝ ∂x ⎠ ∂y ∂φi ⎝ ∂y ⎠ ⎠ ε 0 ∂φi ⎥⎦

Ce qui devient, compte tenu de (3.15) à (3.23) :

∂W ⎡⎛ b b jφ j ci c jφ j ⎞ ρ ⎤
= ∑ ∫∫ ⎢⎜⎜ i ∑ + ∑ ⎟ − N i ⎥ dx.dy
⎟ ε (2.24)
∂φi ⎢⎝
n ( ei ) n ⎣ 2 Δ j 2 Δ 2 Δ j 2 Δ ⎠ 0 ⎥⎦

Nous aboutissons à un système linéaire de forme matricielle :

K .Φ = F (2.25)
avec : K : Matrice de raideur ;

Φ : Matrice des potentiels aux nœuds ;

F : Second membre du système.

Le terme K ij se calcule par intégration sur les triangles comportant les nœuds i et j, soit :

bi b j + ci c j 1 ∂N ∂N j ∂N i ∂N j
K ij = ∑ ∫∫ dx.dy = ∑ (bi b j + ci c j ) = ∫∫ [ i + ]dxdy (2.26)
n ( ei ) n 4Δ2 4Δ n Δe
∂x ∂y ∂y ∂x

Tandis que le second membre Fi est déterminé par :

ρ ρ Δ
Fi = ∑ ∫∫ ε N i dx.dy = ∑ (2.27)
n ( ei ) n 0 n ε0 3

63
Chapitre 5-II La méthode des éléments finis (MEF)

La matrice K comporte un fort pourcentage de termes nuls, car K ij n’est calculé que si le

nœud i est relié au nœud j.

Pour le calcul de ces intégrales, nous utilisons la transformation suivante:

l!m!n!
∫∫Δe
( N 1 ) l ( N 2 ) m ( N 3 ) n dxdy =
(l + m + n + 2)
; i,j = 1, 2, 3. (2.28)

5.2.9 Assemblage
La phase d’assemblage consiste à construire la matrice globale K et le vecteur global F
de la structure complète à partir de la matrice et de vecteur caractéristiques des différents
éléments Ke, Fe préalablement calculés. L’assemblage s’effectue en additionnant bloc à bloc
les sous – matrices nodales de chaque élément, les indices de ligne et colonne correspondant à
la numérotation des nœuds de cet élément dans la matrice globale [K] et le vecteur global
{F }. Avec :

N = nbre. d ' éléments


[K]= ∑ [K ]
e =1
e (2.29)

N = nbre.d ' éléments


{F } = ∑ {F } e
e =1

Une fois K et F construites, les potentiels inconnus sont obtenus en multipliant


l’inverse de K par F. Dans le cas de l’équation de Laplace la même procédure est à suivre en
prenant ρ = 0 .

10 Introduction des conditions aux limites


Après l’assemblage, la forme intégrale globale s’écrit :
W =p δΦ f ([K ] { Φ }- {F}) = 0 (2.30)
Le problème consiste à trouver { Φ } qui annule W pour tout p δΦ f en satisfaisant les
conditions aux limites.

Donc le système algébrique : [K]{ Φ }= {F} doit être modifié en introduisant les
conditions aux limites.

64
Chapitre 5-II La méthode des éléments finis (MEF)

5.2.11 Conditions de convergence de la solution


La méthode des éléments finis fournit une solution approchée qui converge vers la
solution exacte lorsque l’on diminue la taille des éléments, si l’approximation de Ф satisfait
aux conditions suivantes :

• Base polynomiale complète :

Pour que la solution approchée tende vers la solution exacte lorsque la taille h des
éléments tend vers zéro, il faut que l’erreur d’approximation de tous les termes We soit

d’ordre h n avec n ≥ 1. Nous avons vu que l’approximation de Ф doit utiliser au moins une
base polynomiale complète jusqu’à l’ordre m pour assurer la convergence des dérivées de
Ф d’ordre m.

• Continuité :
A la condition locale précédente, il faut ajouter une condition globale concernant la
continuité des approximations de Ф et de ses dérivées entre les éléments de manière à
pouvoir écrire la solution du problème sans la discontinuité.

• La fonction Ф et toutes ses dérivées jusqu’à l’ordre m qui apparaissent dans les
équations doivent être bornées et continues sur les frontières entre éléments ; dans ce cas
un élément est dit conforme.

5.2.12 Conclusion
La modélisation et la simulation numérique sont d'une importance capitale dans le monde
d'aujourd'hui. Ces techniques ne se limitent pas au domaine de la recherche, mais
interviennent également dans l’industrie. Grâce à l’utilisation des outils de modélisation, les
coûts de développement et de conception, sont considérablement réduits et le développement
de prototypes se limite aux aspects de validation. Ainsi la modélisation engage des enjeux
économiques considérables.
La méthode des éléments finis est l’un des outils les plus efficaces et plus généraux de la
simulation numérique. L'application des conditions d’équilibre et des lois de comportement de
la physique permet de construire des équations approchées dont les inconnues sont les valeurs
de la solution en un ensemble bien choisi de points, appelés les nœuds de la discrétisation.
Une simulation réaliste peut exiger des centaines de milliers de nœuds et d’éléments.

65
Chapitre 5-II La méthode des éléments finis (MEF)

Exercice
EXERCICE 1 :
Soit U une fonction de R2 dans R :
dU dU
1) Trouver la forme générale des solutions de l’équation des ondes : =4 .
dx dy
2) Déduire celle vérifiant: U (0, y ) = 8.e −3 y

EXERCICE 2 :
Résoudre par la méthode des différences finies l’équation : ∂ U + ∂ U = 0
2 2
dans le carré :
∂x 2 ∂y 2
0 ≤ x ≤ 3 ; 0 ≤ y ≤ 3 Avec h = Δx = 1 et k = Δy = 1
Vérifiant les conditions aux limites :
U (0, y ) = 0 ; U (3, y ) = 27 − 9 y 2 ;
U ( x,0) = x 3 U ( x,3) = x 3 − 27 x .

EXERCICE 3 :
∂ 2U ∂ 2U
Résoudre par la méthode des éléments finis l’équation : + 2 + fv = 0
∂x 2 ∂y
Définie sur un carré de côtés 2, et associée aux conditions aux limites: U= 0 : sur les quatre côtés du
carré.
Pour notre cas, nous prenons f v = 1 ( Coefficient d’équilibre).

EXERCICE 4 :
∂ 2U ∂U
Soit l’équation aux dérivées partielles suivante : x 2 − 2x − 4U = x 2 ; 10 p x p 20 .
∂x 2
∂x
Avec les conditions aux limites : U (10) = 0 et U (20) = 100 .
Résoudre cette équation par :
a) Méthode analytique ;
b) Méthode des différences finies ;
c) Méthode des éléments finis.
Analyser et comparer les résultats obtenus.

EXERCICE 4 :
Considérons, dans le plan ( 0 ;x,y), le cercle de centre 0 et de rayon 1, et l’écoulement
incompressible, irrotationnel, stationnaire et sans circulation autour de cet obstacle,
correspondant à la vitesse à l’infini (1,0). Le potentiel complexe correspondant s’écrit :
1
f ( z ) = z + ' où z = x + iy .
z
Le potentiel des vitesses est Φ = x + φ , le potentiel de perturbation φ étant donné par :
x cos θ
φ= 2 = , où x = r cos θ , y = r sin θ .
r r
Retrouver la fonction Φ dans un domaine Ω du plan par la MEF. Sachant que Φ est harmonique.
Pour Ω , choisir le domaine compris entre les cercles de centre 0 et de rayons 1 et 2 du quart de plan
x f 0.

66