Vous êtes sur la page 1sur 11

Chapitre II: R

Rappel sur le calcul matriciel

Le calcul par éléments finiis nécessitant le maniement de nombreuses valeurs


numériques, il est plus aise d’eexprimer celles-ci sous forme matricielle.
En regroupant des termes dee même nature au sein d’une seule et même variable,
v
cette écriture plus synthétiquee permet en effet une meilleure compréhens
nsion des
différentes phases de construction
on d
de la méthode.
Ceci nécessite néanmoins la maitrise des opérations de base associées a ce type de
calcul : l’addition ou le produ
oduit de plusieurs matrices, la résolution de sy ystèmes
linéaires, etc.
II.1 Notion de matrice
Soit la fonction polynomiale su
suivante :

(2.1)
Et sa dérivée :

(2.2)
Supposant que v(x) et v'(x) valent
v v1 et β1 en x = 0 , v2 et β2 en x = L , on peut
aisément établir le système de 4 équations suivant :

(2.3)

Cependant, ce système peut être exprimé de manière plus synthétique sous forme
matricielle en posant que le vectteur v

peut être relié au vecteur b

Anticipant sur les règles relaatives au produit des matrices (cf. paragraphe
he II.2.2),
on a donc :

14
équivalent au système d’équaations (2.3).
Dans ce cas {v} et {b} sont d des vecteurs " colonne " a 4 lignes alors que la matrice
[R] est une matrice dite carréeée a 4 lignes et 4 colonnes. De manière généra érale, une
matrice peut être caractérisée par
ar un ensemble de nombres ordonnes et regroup oupes en n
lignes et m colonnes.
dimensions n × m :
On aura alors une matrice de d

(2.4)

aij caractérisant le terme dess ieme ligne et jeme colonne de la matrice [A] . Si n = 1 ou
m = 1, la matrice sera associée susuivant le cas, soit a un vecteur ligne, soit a un vecteur
colonne qui sont généralement no notes { } . De plus et spécifiquement pour les matrices
ma
dites carrées (n = m), les termees aii seront appelés termes diagonaux et form meront la
diagonale de la matrice.
II.2 Opérations de base
II.2.1 Addition
Soit deux matrices [A] et [B]] de dimensions n × m construites a partir de (2.4),
( la
matrice [C] de mêmes dimensiions, somme des matrices [A] et [B], sera obteenue en
posant que chacun des termes cij est égale a aij +bij . On aura alors :

15
(2.5)

Dans le cas d’une différence d


des matrices [A] et [B], on posera de la même façon
faç :
cij = aij −bij (2.6)
Exemples : Soit les matrices

et

II.2.2 Produit
■■ Produit d’une matrice p
par un scalaire
nsions n × m, la matrice [C] , produit de la matrrice
Soit une matrice [A] de dimens
[A] par le scalaire l sera obtenu
nue en multipliant chacun des termes de la matrrice
[A] par l. On aura donc :
cij = λ . aij (2.7)
Exemple :

■■ Produit de 2 matrices
Soit deux matrices [A] et [B]] de dimensions respectives n ×m et m × l, la matrice
[C], produit des matrices [A] ett [B]1, de dimensions n × l, sera obtenue en posant
pos que
les termes cij sont égaux a :

(2.8)
Par exemple, on trouvera pou
pour le premier terme :
c11 = a11 × b11 + a12 × b21 + ..... + a1m × bm1

16
Cependant et pour que ce pproduit soit possible, il est important de noter
er que le
nombre de colonnes de la matrice
ce [A] doit être égal au nombre de lignes de la matrice
[B].
Exemple : Soit les matrices A et B:

■■ Produit de 3 matrices
Soit trois matrices [A] , [B] eet [C] de dimensions respectives n × m, m × l et
e l × p,
la matrice [F ] , produit des m matrices [A] , [B] et [C] , de dimensions n × p sera
obtenue en effectuant dans un premier temps soit le produit [A].[B] soit celui ce de
[B].[C], les deux approches ameenant au même résultat.

Exemple : Soit les matricess A


A, B et C

17
II.2.3 Matrice transposée
Soit la matrice [A] de dimeensions n × m, la matrice [B] de dimensions ns m × n
transposée de [A] (notée [A ]T ) sera obtenue en posant pour chacun des termess de [B]
que bij = a ji . Pratiquement, ce calcul revient à échanger les lignes et les colonn
onnes de
la matrice [A] .
Exemple : soit la matrice A eet B

On notera par ailleurs que :

(2.9)
II.3 Matrices carrées
II.3.1 Matrice identité
La matrice identité, notée [II ] , est une matrice carrée dont les termes diaagonaux
sont égaux a 1, tous les autres éétant nuls. De ce fait, le produit de la matrice identité
par une matrice [A] quelconque (ou inversement) est égale a la matrice [A] ellelle-même.

(2.10)

II.3.2 Matrice inverse


La matrice inverse de [A] nottée [A]−1 est définie telle que [A] _[A] = [A]_[A
A] = [I ]
et peut être calculée en posant :

(2.11)
ou Com[A] et det[A] sont re
respectivement la comatrice et le déterminan
nt de la
matrice [A] .
La matrice [A] sera donc inv
nversible a condition que son déterminant soit différent
d
de 0.
■■ Calcul du déterminant
– 2 dimensions :

(2.12)

– 3 dimensions :

18
(2.13)

Qui peut être calcule grâce à la règle de Sarraus :

----------- + Produit des 3 term


mes
‫ – ـــــــــــــــــ‬Produit des 3 ter
ermes

■■ Calcul de la comatrice et la matrice inverse


La comatrice de [A] , notée C
Com[A] , correspond a la matrice des cofacteurss de [A]
. Le cofacteur du terme i, j de lla matrice [A] est obtenu en multipliant par (− − ) i+j le
déterminant de la sous-matrice iissue de la suppression des ligne i et colonne j.
– 1 dimension :

(2.14)
– 2 dimensions :

(2.15)

– 3 dimensions :

19
(2.16)

II.3.3 Méthodes de résolutioon de systèmes linéaires


Considérant n équations a n inconnues (qui sont regroupées dans le vecteu ur {q} ),
la résolution du système linéaire
re de type [K ].{q} = {F} amène a isoler le vectteur {q}
de manière a obtenir :

(2.17)
Ceci suppose bien sur que le d
déterminant de la matrice [K ] est différent de 0.
Dans le cas contraire, on par
arlera de système singulier. Nous verrons d’ailleeurs par
la suite qu’en éléments finis la singularité de la matrice de rigidité [K ] est souvent
souv a
associer a un problème de conditi
itions d’appui.
De plus, la méthode de calcu
ul par éléments finis amenant dans la plupart des cas a
la résolution d’un système dee n équations a n inconnues de grandes dimeensions,
l’inversion conventionnelle vue au chapitre précédent s’avérera peu efficace.
Les outils de calcul par élémments finis font donc très souvent appel a des méthodes
m
plus pertinentes telles que celless p
par élimination de Gauss, de Cholesky ou fron
ontale.
Il existe deux grandes famill
milles de méthodes de résolution : les méthodes directes
(Gauss, Cholesky, frontale, etc.)) et les méthodes itératives (gradients conjuguess).
Leur efficacité sera directem ment liée aux performances du ou des process sseurs de
l’ordinateur utilise, de la vitessee d’accès au disque dur mais surtout de la quaantité de
mémoire vive (RAM) disponible. e.
Généralement, les méthodes de gradients conjugues se révèlent moins gourrmandes
en terme de mémoire. Ceci éétant et spécifiquement pour les problèmes linaires
élastiques comportant plusieurrs cas de charges, leur utilisation apparait it moins
pertinente dans la mesure ou ce
celles-ci nécessitent une résolution complète a chaque
changement d’état de charges.
En effet et dans le cas des m méthodes directes appliquées aux problèmes linéaires
li
élastiques, seul le premier cas de charges nécessite une inversion de la maatrice de
rigidité, les résultats des cas sui
suivants étant obtenus par linéarité âpres stockag
ge de la
matrice inversée en mémoire (un uniquement si les conditions d’appui ou de temp pérature
ne varient pas).
■■ Résolution par la méthoode par élimination de Gauss

20
Soit le système à résoudre

(n équations à n inconnues) :

(2.18)

Pour éliminer la 1re inco


onnue, la méthode consistera à exprimer q1 en fonction
f
placer dans les (n –1) équations restantes :
des autres inconnues et à la remp

(2.19)
Donc et en remplaçant (2.19)) dans (2.18), le système devient :

(2.20)

Avec

Au terme de la nième éliminaation, le systeme s’écrit sous forme triangulaire


re ce qui
rend aisée sa résolution :

(2.21)

Ceci étant, l’utilisation de la méthode par élimination n’est envisageable qu


ue si les
termes diagonaux de la matrice ce [K] sont non nuls. Dans le cas contraire,, un ou
plusieurs pivots nuls rendron ont l’inversion de la matrice [K] impossiblee. Bien
évidemment, tous ces pivots do doivent être différents de zéro et nous verrons
ons même
qu’en éléments finis, ceux-ci dodoivent être positifs.

21
■■ Exemple de résolution pa
par la méthode de Gauss
Soit le système d’équations
ons su
suivant :

(2.22)

v 1re étape : éliminatioon de U2


De la 1re équation de (2.22),, on d
déduit que :

(2.23)
En remplaçant (2.23) dans (2.22
2.22), la nouvelle expression du système fait ap
pparaitre
quatre équations indépendantess d
de U2 :

(2.24)
em
v 2 étape : éliminatioon de V2
Pour éliminer V2 , on répètte l’opération en considérant cette fois la deeuxième
équation de (2.24) d’ou :

(2.25)
Le système devient alors :

(2.26)
Et ainsi de suite…
v 3em étape : éliminatioon de V3

22
(2.27)

(2.28)

v 4em étape : éliminatioon de U4

(2.29)

(2.30)
Soit finalement :

(2.31)
On déduit de la 5e équation
on :

23
(2.32)
D’ou a partir de (2.23), (2.25
2.25), (2.27) et (2.29), les valeurs des autres inconnu
nues :

(2.33)

Bien évidemment, la méthod


hode par élimination de Gauss s’avère dans ce cas ca bien
compliquée comparée a une app
pproche plus classique telle que celle décrite ci-d
dessous.
Reprenant le système (2.22
2.22), les 2e et 5e équations permettent de déduire
respectivement que 2V2 =V3 et 2
2V4 =V3 d’ou V2 =V4 .
quations résulte que 2U2 + 2U4 = 0 => U2 = −U4 .
De la somme des 1re et 4e équ
D’ou a partir de la 1re : 3U2 −
−V3 −U4 = 0 =>V3 = 4U2 .
En remplaçant ces différentss résultats dans la 3e équation, on obtient finalem
ment :

Soit

24

Vous aimerez peut-être aussi