Vous êtes sur la page 1sur 43

TABLES DE MATIERES

Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
0.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
0.1.1 Définitions et notations . . . . . . . . . . . . . . . . . . . . . . . 6
0.1.2 Nature de la variable . . . . . . . . . . . . . . . . . . . . . . . . 7

1 Inférence Statistique - Échantillonnage 9


1.1 Échantillon aléatoire : . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.1.1 Introduction : . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.1.2 Statistique: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.1.3 Propriétés élémentaires . . . . . . . . . . . . . . . . . . . . . . 12
1.2 Cas des grands échantillons: . . . . . . . . . . . . . . . . . . . . . . . . 13
1.2.1 La loi des grands nombres: . . . . . . . . . . . . . . . . . . . . . 13
1.2.2 Le théorème central limite: . . . . . . . . . . . . . . . . . . . . . 14
1.3 Cas des petits échantillons: . . . . . . . . . . . . . . . . . . . . . . . . . 16

2 Estimation: Estimation ponctuelle 17


2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.1.1 Exemples lmentaires: . . . . . . . . . . . . . . . . . . . . . . . . 18
2.1.2 Qualit d’un estimateur: . . . . . . . . . . . . . . . . . . . . . . . 18
2.2 Estimation ponctuelle des paramtres usuels: . . . . . . . . . . . . . . . 21
2.2.1 Estimation de la moyenne: . . . . . . . . . . . . . . . . . . . . . 21
2.2.2 Estimateur de la variance d’une population Gaussienne: . . . . . 21
2.3 Mthode du maximum de vraisemblance . . . . . . . . . . . . . . . . . . 22

3 Estimation par intervalle de confiance 25


3.1 Principe de la mthode: . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.2 Estimation de la moyenne d’une variable de Laplace Gauss . . . . . . . 26
3.2.1 L’écart-type σ est connu . . . . . . . . . . . . . . . . . . . . . . 26
3.2.2 L’écart-type σ est inconnu . . . . . . . . . . . . . . . . . . . . . 27

1
3.3 Estimation de l’cart-type d’une loi de Laplace-Gauss . . . . . . . . . . 27
3.3.1 m est connu: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
Annexe 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
.2 Equilibrium a Posteriori Error Estimator . . . . . . . . . . . . . . . . 33
.3 Efficiency of the estimator . . . . . . . . . . . . . . . . . . . . . . . . 35
.4 Mixed a Posteriori Error Estimator . . . . . . . . . . . . . . . . . . . 37
Conclusion Générale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42

2
Liste des figures

3.1 fgfg . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28

3
Liste des tableaux

4
S. Achchab 5

Introduction
6 Introduction

0.1 Introduction
Les méthodes statistiques sont aujourd’hui utilisées dans presque tous les secteurs
de l’activité humaine et font partie des connaissances de base de l’ingénieur, du
gestionnaire, de l’économiste. Parmi les innombrables applications citons dans le
domaine industriel : la fiabilité des matériels, le contrôle de la qualité, l’analyse des
résultats de mesure et leur planification, la prévision et dans le domaine de l’économie
et des sciences de l’homme : les modèles économétriques, les sondages, les enquêtes
d’opinion, les études quantitatives de marchés, etc.

0.1.1 Définitions et notations


A- Unité statistique (Individus): On appelle unité statistique l’élément de base
de l’ensemble que l’on veut étudier.

Exemple:: Si l’on s’intéresse à l’ensemble des petites et moyennes entreprises


(PME). Une PME est considérée comme unité statistique.
B- Population: On appelle population l’ensemble des unités statistiques.

Exemple : si l’on s’intéresse aux salariés d’une entreprise, alors l’ensemble des
salariés forme la population.
C- Caractère statistique: On appelle modalité, l’aspect du caractère retenu dans
le cadre de l’analyse.

Exemple : Pour une personne : la couleur des cheveux, la taille


– Caractère qualitatif : C’est un caractère qui ne peut pas être mesuré, ni
être repéré.

Exemple: situation familiale : célibataire, marié, veuf


– Caractère quantitatif : Le caractère quantitatif peut être repérable ou
mesurable, c’est-è-dire susceptible d’être soumise è une mesure donnant
une valeur numérique.

Exemple : Le revenu des ménages est mesurable en Dirhams, Taille


d’un individu, poids .
S. Achchab 7

D- Variable statistique : C’est l’expression numérique ou littérale retenue dans le


cadre de l’analyse. On la note Xi .
Exemple :

– Taille d’une entreprise : la variable exprimera les différentes tailles d’une


entreprise : petite, moyenne, grande
– Nombre d’enfants à charge des familles : la variable sera numérique:
0, 1, 2, . . . , n enfants à charge.

E- Effectif: C’est le nombre d’individus pouvant être rattachés une variable. On


le note ni .
Exemple: Dans une classe de 20 étudiants : 7 sont redoublants et 13 ne le sont
pas.
n1 = 7 et n2 = 13.

E- Fréquence: Elle peut être de deux types : soit absolue (c’est l’effectif lui-même
ni ), soit relative (rapport d’un effectif à l’effectif total). On note la frquence
relative : p
ni X
f= où N = ni
N i=1

0.1.2 Nature de la variable


• Variable quantitative :
Une variable statistique quantitative peut être soit discrète soit continue.

A- Variable discrte :
Lorsque la variable ne peut prendre qu’une valeur numérique, on parle de
variable discrète.
Exemple:Nombre d’automobiles possédées par les ménages.
B- Variable continue :
On parle de variable continue lorsque celle-ci peut prendre plusieurs valeurs
dans un intervalle donné. L’intervalle des valeurs possibles est divisé en n
petits intervalles.

[α, β] = [A0 , A1 [∪[A1 , A2 [∪ . . . ∪ [An−1 , An ],

où A0 = α < A1 < . . . < An−1 < An = β


Exemple
8 Introduction

Durée d’une conversation téléphonique, la variable pourrait être la suivante


pour un effectif de 34 personnes :

Temps Ecoulés (en mn) Xi Effectifs ni


[0, 5[ 10
[5, 15[ 9
[15, 30[ 15
Total 34

• Variable qualitative :
Une variable qualitative peut être nominale ou ordinale.
Elle est nominale lorsque l’ensemble des modalités ne possède pas de structure
particulière.
Exemple1 : Dans un sondage, on s’intéresse à l’avis des consommateurs envers
un produit : la variable X prend les modalités suivantes : ” satisfait ” ; ” non
satisfaits ” et ” ne sait pas ”.

Une variable est ordinale lorsque l’ensemble des modalités est ordonné.
Exemple: Si on prend la variable X ” État des voitures ”, X prend les modalités
: ” Neuf ”, ” Moyen ” et ” Médiocre ”. X est une variable ordinale.
CHAPITRE 1

Inférence Statistique -
Échantillonnage

9
10 CHAPITRE 1

1.1 Échantillon aléatoire :


1.1.1 Introduction :
Une étude statistique sur tous les éléments d’une population P (à mois que nous
soyons en présence d’un recensement, mais peu d’institutions peuvent se permettre
un tel luxe) est souvent physiquement irréalisable et s’avère également, dans bien
des cas très coûteuse. Alors comment obtenir certaines indictions fiables sur di-
verses caractéristiques d’une population sans en examiner tous les éléments ? Dans
ce cas, l’observation doit être limitées à un sous-ensemble de la population P, appelée
échantillon. Le choix de cet échantillon peut être fait de manière raisonnée ou aléatoire.
Ainsi dans les sondages, le choix raisonné est utilisé lorsque l’on dispose d’informations
a priori sur la distribution du caractère dans la population. Notons d’autre part que
le choix aléatoire est le seul qui permette d’utiliser les résultats du calcul de proba-
bilités, fournissant le cadre où nous nous plaçons. La distribution du caractère X dans
l’échantillon de taille n est la même que la distribution du caractère X dans la popula-
tion P , si le tirage le tirage aléatoire dans l’échantillon est équiprobable. En appelant
Xi la variable aléatoire égale à la valeur du caractère X pour le ieme individu, on peut
définir une deuxième fois un n-échantillon par toute suite (X1 , X2 , . . . , Xn ) de variables
aléatoires indépendantes et identiquement distribuées. La théorie de l’échantillonnage
se propose d’étudier les propriétés du n-uple (X1 , X2 , . . . , Xn ) et les caractéristiques le
résumant.

1.1.2 Statistique:
Il est d’usage dans la pratique de résumer les n valeurs d’un échantillon x1 , x2 , . . . , xn
par quelques caractéristiques simple telles que moyenne, variance, plu grande valeur,
etc. Ces caractéristiques sont elles même des réalisations de variables aléatoires issues
de (X1 , X2 , . . . , Xn ).

Définition 1.1.1 Une statistique T est une variable aléatoire fonction de


(X1 , X2 , . . . , Xn )
T = f (X1 , X2 , . . . , Xn )

Une statistique peut être à valeur dans R ou dans Rp ; dans le cas de Rp , on parlera
de statistique vectorielle.
Parmi les exemples de statistiques usuelles, citons :
Inférence Statistique - Échantillonnage 11

• La moyenne empirique:
Elle est notée X et elle est définie par :
n
1 X
X= Xi .
N i=1

C’est la moyenne arithmétique des variables aléatoires de l’échantillon.

• La fréquence empirique :
Soit un caractère qualitatif à deux modalités A et B que l’on peut coder par 0
et 1. On note p la proportion dans la population des individus qui possèdent
la modalité A. Le nombre aléatoire Yn d’individus de l’échantillon qui ont la
modalité A, s’écrit :
n
X
Yn = Xi ,
i=1

Yn
où les v.a Xi sont des v.a de Bernoulli de paramètre p. On pose Fn = appelée
N
fréquence empirique.

• La variance empirique:
La variance empirique du caractère X dans l’échantillon est définie par :
n n
2 1 X 2 1 X 2 2
S = (Xi − X) = Xi − X
N i=1 N i=1

Par ailleurs, une autre statistique utile en estimation est la variance empirique
corrigée S ∗2 définie par:
n
∗2 n 2 1 X
S = S = (Xi − X)2
n−1 N i=1

• Les valeurs extrêmes et l’étendue:


La plus petite des valeurs prise par X1 , X2 , . . . , Xn est notée Y1 =
min(X1 , X2 , . . . , Xn ), la plus grande Yn = max(X1 , X2 , . . . , Xn ). L’étendue est
alors R = Yn − Y1 . A noter que ce sont trois variables aléatoires.
12 CHAPITRE 1

1.1.3 Propriétés élémentaires


On note mr = E[X r ] le moment d’ordre r de la variable aléatoire X, r = E[(X −m)r ] le
moment centré correspondant et σ 2 = µ2 la variance de X. Un premier résultat donne
l’espérance et la variance de la moyenne empirique X.

Proposition 1.1.1 Soit (X1 , X2 , . . . , Xn ) un n-échantillon de la v.a. X. Si E[X2 ]


existe, alors pour tout entier n, n > 1, la moyenne empirique X vérifie :

E(X) = m

σ2
V ar(X) =
n
n
1X 1
Preuve. E(X) = E(Xi ) = n.m
n i=1 n
n n
1 X 1 X 1
V ar(X) = 2 V ar( Xi ) = 2 V ar(Xi ) = 2 nσ 2 (D’après l’indépendance des
n i=1
n i=1 n
Xi ).

La signification de cette proposition est que ” en moyenne ”, la variable aléatoire X est


égale à m avec une dispersion d’autant plus faible que n est grand.
Dans le cas particulier d’une fréquence empirique, on obtient :

E(Fn ) = p

p(p − 1)
V ar(Fn ) = ;
p
où p est la proportion des individus dans la population qui possèdent la modalité A
d’un caractère qualitatif à deux modalités A et B.

Proposition 1.1.2 Soit X une variable aléatoire telle que m4 = E[X 4 ] existe. Alors,
pour tout entier n > 1,
n−1 2
E(S 2 ) = σ
n
E(S ∗2 = σ 2 .
c
En outre, V ar[S 2 ] et V ar[S ∗2 ] sont majorées par une expression de la forme , où
n
c est une constante dépendant de m4 .
Inférence Statistique - Échantillonnage 13

Preuve.
n
" #
1 X
E(S 2 ) = E (Xi − X)2
n i=1
" n #
1X 2 2
= E X −X
n i=1 i
n
1X 2
= E(Xi2 ) − E(X )
n i=1
n
1X
V ar(Xi ) + E(Xi )2 − V ar(X) + E(X)2
 
=
n i=1
n
1X  σ2
= V ar(X) + E(X)2 − − m2
n i=1 n
σ2
= σ 2 + m2 − − m2
n
n−1 2
= σ .
n
De même  
∗2 n n
E(S ) = E S2 = E(S 2 ) = σ 2
n−1 n−1

1.2 Cas des grands échantillons:


1.2.1 La loi des grands nombres:
Définition 1.2.1 La suite infinie (Yn )n de variables aléatoires converge en probabilité
vers la v.a. Y si, pour tout  > 0,
P
Yn −→ Y ⇔ lim [|Yn − Y | < ] = 1
n

A partir de cette définition, le théorème suivant énonce la loi des grands nombres qui
traduit la convergence de la moyenne empirique vers la moyenne théorique m = E(X),
lorsque n tend vers l’infini.
14 CHAPITRE 1

Théorème 1.2.1 ((Loi des grands nombre)) Soit X une v.a. de moyenne m finie,
alors pour toute suite infinie (Xn )n de v.a. deux à deux indépendantes et de même loi
que X, la suite des v.a.
n
1X
Xn = Xi
n i=1
Converge en probabilité vers m lorsque n tend vers l’infini.

Ce théorème montre que la moyenne empirique X n est proche de la moyenne théorique


m avec une grande probabilité lorsque la taille de l’échantillon est suffisamment grande.
Application: Grâce à la loi des grands nombres, on peut montrer que :
P
Sn2 −→ σ 2 ,

de même
P
Sn∗2 −→ σ 2 ,
Quand n tend vers l’infini et à condition que E(X 2 ) existe.

1.2.2 Le théorème central limite:


Le théorème central limite précise comment la suite de v.a. tend vers l’infini, en
donnant la forme de la distribution limite.

Théorème 1.2.2 ((théorème central limite)) Soit X une v.a. de moment E[X 2 ]
fini, alors pour toute suite infinie (Xn )n de v.a. indépendantes et de même loi que X,
la suite des v.a.
Xn − m
Un = ,
σ/n
tend en loi vers la loi normale centrée réduite N (0, 1) lorsque n tend vers l’infini.

Application: Cas d’une fréquence empirique


On prélève indépendamment et avec remise n individus d’une population séparée en
deux sous-populations et de proportions p et (1 − p) (pièces défectueuses ou correctes
dans une production industrielle par exemple). Soit Fn la fréquence empirique. On a

E[Fn ] = p
p(1 − p)
V ar[Fn ] = .
n
Inférence Statistique - Échantillonnage 15

Et si n est grand, r !
p(1 − p)
Fn ≈ N p, .
n
Exemple :
Pour un échantillon de 400 pièces issues d’une fabrication où 10% sont défectueuses.
On peut s’attendre à trouver dans 95% des cas run pourcentage de pièces défectueuses
0.1 × 0.9
dans l’échantillon comprise entre: 10% ± 1.96
400
Corollaire 1.2.1 Soit X une v.a. de moment E[X 2 ] fini, alors pour toute suite infinie
(Xn )n de v.a indépendantes
  et de même loi que X, la moyenne empirique X n tend vers
σ
la loi normale N m, √
n
Exemple:
Soit un lot de 500 chocolats. Le poids d’un chocolat est une v.a. telle que m = 5g et
σ = 0.5g. Quelle est la probabilité qu’une boite de 50 chocolats issus de ce lot ait un
poids total supérieur à 260g?

Solution:
L’échantillon étant grand (n = 50 > 30), on peut appliquer le théorème central limite
 
0.5
X ≈ N 5, √ approximativement.
50

On pose T = 50X; cette nouvelle v.a. suit approximativement


 
50 × 0.5
T ≈ N 5 × 50, √
50

= N (250, 0.5 50).

Calculons
 
260 − 250
P [T > 260] = P T > √
0.5 50
= P (U > 2.83)
= 1 − P (U < 2.83)
= 1 − 0.9977
16 CHAPITRE 1

Proposition 1.2.1 Si X est une v.a. d’espérance m et d’écart-type σ, si g est une


fonction numérique dérivable au voisinage de m et vérifiant g 0 (m) 6= 0, si enfin X n
désigne la moyenne empirique d’un n-échantillon de X, alors la suite des v.a.

g(X n ) − g(m)
g 0 (m) √ ,
σ/ n

tend en loi vers la loi normale N (0, 1) lorsque n tend vers l’infini.

 la v.a. g(X n ) − g(m) suit approximative-


Autrement dit, si n estsuffisamment grand,
σ
ment la loi normale N g(m), √ 0 .
ng (m)
En pratique, la loi Un peut être assimilée à la loi N (0, 1) dès que n est supérieur ou
égale à 30.

1.3 Cas des petits échantillons:


Lorsque la taille de l’échantillon est petite (inférieur à 30 en pratique) les résultats
précédents ne sont plus applicables. Dans ce paragraphe, on ne considère que le cas de
la loi normale.
Soit X une v .a. normale d’espérance m et d’écart-type σ . La densité associées est
définie pour tout réel par:
"  2 #
1 1 x−m
fX (x) = √ exp − .
σ 2π 2 σ

De plus, on appelle échantillon normal tout échantillon de la v.a. X. Le résultat suivant


sur la stabilité de la loi normale affirme que la somme de v.a. normales indépendantes
est encore une v.a. normale.

Proposition 1.3.1 Si X1 , X2 , . . . , Xn sont des v.a. indépendantes de lois respectives


N (mi , σi2 ), alors la variable aléatoire Y = X1 + . . . + Xnpsuit la loi normale d’espérance
mathématique m = m1 + . . . + mn et d’écart-type σ = σ12 + . . . + σn2 .

La proposition montre que lorsque l’échantillon est normal, la moyenne empirique suit
une loi, quelque soit la taille de l’échantillon. Pour un échantillon de loi quelconque,
cette propriété n’est pas vraie. Toutefois le théorème central limite permet d’affirmer
qu’elle est approximativement vérifiée à condition que n soit assez grand.
CHAPITRE 2

Estimation: Estimation ponctuelle

17
18 CHAPITRE 2

2.1 Introduction
L’estimation consiste donner des valeurs approches aux paramtres d’une population
(m, , etc.) l’aide d’un chantillon de n observations issues de cette population. On
suppose vrifie l’hypothse d’chantillonnage alatoire simple.

2.1.1 Exemples lmentaires:


Les lois grands nombres justifient l’usage de X n et de Sn2 comme estimations de m
P P
et de σ 2 respectivement. On sait que X n −→ m et Sn2 −→ σ 2 . De mme la frquence
empirique f d’un vnement est une estimation de sa probabilit p.
Les variables alatoires X n , Sn2 , Fn sont appeles alors estimateurs de m, σ 2 , p respec-
tivement.
Cependant le mme paramtre peut tre estim l’aide d’estimateurs diffrents. Afin de
choisir entre plusieurs estimateurs possibles d’un mme paramtre, il faut dfinir les qual-
its d’un estimateur.

2.1.2 Qualit d’un estimateur:


Soit le paramtre estimer θ et Tn un estimateur, c’est--dire une fonction des Xi valeurs
dans un domaine acceptable pourθ.
La premire qualit d’un estimateur est d’tre convergent. Il est souhaitable que si n −→
∞, Tn −→ θ, c’est le cas des estimateurs prsents prcdemment. Deux estimateurs
convergents ne convergent cependant pas ncessairement la mme vitesse, ceci est li,
pour une taille d’chantillon donne, la notion de prcision d’un estimateur.
L’erreur d’estimation Tn −θ qui est une variable alatoire se dcompose de faon lmentaire
en:
Tn − θ = Tn − E(Tn ) + E(Tn ) − θ,
o E(Tn ) reprsente l’esprance de l’estimateur.
Tn −E(Tn ) reprsente les fluctuations alatoires de Tn autour de sa valeur moyenne tandis
que E(Tn ) − θ est assimilable une erreur systmatique due au fait que Tn varie autour
de sa valeur centrale E(Tn ) et non autour de θ. La quantit E(Tn ) − θ s’appelle le biais.
Il est donc souhaitable d’utiliser des estimateurs sans biais, tels que E(Tn ) = θ. Ainsi,
X n est un estimateur sans biais de m, mais Sn2 est biais pour σ 2 . Il est donc souvent
n
prfrable d’utiliser Sn∗2 = S 2 pour estimer σ 2 .
n−1 n
Cependant, il ne faut pas croire que Sn∗ est un estimateur sans biais de σ.
Estimation ponctuelle 19

En effet p p
E( Sn∗2 ) 6= E(Sn∗2 )
On mesure gnralement la prcision d’un estimateur Tn par l’erreur quadratique moyenne:

E|(Tn − θ)2 |.

On peut crire

E[(Tn − θ)2 ] = E[(Tn − E(Tn ) + E(Tn ) − θ)2 ]


= E[(Tn − E(Tn ))2 ] + 2E[(Tn − E(Tn ))(E(Tn ) − θ)] + E[(E(Tn ) − θ)2 ]

Comme E(Tn ) − θ est une constante et que E[(Tn − E(Tn )] = 0, on en dduit que:

E[(Tn − θ)2 ] = V ar(Tn ) + [E(Tn ) − θ]2 .

De deux estimateurs sans biais, le plus prcis est donc celui de variance minimale.
Exemple:
n
1X
Montrer que si m est connu, l’estimateur (Xi − m)2 est meilleur que Sn∗2 .
n i=1

Définition 2.1.1 L’estimateur Tn est dit asymptotiquement sans biais si

lim E(Tn ) = θ
n→+∞

Exemple:
n
1X
2
Sn = (Xi − X n )2 est un estimateur asymptotiquement sans biais de σ 2 .
n i=1

Définition 2.1.2 Un estimateur Tn du paramtre θ est dit convergent en moyenne


quadratique (m.q) s’il vrifie:

lim E[(Tn − θ)2 ] = 0


n→+∞

Rappelons que la convergence en moyenne quadratique entrane la convergence en prob-


abilit, mais que la rciproque est fausse en gnral. En pratique, pour montrer le caractre
convergent d’un estimateur, on essaie le plus souvent de montrer la convergence en
moyenne quadratique.
Proposition 2.1.1 Un estimateur Tn du paramtre est convergent en moyenne quadra-
tique si et seulement si, il est asymptotiquement sans biais et si sa variance tend vers
0 lorsque n tend vers l’infini.
20 CHAPITRE 2

Preuve. Il suffit de voir que

E[(Tn − θ)2 ] = V ar(Tn ) + [E(Tn ) − θ]2 ,

pour conclure.

Exemple:
Pour estimer la moyenne thorique θ = m d’une variable alatoire X, on peut prendre
Tn = X n . Cet estimateur est sans biais, si de plus sa variance est finie, la relation
V ar(X)
V ar(X n ) = montre que V ar(X n ) tend vers 0 lorsque n tend vers l’infini. La
n
proposition prcdente permet alors d’affirmer que X n est un estimateur convergent en
moyenne quadratique de m = E(X).

Le critre de convergence en moyenne quadratique donn dans la proposition prc-


dente suppose le calcul de l’esprance mathmatique et la variance de l’estimateur
T . Comme, en pratique ce calcul n’est pas toujours ais, on propose une mthode
permettant dans certains cas, de dmontrer la convergence en probabilit de T vers θ.

Proposition 2.1.2 Soit (Yn )n une suite infinie de v.a. qui converge en probabilit vers
la v.a. Y et si g est une fonction d’une variable relle, continue sur l’ensemble des
valeurs possibles de Y et des Yn , alors la suite des v.a. g(Yn ) converge en probabilit
vers g(Y ) lorsque n tend vers l’infini, soit

g(Y ) = lim g(Yn )


n→+∞

Exemple:
L’estimateur Sn2 (et aussi Sn∗2 ) est convergent en moyenne quadratique
√ vers σ 2 . Il est
p g dfinie par g(u) = u est continue sur
donc convergent en probabilit, or la fonction
R, d’aprs la proposition prcdente, Sn = Sn2 tend donc en probabilit vers σ lorsque n
tend vers l’infini. Sn est donc un estimateur convergent du paramtre σ.

Définition 2.1.3 Soit Tn et Tn0 deux estimateurs sans biais de θ. Tn est dit plus efficace
que Tn0 si:
V ar(T ) ≤ V ar(Tn0 )

Définition 2.1.4 L’estimateur sans biais et de convergence minimale est appel esti-
mateur efficace.
Estimation ponctuelle 21

2.2 Estimation ponctuelle des paramtres usuels:


2.2.1 Estimation de la moyenne:
Soit X une variable alatoire dont on veut estimer la moyenne (ou esprance) µ = E(X)
partir d’un n-chantillon (X1 , X2 , . . . , Xn ) de X. On ne suppose rein sur la loi de X
n
1X
Proposition 2.2.1 X n = Xi ; la moyenne empirique est un estimateur efficace
n i=1
de µ

Preuve. X n est sans biais de, car E(X n ) = µ et de plus

V ar(X n ) n→+∞
V ar(X n = −→ 0
n

∀T un autre estimateur de µ,

V ar(T ) ≥ V ar(X n ).

2.2.2 Estimateur de la variance d’une population Gaussienne:


Soit X une v.a. qui suit une loi normale N (σ, µ). On veut estimer la variance σ 2 de
X.

A- µ est connu:

n
1X
Proposition 2.2.2 Tn2 = (Xi − µ)2 est un estimateur efficace de µ
n i=1

En effet
n
" #
1X
E(Tn2 ) = E (Xi − µ)2
n i=1
" n n
#
1X 2 1X 2
= E X −2 Xi µ + µ
n i=1 i n i=1
22 CHAPITRE 2

n n
1X 2 X
= E(Xi2 ) − µ E(Xi ) + µ2
n i=1 n i=1
n
1X
= E(Xi2 ) − µ2
n i=1
n
1 X
V ar(Xi ) + (E(Xi ))2 − µ2

=
n i=1
= σ 2 + µ2 − µ2
= σ2
Donc Tn2 est sans biais. De plus
V ar(X n ) n→+∞
V ar(Tn2 = −→ 0,
n
et est minimale
B- µ est inconnu:
n
1X
Proposition 2.2.3 =Sn2 (Xi − X)2 est un estimateur biais de σ 2 , mais
n i=1
asymptotiquement sans biais.

Preuve. Déjà fait

2.3 Mthode du maximum de vraisemblance


Les paragraphes prcdents ont donn quelques exemples d’estimateurs. Ainsi, la moyenne
empirique est un estimateur sans biais et convergent (en moyenne quadratique) de la
moyenne thorique. La variance empirique corrige Sn∗2 est un estimateur sans biais et
convergent de la variance thorique.
Au cas o le paramtre inconnu n’est ni la moyenne, ni la variance de la v.a. X associe au
caractre tudi, on peut utiliser des mthodes permettant de construire les estimateurs.
Définition 2.3.1 La vraisemblance d’un chantillon (X1 , X2 , . . . , Xn ) de la v.a. X est
la fonction L de n + 1 variables dfinie par:
L(x1 , x2 , . . . , xn , θ) = f (x1 , θ)f (x2 , θ) . . . f (xn , θ),
Estimation ponctuelle 23

o x − 1, x2, . . . , xn sont des ralisations possibles de X et θ le paramtre inconnu. On


rappelle que f (x, θ) dfinie la loi de la v.a. X par la formule:

f (x, θ) = p[X = x],

si X est une variable alatoire discrte, et dans le cas continue par:

f (x, θ) = fX (x)

Remarque. Compte tenu de l’indpendance des v.a. X1 , X2 , . . . , Xn , la vraisemblance


L(x1 , x2 , . . . , xn , θ) n’est autre que la probabilit de ralisation de la suite des valeurs
x1 , x2 , . . . , xn lorsque le paramtre inconnu vaut θ.
La mthode du maximum de vraisemblance, consiste tant donn un chantillon
x1 , x2 , . . . , xn prendre comme estimation de θ la valeur de θ qui rend maximale la
vraisemblance L(x1 , x2 , . . . , xn , θ). Il s’agit l d’un problme d’optimisation: on cherche
une valeur θ0 de θ qui maximise la fonction L(x1 , x2 , . . . , xn , θ).

Si la fonction de vraisemblance est drivable, on peut chercher ce maximum en


calculant sa drive. Enfin, la fonction de vraisemblance tant positive, on peut aussi
se borner rechercher le maximum sur l’ensemble des o cette fonction est strictement
positive. Sur cet ensemble, il est alors commode et quivalent de chercher le maximum
de la fonction:
n
X
log L(x1 , x2 , . . . , xn , θ) = log f (xi , θ).
i=1

Une condition ncessaire sur θ est:


∂ log L(x1 , x2 , . . . , xn , θ)
= 0,
∂θ
pour θ = θ0 .
Et si elle remplie, une condition suffisante pour θ0 , alors on:

∂ 2 log L(x1 , x2 , . . . , xn , θ)
< 0,
∂ 2θ
pour θ = θ0 .
L’estimateur du maximum de vraisemblance tant alors:

θbn = θ0 (X1 , X2 , . . . , Xn ).
24 CHAPITRE 2

Exemple:
Estimation pour la moyenne et la variance d’une loi normale:
Dans ce cas:

X N (m, σ 2 )
θ = (θ1 , θ2 ),

o θ1 = m et θ2 = σ 2 .
De plus: "  2 #
1 1 x − m
f (x, θ) = f (x, m, σ 2 ) = √ exp − .
σ 2π 2 σ
La vraisemblance de l’chantillon s’crit:
 n " n  2 #
1 1 X xi − m
L(x1 , x2 , . . . , xn , θ) = √ exp − ,
σ 2π 2 i=1 σ

et le logarithme nprien est


  n  2
1 1X xi − m
log L(x1 , x2 , . . . , xn , θ) = n log √ − − n log σ.
2π 2 i=1 σ

Les conditions ncessaires consistent en l’annulation des drives partielles premires par
rapport m et σ 2 . Elles s’crivent respectivement:
 n
∂ log L 1 X
 ∂m = − σ 2 (xi − m) = 0,



i=1
n
 ∂ 2 log L n 1 X

 =− 2 + 4 (xi − m)2 = 0.
∂σ 2 2σ 2σ i=1

De ces deux relations, on conclut



 m0 = x, n

2 1X
σ = (xi − x)2 .
n i=1


CHAPITRE 3

Estimation par intervalle de


confiance

25
26 CHAPITRE 3

3.1 Principe de la mthode:


Il est souvent plus raliste et plus intressant de fournir un renseignement du type
a < θ < b plutt que d’crire schement θb = c.
Fournir un tel intervalle [a, b] s’appelle donner une estimation par intervalle de confiance
de θ.
Principe de la mthode:
La mthode des intervalles de confiance est la suivante: Soit T un estimateur de θ on
prendra videmment le meilleur estimateur possible), dont on connat la loi de probabilit
pour chaque valeur de θ. Étant donn une valeur θ0 de θ, on peut dterminer un intervalle
de probabilit de niveau 1 − α pour T , c’est--dire deux bornes t1 et t2 telles que

p[t1 < T < t2 ] = 1 − α,

pour θ0 = θ.
Ces bornes dpendent videmment de θ0 .
α
On choisira dans la plus parts des cas un intervalle de probabilit risque symtrique
2
α
et .
2
On adopte alors la rgle de dcision suivante:
Soit t la valeur observe de T :

• si t appartient l’intervalle [t1 , t2 ], on conserve θ0 comme valeur possible de θ;

• si t n’appartient pas l’intervalle [t1 , t2 ], on limine θ0 .

On rpte cette opration pour toutes les valeurs de θ.

3.2 Estimation de la moyenne d’une variable de


Laplace Gauss
3.2.1 L’écart-type σ est connu
 
σ
X n est le meilleur estimateur de m et X n suit une loi N m, √ . L’intervalle de
n
probabilit de X n 1 − α est:
σ σ
m − uα √ < X n < m + uα √ ,
n n
Estimation par intervalle de confiance 27

d’o l’intervalle de confiance:


σ σ
xn − uα √ < m < xn + uα √ .
n n
Si 1 − α = 0.95, on a uα = 1.96

3.2.2 L’écart-type σ est inconnu


Xn − m Xn − m
On utilise le fait que T = ∗
√ = √ suit une loi de student n degrs de
Sn / n Sn / n − 1
libert.
L’intervalle de probabilit pour t est
Xn − m√
−tα < n − 1 < tα .
S
D’o l’intervalle de confiance:
S S
xn − tα √ < m < xn + tα √ ,
n−1 n−1
o bien
S∗ S∗
xn − tα √ < m < xn + tα √ .
n n
Le thorme central-limite a pour consquence que les intervalles prcdents sont valables
pour estimer la moyenne thorique m d’une loi quelconque condition que n soit assez
grand.

3.3 Estimation de l’cart-type d’une loi de Laplace-


Gauss
3.3.1 m est connu:
n
1 X nT
T = (xi − m)2 est le meilleur estimateur de σ 2 et 2 suit la loi χ2n (chi deux n
n i=1 σ
degrs de libert) comme somme de n carrs de loi N (0, 1) indpendantes.
Soient k1 et k2 les bornes de l’intervalle de probabilit d’une variable χ2n :
 
nT
p k1 < 2 < k2 = 1 − α
σ
28 CHAPITRE 3

Figure 3.1: fgfg


A Posteriori Error Estimator-Primal, Equilibrium and Mixed Approximation 29

Annexe 1

On a Posteriori Error Estimator for


Primal, Equilibrium and Mixed Ap-
proximation of Diffusion Equations
30 ANNEXE

abstract In this paper, we present a posteriori error estimator for diffusion equation
with solution obtained by Black-box solver. The estimator is valid for a classical
primal, equilibrium and mixed finite element approximations with or without numerical
integration .
A Posteriori Error Estimator-Primal, Equilibrium and Mixed Approximation 31

.1 Introduction
Usually, error estimators for adaptive refinement require exact discrete solutions (see
[9] and refrence therein for a primal formulation and [3],[4],[5] for a mixed formulation),
but in pratical cases the exact solution is not available and so we are in the presence
of solvers error. In this paper we introduce a posteriori error estimator for solutions
obtained by black-box solver , in this case we are in the presence of many source of
errors : approximation, error solvers, postprocessing error ...etc. We assume for gener-
ality that the discrete solution ph is not H(div; .)-conforming which included classical
primal, equilibrium finite element methods with or without numerical integration.
As model problem we consider : Find u such that

−∆u = f in Ω,
(1.1)
u = 0 on Γ,
where Ω is polygonal connexe domain of R2 and f ∈ L2 (Ω).
Let Th a regular triangulation of Ω by triangular, we denoted by E the set of all edges
and by EI the set of all interior edges. For all T ∈ Th , by ∆(T ) the union of all
elements of Th sharing a vertex with T , by ωT we denoted the union of the all element
of Th sharing a edge with T and by ET the set of all edges of T . We consider a finite
dimensional spaces
Vh = {vh ∈ H 1 (Ω), ∀T ∈ Th vh|T ∈ P1 (T )} (1.2)
Eh = {ph ∈ (L2 (Ω))2 , ∀T ∈ Th ph |T ∈ RT0 (T ) = (P0 (T ))2 + xP0 (T )} (1.3)
and
Mh = {vh ∈ L2 (Ω), ∀T ∈ Th vh|T ∈ P0 (T )} (1.4)
Let ph ∈ Eh and uh ∈ Mh , for all T ∈ Th we set
Z Z
ph ∇vh dx − vh f dx
∆(T ) ∆(T )
1,T (ph ) = sup , (1.5a)
vh ∈Vh (T ) |vh |1,∆(T )
Z
ph ∇ × φh dx
∆(T )
2,T (ph ) = sup , (1.5b)
φh ∈Vh (T ) |φh |1,∆(T )
Z
(ph qh + uh divqh )dx
ωT
3,T (ph , uh ) = sup , (1.5c)
qh ∈Eh (T ) kqh kH(div,ωT )
32 ANNEXE

X
2
η1,T (ph ) = h2T kf + divph k20,T + (hl k[ph .tl ]k20,l + hl k[ph .nl ]k20,l ), (1.5d)
l∈ET

and
η2,T (ph ) = hT kph k0,T , (1.5e)
where
Vh (T ) = {vh ∈ H01 (∆(T )), ∀T ∈ ∆(T ) vh|T ∈ P1 (T )}, (1.6)
and
Eh (T ) = {qh ∈ Eh ∩ H(div, Ω), ∀T 6∈ ωT qh |T = 0}. (1.7)
Here [g] denotes the jump of a function g with the usual interpretation at the boundary
and hT , hl are the diameters of T and l, respectively. The outer normal at a edge l of
some T ∈ Th is written as nl = (n1,l , n2,l ) and we set tl = (n2,l , −n1,l ).
In the sequel, we denoted by C a positive generic constant independent of h which can
change from one line to another.
Remarks : Let us remark that

1. If Z
1
− divph = f dx := fT on T,
meas(T ) T

we have X
21,T (ph ) ≤ C h2T kf − fT k20,T ,
T ∈∆(T )

which is higher order perturbation of the error.

2. If ph ∈ H(div, Ω), we have

∀l ∈ EI , [ph .nl ]l = 0,

3. If ph = ∇vh with vh ∈ Vh , we have

∀l ∈ EI , [ph .tl ]l = 0,

and 2,T (ph ) = 0.


A Posteriori Error Estimator-Primal, Equilibrium and Mixed Approximation 33

4. Let uTh , ψhT in Vh (T ) and qhT ∈ Eh (T ) the unique solutions of the folowing problems

 Find uTh ∈ Vh (T Z ) such that Z Z
(P1 ) T
 ∀vh ∈ Vh (T ); ∇uh ∇vh dx = ph ∇vh dx − f vh dx,
∆(T ) ∆(T ) ∆(T )

Find ψhT ∈ Vh (T ) such that





(P2 ) Z Z
T
 ∀φh ∈ Vh (T );
 ∇ × ψh ∇ × φh dx = ph ∇ × φh dx
∆(T ) ∆(T )


 Find qhT ∈ Eh (TZ) such that Z
(P3 ) (qhT sh divqhT
 ∀sh ∈ Eh (T ); + divsh )dx = (ph sh + uh divsh )dx.
ω(T ) ω(T )

It is easy to see that


|uTh |1,T = 1,T (ph ) |ψhT |1,T = 2,T (ph ) and kqhT kH(div,ω(T ) = 3,T (ph , uh ).

This paper is set as follow: In section 2, we give a global upper bound of error in
L2 -norme, between p = ∇u and all approximation ph ∈ Eh (equilibrium approximation
solution,). In section 3, we give a local lower bound of the error and establish efficiency
of the estimator. In section 4 we present an a posteriori error estimator, for mixed
finite element non conforming approximation, with or without numerical integration,
independently of the manner to obtain this approximation (uh , ph ).

.2 Equilibrium a Posteriori Error Estimator


Theorem .2.1 Let u ∈ H01 (Ω) the weak solution of the model problem (1.1), p = ∇u
and ph ∈ Eh . Then there exist constant C > 0 depending only on the minimum angle
of Th such that
X
kp − ph k20,Ω ≤ C 2
(η1,T (ph ) + 21,T (ph ) + 22,T (ph )). (2.1)
T ∈Th

Proof. Using Helmholtz-decomposition,


Z we have eh = p − ph = ∇w + ∇ × ζ, with
1 1
w ∈ H0 (Ω), ζ ∈ H (Ω) and ∇w∇ × ζdx = 0.

Let us remark that the orthogonality implie the following error decomposition :
keh k20,Ω = |w|21,Ω + k∇ × ζk20,Ω , (2.2)
34 ANNEXE

Z Z
|w|21,Ω = eh ∇wdx and k∇ × ζk20,Ω = eh ∇ × ζdx. (2.3)
Ω Ω

Now, let wI ∈ Vh and ζ I ∈ Vh be continuous approximations of w and ζ respectively


such that :
1
∀T ∈ Th , kw − wI k0,T ≤ Cmeas(T ) 2 |w|1,∆(T ) , (2.4a)
|wI |1,Ω ≤ C|w|1,Ω , (2.4b)
and
1
∀l ∈ ET , kw − wI k0,l ≤ Cmeas(l) 2 |w|1,∆(l) , (2.4c)
( and analogously for ζ ) where ∆(l) is the union of the elements T sharing l. Moreover
we assume that the interpolation preserves boundary conditions, that is, wI ∈ Vh ∩
H01 (Ω). It is known that such approximations exists (see [6], [8]).
First, according to (2.3) we have via elementwise integration by part, noting that
w − wI ∈ H01 (Ω),
Z Z Z
2
k∇wk0,Ω = eh ∇(w − w )dx + f w dx − ph ∇wI dx
I I
Ω Ω Ω

XZ XZ Z Z
I I I
= (f + divph )(w − w)dx + [ph .nl ](w − w )dx + f w dx − ph ∇wI dx.
T ∈T T l∈E l Ω Ω

From Cauchy’s inequality and from (2.4a) and (2.4c), we infer


XZ X 1
(f + divph )(wI − w)dx+ ≤ ( h2T kf + divph k20,T ) 2 |w|1,Ω ,
T ∈Th T T ∈Th

and
XZ X 1
[ph .nl ](w − wI )dx ≤ C( hl k[ph .nl ]k20,l ) 2 |w|1,Ω .
l∈E l l∈E

Using (2.4b), we obtain


Z Z
1 1
X X
f w dx − ph ∇wI dx ≤ C(
I
21,T (ph )) 2 |wI |1,Ω ≤ C( 21,T (ph )) 2 |w|1,Ω .
Ω Ω T ∈Th T ∈Th

Then we have
1
X X X
k∇wk0,Ω ≤ C( h2T kf + divph k20,T + hl k[ph .nl ]k20,l + 21,T (ph )) 2 . (2.5)
T ∈Th l∈E T ∈Th
A Posteriori Error Estimator-Primal, Equilibrium and Mixed Approximation 35

Arguing above, since p = ∇u and ph ∈ Eh , elementwise integration by part we have


Z XZ
I
eh ∇ × (ζ − ζ )dx = (ζ − ζ I )[ph .tl ]dσ.
Ω l∈E l

Using Cauchy’s inequality, (2.4c), we obtain


Z
1
X
eh ∇ × (ζ − ζ I )dx ≤ C( hl k[ph .tl ]k20,l ) 2 k∇ζk0,Ω . (2.6)
Ω l∈E

Finally, since |∇ × ζ| = |∇ζ|,


Z Z
eh ∇ × ζ dx = − ph ∇ × ζ I dx
I
(2.7)
Ω Ω

and Z Z Z
k∇ × ζk20,Ω = eh ∇ × ζdx = I
eh ∇ × (ζ − ζ )dx + eh ∇ × ζ I dx,
Ω Ω Ω

using (2.6) and (2.4b), we obtain


X X 1
k∇ × ζk0,Ω ≤ C( hl k[ph .tl ]k20,l + 22,T (ph )) 2 . (2.8)
l∈E T ∈Th

Now, the a posteriori error estimate is an immediate consequence of the Helmhotz


decomposition (2.2) together with the estimation (2.5) and (2.8).

.3 Efficiency of the estimator


To indicate the efficiency of the a posteriori error estimator we follow Verfürth [9] and
show a local reverse up to higher order perturbations.
For each T ∈ Th , we set :

ωT = {T 0 ∈ Th such that T and T 0 have a commun edge},


Z
1
∀T ∈ Th , fT = f dx,
meas(T ) T
and for all l ∈ EI , we denoted by T+ and T− the two elements of Th sharing this edge.
36 ANNEXE

Theorem .3.1 There exist positive constants C1 and C2 depending only on the mini-
mum angle of Th such that
X X
2
η1,T (ph ) + 21,T (ph ) + 22,T (ph ) ≤ C1 kp − ph k20,T 0 + C2 h2T 0 kf − fT 0 k20,T 0 . (3.1)
T 0 ∈∆(T ) T 0 ∈ωT

Proof. Following [9] Let bT the bubble function on T with maxT bT = 1. Then the
norms k.k0,T and kbT .k0,T are equivalent on P0 (T ), and so
 Z
2
 krT k0,T ≤ C
 bT rT (fT − f + div(ph − p))dx
Z T
≤C ∇(bT rT ).(ph − p)dx + CkrT k0,T kf − fT k0,T


T

where rT := fT + divph on T . Then we have

krT k20,T ≤ C|bT rT |1,T kp − ph k0,T + CkrT k0,T kf − fT k0,T ,

Using the inverse estimate |rT bT |1,T ≤ Ch−1


T krT k0,T , we obtain

hT kfT + divph k0,T ≤ C1 kp − ph k0,T + C2 hT kf − fT k0,T . (3.2)

Concerning the jump termes for l ∈ ET ∩EI , let bl be the bubble function on T vanishing
on ∂T /l normed by maxT bl = 1. Then again the norms k.k0,l and kbl .k0,l are equivalent
on P1 (l). Let l ∈ EI , then using the extension operator P : C 0 (l) −→ C 0 (T+ ∪ T− ) of
[9], it follows
Z Z
2
k[ph .tl ]ko,l ≤ C bl P ([ph .tl ])[ph .tl ]dσ = C ph ∇ × (bl P ([ph .tl ]))dx.
l T+ ∪T−

Because of the inverse inequality

kbl P ([ph .tl ])k1,T +∪T− ≤ Ch−1


l kbl P ([ph .tl ])k0,T +∪T− ,

the equality Z
p∇ × (bl P ([ph .tl ]))dx = 0
T+ ∪T−
1
using Cauchy inequality and kbl P (ph .tl ])k0,T +∪T− ≤ Chl2 k[ph .tl ]k0,l , we obtain
1
hl2 k[ph .tl ]k0,l ≤ Ckp − ph k0,T+ ∪T− . (3.3)
A Posteriori Error Estimator-Primal, Equilibrium and Mixed Approximation 37

Arguing above, we have


Z
2
k[ph .nl ]ko,l ≤ C bl P ([ph .nl ])[ph .nl ]dσ
l
Z Z
= C( ph ∇(bl P ([ph .nl ])dx + divph bl P ([ph .nl ])dx
T+ ∪T− T+

Z
+ divph bl P ([ph .nl ])dx)
T−

Z
= C( (ph − p)∇(bl P ([ph .nl ])dx
T+ ∪T−

Z Z
+ ( divph + f )bl P ([ph .nl ])dx + ( divph + f )bl P ([ph .nl ])dx)
T+ T−

Because of the inverse inequalities :

kbl P ([ph .nl ])k1,T +∪T− ≤ Ch−1


l kbl P ([ph .nl ])k0,T +∪T− ,

and 1
kbl P (ph .nl ])k0,T +∪T− ≤ Chl2 k[ph .nl ]k0,l
and using (3.2), we obtain
1 X
hl2 k[ph .nl ]k0,l ≤ C(kp − ph k0,T+ ∪T− + hT 0 kf − fT 0 k0,T 0 ). (3.4)
T 0 ∈ω(T )

Finally, it is easy to see that

For i = 1, 2, i,T (ph ) ≤ kp − ph k0,∆(T ) . (3.5)

Combining (3.2)-(3.5) we conclude the proof.

.4 Mixed a Posteriori Error Estimator


Lemma .4.1 Let u ∈ H01 (Ω) the weak solution of the model problem (1.1), p = ∇u,
ph ∈ Eh and uh ∈ Mh . Then there exist constant C > 0 depending only on the
38 ANNEXE

minimum angle of Th such that


1
X
ku − uh k0,Ω ≤ C{kp − ph k0,Ω + ( η2,T (ph )2 + 23,T (ph , uh )) 2 } (4.1)
T ∈Th

Proof. First, let Ph u ∈ Mh defined by


Z
1
∀T ∈ Th , Ph uT = udx on T.
meas(T ) T

We have

ku − Ph uk0,T ≤ ChT kpk0,T ≤ C(hT kp − ph k0,T + hT kph k0,T ). (4.2a)

On the other hand, using the inf-sup condition we have


Z
(uh − Ph u) divqh dx

kuh − Ph uk0,Ω ≤ C sup ,
qh ∈Eh kqh kH(div,Ω)

and since
Z Z Z
(uh − Ph u) divqh dx = (uh divqh dx + ph qh )dx + (p − ph )qh )dx
Ω Ω Ω

we obtain easily that


1
X
kuh − Ph uk0,Ω ≤ C( 23,T (ph , uh )) 2 + kp − ph k0.,Ω ). (4.2b)
T ∈Th

Combining (4.2a)-(4.2b), and using triangular inequality we obtain the result:

Lemma .4.2 Let u ∈ H01 (Ω) the weak solution of the model problem (1.1), p = ∇u,
ph ∈ Eh and uh ∈ Mh . Then there exist constant C > 0 depending only on the
minimum angle of Th such that

∀T ∈ Th , η2,T (ph ) + 3,T (ph , uh ) ≤ C(kp − ph k0,∆(T ) + ku − uh k0,∆(T ) ). (4.3)


A Posteriori Error Estimator-Primal, Equilibrium and Mixed Approximation 39

Proof. Following [9] Let bT the bubble function on T with maxT bT = 1. Then the
norms k.k0,T and kbT .k0,T are equivalent on P1 (T ), and so
Z Z Z
2
kph k0,T ≤ C ph bT ph dx = C bT ph (ph − p)dx + C ∇u.(bT ph ). (4.4)
T T
Z
Since div(bT ph )dx = 0 and uh ∈ Mh , by elementwise integration by part we have
T
Z Z
∇u.(bT ph )dx = (uh − u) div(bT ph )dx. (4.5)
T T

Using the inverse inequality k div(bT ph )k0,T ≤ ChT kph k0,T , and (4.4)-(4.5), we obtain
η2,T (ph ) ≤ C(kp − ph k0,T + ku − uh k0,T ). (4.6)
Finally, it is easy to see that
3,T (ph , uh ) ≤ C(kp − ph k0,∆(T ) + ku − uh k0,∆(T ) ). (4.7)

Now the result is an immediate consequence of the estimation (4.6)-(4.7).


The final Theorem of this section, is now a straightforward consequence of the Theorems
(2.1)-(3.1), the Lemmas (4.1) and (4.2).
Theorem .4.1 Let u ∈ H01 (Ω) the weak solution of the model problem (1.1), p = ∇u,
ph ∈ Eh and uh ∈ Mh . Then there exist constant C > 0 depending only on the
minimum angle of Th such that
 X 1
2


 ku − u h k0,Ω + kp − ph k0,Ω ≤ C{( (η1,T (ph ) + 21,T (ph ) + 22,T (ph )) 2
T ∈Th


(4.7)
1
X
2 2

+( (η (p ) +  (p , u )) 2 }.



 2,T h 3,T h h
T ∈Th

Moreover, we have
 2 2
 X X
η (p ) + i,T (ph ) + 3,T (ph , uh ) ≤ C1 (kp − ph k0,∆(T ) + ku − uh k0,∆(T ) )

i,T h



 i=1 i=1
(4.8)
 X 1
h2T 0 kf − fT 0 k20,T 0 ) 2




 +C 2 (
T 0 ∈ωT
40 ANNEXE

Conclusion. The a posteriori error estimator presented here, is independent of the


manner to obtain the approximation solution, and the numerical integration method
used, but depends only of her regularity. The technique developed to establish this
estimator can be generalized for stabilisation methods usually used for singularly per-
turbed problems [1], or for anisotropic finite element meshes [2, 7].
BIBLIOGRAPHIE

[1] B. Achchab. Estimateurs a posteriori, éléments finis mixtes, hybrides et


décomposition de domaines. Applications aux systèmes d ’E.D.P. Thèse de Doc-
torat d’Etat, Université Ibn Tofail Kénitra, Octobre 2000.

[2] B. Achchab, L. Laayouni and A. Souissi. Anisotropic a posteriori error


estimation in convection-diffusion with dominant convection. Submitted

[3] A. Alonso. Error estimators for a mixed method Numer. Math, 74, pp 385-395.
1976.

[4] D. Braess and R. Verfurth. Error estimators for a the Raviart-Thomas


element SIAM Numer. Anal, 33, pp 2431-2444. 1996.

[5] C. Carstensen. A posteriori error estimate for a mixed finite element method
Math. comp, 66, pp 465-476. 1997.

[6] P. Clement. Approximation by finite elements functions using local regulariza-


tion RAIRO, vol 2, pp 77-84. 1975.

[7] G. Kunert. Error estimation for anisotropic tetrahedral and triangular finite
element meshes. Numer. Math.,86(3), pp 283-303. 2000.

[8] L.R. Scott and S. Zhang, Finite element interpolation of non-smooth func-
tions satisfying boundary conditions, Math.Comp.,54,pp. 43-493. 1990.

[9] R Verfurth. A review of a posteriori error estimation and adaptive


mesh-refinement techniques. Teubner Skripten zur Numerik, B.G. Teubner
Stuttgart 1996..

41
42 ANNEXE

Conclusion Générale:

La méthode d’agrégation a été introduite pour réduire les systèmes d’équations


différentielles ordinaires. Dans ce travail, on a proposé une généralisation de cette
méthode pour une classe d’équations différentielles, qui représente un intérêt par-
ticulier, à savoir les équations différentielles avec retard. Les techniques utilisées
généralement comme le théorème des varieétés centrales, n’étant plus valables dans
le cas avec retard, nous avons utilisé d’autres techniques mathématiques comme celles
de calcul intégral, pour construire un modèle agrégé, qui est équivalent au système
initial, dans le sens où les deux modèles admettent des solutions qui ont le même com-
portement asymptotique. Le système auquel on a appliqué la méthode d’agrǵation,
est plutôt simple: une seule population structurée par l’âge, avec des flux migratoires
rapides entre deux sites, mais on peut imaginer un environnement plus complexes, avec
N populations et P sites et l’étude qu’on a fait reste valables.
Dans beaucoup de cas, les biologistes ont constaté que le retard qui représente le temps
de passage d’une classe d’âge à l’autre, est lui même variable, il dépend de la densité
totale de la population: plus la densité est grande, plus le retard est important, c’est
le cas de la population des baleines de l’antarctique par exemple. Il serait intéressant
d’étendre la méthode d’agrágation pour ce type de systèmes, ainsi qu’au modèle de
Lotka-Volterra, qui représente l’interaction entre une population de proies et une autre
de prédateurs.
Le modèle qui décrit la dynamique de la population de sardine, qu’on a présenté
dans le chapitre 3, et qui a été réalisé en collaboration avec une équipe spécialisée
du laboratoire de Biometrie-Génétique et Biologie des populations, en direction du
professeur P. Auger, constitue un modèle simplifié, du fait que beaucoup de données
sur la biologie et la dynamique de l’espèce n’étaient pas disponibles, ce qui nous a
amené à considérer ces données comme des paramètres et à étudier leurs effets sur la
dynamique globale de l’espèce.
L’étude de ce modèle a démontré que l’effort de pêche actuel (celui des annés 80),
est néfaste pour la population de sardine, nous avons présenté par la suite différents
schémas d’allocation d’effort de pêche, afin d’en tirer la meilleure stratégie de gestion
de ces ressources, ce qui représente le point essentiel du chapitre 3.
La construction d’un modèle plus complet, se fait sur la base de données fiables et plus
précises, d’où la nécessité de louer des relations de coopération avec l’Institut National
de Recherche Halieutique, qui s’avère un partenaire incontournable dans ce genre de
projets.
A Posteriori Error Estimator-Primal, Equilibrium and Mixed Approximation 43

De nos jours, l’utilisation des méthodes adaptatives est devenue un outil incoun-
tournabe pour les calculs, car non seulement elles permettent de bien approcher la
solution exacte, masi aussi d’atteindre des ordres de précision assez élevés et qu’on ne
peut atteindre autrement.
Dans ce travail, on présente une approche unifiée, qui permet de construire des
estimations d’erreur a posteriori pour les approximations du problème de poisson, par
éléments finis, primales, duales ou mixtes, basées sur l’évaluation du résidu. Pour
valider la qualité de ces estimations fera l’objet d’essais numériques en dimension deux
avec une adaptation automatique du maillage, basée sur l’indicateur local.
Les techniques proposées pour l’obtention de notre estimateur, peuvent se
généraliser sans difficultés majeurs à d’autres types d’équations comme la convection
diffusion et d’autres types d’approximations ou de formulations de type stabilisées.
Dans la résolution d’un problème physique par exemple, beaucoup d’efforts sont
fournis d’abord dans la modélisation, pour ”bien” traduire la réalité en équation
mathématiques, ensuite dans la méthode de discrétisation pour bien approcher le
problème continu; ces efforts ne doivent pas s’arrêter à ce niveau, ce qui peut remttre
en cause la qualitè même de ce qu’on calcule et par suite les interprétation qui en
découlent. Il est donc néccessaire d’accorder une attention particulière à le résolution
numérique du problème discret, qui passe généralement par la résolution d’un système
linéaire de grande taille.
Les méthodes itératives de type multiniveaux ont prouvé leur efficacité dans la
résolution de systèmes discrets, cette efficacité est souvent mesurée en fonction de la
constante CBS, d’où l’intérêt de disposer d’une bonne approximation de ce paramètre.
Dans ce travail nous avons donné un résultat général relatif à l’estimation de la
constante CBS pour un les systèmes différentiels linéaires du second ordre, en deux ou
trois dimensions, pour les schémas à deux niveaux. Ce résultat généralise un ensemble
de travaux fait dans ce sens pour des systèmes particuliers.
Les résultats proposés ici sont en cours de généralisation pour les mêmes systèmes
mais pour des schémas multiniveaux.

Vous aimerez peut-être aussi