Vous êtes sur la page 1sur 9

Suite du Chapitre 1

1.3 valeurs extrêmes d’une variable


Les valeurs extrêmes correspondent aux grandeurs maximum ou minimum d’une série de
données, par exemples les débits minimaux annuels de vingt ans d’observation. Ces valeurs
minimales suivent une distribution spécifique, différentes de celle de la population mère
(ensemble des débits) dont elles sont issues.

1.4 Théorie générale de l’ajustement statistique

Le terme ajustement indique que les paramètres d’une distribution théorique donnée sont fixés
de façon à ce que cette distribution reproduise celle de l’échantillon de données observées à
l’étude.
1.4.1 Méthode des moments
La méthode des moments consiste à égaler les moments des échantillons avec
les moments théoriques de la loi. Par la méthode des moments, les paramètres a et b sont calculés
d'après les formules : avec (constante d'Euler). : écart-type des valeurs composant l'échantillon.
1. Moments ordinaires

On appelle moment d'ordre k la valeur de l'intégrale

En particulier, le moment de premier ordre (k = 1) s'appelle la moyenne, on le note x ou ml'


On appelle moment centré d'ordre k la valeur de l’intégrale :

En particulier, le moment centré de second ordre (k = 2) s'appelle la variance, on le note μ2


2
ou σx . Sa racine carrée est l'écart-type σx. . On appelle écart réduit, ou parfois variable
réduite de Gauss,

On décrit l’asymétrie d’une distribution par le troisième moment autour de la valeur


moyenne :

En pratique, on a plus souvent recours au coefficient d’asymétrie :

Qui pour un échantillon, s’écrit :

Comme l’illustre la figure ci-dessous, une asymétrie positive indique que la valeur maximale
de f(x) se situe à gauche de la moyenne et inversement pour une asymétrie négative.
Figure 1 : Influence sur une fonction de densité de probabilité a) de l’écart-type ; et b) du
coefficient d’asymétrie.

2. Moments linéaires

Les moments linéaires(L) représentent une alternative aux moments ordinaires et sont dérivés
de premiers moments pondérés. Pour toutes distributions, on obtient des estimateurs
échantillonnaux non biaisés neutres des moments pondérés d la façon suivante :

Ou n est le nombre de données de l’échantillon et les x(j) sont les débits classés pour lesquels
x(1) est l’observation la plus élevée et x(n) l’observation la plus petite.
Notons que le premier moment pondéré est égale à la moyenne échantionnale. Pour toutes
distributions, les quatre premiers moments L échantillonnaux s’écrivent alors :

λ4= 20 b3 – 30 b2 + 12 b1 – b0

1.4.2 Méthode du maximum de vraisemblance

Supposons qu’un échantillon, tiré d’une population mère représentant la totalité des valeurs
d'une variable aléatoire X, comporte N valeurs Xi pouvant se produire chacune avec
probabilité P,. La probabilité pour qu'un échantillon de N valeurs obtenues par tirages
indépendants soit précisément l'échantillon obtenu, est :
P1 x P2 x PN
On appelle cette probabilité Vraisemblance de l’échantillon.
La méthode du maximum de vraisemblance consiste à déterminer les paramètres de la loi
choisie de façon à rendre l'échantillon le plus vraisemblable possible.
Si la v .a. est continue, chacun des termes ci-dessus, et à priori le produit lui-même, sont
infiniment petits. On définit alors la vraisemblance de l'échantillon comme une quantité
proportionnelle au produit des densités de probabilités, c'est-à-dire à:

Xi étant une valeur quelconque de I 'échantillon, a; h, ...k les paramètres de la loi de


probabilité dont les valeurs sont inconnues. Le but cherché est de maximiser donc
d'annuler les dérivées partielles par t:apport aux différents paramètres, ce qui donne un
système de k équations :

Il est souvent plus simple d’écrire

et le système ci-dessus peut être remplacé par :

Dans la pratique des calculs, on prend les dérivées partielles de Lf x par rapport à chacun des
paramètres, puis on fait les sommations que l'on annule.
Cette méthode fournit toujours une estimation correcte des paramètres, mais il peut exister,
pour un problème déterminé, la résolution du système d'équations auquel on about.it peut
poser de sérieuses difficultés.

Les lois les plus utilisées en hydrologie sont la loi normale (loi de Gauss) et la loi de Gumbel.

Considérations théoriques

1. Loi normale

La loi normale se justifie, comme la loi d'une variable aléatoire formée de la somme d'un
grand nombre de variables aléatoires. En hydrologie fréquentielle des valeurs extrêmes, les
distributions ne sont cependant pas symétriques, ce qui constitue un obstacle à son utilisation.
Cette loi s'applique toutefois généralement bien à l'étude des modules annuels des variables
hydro-météorologiques en climat tempéré. La fonction de densité de probabilité est définie
par :

Les deux paramètres de cette distribution sont la moyenne m et l’écart type s.


La fonction de densité f(x) se présente sous forme de courbe en cloche, symétrique par
rapport à la moyenne m.
Si on opère le changement de variable suivant :
2. Loi de Gumbel (distribution des valeurs extrêmes)

E.-J. Gumbel postule que la loi double exponentielle, ou loi de Gumbel, est la forme limite de
la distribution de la valeur maximale d'un échantillon de n valeurs. Le maximum annuel d'une
variable étant considéré comme le maximum de 365 valeurs journalières, cette loi doit ainsi
être capable de décrire les séries de maxima annuels.

La fonction de répartition a la forme suivante :

3. Distribution de Pearson (Gamma) Type III


Tableau1 : Variables hydrologiques et les lois qui généralement s’y ajustent

1.4.3 Intervalles de confiance et bandes de confiance

La valeur d’une variable estimée ne correspond pas à la vraie valeur qui ne peut être connue
qu’avec un échantillonnage de dimension infinie. La notion d’intervalle de confiance
représente un certain nombre de chances de trouver la vraie valeur du paramètre cherché. Son
amplitude est d’autant plus grande que :
• Le degré de confiance choisi est grand
• La dispersion (écart) est grande
• La taille de l’échantillon est réduite
Le choix du degré de confiance dépend du risque que le projecteur accepte. Le degré est
choisi d’autant plus élevé que l’on recherche la sécurité.

Valeurs communément admises :


• 95 % pour les projets importants économiquement et/ou exigeant une sécurité élevée
• 70 % pour les projets d’importance économique moindre et / ou n’exigeant pas une sécurité
très poussée

1.5 Test d’Ajustement


Il existe toujours des écarts entre les fréquences expérimentales des valeurs observées et les
fréquences des mêmes valeurs calculées à partir d’une fonction de répartition quelconque.
L’ajustement graphique est la première étape mais reste insuffisante pour le choix définitif de
la loi théorique. Le test statistique d’adéquation consiste à comparer l’adéquation de plusieurs
lois afin d’adopter le moins mauvais ajustement. Les tests les plus utilisés sont le test χ2et le
texte de Kolmogorov Smirnov.

1.5.1 Test du Chi carré


1.5.2 Test de Kolmogorov-Smirnov

1.6 Mise en application


1.6.1 Application de la loi normale dans la détermination de la période de
retour
1.6.2 Exemple d’ajustement d’un échantillon selon la loi de Goodrich

1.6.3 Ajustement de plusieurs types de couches pour le calcul des fréquences des
valeurs extrêmes
Courbes Intensité – Durée – Fréquence

Les courbes IDF (Intensité–Durée–Fréquence) représentent l'évolution de l'intensité de la


pluie iT(d) en fonction de la durée d de la pluie (généralement de quelques minutes à
quelques heures) et de la fréquence de la pluie exprimée en période de retour T (souvent
quelques valeurs échantillonnées entre 2 et 100 ans).

Figure 2. Représentation schématique des courbes IDF


Figure3. Courbes IDF