Vous êtes sur la page 1sur 50

Plan du Chapitre 4 : Lois Usuelles Discretes

I Loi de Poisson
I Loi Uniforme Discrète
I Loi de Bernoulli
I Loi Binomiale
I Loi Multinomiale
I Loi Géométrique
I Loi de Pascal
I Loi Hypergéométrique
Plan du Chapitre 4 : Lois usuelles continues

I Loi Uniforme Continue


I Loi Normale
I Loi Gamma
I Loi Exponentielle
I Loi Khi-2
I Loi Lognormale
I Loi Weibull
I Loi d’Erlang
I Loi Beta
Motivation : Ces lois sont fréquemment utilisées en gestion,
recherche opérationnelle et sciences de l’ingénieur.
Objectifs du chapitre

1. Présenter un ensemble de distributions de probabilité


discrètes qui décrivent beaucoup de phénomènes
aléatoires rencontrés dans la vie courante.
Loi Uniforme Discrète

C’est la plus simple de toutes les distributions de probabilité


discrètes.
La v.a. X prend toutes ses valeurs x1 , x2 , ..., xk avec des
probabilités égales, avec

p (x, k ) = k1 , x = x1 ,x2 , ...,xk

La notation p (x, k ) est utilisée à la place de p (x) pour indiquer


que la distribution de probabilité uniforme discrète dépend du
paramètre k.
La moyenne et la variance de la loi uniforme discrète sont :
Pk Pk
µ= 1
k i=1 xi et σ2 = 1
k i=1 (xi − µ)2
Exemple de loi Uniforme Discrète

Une boite contient quatre ampoules de 40, 60, 75 et 100 Watts.


Si on sélectionne une ampoule de cette boite, chaque élément
de l’espace échantillonnal S = {40, 60, 75, 100} aura une
probabilité de 41 . Nous avons donc une loi discrète uniforme
avec p (x, 4) = 14 , x = 40,60,75,100.
Exercice 8 (loi Uniforme Discrète)

Faire une démonstration similaire avec un dé équilibré.


Dessiner l’histogramme de cette loi uniforme discrète.
Calculer la moyenne et la variance de cette loi uniforme
discrète.
Loi de Poisson (Intro 1)
Cette loi permet de modéliser de nombreux phénomènes du
monde réel. Elle est l’une des lois de probabilité discrètes les
plus utiles. On s’intéresse à des événements arbitraires et
orientés dans le temps (du genre arrivées ou naissances). La
variable aléatoire d’intérêt, représente le nombre d’arrivées qui
surviennent dans l’intervalle [0, t].
Les expériences qui donnent une valeur numérique d’une v.a.
comme le nombre de résultats obtenus pendant un intervalle
de temps ou sur une région spécifiée sont appelées expérience
de Poisson.
L’intervalle de temps donné peut être de n’importe quelle
longueur (minute, jour, semaine, mois, année etc..).
La région spécifiée peut être un segment de droite, une
surface, un volume ou un morceau de matériel.
Le nombre de résultats obtenus durant une expérience de
Poisson est appelée v.a. de Poisson et sa distribution de
probabilité est appelée distribution de Poisson.
Loi de Poisson (Intro 2)

Une v.a de Poisson peut représenter :


I Le nombre d’appels reçus par heure par un bureau, le
nombre de jours où l’université est fermée pour cause de
perturbations, le nombre de matchs de football différés
pour cause de pluie etc..
I Le nombre d’arbres/animaux par hectare, le nombre de
bactéries par culture ou le nombre d’erreurs de
typographie par page.
Loi de Poisson

La fonction de probabilité de X est :


( x −c
c e
x! , x = 0,1,2, ...,
p (x) =
0 autrement
Où c est le nombre moyen de résultats par unité de temps,
distance, surface ou volume. e = 2.71828.
La moyenne et la variance de la Loi de Poisson valent c.
Exercice 9 (loi de Poisson)

Dix est le nombre moyen de pétroliers qui accostent par jour


dans un port.
Les installations portuaires peuvent prendre en charge au plus
15 pétroliers par jour.
Calculer la probabilité, qu’un jour donné, des pétroliers soient
rejetés (c-à-d obligés d’attendre au large le temps que les
installations redeviennent libres) ?
Loi de Bernoulli

Soit une expérience où l’épreuve X ne peut déboucher que sur


un succès S ou un échec E. Pour faciliter les choses,
supposons une variable aléatoire X telle que X = 1 lorsque le
résultat obtenu est S et X = 0 lorsque le résultat obtenu est E.
On dit que la v.a. X suit la loi de Bernoulli de fonction de
probabilité :

p,
 x =1
p (x) = 1 − p = q, x =0

0 autrement

Loi de Bernoulli (Suite)

La moyenne de cette loi estE (X ) = (0.q) +


 (1.p).
Sa variance V (X ) = 02 .q + 12 .p − p2 = pq.
Processus de Bernoulli

Définition : C’est une expérience aléatoire qui consiste en une


série d’essais de Bernoulli, avec deux résultats possibles
étiquettés S (succès) ou E (échecs). Le processus de Bernoulli
doit posséder les propriétés suivantes :
I L’expérience consiste en la répétition de n essais.
I Chaque essai résulte en un résultat qui peut être classé
comme un succès ou un échec.
I La probabilité d’un succès notée p, reste constante d’un
essai à un autre.
I Les essais répétés sont tous indépendants.
Loi Binomiale

La variable aléatoire X qui définit le nombre de succès obtenus


en réalisant n épreuves indépendantes de Bernoulli obéit à une
loi binomiale définie par :
( 
n x n−x
b (x, n, p) = x p (1 − p) , x = 0,1,2,...,n
0 autrement
Les paramètres de la loi binomiale sont notés n et p avec n
entier positif et 0 ≤ p ≤ 1 (p est la probabilité de succès pour
chacune de ces épreuves).
En d’autres termes
b (x, n, p) = P {<< x succ ès en n épreuves >>}.
Loi Binomiale (Suite)

Sa fonction de répartition est F (x) = xk =0 kn pk (1 − p)n−k .


P 

On s’intéresse souvent à la v.a proportion de succès notée


p̂ = X /n, où X suit une loi binomiale de paramètres n et p.
Sa moyenne, sa variance des moments sont :
1
E(p̂) = n E(X ) = n1 np = p,
2 2
V (p̂) = n1 V (X ) = n1 npq = pq n ,
Exercice 10 (Loi Binomiale)
Dans un procédé de fabrication, des produits sont inspectés et
classés défectueux ou non défectueux. Un produit défectueux
trouvé est considéré comme un succès. Le nombre de succès
est considéré comme une variable aléatoire qui prend des
valeurs entières comprises entre 0 et 3. les 8 résultats
possibles et les valeurs correspondantes de X sont décrits
dans le tableau suivant :

Résultat x
NNN 0
NDN 1
NND 1
DNN 1
NDD 2
DND 2
DDN 2
DDD 3
Suite de l’Exercice 10

Les produits sont sélectionnés de façon indépendante et on


considère que 25% de la production est défectueuse. Définir la
distribution de probabilité de X de 2 façons : méthode directe et
Loi binomiale.
Origine du mot Binomial

Le mot binomial provient du fait que les n + 1 termes du


développement en série de (p + q)n correspondent aux valeurs
de b (x, n, p) c’est-à-dire
 que
(p + q)n = n0 q n + n1 pq n−1 + n2 p2 q n−2 + ... + nn pn .
  

= b (0, n, p) + b (1,Pn, p) + b (2, n, p) + ... + b (n, n, p)


Puisque p + q = 1 alors nx=0 b (x, n, p) = 1.
Ce qui est valide pour n’importe quelle loi de probabilité
discrète.
Exercice 11 (Loi Binomiale)

Une chaine de supermachés achète un certain type d’appareils


électroniques chez un manfacturier qui a indiqué que le taux
d’appareils défectueux est de 3%
1. L’inspecteur de la chaine de supermarchés choisit au
hasard 20 produits d’une cargaison. Quelle est la
probabilité qu’il y aura au moins un produit défectueux
parmi ces 20 ?
2. Supposons que la chaine de supermarchés reçoit 20
appareils par cargaison. Quelle est la probabilité qu’il y
aura 3 cargaisons contenant au moins un appareil
défectueux ?
Loi Géométrique

Ici la variable aléatoire X d’intéret est le nombre d’épreuves de


Bernoulli nécessaires pour obtenir un premier succès (la loi
Géométrique est reliée à une suite d’épreuves de Bernoulli
dont le nombre peut varier). Sa fonction de probabilité est :
(
q x−1 p, x = 0,1,2,...,n
p (x) =
0 autrement
La loi Géométrique possède une propriété intéressante qui la
distingue de toutes les autres lois de probabilité discrètes : elle
est sans mémoire.
En effet, P (X > x + s|X > s) = P (X > x)
Loi de Pascal

Cette loi est elle aussi basée sur les épreuves de Bernoulli. Sa
variable aléatoire associée X définit l’épreuve ayant généré le
r ième succès, r étant un nombre entier. Sa fonction de
probabilité est :
(
x−1
 r x−r
r −1 pq , x = r ,r + 1,r + 2, ...,
p (x) =
0 autrement
Le terme pr q x−r découle de la probabilité associée à
exactement un résultat formé de (x − r ) échecs et de r succès.
Pour obtenir ce résultat, il faut observer (r − 1) succès à
l’intérieur des (x − 1) épreuves qui précèdent la dernière,
laquelle doit nécessairement déboucher sur un succès.
Loi Hypergéométrique
Supposons qu’on ait une population finie de N éléments. Un
nombre quelconque D de ces éléments ( avec (D ≤ N) )
appartient à une classe qui retient l’attention (par exemple des
produits défectueux ou personnes atteintes d’une certaine
maladie). On prélève au hasard et sans remise un échantillon
de taille n.
La variable aléatoire associée X définit le nombre d’éléments
de l’échantillon qui appartiennent à la classe retenant
l’attention.
La fonction de probabilité de la loi hypergéométrique est :

 D N−D
 ( x ) ( n−x ) , x ∈ {max (0, n + D − N) ,..., min (n, D)}
p (x) = (Nn )
0 autrement

Loi Uniforme Continue

C’est la plus simple de toutes les distributions de probabilité


continues mais ses applications pratiques ne sont aussi
courantes que pour les autres distributions de probabilité.
L’application de la loi uniforme est basée sur l’hypothèse selon
laquelle que la probabilité de se trouver sur un intervalle de
longueur fixe [A, B] est constante. Elle est caractérisée par une
fonction de densité plate et la probabilité est ainsi uniforme
dans un intervalle fermé [A, B].
Définition :
La fonction de densité de la v.a. uniforme continue X sur
l’intervalle [A, B] est
(
1
, A≤x ≤B
f (x, A, B) = B−A
0 ailleurs
Moyenne et variance de la Loi Uniforme Continue

La moyenne et la variance de la loi uniforme discrète sont :

A+B (B−A)2
µ= 2 et σ2 = 2
Exercice 11 (Loi Uniforme Continue)

Des bateaux de tourisme d’une entreprise de location doivent


être loués au moins pendant 1 h et au plus 4 h. Toutefois la
réservation des bateaux pour de courtes ou longues durées
peut souvent survenir dans les 2 cas. En fait, la durée X d’une
location a une distribution uniforme sur l’intervalle [1, 4]

I Trouver la fonction de densité de probabilité.


I Quelle est la probabilité qu’une location donnée dure au
moins 3 heures ?
Loi Normale
C’est la plus importante de toutes les distributions de
probabilité continues en Statistiques et décrit beaucoup de
phénomènes qui surviennent dans la nature, l’industrie et la
recherche.
Le graphe de sa fonction de densité de probabilité est appelé
courbe normale.
Sa v.a. associée est appelée v.a. normale.
La fonction de densité de la v.a. normale (de moyenne µ et de
variance σ 2 ) est définie par :

(x−µ) 2
h i
 1 −1
f (x, µ, σ) = σ 2Π
√ e 2 σ
, −∞ ≤ x ≤ ∞
0 ailleurs
Avec Π = 3.14159... et e = 2.71828...

La courbe de la Loi Normale est totalement déterminée une


fois que la moyenne µ et la variance σ 2 sont connues.
Propriétés de la Loi Normale

I Le mode, qui est le point de l’axe des abscisses où la


courbe atteint son maximum, correspondant la la moyenne
µ.
I La courbe normale est symétrique par rapport à l’axe
vertical passant par la moyenne.
I La surface totale sous la courbe normale et au dessus de
l’axe des abscisses est égale à 1.
I Si la moyenne et la variance d’une v.a. qui suit la loi
normale valent, respectivement, 0 et 1, alors nous dirons
que cette v.a. suit une loi normale centrée réduite.
Représentation graphique de la Loi Normale
 
Comparaison de deux courbes normales (Partie 1)
Ces deux courbes qui ont le même écart-type ou déviation
standard (σ1 = σ2 ) mais ont différentes moyennes (µ1 < µ2 ).
 
Comparaison de deux courbes normales (Partie 2)
Ces deux courbes qui ont la même moyenne (µ1 = µ2 ) mais
différents écart-types (σ1 < σ2 ).

   

=
Comparaison de deux courbes normales (Suite de la
Partie 2)

Remarque :
Cette fois ci les deux courbes sont centrées au même point de
l’axe des abscisses mais la courbe qui la plus grande déviation
standard est plus basse et est plus étalée que celle dont
l’écart-type est moindre. Plus les observations sont variables,
plus la courbe représentative de la loi normale associée sera
basse et large.
Comparaison de deux courbes normales (Partie 3)
Ces deux courbes ont des moyennes différentes mais aussi
des écart-types différents. Leurs moyennes sont placées sur
des points différents de l’axe des abscisses alors leurs formes
reflètent des déviations standard (ou écart-types) différentes.
 
Surface sous la courbe normale
Elle est égale à P (x1 < X < x2 ).
 
Lien entre la surface sous la courbe normale,
moyenne et écart-type
La courbe normale (donc la surface sous la courbe normale)
dépend de la moyenne µ et de l’écart-type σ.
La v.a. normale X ci-dessous décrit deux distributions de
probabilités A et B qui diffèrent par leurs couples de valeurs
(µ,σ).

 
Loi Normale Centrée Réduite

Il est possible de transformer toutes les observation d’une v.a.


normale quelconque en un nouveau ensemble d’observations
d’une v.a normale Z de moyenne 0 et de variance 1. Ce qui
peut être fait avec la transformation suivante
Z = X −µσ
Quand la v.a X prend une valeur x, la valeur correspondante de
Z est (x − µ)/σ.
La distribution d’une v.a normale de moyenne 0 et de variance
1 est appelée distribution normale standard.
Effet de la transformation d’un Loi Normale en Loi
Centrée Réduite

z,
 
Exercice sur la Loi Normale (Énoncé)

Étant donnée une distribution normale standard, trouver (en


vous servant de la table de valeurs fournie dans le cours) la
surface sous la courbe qui :
I Se trouve à la droite de z = 1.84
I Se trouve entre z = −1.97 et z = 0.86
Pour la troisième figure ci-dessous, on suppose que X a une
distribution normale avec une moyenne p = 300 et un
écart-type a = 50, trouver la probabilité que X prenne une
valeur plus grande que 362.
Exercice sur la Loi Normale (Dessin)

 
Utilisation de la courbe normale dans le sens inverse

Dans les exemples précédents, nous sommes partis d’une


valeur x vers une valeur z pour calculer une surface désirée.
Nous allons maintenant inverser le processus en commençant
par une surface connue ou probabilité pour trouver la valeur z
et déterminer x en réarrangeant la formule z = (x − µ)/σ pour
obtenir x = σz + µ.
Illustration

Étant donnée une distribution normale standard de moyenne


p = 40 et un écart-type a = 6, trouver (en vous servant de la
table de valeurs fournie dans le cours) les valeurs de x qui ont :
I 45% de la surface à gauche
I 14% de la surface à droite
Loi Gamma (Introduction)

La Loi Gamma joue un rôle important dans les problèmes de


fiabilité. La fonction Gamma est définie par :
R∞
Γ (α) = 0 x α−1 e−x dx, α>0

Propriétés de la fonction Gamma :


I Γ (α) = (α − 1) Γ (α − 1)
I Γ (n) = (n − 1)! si n est un nombre entier positif

I Γ (1/2) = π
La distribution Gamma (Définition)

La v.a.c X a une distribution Gamma de paramètres α et β si sa


fonction de densité est définie par :
( −x
1 α−1 e β ,
α x x >0
f (x, α, β) = β Γ(α)
0 ailleurs
Avec α > 0 et β > 0

La moyenne et la variance de la loi Gamma sont :


µ = αβ et σ 2 = αβ 2
Loi Exponentielle

C’est un cas particulier de la loi Gamma avec α = 1 et elle a de


nombreuses applications pratiques nottamment en fiabilité.
La v.a.c X a une distribution de probabilité exponentielle de
paramètre β si sa fonction de densité est définie par :
( −x
1 β
e , x ≥0
f (x, β) = β
0 ailleurs
Avec β ≥ 0

La moyenne et la variance de la loi exponentielle sont :

µ=β et σ2 = β 2
Loi Khi-2
C’est aussi un cas particulier très important de la loi Gamma
avec α = v /2 et β = 2, v étant un entier positif. Le résultat est
appelé distribution khi-2.
L’unique paramètre de v est appelé degré de liberté de la
distribution khi-2. La v.a.c X a une distribution de probabilité
avec v degrés de liberté si sa fonction de densité est définie
par :

v /2−1 e −x
(
1
v /2 Γ(v /2) x x >0
2 ,
f (x, α, β) = 2
0 ailleurs
Avec v est un entier positif.
La distribution khi-2 joue un rôle très important en inférence
statistique (autant du point de vue méthodologique que du
point de vue théorique). C’est une composante importante deu
tests d’hypothèse et de l’estimation.
La moyenne et la variance de la loi Khi-2 sont :
µ = v et σ 2 = 2v
La distribution lognormale

Un peu à l’image de la loi normale, elle est utilisée pour une


grande variété d’applications. Elle est applicable lorsque une
transformation logarithmique résulte en une loi normale.
La v.a. X a une distribution lognormale si la v.a Y = ln (X ) a une
distribution normale de moyenne µ et de déviation standard σ.
La fonction de densité résultante est définie par :

(lnx−µ)2
1 −
e 2σ2 , x ≥0
 √
f (x, µ, σ) = xσ 2Π
0 x ≤0
La moyenne et la variance de la loi lognormale sont :
2 2
 2 
E [X ] = eµ+σ /2 et Var [X ] = e2µ+σ eσ − 1 .
La distribution de Weibull

C’est une distribution largement utilisée pour les systèmes


complexes dont la sécurité dépend de la fiabilité de diverses
composantes. Cette loi est aussi utilisée dans des cas où des
composantes identiques sujettes à des conditions de
fonctionnement identiques feront défaut à des moments
différents et imprévisibles.
La v.a. X a une distribution de Weibull de paramètres α et β si
sa fonction de densité est définie par :
( β
αβx β−1 e−αx , x ≥ 0
f (x, α, β) =
0 ailleurs
La distribution de Weibull (caractéristiques)

La fonction de distribution cumulative de la loi de Weibull de


β
paramètres α et β est définie par : F (x) = 1 − e−αx
Définissons la fiabilité d’une composante comme étant la
probabilité qu’elle fonctionnera correctement pour au moins
une durée déterminée sous des conditions expérimentales
spécifiques.
Ainsi, on peut définir R (t) comme la fiabilité d’une composante
donnée à une période donnée t.
On peut écrire R (t) = P (T > t) = 1 − F (t)
f (t)
Le taux de défaillance Z (t) = 1−F (t) est égal à
Z (t) = αβt β−1 , t ≥0
La distribution d’Erlang

C’est un cas particulier de la distribution Gamma avec α = n.


Sa fonction de densité est définie par :
( n−1 −x/β
x e
β n (n−1)! , x ≥ 0
f (x) =
0 ailleurs
La distribution Beta

La distribution Beta de paramètres α et β a pour fonction de


densité :
( Γ(α+β)
α−1 (1 − x)β−1 , 0 < x < 1
Γ(α)Γ(β) x
f (x) =
0 ailleurs
C’est loi très utilisée en Fiabilité.