Vous êtes sur la page 1sur 6

2. Lois de probabilits usuelles.

1. Lois discrtes. 1.1. Loi dgnre ou de Dirac. On lappelle encore loi causale. Elle prend ses valeurs dans E = Z = {0,1,2,...} et prend une valeur constante presque srement (avec une probabilit gale 1): 1, x = c P ( X = c) = c ( x) = , 0, x c o c est une constante entire. Ses moments sont faciles calculer

m = E ( X ) = c , 2 = Var ( X ) = 0 La fonction de rpartition F ( x) = 0, x c, F ( x) = 1, x > c .


1.2. Loi uniforme discrte.

Cest la loi dune variable discrte qui prend chacune des valeurs entires de lintervalle [0, N ] avec des probabilits quiprobables P( X = i) = 1/ N , i = 1,2,..., N .

1.3. Loi de Bernoulli (ou loi 0-1). Cest la loi dune variable alatoire binaire X valeurs dans E = { 0,1 }. On note X B( p ) . Une telle variable ne prend deux valeurs 0 ou 1 avec les probabilits: P(X =1)= p , P(X =0)=1 p , 0< p <1 . On

peut

crire la densit sous la forme: P ( X = i ) = p i (1 p ) n i , i = 0,1 .Ses

caractristiques moyennes valent: m = E ( X ) = p; Var ( X ) = p(1 p) .


Interprtation : La nature binaire de la variable permet denglober une varit de modles o seules deux ventualits possibles sont prises en compte. Considrons par
73

exemple, un vnement A li une exprience alatoire telle que sa probabilit doccurrence soit gale p = P( A) On peut introduire la variable

1 X = 0

si A s' est ralis dans l' exprience (succs ) si A ne s' est pas ralis (chec)

La variable associe une loi de Bernoulli est assimile la fonction indicatrice dun vnement (ou un ensemble). Elle est ainsi trs pratique pour le codage binaire (voir chapitre 7), en particulier pour la communication avec les ordinateurs. Par exemple : (i) (ii) Au cours du jet dune pice de monnaie, on peut considrer lvnement A={occurrence de Pile}. Considrons la transmission de chiffres binaires (bits) travers un canal de communication ; A={le chiffre est transmis correctement}.

1.4. Loi binomiale B (n, p) .

On dit que X suit une loi binomiale de paramtre n { 1,2,...}} et 0 < p < 1 , si son ensemble des valeurs possibles est E = {0,1,2,..., n} et si sa densit de probabilit est donne par
i i pi = P( X = i ) = Cn p (1 p) n i , i = 0,1,2,..., n

Interprtation : Considrons une srie de n expriences de Bernoulli indpendantes, dans des conditions identiques (par exemple n jets dune mme pice de monnaie), et dans chacune desquelles on peut observer la ralisation (ou la non ralisation) dun certain vnement A (le rsultat du jet est Pile). Pour chaque exprience (la i me disons), on introduit la variable alatoire de Bernoulli X i = 1 si lvnement A se

ralise dans la ime exprience, X i = 0 si A ne se ralise pas dans cette ime exprience (i = 1,2,..., n ) . La variable reprsente le nombre doccurrences de lvnement A (succs) au cours de ces n expriences. Un exemple de modle simple est lorsque X = nombre de boules blanches tires dune urne (avec remise) qui en contient n = a + b (cf . exercice 1, chapitre 1). Un autre exemple dcrit en exercice est la loi du nombre de dfectueux dans un lot darticles.
Exemple 1: On sait que la proportion de disquettes dfectueuses est de 20%. Quelle est la probabilit que parmi 10 disquettes, 2 soient dfectueuse. Cette probabilit vaut: 2 p2 = C10 (0.2) 2 (0.8)8 0.30199 .
74

On vrifie que: (i) (ii) Le cas n = 1 correspond la loi de Bernoulli, B( p) . E ( X ) = np; Var ( X ) = np(1 p) .

Exemple 2: Les graphes de 4 distributions binomiales de paramtres diffrents sont reprsents sur les figures ci-dessous :

(i) n = 8, p = 0.1 m = 0.8 , graphe dcroissant ( p = 0.1 < 8 / 9 ; (ii) n = 8, p = 0.9 m = 7.2 , graphe croissant ( p = 0.9 > 8 / 9 ; (ii) n = 8, p = 0.3 m = 2.4 , mode=2 ; (iv) n = 8, p = 0.5 m = 4 = mod e .

0 . 5 0 . 4 0 . 3 0 . 2 0 . 1

n=8,p=0.1

0 . 5 0 . 4 0 . 3 0 . 2 0 . 1

n=8,p=0.9

0 1 2 3 4 5 6

8 1 0

0 . 5 0 . 4 0 . 3 0 . 2 0 . 1

n=8,p=0.3

0 . 5 0 . 4 0 . 3 0 . 2 0 . 1

n=8,p=0.5

0 2 4 6 8 1 0

0 2 4 6 8 1 0

1.7. Loi gomtrique ou de Pascal G(p). On dit que X suit une loi gomtrique de paramtre p partant de 1 ( 0 < p < 1) , si E = IN * ={1,2,} et pi = P( X = i ) = (1 p )i 1 p, i E . On peut vrifier que E ( X ) = 1 / p;
Var ( X ) = (1 p ) / p 2 .

75

1 0.8 0.6 0.4 0.2

p=0.2
0 1 2 3 4 5 6

1 0.8 0.6 0.4 0.2

p=0.8
2 4 6 8 10

Figure 1. Densit de la loi gomtrique de paramtre p=0.2 et 0.8. Interprtation : X peut-tre interprte comme le nombre dpreuves de Bernoulli pour obtenir un succs pour la premire fois. Par exemple, le nombre de jets d'une pice de monnaie pour obtenir "Pile" pour la premire fois. La quantit pi reprsente la probabilit dobtenir un premier succs la i-me tentative (y compris la dernire tentative qui sachve par un succs). Remarque: Parfois, on considre plutt une modification du modle prcdent reprsent par la variable Y = X 1 qui reprsente le nombre d'checs avant d'obtenir

un

succs;

dans

ce

cas,

pi =(1 p)i p, i =0,1,2,... E ( X ) = (1 p ) / p;

Var(X)=(1 p) / p 2 . On lappellera loi gomtrique partant de 0.


1.10. Loi de Poisson P().

Une variable X suit une loi de Poisson de paramtre > 0 , si E = IN et


pi =

i
i!

e ,

i = 0,1,2,...

76

0.6 0.5 0.4 0.3 0.2 0.1

0.4

=0.5

0.3 0.2 0.1

=1
0 2 4 6 8 10

0 1 2 3 4 5 6
0.2

0.15

0.1

=6

0.05

10

Figure 2. Densit de la loi de Poisson de paramtres = 0.5, 1et 6.

Proprits : 1. Les caractristiques de la loi P() valent : E ( X ) = Var ( X ) = .

2. m2 = ( + 1); m3 = (2 + 3 + 1) ; 3. La somme de deux variables alatoires indpendantes X et Y suivant des lois de Poisson P(1) et P (2 ) respectivement suit une loi de Poisson P (1 = 2 ) .

4. Soit Yn le nombre de succs dans n expriences de Bernoulli o P(succs)= pn (ici p = pn dpend du nombre dexprience). Cette variable suit donc une loi binomiale B(n,pn) :
i i P (Yn = i ) = Pn (i, pn ) = Cn pn (1 pn ) n i . Supposons

que p = pn = n / n avec n > 0 lorsque n , alors lim Pn (i, pn ) =

i
i!

e , i = 0,1,2,...

77

Ce rsultat (connu sous le nom de thorme de Poisson) stipule que le modle de loi binomial B (n, p ) peut tre approch par un modle de loi de Poisson lorsque le nombre dexpriences n est suffisamment grand, et que la probabilit de succs p est suffisamment petite, le produit np restant approximativement constant gal . Cest pourquoi, la loi de Poisson sappelle parfois loi des vnements rares . En pratique, lapproximation est satisfaisante ds que n > 200, p 0.1 (ce nest pas une rgle !!!, on trouvera dautre indications sur la manire de choisir n et p dans la littrature selon la nature de lapplication). Sous certaines hypothses de nature mathmatique, la loi de Poisson est utilise pour dcrire le nombre dapparitions dun certain vnement dans un intervalle de temps fix ou dans un domaine spatial fix. Ainsi, moyennant une traduction des hypothses mathmatiques vers les hypothses physiques correspondantes, la loi de Poisson a t utilise pour modliser par exemple : la loi du nombre dappels un central tlphonique, la loi du nombre de visites un site Web durant une priode donne, la loi du nombre de particules radioactives mise dans une direction , le nombre de dfauts ou de pannes dune machine, la loi du nombre de paquets au niveau du routeur dun rseau mobile, nombre de points jets sur une cible circulaire du plan ou dun autre espace etc.

Exemple 6 : Le nombre dtudiants qui arrivent au restaurant universitaire (durant la priode douverture) suit une loi de Poisson de paramtre = 2 tudiants par minute. La probabilit darrive de plus de 6 tudiants durant la premire minute douverture est
=0.00453381 i! i = 0 i! Le nombre moyen dtudiants par minute est justement E ( X ) = = 2 / min ute , par consquent, le nombre moyen dtudiants durant les deux heures douverture sera 2 2 60 = 240 tudiants.
i =10

P ( X 10) = e 2

= 1 e 2

10

Exemple 6(bis) : Si lvnement consiste en larrive de ltudiant au restaurant universitaire , on doit avoir :

(i) (ii) (iii)

P(un vnement durant t )= t + O(t ) , P(2 vnement durant t )= O(t ) , Les nombres dvnements durant des intervalles disjoints sont des variables alatoires indpendantes et de mme loi Poisson ( ).
78