Vous êtes sur la page 1sur 7

Chapitre 2 

: LOIS DE PROBABILITE DISCRETES

I. Variable Aléatoire (V.A)


( Ω,Ε ,P )
Soit un espace probabilisé.
X Ω
1.2. Définition : On appelle V.A réelle (ou aléa numérique) toute application de
X ( I ) ={ w ∈ Ω/ X ( w ) ∈ I }
−1
IR
dans tel que l’image réciproque de tout intervalle I de
Ε
IR soit un événement de .
 Exemple : On définit une V.A en associant à chaque résultat d’une épreuve un gain
financier (positif ou négatif).
X X (Ω )
 L’ensemble des valeurs prises par est notée .
Trois cas peuvent se présenter :
→ X ( Ω ) ={ x 1 , x 2 , .. . , x n }
ensemble fini de nombres.
X
On dit que est une V.A discrète finie.
→ X ( Ω ) ={ x 1 , x 2 , .. . , x n , . .. }
ensemble infini de nombres.
X
On dit que est une valeur discrète infinie.
→ X (Ω)
est un intervalle ou une réunion d’intervalles.
X
On ne peut plus « énumérer » les valeurs prises. On dit que est une V.A
continue.
Ω= {w1 , w2 . .. } X
 Dans le cas où et où est une V.A discrète on peut définir une
X ( Ω. )
probabilité sur
X
Définition : On appelle loi de probabilité de l’application
P: X ( Ω ) → [ 0,1 ] x i → P ( X=x i ) = pi .
et
P ( X= xi )
représente en fait la probabilité d’apparition de l’événement antécédent
{ w j / X ( w j )=x i } . X xi
par du réel  

P ( X= xi )= pi .
∑ pi =1
i
 L’ensemble des valeur vérifient et peut être représenté
par un « diagramme en bâton ».
p2

1/5
p3

p1 pn

p4

x1 x2 x3 x4 ( ... ) xn

X =( x i , pi )i
La donnée de définie la loi de probabilité de la V.A X .
X
Définition : On appelle « fonction de répartition » de , la fonction définie par :
F X : IR → [ 0,1 ] x F X ( x )=P ( X < x ) .
telle que pour tout réel ,
F X ( x ) = ∑ pi
xi < x pi xi< x
On a alors : = (somme des tels que )
IR
La fonction de répartition est définie sur , constante par intervalle, non décroissante
lim F X( x )=0 lim F X ( x )=1
x →−∞ x →+∞
continue à gauche et vérifie : et
F X ( x )=P ( X ≤x ) F
Remarque : Dans certains livres on prend et est continue à droite.
F(x)
1

x1 x2 x3 x

ELEMENTS CARACTERISTIQUES
1.2.1 Caractéristique de tendance centrale
E ( X )=∑ xi pi
X i
L’espérance mathématique (ou moyenne) résume la V.A en une valeur :
X
1.2.2 Caractéristique de dispersion La variance résume l’écart entre les valeurs de et
E( X )
 :
V ( X )=∑ ( x i −E( X ) ) pi = ∑ p i x 2i −( E( X ) ) ²
2

i i σ ( X ) =√ V ( X )
a. et l’écart type : .

2/5
σ (X) V (X)
Notons que et sont toujours positifs.
X
Remarque : On dit que est :
E ( X )=0
 centrée si
V ( X )=1
 réduite si
E ( X )=0 V ( X )=1 .
 centrée et réduite si et
X−m
T=
σ σ
Exercice : Montrer que si X est une V.A de moyenne m et d’écart type alors
est une V.A centrée et réduite.

1.3 OPERATIONS SUR LES V.A DISCRETES


X =( x i , ni )i Y =( y j , q j ) j
Soient et deux V.A discrètes :
Définitions :
- On appelle covariance du couple de V.A X et Y le nombre (s’il existe) noté et défini
COV ( X ,Y )=∑ pij ( x i −E( X ) )( y j−E(Y ) )=∑ p ij xi y j−E ( X )E(Y )
i, j i, j
par : où
pij=P ( X=x i , Y = y j )
est la loi conjointe du couple (X, Y).
pi=P ( X=x i ) =∑ P ( X =xi ,Y = y j )
j
- La loi marginale de X est définie par
q j =P ( Y = y j ) =∑ P ( X =xi ,Y = y j )
i
- La loi marginale de Y est définie par
COV ( X , Y ) Cov ( X ,Y )
R( X , Y )= .=
X Y σ ( X ) σ ( Y ) √ V ( X )V (Y )
- Le coefficient de corrélation entre et est
pij= p i q j
- Les variables X et Y sont dites indépendantes si pour tout i et j on a : .
Propriétés :
Soient X et Y deux V.A réelles a , b a’, b’ des réels alors on a :
E ( aX +bY ) =aE ( X ) +bE ( Y )
- (l’espérance est une application linéaire) ;
V ( aX +b ) =a2 V ( X )
-  ;

3/5
σ ( aX +b )=|a|σ ( X )
-  ;
V ( X +Y )=V ( X )+V ( Y ) +2 COV ( X ,Y )
-  ;
COV ( X ,Y )=E ( XY )−E ( X ) E(Y )
-   (utile pour le calcul) ;
COV ( aX +b , a ' Y +b' )=aa ' COV ( X , Y )
-  ;
aa '
R ( aX +b ,a' Y +b' )= R ( X ,Y )
|aa '|
-  ;
−1≤R ( X , Y )≤1
-  ;
- Si X et Y sont indépendantes alors
V ( X +Y )= V ( X ) + V ( Y )
*  ;
E ( XY )=E ( X ) E ( Y ) COV ( X ,Y )=0
* et dans ce cas .

II. Quelques lois Théoriques


Les Lois qui suivent sont les plus fréquemment rencontrées dans les problèmes pratiques :

2.1. Loi de Bernoulli : B(p)


a. Schéma : Tirage au sort à deux issues, l’une de valeur 1 avec probabilité p et l’autre de
valeur 0 avec probabilité q =1-p
X = « résultat ou numéro tiré » suit une loi de Bernoulli de paramètre p. On note X B(p).
X ( Ω )= { 0;1 } . P ( X=0 )=q P ( X=1 )= p E ( X )= p V ( X )= pq .
b. Propriétés : et et , et
2.2. Loi uniforme U(n)
a. Schéma : Triage au sort d’un numéro entre 1 et n
b. Propriétés
( Ω )=.
 Valeurs possibles de X : X {1 ; 2 ; ….. ; n}
1
P ( X=k )= .
n
 Loi de probabilité : pour tout k = 1 ; 2 ; …. ; n on a :
 Les paramètres statistiques :
n+1 n21
E ( X )= VX
2
et 12
2.3. : Loi géométrique G(p)

4/5
a. Schéma : Soit A un événement attaché à une expérience de probabilité p (on posera q = 1- p
la probabilité de l’événement contraire). L’expérience est répétée de façons identiques et
indépendantes et l’on considère la variable aléatoire X égale au nombre d’expériences
nécessaires pour obtenir pour la première fois la réalisation de l’événement A. On dit que X
suit une loi géométrique de paramètre p et on note que X  G(p).
b. Loi de probabilité de X.
( Ω )=
 Valeurs prises par X : X IN*.
 Loi de probabilité de X : Pour tout naturel non nul n on a : P(X = n) = qn-1p.
1 q
E ( X )= V ( X )= .
p p2
 Paramètres statistiques :  ;
( Η ( N , B , N )) .
2-4 Loi hypergéométrique
a. Schéma : Dans une urne se trouvent N boules dont B boules blanches. On tire d’un coup n
boules. Le nombre X de boules blanches dans ce tirage est une V.A suivant une loi
hypergéométrique qui dépend des trois paramètres N, B et n. On note X H( N, B, n).
b. Loi de probabilité X :
( Ω )=
 Valeurs prises par : X {0 ; 1 ; 2 ; …. ; n} ( si B  n)
C kB ×Cn−k
N−B
P( X=k )=
CnN
 Loi de probabilité de X : Pour tout k = 0 ; 1 ; 2 ; …. ; n on a :

 Paramètres statistiques : E(X)=


n
B
N
et V(X) =
n
B
N (
1−
B
N )( NN −n
−1 )
.

( B(n , p ))
2.5. Loi Binomiale
a. Schéma : soit A un événement attaché à une expérience de probabilité p ; on posera q = 1- p
la probabilité de l’événement contraire. L’expérience est répétée n fois de façons identiques et
indépendantes et l’on considère la V.A X égale au nombre de réalisation de l’événement A.
On dit que X suit une loi binomiale de paramètres n et p et on note : X  B(n ; p).
b. Propriétés :
( Ω )=
 Valeurs possibles de X : X {0 ; 1 ; 2 ; …… ; n}
 Loi de probabilité de X : Pour tout naturel k tel que : 0  k  n on a :
k k n−k
Cn p q
P(X = k) =
 Paramètres statistiques : E(X) = np et V(X) = npq.

5/5
c. Théorème : Si X1 ; X2 ; …. ; Xn sont n V.A indépendantes suivant toutes la même loi de
Bernoulli B(p) alors X = X1 + X2 + …… + Xn est une V.A qui suit une loi binomiale de
paramètres n et p B(n ; p).

2.6. Loi de Poisson P(m)


a. Schéma : c’est le processus de Poisson :
→ Δt
un événement aléatoire peut se produire dans un intervalle de temps (exemple : arrivée
d’une ou plusieurs personnes à un guichet,…)
→ α Δt .
dans cet intervalle, il se produit avec la probabilité

ces événements se produisent relativement régulièrement et son indépendants les uns des
autres.
[ a;b ]
Alors X= « nombre d’événement se produisant durant l’intervalle de temps  » est une
V.A suivant une loi de Poisson de paramètre m = (b-a) et on note : X  P(m)
b. Loi de probabilité de X.
( Ω )=
 Valeurs possibles de X : X IN .
k
m
pk =P ( X=k )=e m
k!
 Loi de probabilité de X : pour tout entier naturel k.
 Paramètres statistiques : E(X) = m = V(X)
p k +1 m
=
pk k +1 p0 =P( X =0)=e−m
 Remarque : pour tout entier naturel k on a : et
c. Somme de deux Lois de Poissons :
X1 P ( m1 )

X2 P ( m2 ) ⇒ X 1+ X 2 P ( m1 +m 2 )
 
X1 X2
et indépendantes
d. La loi de Poisson comme loi limite de la loi Binomiale

X β ( n, p ) . n p lim np ( n)=m
+∞
Soit  Supposons que et soient liés et que . On démontre alors
k
lim
+∞
k k n−k −m
C n p q =e k !
m

que : .
C’est-à-dire la loi de Poisson est une approximation de la loi binomiale et on peut écrire :
X  P(m = np) . Cette loi de Poisson est tabulée.

6/5
Conditions d’approximation : Si (n  30 et p  0,1) alors B(n ; p)  P(m = np).

7/5

Vous aimerez peut-être aussi