Vous êtes sur la page 1sur 2

Lois de probabilités

Synthèse

Quelques lois de probabilité discrètes:

Lois

Notation

 

Définition

Espérance

 

Variance

   

i,

si 1 i n

 

si

x i = i,

si

x i = i,

Uniforme

P(X = x i ) =

1

E(X) = n + 1

V(X) = n 2 1

n

 

2

 

12

   

si

succès

X = 1

   

échec

X = 0

Bernoulli

B(1, p)

P(X = 0) = q

   

E(X) = p

 

V(X) = pq

P(X =1) = p

avec p+q = 1

   
     

n

   

S n =

X i

 
 

i=1

Binomiale

B(n, p)

avec X variable Bernoulli P(S n = k ) = C n k p k q nk

 

E(S n ) = np

 

V(S n ) = npq

     

λ k e λ

   

P(X = k) =

k!

 

E(X) = λ

 

V(X) = λ

Poisson

P(λ)

avec λ > 0

   
   

avec k : nbre d’épreuves

   

Binomiale

BN

et n : nbre de succès, k n

 

E(X) = n

 

V(X) = n

q

2

   

p

 

p

négative

(n,p)

P(X = k) = C k1

n1 p n q kn

   

Géométrique

 

avec

n

= 1

 

E(X) = 1

 

q

P(X = k) = pq k1

 

V(X) =

2

 

BN (1,p)

 

p

 

p

Quelques lois de probabilité continues :

Lois

Notation

 

Définition

 

Espérance

Variance

     

1

   

Uniforme

f (x) = b a

si x [a,b)]

 

E(X) = b + a

V(X) = (b a) 2

12

f (x) = 0

si x [a,b)]

2

Normale

N(µ,σ)

x a f (x) =

1

2π e

σ
σ

1

2

xµ

σ

2

E(X) = µ

V(X) = σ 2

     

1

   

Normale

réduite

N(0,1)

z a f (z) =

1

2π e

1 2 π e

2 z 2

avec

 

E(Z) = 0

V(Z) = 1

Z = X µ

et X

N(µ,σ)

 
 

σ

 
     

n

   

χ 2

 

2

X

i

avec X i

 

N((0,1)

E(χ 2 ) = n

V(χ 2 ) = 2 n

Khi deux

 

2 (n)

=

χ

 

i=1

   
     

n

 

2

1 e x

2

x a f(x) = C(n)x

avec n degrés de liberté

 
 

T(n)

 

U

     

n

Student

T n =

V n
V
n

avec U N((0,1) et

E(T) = 0

V(T) =

n 2

 

si n > 1

si n > 2

 

V → χ 2 (n)

 

Théorème central limite

Si S n = X 1 + X 2 +…+ X i +

+ X n est la somme de n variables aléatoires indépendantes et de

même loi alors la variable aléatoire

Z

n

=

S − n µ n ( σ n )
S
− n
µ
n
(
σ
n
)

suit une loi normale réduite N(0,1) et

ceci quelque soit la loi de probabilité suivie par les variables aléatoires.